ほしぞloveログ

天体観測始めました。

カテゴリ: アイデア、理論など

今回の記事は、普段私が何気に気を使ったりしていることや、小ネタなどをまとめてみることにしました。よかったら参考にしてください。細かいことなので、あまり記事とかにしてこなかったことも多いです。

あくまで個人のやり方なので、この方法が正しいなどという気はさらさらないですし、この方法を押し付けるようなこともしたくありません。むしろ、これを見てもっといいアイデアがあるぞとか、自分で工夫してもらってさらに発展させてもらえると嬉しいです。

それではいきます。


機材が揺れないように

倍率の高い状態で見たり撮影したりする望遠鏡。揺れは大敵です。

まず、L字型の構造は出来るだけ避けたほうがいいです。必要なら三角板をL字の真ん中に入れて補強するなどします。頭でっかちで、根元が細いのもだめです。赤道儀は基本的にL字や頭でっかちになりやすいですね。
  • 鏡筒と赤道儀の接合部
  • 赤緯体の根本
  • 赤経体の根本
  • ウェイトとウィエイトバー
  • 赤道儀と三脚の接合部
  • 三脚の足の接合部
などです。

基本的には、構造的に一番弱いところで一番大きく揺れます。極端に弱いところを途中に作らないことが重要です。

揺れに関しては重量というよりは慣性モーメントが効いてくるので、
  • 同じ重さなら、長い方がより揺れる。
  • 同じ重さなら、重量が端にあるものほどよく揺れ、重量が中心(支点に近いところ)にあるほど揺れにくい。
手で触って揺れが分かるようなものは構造的に不十分です。風が吹けば当然揺れてしまいます。

構造がしっかりしているはずなのに、ガタガタする場合はたいていクランプやネジの緩みです。特に赤道儀は、車などで運んでいると長期の間に自然にネジが緩むことがよくあります。外に出ているネジだけでなく、内部のネジまで含めて緩みを各自で定期的にチェックするか、それができなければメンテナンスに出すなどが必要になります。

一例ですが、私はガイド鏡でさえこれくらいガチガチに固定しています。高さもたわみなどが少なくなるようにできるだけ低くしています。

IMG_1513

もう一例、重い鏡筒なのでできるだけ鏡筒位置が低くなるような鏡筒バンドを選び、かつ長いロスマンディー規格のアリガタを使い、バンド間の距離をできるだけとっています。

IMG_9772

これだけバンド間の幅を取っていると、プレートより上は揺れに関しては無視することができて、それより下の赤道儀自身(今使っているCGEM IIの場合)の方が弱い構造となるので、揺れの大きさはそちらで決まります。


アルカスイス互換クランプ/プレートの利用

鏡筒の上部や下部に長めのアルカスイスプレートをつけておくと便利です。取っ手がわりにもなります。
さらに、ガイド鏡、ファインダーなどの下部にアルカスイスクランプをつけておくと、コンパクトな機構で安定に鏡筒に取りつけることができ、かつ取り外しが楽になります。




アルカスイス互換クランプは構造的に精度の許容範囲が広いため、安価なものでもそこそこ安定していて、気軽に使えるので使い勝手がいいです。。
  • 面で固定なので安定。
  • プレートの長さが相当長いものまで選べる。
  • クランプの長さも結構選べる

また、Vixen規格のアリガタからアルカスイスへの変換アダプターを作っておくと便利なことが多いです。

BCD1948C-4DAB-43CC-AB5C-BEB548F2F8C6

例えばAZ-GTiはVixen規格のアリミゾですが、上記アダプターでアリミゾからアルカスイス互換クランプに変換することで、L字フレームをつけたカメラや、上下にアルカスイス互換プレートをつけた軽い鏡筒なら、十分な強度で取り付けることができます。それだけでなく、このアダプターはかさ上げも兼ねていて、鏡筒が三脚に当たることをある程度防いでくれます。

さらに、この変換アダプターに使っているアルカスイス互換クランプのつまみのところには水準器が付いているので、AZ-GTiの経緯台モードの最初の設置の時に、鏡筒の水平出しに便利で、これがあるとないとで初期アラインメントの一発目の導入精度が全く違ってきます。


ハーフピラーの活用

AZ-GTiを使ったときに実感したのですが、上のかさ上げ用のアダプターでも不十分なときにはハーフピラーが便利です。AZ-GTi三脚セットに付属のものもそこそこの強度があfり悪くないです。特に天頂近くを見るときに、鏡筒が三脚に当たるのを防ぐことができます。


できるだけシンプルにすることを心がける

トラブルを避けるためには、あらゆるところをシンプルにした方がいいです。例えば、一つの箇所でトラブルが起きる確率が10%とすると、もしそれが10箇所あるとトラブルが起きる確率は1-0.9^10=0.65と、何と60%以上の確率で毎回何かトラブルが起きることになります。一つトラブルが起きると撮影としては大抵全て失敗してしまいます。意外なほどこの法則は当てはまったりするので、トラブルが起こる箇所の数を減らすことは、撮影の成功に直結します。
  1. 機材組み上げの構造はシンプルにする。
  2. ケーブルの本数は減らす。
  3. 複雑な操作を避ける。
  4. ソフトを多用しすぎない。
  5. Wi-Fiに便りきらない。何もつながらなくても動かせる手段を持っておく。
などです。

2. 特にケーブルはコネクタ部や内部で接触不良になったり、引っ掛けたり、可動部で挟んだり、何かとトラブルが多いです。持ってくるのを忘れることもよくありますね。

3.、4. 複雑なソフトの多用も考えものです。確かに全部連動してがうまく動くとカッコ良くて満足できたりするのですが、一つ動かないと全部動かなくなるとかの、互いのソフトの動作状況に依存するような組み合わせは最小限にすべきです。私は撮影時はPHD2と撮影ソフトのディザーのみの関係に抑えてます。各機器間を繋ぐASCOM関連の安定度は重要で、必ず事前にきちんと動くかチェックするようにしてます。

5. トラブったときに接続できなくて画面で何も見ることができない状況とかは、できれば避けたいです。PCをモニターがわりに使えるようなこんなアダプターを用意しておくと、別途モニターとかを用意する必要がなくなるのでいいかもしれません。


ケーブルの取り回し

ケーブルは回転の中心で固定したほうがいいです。例えば、鏡筒につけてあるカメラやガイド鏡に行くケーブルは、鏡筒と赤道儀の接合付近で一回ベルトでまとめてとめています。こうしておくと赤道儀が回転しても、ケーブルが変に引っ張られたりする危険が減ります。このことは、APTなどを使った子午線自動反転でのトラブルを少なくすることにつながります。


マジックテープは便利

三脚、ハーフピラーなど随所に裏がシールになっているマジックテープをつけてます。そこにもう一方のマジックテープを貼ったバッテリー、Stick PCなどをペタペタくっつけてます。こうすることでケーブルの長さを短くすることに貢献しています。

IMG_9893

ハーフピラーにマジックテープをつけてバッテリーとStick PCを親子亀方式でつけてます。
バッテリーとStick PCの間もマジックテープです。


ライトは暗いものがいい

庭撮りや遠征時に使うライトです。これの前のモデルを持っています。

 

電球分が取り外して懐中電灯のように使えるし、題において上から押すとスイッチが入ります。電球色で、暗いモードと明るいモードがあって、暗いほうのモードは天体観測には適度な明るさで、かつ1000時間以上持つので便利です。新しいモデルの高級バージョンは、6段回に明るさを調整できるみたいです。


テーブルと椅子

特に電視観望の時など、ノートPCを使う場合には、折りたたみ式のアウトドア用の机を使います。椅子もあると楽です。

IMG_9240

椅子は写真に写っているような高さ調整のできるものがいいです。私はルネセイコウのプロワークチェアを使っています。



これだと眼視の時にも相当低い位置から(高い位置よりも低い位置で安定して見えるほうが重要、腰が痛くなるのを避けることができます)見ることができて便利です。特に観望会などで足腰の弱いお年寄りの方がいる時には威力を発揮します。


小型のStick PCの利用

撮影時にはStick PCを使っています。小さく軽いのでマジックテープで三脚などに固定できるのと、Windowsのリモートデスクトップ機能を使うと、離れたところからでも他のPCから様子がわかるので、遠征時には車の中から、庭撮りでは自宅の中から、特に冬はヌクヌク状態で撮影しています。夜中じゅう放っておいて寝てしまっても、ベッドのところにiPadとかのタブレットを置いておけば、目が覚めた時にチラッと確認してまた眠ることができます。

最近はASIAir Proとか流行っているので、同様のことができますね。私はWindowsのソフトを使いたいのでStick PCですが、ASIAir Proは手軽さという面では上かと思います。


極軸をどう取るか?

極軸を合わせるのは極軸望遠鏡でもいいですが、最近では精度的には何らかのPCを使ったツールを使った方がいいでしょう。特に長時間撮影では精度の違いが重要になってきます。極軸精度が不十分だと一方向にずっとずれ続ける(「ドリフト」とか「DC的な変動」とかいいます)のでガイドに負担がかかってしまいます。

具体的には、私はSharpCapのPolar Align機能を使っています。Plate solveでリアルタイムで極軸を合わせることができる、非常に優秀で簡単に使える極軸調整ツールです。残念ながら有料版でしか使えない機能ですが、年間10ポンド(千数百円)とお小遣い程度なので、この機能のためだけでも有料版にしてもいいくらいです。ガイド鏡のカメラがそのまま使えるので、経済的にも、機材を簡略化する観点からもメリットが大きいです。

ちなみに、極軸を合わせるためのカメラは回転中心に置く必要はありません。しょせん星という無限遠を見ていることになるので、当たり前といえば当たり前ですね。さらに、カメラは極軸の方向にピッタリ合わせることも不要です。画面内のどこかくらいに入っていれば十分です。これもカメラの映像のピッタリ中心で回転することが必ずしも必要ないことから、当然といえば当然ですね。というわけで、適当に置いたガイドカメラを使っても十分に極軸調整のためのカメラとして使うことができるということです。


初期アラインメントはワンスターで十分!

極軸がきちんと取れてれば、初期アラインメントはワンスターアラインメントで十分です。無闇にツースターアラインメントや、スリースターアラインメントに時間をかける必要はありません。極端に言えば、高度なオートアラインメント機能などを使わずに、手動で導入しても構いません。だって、極軸があっていれば、どの星を見てもあとは自動で十分な精度で追尾してくれてくれるからです。

逆に、極軸が取れていない場合は複数の星を使った初期アラインメントが必要になります。それでも特に長時間露光の撮影時には、原理的にきちんと極軸を取ったものに勝てません。なので、極軸の精度はかなり重要になります。どれくらいの精度で合わせればいいかは



を見てください。ざっくり言うと、極軸を1分角の精度で合わせておけば、もう十分な精度と言えるでしょう。極軸望遠鏡でこの精度を出すにはなかなか難しいと思いますが、SharpCapなどのツールを使えばかなり簡単にこのレベルの精度を出すことができます。


初期アラインメント時に一発で視野に入れるには?

極軸をきちんと合わせているのに、初期アラインメント時に視野に入らない場合は、赤道儀の水平出しに気を使ってみてください。その際、水準器があると簡単ですが、水準器がついていない場合はホームセンターなどで買ってきて、赤道儀の平な面を見つけてそこに水準器を置き、一度水平を出してから赤道儀に直接接着してしまうと、毎回合わせることができるようになります。


ピントをどうやって合わせるか?

バーティノフマスクもいいですが、他にも精度良くピントを合わせる方法はたくさんあります。例えば、恒星のFWHM(半値全幅)を自動で測定してくれる機能が撮像ソフトには付いていることが多いです。BackYardEOSやSharpCapでは私も FWHMを常用しています。このFWHMが最小になるようにピントを調節します。このピントを調節するのも、やり方一つでかなり精度が変わってきます。ここら辺も経験が効いてきますが、コツを知っているか知っていないかでかなり違います。例えば、
  1. ダイヤルを回していって、一旦最適位置を通り越して、そのときに見た最小値を覚えておく。その最小値になるように戻す。
  2. 戻すだけだとバックラッシュで像の位置が変わることもあるので、一旦大きく戻して、最初に最初うちを見たときと同じ方向で、再び同じ最小値になるように合わせる。
  3. 手で触っていると揺れるので、どれくらい動かすかの最小単位を決めておき、毎回その単位で動かして毎回必ず手を離す。

さらに、ネジの精度が良すぎて変化がわかりにくい時の方法です。
  1. 一方向にあるステップ(幅)で動かしながら、何ステップ動かしたかを常に数えておく。
  2. 最初になんらかの変化が見えた位置から、最適値を通り越して、次に変化が見えなくなるまでのステップ数まで数える。
  3. 数えたステップの半分だけ戻す。
もし、最適値までのステップ数と、最適値後のステップ数にあまりに違いがあると、何らかの非対称性があるということになります。その場合は大抵何かおかしいことが起きているので、注意深く探ってみます。


その他

合わせてこちらもお読み下さい。





とまあ、今回はこんな所ですが、また何かありましたら随時追加してきます。


低ISOの方がいい!?

HIROPONさんが、画像処理まで含めたら低ISOの方がいいという記事を書かれました。



HIROPONさんは東京都心に住んでいるため、明るいところでの撮影を得意としています。確かに、都心のような超光害地ではHIROPONさんの言っていることは正しいと思いますし、HIROPONさん自身も光害地での撮影を前提に記事を書いているのかと思います。ただし、その「光害地での撮影」が前提であることを考慮せずに、低ISOが常に正しいと思い込んでしまう低ISO信者になってしまう人が出てくるのを少し心配しています。何事も鵜呑みにするのではなく、状況に応じて自ら考えることが大切なのかと思います。

HIROPONさんは、暗い場所でもさらに低ISOで露光時間を伸ばす方向に進めたいような発言もされてますが、光害地でISOが低いと不利になることの一つは、時間の制限があるからかと思います。無限に時間があるなら、低いISOで露光し続け、淡い天体まで出した方が得です。でも現実にはガイドずれや、人工衛星などの邪魔な光が入る可能性などがあるので、ある程度の時間で区切らざるを得ない。そんな時はISOを上げ、露光時間を制限した方が得になります。HIROPONさんもこのことをきちんと理解している旨の発言をしていますので、必ずしも全て低ISOがいいと言っているわけではないのかと思います。




高ISOの方がいいのか?

光害地での低ISOが有利な理由はHIROPONさんがすでに述べられているので、ここでは暗いところで高ISOが有利な理由を中心に述べていきたいと思います。

ISOを上げる一つの理由が、読み出しノイズよりも淡い天体を見たい場合です。読み出しノイズが加わる時点以前にゲインを上げることができるなら、より小さな信号を見ることができます。でもよく考えるとこれも先に挙げた露光時間を伸ばす代わりに時間制限があるのでISOを上げることと根は一緒ですね。

言うなれば、明るさ、時間という物理量に対して、露光時間、ISOというカメラ側の機能を駆使して、いかにカメラの持っている生のダイナミックレンジ(ファイルフォーマットでは16bit、一眼レフカメラは14ビット程度が多い)に入れ込むかという話に行き着きます。「明るさ」という物理量には、ターゲット天体の明るさ、背景光(+背景光ノイズ)、リードノイズ、その他ダークノイズ、ショットノイズなどがありますが、今回話題としているのはターゲット天体の明るさ、背景光なので、基本的にこれに絞り、必要ならノイズ(特にリードノイズ)を考えることにします。

2020/11/1 追記: Zoom会議で、やはり都心の超光害地で撮影されている方から、とにかく何も写らないのである程度滑らかにしておかないとダメ、だから天体からの光子数を少しでも稼げる低ISOがいいのではないかとの発言がありました。皆さん納得してましたし、私もその通りかと思います。


Twitte上での疑問

黒・天リフさんが今回のHIROPONさんの記事に対して、Twitter上で色々疑問を呈してくれています。勝手に引用してしまっているので申し訳なくて、まずかったらすぐに消しますが、折角の疑問なので、私(Sam)のわかる範囲で答えてみようと思います。私自身はノイズに関しては多少勉強はしてますが、センサーに関してはプロでもなんでもないので間違ったことを言っているかもません。なのでここで書いたことは正しいとは限らないですし、簡単に答えの出ないものもあるのかと思います。自分で考える発端になればいいかなと思っているくらいです。


黒・天リフさん
一番重要なのは、コンポジット前の1枚画像のヒストグラムが偏らない(いわゆる中央より右)ことではないか?根拠は一つ、それが一番限られたビット幅を有効に使えるであろうから。
反論)天体写真においてはヒストグラムの山から左は基本的にゴミデータ。ゆえに「意味のある階調のビット幅」は山から右端までの間になる。それなら山は左に寄せた方がより階調が広くなるのではないか?
反論の反論)・・・・・・「ヒストグラム山右寄せ」は多くの方が実践し好結果を得ているように思えます。私はチキンなのでいまだにヒストグラムを2/3より右にできませんが、人によってはびっくりするほど右寄せにされている模様。なぜ「右寄せの方がよりよい」のかが自分にとっては未解明。 

Sam
量子化ノイズの問題だと思います。左寄せはADCのLBS (量子化単位)に近くなっていくので損なはずです。階調不足と言った方がいいでしょうか。なので右寄せの方が好結果を得ているというのは正しいと思います。でも右寄せはダイナミックレンジを犠牲にしているので、当然恒星とかはサチりやすくなります。nagahiroさんがもっとわかりやすく説明してくれていて「見た目の明るさが2倍違う天体AとBを撮影したとして、ヒストグラムの左側を使っているとそれぞれ画像上の輝度値が5,10だったのが、右側を使うと50,100になって、後者のほうが諧調が豊か」ということです。

デジタルゲインでは階段上のまま増幅されるが、アナログでゲインを上げると階調豊かになる。


黒・天リフさん
天体の光は実際にはどのくらいの光子をセンサーに届けているのか?たとえばごく淡い分子雲を総露出120分で撮影したとき、1画素に分子雲の光子は「何個」届いているかです。これがもし「1」なら直感的には鑑賞写真では判別不能に思えますが、では何個なのかと。

Sam
天体を仮定して計算するのは大変なのですが、Unity gainがわかっているなら画像から逆に計算することができます。Unity gainは1つの光子が1ADCの単位(=1LBS、最小量子化単位)という意味なので、Unity gainで長時間露光して撮影した画像で天体が写っていたなら、そのカウント数を数えればそれがそのままま光子数となります。


黒・天リフさん
バイアスノイズ≠リードノイズ?バイアスはセンサーの輝度値の「ゲタ」と認識しているのですが、これは「リードノイズ」とは別物と考えていいのでしょうか。ゲインをかけて増幅した値を読み出す際のノイズがリードノイズ?

Sam
同じと考えていいのではないでしょうか?バイアス補正はするけれどもリードノイズ補正はしないし、メーカーのデータにはリードノイズは出てくるけれどもバイアスノイズは出てきません。リードノイズとはどれだけ光を無くしても、露光時間を短くしてダークノイズを減らしても、どうしても読み取り時に出てくるノイズです。最短露光時間にしてバイアスノイズを測れば時間に比例するダークノイズの効果は無視できるようになるので、それは定義から言ったらリードノイズになると思います。リードノイズもバイアスノイズもISO(ゲイン)に依存します。

2020/11/1 追記: Zoom会議中で出てきた結論は、バイアスとリードノイズは別物という意見が大半でした。素子レベルでのオフセットがバイアス。バイアスはオフセットであって、ノイズではないというもの。でも私はまだ少し納得ができてなくて、結局あるゲインでのバイアスフレームをとるとそれはそのままあるゲインでのリードノイズに一致するのではないかと思うからです。でないと他にリードノイズを測る方法がないです。概念としてバイアスがオフセットなので別物というのは理解ができます。
さらに新たに出た疑問として、バイアスの時間変化はあるのだろうか?とうのがありました。例えばSony α7S3では一定の期間でバイアスを取得して書き換えてると言うことです。あぷらなーとさんがバイアスに関してはかなり解析されてました。


黒・天リフさん

「ゲインをかけて増幅した値を読み出す際のノイズがリードノイズ」だとすると、「ISO100 15秒」と「 ISO1600 15秒」ではリードノイズの影響はISO1600の方が少ないことになると推測。現実にはCMOSセンサーのリードノイズは今やとても低いので大きな差にはならないのかも。 

Sam
リードノイズはゲインに依存します。メーカー値を見てもそうですが、例えばSharpCapを使ってZWOのASIカメラとかで実測すると、その依存性が出て、高いゲインの方がリードノイズが小さくなると出ます。ただし、この「小さくなる」というのは入力換算での話で、ゲインで割った後のノイズの値が小さいという意味です。ゲインで割らないと当然ノイズもゲイン倍されて測定されるので、ゲインが高い方がノイズの値は大きくなるのはいうまでもありません。
そのため、露光時間が同じ場合、淡い天体を撮る場合にはISOが大きい方が得だと思います。でも当然ダイナミックレンジは犠牲になります。
でも少し疑問もあって、そもそもISOで上げるゲインはどこにあるのでしょうか?回路的にゲインを上げるならリードノイズ前で増幅するので高ISOが得をします。一方、読み取った後に計算機上でゲインを上げるなら、リードノイズは変わらず、むしろダイナミックレンジで損をします。一応データでリードノイズがゲインとともに下がるとでているので、前者が正しいのかと思っています。

2020/11/1 追記: 実際の天体からくる光子数をあぷらなーとさんが過去に計算してくれてます。
https://apranat.exblog.jp/27577057/

これによると、M27で1秒間に1ピクセルに0.7個だそうです。


黒・天リフさん
理想的なセンサーと完璧な背景光キャリブレーションがあれば、背景光の輝度に関係なく、同じ画像を得ることが可能。これって実現可能性はゼロに近いですが、論理としては間違ってませんよね?
常々、光害地と遠征地でのディープスカイの写りの差はもっと少なくできてもいいはずなのにと思うのですが、その根拠?となる仮説です。でも実感値としては全く間違ってるような気がしますね・・背景光の「揺らぎ」のレベルが違うのでしょうか。 

Sam
そもそも光の揺らぎも0ということはあり得ません。光子数のルートに比例する統計的な揺らぎが必ず存在します。なのでたとえ理想的なセンサーがあってもダメです。
信号が全て中央値だけのような統計的にばらつきのないものなら、背景光なども完全に引くことができるのですが、実際には(光子数、センサー読み取り値ともに)ノイズは必ずばらつきがあるので、完全に取り去ることはできません。背景光が明るければその分そこからくる(統計的に明るさのルートに比例した)ノイズも大きいです。なので、ゲインをあげて、背景光のノイズが効かない分解能が高いところでノイズを差っ引いた方が有利です。
HIROPONさんが画像処理が前提の場合はISOが高くても低くても差はほとんどないと発言されてるのですが、これも天リフさんと同じような仮定をしているからだと思います。画像処理が前提でも、ADCのレンジのどこに落とし込むかを考えないと、特に低ISOの場合は量子化ノイズに制限されることがあります。また画像処理にはノイズを差っ引くような処理が多いのですが、ノイズの平均値を差っ引くことはできますが、ノイズ(揺らぎ)そのものを差っ引くことはできないので、ゲインをあげてRead Noiseなどのゲインステージよりも前に入ってくる信号をあらかじめ増幅した方が得です。量子化ノイズ、リードノイズよりも天体の情報の方が十分大きく、量子化ノイズ、リードノイズが無視できる範囲で、かつADCのレンジ内に十分入るならば、画像処理を前提にすればHIROPONさんの言う通り、ISOに関係なく同じ結果になると思います。この場合は背景光の効きは同じになるので、ISOによって有利不利はありません。

2020/11/1 追記: Zoom会議中に黒・点リフさんはライトフレームをスタックした場合を想定していて、私はライトフレーム一枚を補正することを前提として考えていることが判明しました。ライトフレームを無限にスタックしていけば、信号である天体に比べて、無相関なランダムノイズは統計的に枚数のルートに比例して揺れが小さくなっていくので、原理的に消すことができます。でも現実的にはライトフレームの枚数を増やしていってもあるところで改善が見られれなくなると思います。どこかに時間的に相関があるノイズが支配的になったりしてしまうなどが理由と思います。


黒・天リフさん
短秒多数枚はリードノイズが枚数分だけ乗ってしまうのが弱点(のはず)。リードノイズの大きな冷却CCDではあり得なかった戦略。でもISOを上げればリードノイズの影響を減らせる?という気になっているのだが、そこが根拠レスなので知りたいところ。

Sam
ISOの効果がリードノイズが加算される以前で効いているなら正しいです。ただしデジタルゲインと呼ばれているような、ゲインがリードノイズ加算の後に適用されている場合は正しくないです。むしろダイナミックレンジを削るので不利になります。でもダイナミックレンジで不利というのも程度問題で、計算機上で無限の(例えば32ビットとか、64ビットの)レンジがあれば無視できる問題です。


2020/11/1 追記: Zoom会議中の質問など
  • 高いISOだと温度が上がったりしないか? -> 経験上あまりそういうことはない。
  • リードノイズが枚数を増やすことで消せない理由が知りたい。 -> たくさん重ねると確かに得するが、他のノイズに比べるとその効きが悪いのであまり得しない。詳しくはここの「読み出しノイズ」を参照。
  • PIはファイルを読み込んだ時にビット数拡張分を上に加えるだけなので、最初ものすごく暗く見える。その状態でスタックして加算「平均」して平均するところで割ってしまうと、狭いビットレンジのところに戻ってきてしまうので、階調が改善されないのではないか? -> 内部の計算が整数ならダメだが、不動小数点で計算しているなら大丈夫だろう。もしくはファイルに落とす時にビット数を選択できるくらいなので、計算機内部ではもっと情報量を保っているのではないか?ただし、ファイルに落とす時に、暗いままで、整数で、低ビットで保存すると情報が失われるので注意。
  • ヒストグラムは対数かリニアでみてるか?Steller Imageで縦軸を対数で見ると、何も信号がないと思っているところでも小さな信号が残っていることがわかる。また、横軸をリニアで見るとかなり暗く見えてしまっている場合があるがそれでも大丈夫なのか?-> 上と同じ理由で計算機内部で情報を保っていれば大丈夫なのでは?でも同様に、ファイルに落とすときは注意。
  • ISO側でなにか画像処理をしているのではないか? -> 少なくとも拡張感度というのはデジタルゲインで、さらに何か処理をしている可能性が高い。それだけでなく、常用感度でもなにか画像処理している可能性は否定できない。さらにRAWと言われているものでも、色々処理している可能性がある。例えば、オフセット、カットオフなどは触っている模様。でもカメラメーカーの裁量で決めていることで、情報としては出てこない。
  • さらに、CMOSカメラも色々複雑。例えばASI294なんかは、ゲイン120のところからリードノイズがガクンと良くなる。これはノイズの違うアンプを2つ使っているから。それぞれのアンプはアナログの可変ゲインアンプで、外部入力で単体でゲインが変わるアンプが各画素に入っている。なので、大きなゲインでリードノイズが改善される。でもASI294はゲイン391以上でデータが1ビット間引かれ、以後ゲイン60(2倍)ごとに1ビットずつ抜かれていく。センサーメーカーのデータがそもそもゲイン390以上ないので、ゲイン390より上はカメラメーカーの後付けでデジタルゲインではないだろうか?
  • 本来のハードウェアビニングは、リードノイズが効いてくる読み出し前に加算してしまうもの。昨今のCMOSセンサーのように、隣接ピクセルのリードノイズが加わった読み出した後の演算ではありません(それだとソフトウェアビニングになります。なんちゃってハードウェアビニングなどともよばれてます)。CCDとは異なり、CMOSの場合は原理的に読み出し前の加算が不可能らしい。それでリードノイズに違いが生じて、真のハードウェアビニングはリードノイズが4分の1になるのに、なんちゃっての方はそのルートで2分の1にしかならない。
  • ASI294MCとASI294MMはセンサーの型番がIMX294とIMX492と違いがあれ、ほぼ同様のものと推測。そもそも294の方もクワッドベイヤー配列で、ユーザーが見る1つの素子が実は4つの素子からなっている。そのために本来12bitのダイナミックレンジが、14ビットに拡張されているのでは?
  • サッポロポテト現象がASI294MCだと全く出ない。普通はほぼ全てのセンサーで出るので、これは驚異的。クワッドベイヤー配列の恩恵か。不思議なのはMMでも出ない。カラーベイヤーでフィルタリングしているのがサッポロポテト現象が出ない理由の一つのはずなので、MMで出ないのは不思議。理由は不明。

回路との比較

これらのことは回路のことを少し知っていると理解しやすいかもしれません。

光害地で背景光が大きい状態は、回路でDCオフセットが大きすぎて信号が見えにくい状況に似ています。例えばオシロで10Vレンジで1mVの振幅の揺れは見えないようなものです。

高いISOで淡い星雲を見やすくすることは、回路でサチらない範囲で適度にゲインを上げてSN比を上げることに相当します。

実際の回路でノイズのことを学ぶのは、役に立つと思います。例えば「計測のためのアナログ回路設計―OPアンプの実践回路から微小信号の扱いまで」の最初の方はものすごくわかりやすくノイズについて書いてくれています。実際にこれをみながら低雑音オペアンプを作ってみると、ノイズについてよくわかるかもしれません。

これらの電気信号を計算機に取り込む必要があり、こちらはまた別の話になります。量子化ノイズについては、ADCについてもよく理解しておく必要があります。

センサーの個々のピクセルに関しては回路の話になるのですが、多数のピクセルが集まったセンサー全体の話になると、また特有の事情が出てきます。conversiion factorなんかはたくさんのピクセルの統計的な振る舞いから求める典型で、初めて学んだ時は眼から鱗でした。

画像処理まで考えるとさらに複雑ですね。天体画像処理には、ターゲット天体の情報を持つヒストグラムの極範囲の狭い領域を、可視全域まで広げるという特殊な事情があります。逆に言えば、この領域を生かすような撮影方法を考えるべきで、あとはむしろ外に追いやってしまうような手法がセンサーに近い側で確立されると、もっと得すると思います。でも今の市場規模だと大変なのと、やはりRAW出力を求めるので、なかなかとっぴなことは難しいと思います。


まとめ

すみません、黒・天リフさんの疑問が散らばっていたので勝手にまとめてしまいました。まずかったら消しますので言ってください。

とりあえずバババッと短時間で答えてみましたが、どこまで合っていることか。色々疑問もあると思いますので、コメントとかTwitter上でもまた議論してもらえればと思います。

ノイズに関しては昔色々書いています。





でもよく考えたらADCの量子化ノイズについて言及したのは今回が初めてかもしれません。

こういった話も天体写真の別の面白い一面だと思います。これからも続けて議論していければと思います。


ノイズネタを肴にしたZoom飲み会開催のお知らせ

追記です。10月31日午後21時から、ノイズをネタにZoom飲み会を開催しようと思います。

Zoomに始めて参加される方はアプリが自動でインストールされるはずです。Windows、Mac、Linux、アンドロイド、タブレット、iPhone、iPadなど各種対応しています。発現する場合はマイクが必要です。顔出しOKの方はビデオカメラもあるといいかと。

たくさんの質問をTwitterに投稿していただいた黒・天リフさんも参加されるとのことです。他にも大物ゲストが来るかもしれません。

めんどくさい込み入った話になるかもしれないので、聞いているだけでも構いません。たくさんの方のご参加お待ちしています。





PST分解中継の関連で、Niwaさんがエタロンのことについて記述してくれていました。



なんかよくわからないけど、エタロン祭りです。今日は昔「P.S.T. (その5): のエタロンの考察」で説明したエタロンでの光の折り返し回数について、式で書いてみます。

太陽望遠鏡で使われているエタロンの特性は、(光の位相を考えない)限定された状況下なら簡単な四則計算で求めることができます。エタロンのモデルとして、2枚の鏡が距離を置いて向かい合わせに平行に置かれている状況を考えます。光の振幅を\(E\)と書きます。
etalon
上記図のように、エタロン周りの光を定義します。\(E\)は光の振幅なので、2乗したものが光の強度になります。\(E_\mathrm{in}^2\)がエタロンに入ってくる太陽光の強度を表し、\(E_\mathrm{a}^2\)はエタロン内部の光の強さ、\(E_\mathrm{out}^2\)が接眼部に出てくる光の強さになります。
\[\begin{eqnarray}E_\mathrm{a}  &=&  t_1 E_\mathrm{in} + r_1 E_\mathrm{d}\\ E_\mathrm{b}  &=& E_\mathrm{a} \\ E_\mathrm{c}  &=& r_2 E_\mathrm{b} \\ E_\mathrm{d}  &=& E_\mathrm{c} \end{eqnarray}\]\[\begin{eqnarray}E_\mathrm{ref}  &=& t_1 E_\mathrm{d} + r_1 E_\mathrm{in} \\ E_\mathrm{out}  &=& t_2 E_\mathrm{b} \end{eqnarray}\]これを解くと、
\[\begin{eqnarray} E_\mathrm{a} = E_\mathrm{b}  &=& \frac{t_1}{1 - r_1 r_2} E_\mathrm{in}\\ E_\mathrm{d} = E_\mathrm{c}  &=& \frac{t_1 r_2}{1 - r_1 r_2} E_\mathrm{in}\\ E_\mathrm{out} &=& \frac{t_1 t_2}{1 - r_1 r_2} E_\mathrm{in} \end{eqnarray}\]となります。

この式は光の位相を考えない簡略化された式ですが、ここからでもいろいろなことがわかります。簡単にするためにさらに、\[r_1 = r_2 = r\]\[t_1 = t_2 = t\]としてしまいましょう。2枚の鏡を同じものを使うということです。この場合式はもっと簡単になって、\[E_\mathrm{a} = E_\mathrm{b}  = \frac{1}{t} E_\mathrm{in} \]\[E_\mathrm{out} = E_\mathrm{in} \] となります。理由は鏡の反射率と透過率には
\[r^2 + t^2 = 1 \] という関係があるからです。(ここでは鏡には反射と透過以外にロスはないと仮定しています。)

この式の物理的な意味は、2枚の同じ特性の鏡を平行に置いた場合
  • 入ってきた光は全て通り抜ける
  • \(t<<1\)なので鏡の間の光の振幅は\(1/t\)倍に、強度は\(1/t^2 = 1/T\) (\(T=t^2\): 光の強度透過率)になる
という2つのことが言えます。さらに、近似的にはこの強度の増加比がエタロン内部での光の折り返し回数そのものです。
  • 例えば、光(の強度)を90%反射し10%透過する鏡を使うと、1/T=10となるので、10回光が折り返すエタロンとなります。
  • 例えば、光(の強度)を99%反射し1%透過する鏡を使うと、1/T=100となるので、100回光が折り返すエタロンとなります。
さて、これだけではどれだけの波長幅を通すとかまでは求められません。これを求めるには光の位相をきちんと考えて識を解かなければいけません。ちょっと面倒になるので、これはまた今度にしたいと思います。


This page is a supplemental document for the picture of Leo triplet here (sorry, it is written Japanese);




When I retouched the image of Triplet, I noticed something for a new strange noise using DeNoise.

That noise does not show up for the normal picture but it shows up when extreme expansion for dark area like dim nebula on astronomical pictures.

This is an example that the background was extended when DeNoise AI was NOT used.

light_BINNING_1_integration_DBE_ST_PCC_no_DeNoise

Then, this is the second example that the backgroung was extended WITH DeNoise AI.

light_BINNING_1_integration_DBE_ST_PCC_with_DeNoise

Difference is obvious. With DeNoise AI, some strange lattice type noise appeared. It was guessed that some neural calculations were applied at limited area, and the process was repeated next by next.

This kind of noise is very critical for out astronomical photographers. For example, similar AI application which devide stars and nebula using AI, called StarNet++;

https://sourceforge.net/projects/starnet/

does not add any such a strange noise. Probably it calculate all the area at a time. This program was developed by one of the astronomical photographer, so probably he/she was thinking to avoid such area depended noise from the beginning. 


This is a request to Topaz labs:

Probably we, astro photographers are struggling most with such a dark and noisy pictures since out targets are always very dim things. The important thing is that we already know that DeNoise is a very very useful tool to suppress many kinds of noises in astro photographs. Please consider the importance seriously for NOT adding such latice noise. It might be  just a dim background noise for almost of photographers, but it is really big issue for all astro photographers.


2020/4/24 追記: Topaz側と何度かやりとりをしたのですが、原因はGPUにあるそうです。DeNoiseのメニューのPrefefenceから「Advanced Preference」ボタンを押して、GPUのところをオフにするとこのノイズが消えるユーザーもいるとのことです。残念ながら私のところはこのGPUのスイッチ、またすぐ下にあるOpenVINOのスイッチも、手持ちのMac、boot camp、別のMac、別のWindows PCなど全て試しましたが、どれもこの格子状のノイズを消す事はできませんでした。一方、Sharpenの方は、それでもごくわずか同様のノイズを加えるようですが、確認するのも難しいくらい軽度のもので、画像処理に影響を与える範囲ではありませんでした。結局解決には至りませんでしたが、引き続きこの問題は認識していくとのことです。

その際のTopazからのメッセージを最後の結論の一部ですが残しておきます。

After sending files and setting informations,
.
.
.
From Topaz labs.
Go back to that window and change enable discrete GPU to NO. This may affect the speed of your processing but for many users it will resolve this issue.

The grids you are seeing is a result of the graphics card on your computer reassembling the image. We know "how" this happens, but we don't yet know "why" it happens for some users and not others for particular devices.

As a result, I don't have an immediate resolution, but I have forwarded your information on to our development team for further research and review.

Thanks!

To Topaz labs.
I tested on/off for GPU and on/off for Intel OpneVINO, on Mac, Bootcamp on Mac, on another Mac, on another Windows I have. Results were all the same the grid noise were NOT gone.

On the other hand, Sharpen AI did not add so terrible grid. It is not no grid but the grid noise by Sharpen is very dim and almost ignorable.

I can avoid this issue if I apply the DeNoise at very end of process, I mean after enough stretched.
However sometimes I wand to use the DeNoise in the middle of process, before the stretching.

Still I hope this issue will be fixed in the future for all users.
I will continue to find a good PC which does not add the grid noise.

Thanks. 




縞ノイズ考察(その2): flat補正を他の環境でも試してみる」の続きです。




flatの何が悪いのか?

flat補正がどうも縞ノイズに対して悪さをしているのは、かなり一般的だというのが前回の結論です。flat frameが縞ノイズを作り出すメカニズムとしては、
  1. 出来上がったmaster flatに固定ノイズが存在する。
  2. 固定ノイズが存在するmaster flatで個々のlight frameをflat補正すると、その固定ノイズが個々のlight frameに乗っかる。
  3. ガイド時のずれで流れていく星像を、StarAlignmentで位置合して星が固定になると、今度はこれまで固定だったmaster flatのノイズが流れ出す。
ということです。

ここでの疑問は「なぜflat frameがそんなにノイジーなのか?」これにつきます。この疑問にたどり着いた時に、いくつか原因の答えの候補がありました。ぱっと思いついたのが
  • まずflat frameの枚数が少ない。
  • flat dark補正をしていなかった。
  • カラーバランスが悪かった。
くらいです。その後いろいろ考えていると、何となく答えがわかってきました。答えにたどり着いてから改めて見てみると、上の候補には答えと少し関連することもありますが、ズバリの回答はありませんでした。


推論の検証

では、今回推論したことが正しいかどうかを確認するために、以下の3つのことをこの順序で確認をしてみました。この時点ではまだ考えだけがあって、その考え方が正しいかどうかを検証する方法にたどりついた所で、実際に画像処理をしてみて予測が正しいかどうかを検証してみたということです。
  1. 短時間露光(100ミリ秒)でいいので、多数枚(100枚)のflar frameを新たに撮ってflat補正。
  2. 短時間露光(100ミリ秒)でいいので、前回と少数枚(7枚)のflar frameをを使ってflat補正。
  3. 前回の露光時間と同じ長時間の300秒露光で、そこそこ多数枚(50枚)のflar frameを新たに撮ってflat補正。
この条件を見ると、もう相当ヒントが出ているのですが、何でflatが縞ノイズを盛大に出すくらいノイジーだったのかわかりますでしょうか?少し発想を変えなければ答えにはたどり着かないかもしれません。

それでは結果を順に見ていきます。


1. 短時間露光、多数枚

ケース1、今一度EVOSTAR 72EDにレデューサを取り付け、その先にASI294MC Proを取り付けて、改めてflat frameを撮影します。ただし、短時間露光撮影なので、iPadの「Color Screen」といういつものソフトを使って、画面をRGBそれぞれ128にして鏡筒の前に置きます。ゲインは220と同じですが、露光時間を短く100ミリ秒にして100枚撮影します。カメラと鏡筒の回転角がきちんと再現できないのですが、縞ノイズの影響を見るだけなのでまあいいでしょう。多分ダークノイズも関係ないので、温度も常温でいいでしょう。

出来上がったflat frameを使って、PIのバッチ処理でこれまでと同様に処理ましす。結果は

light-BINNING_1

light-BINNING_1_cut

となり、今回初めてflat補正をしても見事に縞ノイズがほぼ消えています。ということは、やはりflat frameの枚数が多いことで、ノイズが平均化されたことが効いているのでしょうか?

結論を焦らずに、もう少し見てみましょう。


2. 短時間露光、少数枚

ケース2、次は、先ほど撮った100枚のflat frameのうち、もともと持っていたflat frameと同じ枚数の7枚だけ使います。同様の処理をした結果が以下になります。

light-BINNING_1

light-BINNING_1_cut

拡大した画像をよく見ると、先のケース1に比べると多少縞ノイズが目立ちます。なるほど、やはり枚数が問題なのですかね。

いやいや、まだ焦って結論を出してはいけません。


3. 長時間露光、多数枚

では最後、星雲撮影時と同じ露光時間の300秒で試します。その他、ゲインとかもできる限り当時の状況を再現します。違うところは枚数。枚数は当時の7枚からかなり増やして50枚とします。4時間以上分のflat frameになります。
  • 枚数だけで比べたらケース1よりノイジーで、ケース2より滑らかになるはずです。
  • 露光時間だけで考えたら、相当長いのでケース1,2よりも一番きれいになってもいいはずです。
でも私の予測は違っていて、
  • ケース3が一番ノイジー。枚数の少ないケース2よりもノイジーだと予測しました。

では結果はというと

light-BINNING_1

light-BINNING_1_cut

Eureka!!!
何と、やはりケース1よりはもちろん、遥かに枚数の少ないケース2よりもどう見てもノイジーです。露光時間の長いflat frameが一番ノイズが大きいのです!!


露光時間の長いflatが悪さをする理由

なんで?と思う方も多いでしょう。
少し落ち着きましょう。

ここから解説です。まだ答えを見たくないという人は、ここでじっくり考えてみてください。
準備ができたら、下へスクロールしてください。
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

みなさんの中には露光時間を伸ばせばノイズが下がると思い込んでいる人もいるかと思います。でもこれは間違いで、きちんと考えると
  1. 露光時間を伸ばすと信号Sが時間に比例して1次で大きくなる。
  2. ノイズNは時間のルートに比例して大きくなる
  3. その比をとると、時間のルートに比例してS/N(SN比)がよくなる(大きくなる)。
というのが正しい解釈です。で、今回の問題はというと、

スカイフラット撮影時に露光時間を300秒と長くしたのですが、適した明るさのflat frameにするために、露光時間を短い時と同じ明るさに合わせてしまって、信号Sを実質的に何も増やしていないところです。Nはそのまま露光時間のルートで大きくなっていきます。そうするとS/Nは当然露光時間が短い時より悪くなります。この信号が増えていないところが本質的にダメなところです。

逆にいうと、露光時間が短いflat frameの撮影においても、明るさを合わせるために信号は長時間露光の時と同じ。でも撮影時間が短いのでノイズ量はざっくり1/sqrt(300/0.1) = 0.018とわずか2%ほどになります。1枚あたりでこれだけ違うわけです。長時間露のflatを50枚使っても、短時間露光のflat7枚に太刀打ちできるわけがありません。

というわけで、長時間露光flatはSN比でいったら全然得をしていない、いわばノイジーなflat frameになるわけです。やっと答えにたどり着けました。


どうやって考えたか

今一度振り返りますが、今回の考え方はかなり原理に近くて、特に奇異なところもなく、実際に撮影しての比較でも何の矛盾もないので、flatからの縞ノイズに関してはおそらくこれで決着がついたものと思われます。でもなんでこの考えにたどり着いたか?この過程が一番大事だと思うので、自分自身へのメモも兼ねて書いておきます。

まず、今回のflat補正が問題なるということが分かったくらいから、なんでなのかずっと考えている最中に、
  • 縞ノイズに悩まされるのは決まってディザーなし
  • トータル1時間越えとかの長時間露光したとき
だということに気づきました。しかもそんな時は余裕があるので、
  • あえて頑張ってスカイフラットをとったり
しています。この時点で、ある程度スカイフラットが悪いと予測できるようになりました。ディザーをしているケースとしていないケースがあったことがややこしくしていましたが、ディザーをしていなくてスカイフラットの場合は漏れなく縞ノイズが出ていました。

でもなぜスカイフラットが悪いのか?ここを考えるのには結構時間がかかりました。結局、
  • 短時間フラットと長時間フラットで何が違うのか
  • 特にまずはノイズに関してどうなるかを原理からきちんと検証し始めた
のがきっかけでした。すなわり、
  • ノイズに関しては長時間露光の方が当然大きくなる
という、極めて原理的な話です。これはすぐに納得できました。この次に、
  • じゃあ信号は?
と考えた時に、ピンときたわけです。
  • え、長時間露光の場合、信号って得してないのでは?
  • 短時間露光は大きな(明るい)信号を使って時間が短い。
  • その一方長時間露光ではあえて小さい(暗い)信号を長い時間です。
  • 信号の大きさと時間をかけると、どちらも同じ量じゃん!
というところまでたどり着いたのは、ピンときてからわずか30秒くらいです。シャワーを浴びたあと、洗面所で体を拭いている時でした。いつもそうなんですが、シャワーを浴びている時はポーッとしてて、他のことを何も考えずに、そのことだけに集中できる至福の時間。面白いアイデアは、大体シャワー時間近辺で出てきます。

やはりきちんと基本に従って考えるのが一番答えに近かったという、いい例だと思います。ヒントはいろんなところにありましたが、こうやって考えて答えにたどり着く過程はやはり楽しいものです。


まとめ

今回の件、私的には結構な発見でしたが、どうでしょうか?意外な答えでしたか?それとも「当たり前すぎでつまらん」という方もいましたでしょうか?

flat flameからくる縞ノイズの考察については、とりあえずここまで。思ったより早く解決しました。3回の記事でいろいろ検証しましたが、flatに関してはある程度満足した回答を得ることができました。長時間露光flatがノイジーな理由、短時間露光でノイズの小さいflat frameを作る意義も示すことができたのは大きいと思います。これでディザーをしない場合でも、対処する方向性をある程度示すことができたかと思います。

それでも縞ノイズという観点で考えると、まだflatからくるもののみの検証です。他の原因で縞ノイズが出ることもまだまだ考えられます。でも今回考えたことをベースに、ある程度原因を予測することもできそうです。ここら辺はまた折を見て書いていこうと思います。

過去の縞ノイズでも試してみる

もしかしたら、flat補正の効果が今回の撮影だけの特別な場合だった可能性もあります。なので、過去の画像で縞ノイズが出たファイルを再処理してみます。使ったのは、2年以上前のPixInsightを最初に使い始めた頃に撮影したM33。

シンプルにするためにフラットの有無だけで比較します。撮影条件は
  • 鏡筒: タカハシFS-60Q、焦点距離600mm
  • 赤道儀: Celestron Advaned VX
  • カメラ:  ZWO ASI294MC
  • ガイド: ASI178MCと50mmのCマウントレンズをPHD2にて
  • 撮影条件: SharpCapでゲイン270、温度-15℃、露光時間300秒x25枚 = 2時間5分
  • ディザー: なし 
  • ファイル保存形式: RAW16bit、fits形式
です。本質的なところではカメラは常温ですが同じ、長時間、ディザーなしというのでよく似た条件です。Flat frameの内容はというと、記録から
  • flat frame: light frame撮影後すぐに、鏡筒に状態でスーパーの白い袋を2重に被せて撮影。ゲイン270、露光時間300秒、常温で、3枚撮影。
となっているので、これも撮影後すぐにとったとか、枚数が少ないとかの条件も同じです。この似た条件というのが鍵になる可能性がありますが、まずは時期的にも違うという点で検証して一般性を見ます。

まずはflat補正あり。やはり以前と同じように縞ノイズは盛大に出るので再現性もあります。

light-BINNING_1

次にflat補正なし。ゴミの跡とかは目をつぶってください。当然周辺減光も出ますし、アンプグローも残ります。その代わりに、バラ星雲の時と同じで縞ノイズは消えます。厳密に言うとバラ星雲の時も今回のM33の時も同じで少しの縞ノイズは残っています。でもflat補正のあるなしで、いずれも劇的な違いがあることはわかります。

light-BINNING_1

この時点で、PIに限られますが違う画像でも起きているので、一般的にも十分あり得る話だということがわかります。


PixInsight以外では?ステライメージで確かめてみる

もしかしたらこれ、PIのflat補正のアルゴリズムに問題があって、PIだけの問題という可能性があります。他のソフトの代表で、ステライメージ8で確かめてみました。

そう言えば最近Windowsを入れ直してステライメージまだ入れてませんでした。久しぶりに再インストールして、M33を使ってflat補正をしてみました。自動処理モードは使わずに、詳細編集モード(マニュアルモード)で試しました。自動処理モードはこれまでもほとんど使ったことがないのと、一応は試したのですがうまく色が出なかったからです。

最初の結果がこれです。

light

「お、縞ノイズないじゃん!なんで?PIだけの問題か?」と思ったのですが、よくみるとゴミの跡も残っていてフラット補正全くされていないみたいです。自動処理モードでやっても結果は変わらず、flatファイルが悪いのかとか色々疑ったのですが、原因はステライメージのバグ。バージョン8をディスクからインストールしたてで、アップデートしていなかったことが原因でした。現行のバージョン8.0hにして試してみると、

light

ちゃんとflat補正もされて、縞ノイズも盛大に出るようになりました。なので、PIだけの問題でないということが分かります。

ちょっと蛇足です。久しぶりにステライメージ触ったのですが、随分といろんなことを忘れていました。今回サボりましたがflat darkとかも本当は撮らないとダメ(flat darkあるなしで縞ノイズに影響がないことは確かめています)なんですよね。その代わりにbiasファイルを撮らなくていいとか、今思うとPIとはだいぶん違います。

初心者向けの自動処理モードも「ほとんど何も設定出来ない」との批判も多いですが、私はこれでいいと思います。多分ステライメージは、初心者にとっては天体画像処理ソフトとしては唯一の選択肢です。日本語で操作できて、マニュアルも(十分ではないかもしれませんが)日本語で読むことができてという意味で、敷居がずいぶん低いはずです。初めて天体写真に挑む人は、一番最初は本当に何も分からず手探りでやるので、自動モードもこれくらい簡潔にしておくのはある意味正しいと思います。自動モードで理解できてきたら、詳細モードに行って、詳細モードでいろんな操作をして理解して、その上で不満が出たらより高機能なPixInsightという手もあるかと思います。

ステライメージで一つ不満があるとしたら、「ベイヤー・RGB変換」のところでしょうか。バッチ処理が無いので、一枚一枚手で変換しなくてはダメなんですよね。ALTキーでI、ALTキーでYで、Enterで処理、マウスで最小化ボタンを押して次の画像というのを繰り返し、出来るだけ楽に進めてます。今回20枚程度でしたが、100枚とかはやりたくないです。最近はPIで1000枚とかの処理もする時があるので、これだとステライメージでは現実無理です。せめてコンポジットやホット/クールピクセル除去機能みたいにバッチ処理ができるようになるといいのですが。


ついでにDSSでも

あと日本で流行っているスタックソフトの残りは、惑星用除いたらあとは、DSS(DeepSkyStacker)とRAP2くらいでしょうかRAP2は有料で持っていないので試せませんが、DSSはフリーなので試すことはできます。DSSは星を始めた4年前にまだ有料ソフトに手を出す前に、フリーだからと少し試しただけくらいの経験しかありません。もう久しく触っていませんが、いい機会なので試してみます。

昔はものすごく複雑だった印象があるのですが、機能自身は今思うとまあ一直線で素直ですね。少なくともPIに比べるとはるかにシンプルです。特に困ったところは2箇所だけで、一つはRegisteringのところで進まなくなってしまったところ。これは検出する星の数が多すぎたことが原因で、「Register Setting」の「Advanced」タブの「Star Detection Threshold」を増やして、検出する星の数を減らすことで解決しました。もう一つは一度最後まで処理をしたのですが、モノクロのままだったので、メニューの「RAW/FITS Settings」の「FITS Filters」できちんとdebayerしてやることでした。

さて結果です。フラットもうまく補正されたようです。

light

あー、ダメですね。やはり縞ノイズ出ますね。

と言うわけでflat補正問題、PixInsightだけの問題でもなく少なくともステライメージとDSSも含めて、同様に縞ノイズを発生させることがわかりました。日本で使われている3大スタックソフト(惑星用除く)で同じ状況というので、flat補正が縞ノイズに与える影響はかなり一般的と言っていいかと思います。


とりあえず、今回の記事のまとめ

他のデータでも、他のソフトでも同様の傾向で、flat補正の影響はあると言えそうです。

ただしやはり気になるところは、flatの撮り方が2例とも撮影後すぐに同露光時間、同ゲインで、スーパーの袋をかぶせて空で撮っていることです。露光時間が長いので、明るさ的に足りないことはないと思います。ただし、カラーバランスはかなり黄色っぽくなってしまっています。また、枚数が足りない可能性もあります。

次回以降はここら辺のflat frame自身についてもう少し検討できたらと思っています。実は今回の謎の答えもう出ています。今検証を進めているところです。乞うご期待です。



多分このシリーズ、長くなります。普段の記事を全然長いと思っていない私が長くなると思っているので、多分本当に長くなります。試したいことがありすぎるので、書けるとこまで書きます。途中で力尽きたらごめんなさい。

今回縞ノイズの一つを、多分特定しました。最初に断っておきますが、限られた条件でのことかもしれません。この記事を読んで試してみても、全然効果がなかったと言う方もいるかもしれません。ですが幾らかの悩んでいる方の解決にはなると思います。私自身、他の方の環境でどうなるか興味があるというのもあります。

comp

この比較写真のように違います。左がこれまでの縞ノイズ、右が無くなった(実際には軽減された)場合です。以下、詳しく説明します。


バラ星雲で出た縞ノイズ

この間のEVOSTAR 72EDでのバラ星雲の撮影で、ディザーをしなかったために縞ノイズが出たという報告をしました。

integration_DBE_PCC_AS_cut


その後、上記の縞ノイズを可視化した記事を書きました。この動画は結構反響が大きかったので、ご覧になった方も多いかと思います。






なぜか突然縞ノイズが消えた!?

この後、もう少し縞ノイズの検証をしてみようとファイルをいじってみました。とりあえずシンプルなところからと思って、rawのlight frameをDebayerしてStarAlignmentだけして縞ノイズを再現しようとしたのです。ところがところが、縞ノイズが綺麗さっぱりなくなっています。

integration

拡大です。
integration_cut

え?
なんで?
全然縞ノイズ出てないじゃん!
せっかく縞ノイズの解析しようと思ってたのに!

さあ、ここからが戦いの始まりです。


PixInsight用語

今回、PixInsight (PI)用語がたくさん出てきます。PIに慣れていない方のために、簡単に解説しておきます。
  • PixInsight: 世界的に有名な天体画像処理ソフト。英語でものすごくとっつきにくいが、高機能。
  • BatchPrepocessing: 撮影したファイル(light, bias, dark, flatなどの各frame)を掘り込んでおけば、スタックまでボタン一発でやってくれる便利な機能。
  • master: bias, dark, flatなど、他数枚の補正ファイルを一度処理すると、スタックされた一枚のmasterというファイルをそれぞれ作ってくれる。以降はそれを使うと処理時間を削減できる。
  • ImageCalibration: BatchPrepocessingのような自動で処理する以外に、マニュアルでもっと細かくオプションを指定しながら処理する方法がある。これはbias, dark, flatなどの補正をマニュアルでする機能のこと。
  • Debayer: 同様にマニュアル処理の一つ。モノクロのBayer配列のRawファイルをカラー化すること。
  • StarAlignment: マニュアル処理の一つ。多数枚数の画像の星位置を合わせること。PIでは平行移動、回転にのみならず、画面を歪ませて星の位置をそれぞれ合わせることができる。
  • ImageInteglation: マニュアル処理の一つ。他数枚の画像をスタックすること。
  • ScreenTransferFunction: 簡易的にストレッチ(明るくすること)をする機能。見かけの表示のみをいじるので、ファイルには何の手も加えない。見かけを適用したい場合はHistgramTransfomationを使う。
  • Auto Stretch: ScreenTransferFunctionの一機能。あぶり出しのすんでいないまだ暗い画像などを、そこそこ見やすいように自動でストレッチする機能のこと。超便利。
  • DynamicBackgroundExtraction (DBE): 背景の被りや周辺減光などをソフト的に除去する機能。任意の補正点を指定できるので、星雲部分の補正を避けるなど細かい補正が可能。超便利。
  • AutomaticBackgroundExtraction (ABE): 背景の被りや周辺減光などをソフト的に除去する機能。細かい補正はできないが、大局的に補正してくれるので簡単で便利。
  • TVGDenoise: PI場で最強と言われているノイズ除去機能。

比較条件

今回検証するRAWファイルは全て同じです。他に共通撮影条件は
  • 鏡筒: SkyWatcher EVOSTAR 72ED + x0.72レデューザー、焦点距離300mm
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • ガイド: ASI178MCと50mmのCマウントレンズをPHD2にて
  • 撮影条件: SharpCapでゲイン220、温度-15℃、露光時間300秒x20枚 = 1時間40分
  • ディザー: なし 
  • ファイル保存形式: RAW16bit、fits形式
  • フィルター: サイトロン QBP(アメリカンサイズ)
となります。

今回の検討を始める前までに、縞ノイズが出た時の処理と、出なかった時の処理の違いを書いておきます。処理は全てPI上でやっています。
  • 縞ノイズあり: BatchPreprocessingでbias補正、dark補正、flat補正を適用し、走らせた。
  • 縞ノイズなし: マニュアルでDebayer、StarAlignment、ImageInteglation。
この中に決定的な違いがあるはずです。以下、各補正ファイルの条件です。全てSharpCap上で撮影していて、最初の処理でmaster fileができるので、以降はそれを利用。
  • bias frame: ゲイン220、露光時間が最小の0.032ミリ秒で、100枚撮影。
  • dark frame: frat frame撮影後、片付けの後すぐに、家の中で撮影。ゲイン220、露光時間300秒、-15℃で、28枚撮影。
  • flat frame: light frame撮影後すぐに、鏡筒に状態でスーパーの白い袋を2重に被せて撮影。ゲイン220、露光時間300秒、-15℃で、7枚撮影。

処理結果に大きな違いが出ていて、検証材料も全て揃っているので、何が違いに影響しているのか順に検証していきます。


検証過程

ここからはほぼ実際にやった手順です。
  1. まず、再度BatchPreprocessingとマニュアル処理で再現性を確認。->きちんとBatchPreprocessingのときには縞ノイズ出て、マニュアル処理では出ないです。再現性はきちんとあります。
  2. 次に、一番怪しくないと思ったflat frameのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「うーん、あんまり関係ないよな。」
  3. 次、一番怪しそうなbias framaのみを適用させBatchPreprocessingで処理 -> 縞ノイズ消えた!「そりゃbias必要でしょ。」
  4. 次、flatとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「あれ?flatあまり関係ないはずなのに。」-> ところが、ここでやっと思い違いに気づきます。今回、何も補正していない方が縞ノイズが出なくて、補正した方が縞ノイズが出たのでした。と言うことは、bias関係なしで、flatで縞ノイズ有無が決まっていることになります。え、本当?
  5. 確認で、darkとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「えー、ホントにdarkもbiasも関係ないよ!?」
  6. 念のため、darkのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「確かにdark関係なし。」
  7. さらに念のため、master flatを使うのではなく、改めて個々のflat frameを使ってBatchPreprocessing処理 -> 縞ノイズ出る。「やっぱりflatが原因だ!」
  8. さらに、BatchPreprocessingが何か悪さをしている可能性も考えて、マニュアルのImageCalibrationを使ってflat処理だけしてみます->縞ノイズあり。「少なくともPIで処理する限りflatが悪さをしているのは確定でよさそう」


Flat補正をしない場合、本当に改善されているのか

確かに上の画像で見た通り、flat補正をしないと縞ノイズは無くなって見えているのですが、本当でしょうか?それぞれSTFでオートストレッチをしているのですが、本当に正確な比較をしているのか疑問になってきました。オートストレッチは星雲を含む背景の最大の輝度と最小の輝度から適用範囲が決まります。例えば、flat補正をしていない周辺減光のある画像ではあぶり出しも中途半端で、周辺減光のない平坦に近い画像では極限まで炙り出すことをするので、細かい差(この場合縞ノイズも含めて)をより浮き出させてくれます。

ここでは公平に比較するために、それぞれの画像にAutomaticBackgroundExtraction (ABE)を適用し、周辺減光の影響をできるだけ少なくして比較してみます。flat補正をしたものでもまだ明暗のばらつきは無視できないほど存在していて、ABEを適用することで多少の変化があります。それぞれABEをしてから、STFでオートストレッチをしています。

まず、flat補正ありの画像。

light_BINNING_1_integration_ABE

light_BINNING_1_integration_ABE_cut
これまで通り、縞ノイズは盛大に見えています。

次にflat補正しない場合。
integration_ABE

integration_ABE_cut

結局、周辺減光がABEで補正できる範囲を超えてしまっているので全然補正できていません。そのためオートストレッチ後、少し補正して目で見て、拡大部分の明るさをそこそこ合わせています。多少公平性は欠けてしまいましたが、それでも不公平になる程の違いは無いくらいにはなっているでしょう。結果はというと、flat補正なしであからさまに縞ノイズは改善されていますが、よく見るとやはり完全に無くなりきってはいないです。「相当軽減する」くらいは言っていいでしょうか。

この比較から、flat補正は縞ノイズの影響を悪化させていることは確からしいですが、完全には撮りきれないことから、それだけが原因というわけでもなさそうです。

実際の画像処理では背景はもう少し暗くなるので、flat補正なしにして、この程度の縞ノイズになるのなら個人的には許容範囲でしょうか。


Flat frameについて

でもここでふと我に返ります。でも今回使ったflatってそんなに変なの?

確認してみる限りごくごく普通のflatだと思います。master flatをAuto Stretchしたものです。(blogに載せるためのファイルサイズ制限で、bayer配列を無理にjpegにしているので、偽色が出てしまってノイジーに見えてしまっています。)
flat-BINNING_1

拡大です。pngなので、偽色とかは出ていないはずです。(画像サイズが小さいのでpngでもファイルサイズが大きくなり過ぎず、blogでもアップロードできます。)
flat-BINNING_1_cut

見ている限り、極々ノーマルで、ノイズが特別多いようにも思えません。

でも、master flatをdebayerしてAuto Stretchしてみると少し正体が見えてきます。
flat_BINNING_1_integration_RGB_VNG

拡大です。
flat_BINNING_1_integration_RGB_VNG_cut

カラー化すると結構ノイジーなのがわかります。なんだかカラーノイズと言われているものに似ています。これが固定ノイズとなって、星像を止めたときには逆に、この固定ノイズが流れるのでしょう。

でも本当にこれくらいのことであんなに盛大に縞ノイズが出てくるまで画像を悪化させるのでしょうか?だって直接処理しているのはlight frameの1枚1枚で、それに対してflat frameは枚数少ないとは言え7枚です。それが流れて見えるので、スタックした20枚:7枚でなく、1枚:7枚の比で比較してもいいような気がします。ここは少し疑問が残ります。


flat frameのノイズを改善してみたら?

本当にflatが効いているのか確認するためにもう少し試します。master flatにPI上でTVGDenoiseでノイズを減らしたflat frameを適用して処理してみました。その結果がこれです。
integration

拡大です。
integration_cut

わかりますでしょうか?多分拡大していない方がわかりやすいと思いますが、細かい縞ノイズが消えて、大きな構造の縞ノイズが出てきています。

この結果から考えられることは、flat frame自身でのノイズ除去があまりうまくいっていなくて、細かいカラーノイズが大きな構造のノイズになってしまったからです。

少なくとも、これらの結果からflat frameが縞ノイズに影響を与えているのは間違いないでしょう。ただし、あくまでこれも限られた環境、限られた条件下での話の可能性もあります。ここら辺は次回以降に検討してきます。


とりあえずのまとめ

どうも聞いていると、縞ノイズに困っている人と困っていない人がいるみたいです。なので、一概に今回の結果が正しいとは言えないと思いますが、flat補正の影響は私と同じような状況の人には朗報となるかもしれません。でもflatが原因の全てだなんていうことを言う気は全くありません。あくまで原因の一つであるのではないかということです。

いろいろ検索してみましたが、flat補正が縞ノイズの原因だとバッチリ書いてあるところは見つかりませんでした。むしろこれまで思っていた通り、flat補正をきちんとすると縞ノイズが解決できるはずだと書いてある記述はたくさん見つかりました。普通だとこちらのセンスの方が正しといと思ってしまうのは、ある意味ごくごく普通でしょう。そもそもなんでflat補正が縞ノイズに対してダメなのか、まだよくわかっていません。これからいろいろ検証していきたいところです。

今回、縞ノイズに対する根本的な解決策を示したわけではありませんが、状況によってはflat補正を外して画像処理することで、縞ノイズを軽減できる可能性があることがわかります。その上で、PIのABEやDBE、FlatAidProなどを使ってカブリや周辺減光を減らすことで対応する必要もあるでしょうか。この場合、ゴミやアンプグローなどは除去できません。

もう一つ重要なことはは、きちんとディザーをして散らすことでしょうか。多分縞ノイズって複合原因なんです。1方向に流さないようにすること。これが重要なのは変わりません。ディザーはおそらく根本解決の方法の一つです。


この記事まだまだ続きそうです。今回はバラ星雲での撮影のみ取り上げましたが、次回は過去に出た縞ノイズの場合なども検討してみたいと思います。

 


昨晩TSA-120のフラットナーのテストの一環で、月齢10.1日の月を撮影しました。


月のテスト撮影

シンチレーションも悪くなく、シャープな月が撮影できました。TSA-120に35フラットナーをつけ、焦点距離880mm。これをASI294MC Proで撮影しています。パラメータとしては露光時間75ms、ゲイン0で1000枚をserフォーマットで撮影して、500枚をAutoStakkert!3でスタック、Registax6でWavelet変換しています。

あ、実は先のM42の撮影のセッティングがそのままになって、月の撮影は実はついでです。そのため、48mmのQBP(Quad Band Passフィルター )が入っているのと、カメラを-15℃で冷却していますが、月の撮影で両方ともあまり意味はありません。

元の画像の画質が良いので、今回はRegistaxでの細部出しはかなり抑えています。あくまで自然に、軽くシャープさを上げるだけにとどめています。最後にPhotoshop CCで少しだけ暗い部分を炙り出しています。また、周りの黒い部分が大きいので少しだけトリミングしています。

20_51_08_lapl5_ap2162_RS

さすがTSA-120とも言うべきでしょうか、細かい描写まで含めて、かなりシャープにしかも自然に出ています。


ん?収差?

とまあ、ここまでは至って順調である意味普通なのですが、 Photoshopで画像処理をしている時にあることに気づきました。どうもよく見ると上部(北)が青色、下部(南)が赤色の収差があるのです。目の錯覚のレベルではありません。
upper_blue

low_red

画面でわかりますでしょうか?ごくわずかですが、月と背景の境目が、上は青、下は赤になっています。

ここで、以前スターベースでS君と話したことを思い出しました。「収差があるとクレームが来る鏡筒は意外なことにTOAやTSAの高性能屈折鏡筒に多い。基本的に鏡筒が持っている収差はほとんど出てこないため、大気収差が目立って見えてしまい、それを鏡筒が持っている収差と勘違いする場合がある。」とのことです。このことを聞いてはいたのですが、「もしかして調整ミスとかもあり得るのでは!?」と考えてしまったのが今回の記事の始まりです。


実際の収差量の見積もり

さてこの収差、いったいどれくらいの量なのか実際に撮影した画像から見積もってみました。PhotoshopでチャンネルをRGBに分けて、下側にずれている赤色を上にずらしてみます。でもほんの1ピクセル上にずらしただけで今度は赤が上に出過ぎます。TSA-120とASI294の解像度から考えると1ピクセル当たり1.08秒なので、1秒以下、まあ大雑把に言って0.5秒くらいの収差があることになります。

この量は大気によって起こっている分散で説明できるのでしょうか?これまで月を撮影してこんな収差が気になったことはありません。もしかしたらこの量は大きすぎで、鏡筒の調整不足から来ていたりすることはないのでしょうか?


大気分散の計算

大気収差は正式には大気分散と言うそうです。大気分散の計算は、多少複雑な式に見えますが、微小量を無視すればわりと簡単に計算することができます。「大気分散」で検索すれば数式は探せば各所で見つかるのですが、今回は色の違いでの大気分散が知りたいので、波長の依存性を考慮した式を使う必要があります。でも簡単に見つかるうちのいくつかが(論文レベルなのに)どれも間違いがあったので、注意が必要です。大元の式を論文に載せる際に、タイポで写し間違えたものと考えられます。全部書くと長いので、0次オーダーの簡略化した式を書いておきます。

まず、「大気差」Rというのは「天体の見かけの高度」から「天体の真の高度」を引いたものとして定義されています。大気差Rは以下の式で計算されます。

R=(n01)tan(90V)[rad]

[deg]は見ている天体の見かけの高度です。n0は屈折率で、
\[(n_0-1)=C(\lambda)\frac{P}{T}\times10^{-8}\]
\[C(\lambda)=2371.34+683939.7(130-\frac{1}{\lambda^2})^{-1}\]
と表されます。このCが波長に依存する部分です。

ここで、Tは温度[K]なので15°Cとして288K、Pは気圧[hPa]で1013hPaとしました。λ[μm]は対象の波長で、ここでは赤色が0.65μm、青色が0.45μmとしました。赤色の場合のRrと青色の場合のRbの差が今回求めたい収差となります。撮影時の月の高度が69°で、大気差を求めると、ラジアンと分角、秒角に注意して、Rrが21.52秒角、Rbが21.82秒角となるので、その差は0.31秒角となります。

撮影した画像から評価した0.5秒角くらいなので、オーダーでは結構あっています。それでも上の計算はかなり簡略化された式を使ったので、誤差も大きいです。簡略化されていない式を使って、もう少しまじめに計算すると0.600秒角となります。こちらのほうは実際の画像から見積もった(1ピクセルズレだと大きすぎ、0.3ピクセルズレとすると小さすぎという感じです)評価に相当近いです。

エクセルで計算した過程をここにアップロードしておきました。簡略化していない式で計算してありますので、ここを見るとどんな計算過程かもわかるかと思います。興味がある方はご覧ください。


考察

実際の画像から評価した赤色と青色の収差が、大気分散と仮定して計算した値とほぼ一致したので、今回見えた収差は大気によるものと考えて良さそうです。鏡筒の調整不足なんてことは考えなくていいということがわかりました。

さて少し考えたいのは、なぜ今回この収差が「初めて」気になったのかです。以前撮った月の画像を見てみました。まずFS-60CBとASI178MCで撮っていたものだと、分解能不足で大気収差を認識することはできていません。同ページのC8で撮ったエッジを見ても、収差らしき色はほとんどわかりません。スーパームーンの時にFS-60CBで撮ったものでも同様です。

かなりシャープな像が特徴のVC200Lで撮った満月の画像を見てみると、確かに少し赤と青がわかるかもしれませんが、エッジを出しすぎていたせいもあり、当時は全く気付くことはありませんでしたし、気にもなりませんでした。

今回TSA-120でこの収差が気になったのは、やはり鏡筒の性能がいいということと、もう一つはRegistaxでのエッジ出しを控えたこともあるのかと思います。でも0.5ピクセルというと0.5秒角ということになり、既に口径120mmのレイリー限界の1秒角を超えているようなものです。まあ、色での判断という大局的な話なので、実際の分解能があるということには直接はなりません。また、レイリー限界というのもある意味ただの指標なので、カメラの分解能、画像処理での炙り出しによってはそれ以上に見えることはあり得る話です。ただ、ここまで鏡筒の原理性能に迫ることができるTSA-120は、やはり高性能の鏡筒というということなのでしょう。

もう一つ、QBPの影響についても少し述べておきます。月の前の撮影のセッティングがそのままでQBPが入ったままでした。今回の収差は、上部が赤で下部が青なのと、計算値ともほぼ合うことから明らかに大気分散と言えると思います。なので、QBPで変な収差が起こっているようなことは基本的に無いと言っていいでしょう。少なくとも、大気収差が気になるレベルで見ても何の影響もないということで、撮影レベルでも安心してQBPを使えるのかと思います。では、QBPが逆に大気分散をより炙り出したと言う可能性はあるでしょうか?これはもう少し追調査が必要です。少なくとも、QBPで余分な波長の光はカットされているので、コントラストが上がりより見やすくなったと言うのはあり得るのかと思います。


まとめ

結局、鏡筒の性能を一瞬でも疑った私がバカでした。タカハシ高性能屈折鏡筒恐るべしです。

スターベースのS君の話は多分誇張でもなんでもなく、本当にクレームが来るのでしょう。そのことを聞いていて、金星を見た時も大気収差と疑わなかった私でも、今回はもしかしてと疑ってしまいました。

こんな大気収差の描写と議論ができるくらいのきちんとした設計と、それを引き出すタカハシ工場の職人芸的な調整には感服しました。


前回のEVOSTAR 72EDの記事で、フルサイズ領域での星像を、鏡筒そのものと、SkyWatcher純正の専用レデューサー、実際の星像を撮影して評価してみました。



さて今回の記事はフラットナーを試しています。

「え?フラットナー?EVOSTAR用のフラットナー
なんてありましたっけ?」

と言う方、正しいです。ありません。

今回の記事はEVOSTAR 72EDにタカハシのマルチフラットナーが使えるかどうか試してみたというテスト記事です。SkyWatcherとタカハシの両方から怒られてしまいそうな(笑)記事です。


タカハシマルチフラットナー1.04x

タカハシの「マルチフラットナー1.04x



は別売りの「マルチCAリング」と呼ばれる長さの異なるアダプターリングを取り付けることによって、タカハシ製のFC50からFS152まで対応できるかなり汎用性のあるフラットナーです。私もFS-60CB用とFC-76用のリングを持っていて、フラットナー本体は使い回しが効くので非常にコストパフォーマンスのいいフラットナーになります。

性能も申し分なく、例えば以前比較した記事の中の新旧のフラットナーのところを比較していただければわかりますが、以前の専用品よりもはるかに綺麗な点像を実現します。




今回これを汎用的なフラットナーとして、専用フラットナーのないEVOSTAR 72EDに適用してみたらどうなるかと考えてみました。前回レデューサーでは星像が改善することが分かったのですが、レデューサーなので当然焦点距離が短くなります。鏡筒そのままの焦点距離で撮影したいこともあるはずです。


EVOSTAR 72EDへの接続方法 (その1)

さて、タカハシ製マルチフラットナーのEVOSTAR 72EDへの実際の取り付けですが、少し面倒です。

マルチフラットナーの取り付けネジ径がM56x0.75というものらしいのですが、そのままだとEVOSTAR 72EDに取り付けることができません。今回はレデューサーに付属されていた、アダプターリング(下の写真)を使用することで問題を簡易的(ある意味無理矢理)に回避しました。

まずは鏡筒本体に付属の2インチスリーブを回転して取り外します。そこにレデューサー付属のアダプターリングを取り付けます。この状態でフラットナー本体を取り付けことができるのですが、実は微妙にネジ径は同じなのですが、ピッチが違うようで、途中で止まってしまい最後までねじ込むことができません。この時点ですでに怪しい取り組みになるので、気になる方は真似しないでください。でもこんなことを気にしてると何もできません。今回の記事を最後まで読むとわかりますが、もっと怪しくなります。とにかく、当然ですがメーカーのサポート外のテストになりますので、試してみたい方は決して販売店の方に問い合わせるようなことはしないでください。あくまで自己責任でお願いします。

さてこのレデューサーに付属のリングですが、結局SkyWatcherの独自規格のようで、いろんなところの情報とノギスでの実測でM54オスとM56オス(普通は雄ネジ側の径で測定するのでこちらのネジ径が正しい値となります。ただし誤差は含みます。)という微妙なネジ径の違いを変換するリングということになります。ただし、M56のピッチを測ってみると1mmのようで、タカハシ標準の0.75mmとは違うので、同じ径のようですが直接の互換性は無いようです。便利なので別売りしてくれれば良いのですが、さすがに難しいでしょう(おそらく後述のSkyWatcher製のカメラ回転リングで代用できそうです)。

IMG_9739
ED72レデューサーに付属の、アダプターリング

さらに写野の回転を考える場合は、回転装置などを取り付けた方が良いかと思います。レデューサー付属のアダプターリングを使うことで、タカハシの「カメラ回転装置(SKY90用) [KA21200]」を(フラットナー接続時と同様に)無理矢理にですが取り付けることはできます。取り付け場所はアダプターリングとマルチフラットナーの間になります。実際やってみるとネジ径が違うはずなのにカメラ回転装置の場合は結構すんなり最後の方までネジ込めます。その後はマルチフラットーをそのまま取り付けることができるので、この方が素直かもしれません。

IMG_9740
左から順に、鏡筒本体、レデューサー付属のアダプターリング、
タカハシ製カメラ回転装置、マルチフラットナー、タカハシ純正カメラアダプター


EVOSTAR 72EDへの接続方法 (その2)

もう一つのマルチフラットナーのEVOSTAR 72EDへの接続方法です。こちらは実際には試していなくて、推測になりますのでご了承ください。レデューサーを持っていなくて、変換アダプターリングがない場合の話です。EVOSTAR 72ED専用のカメラ回転リングというのがあります。



このページを見るとレデューサー付属のアダプターリングの代わりに使っているので、これがそのまま使えるかもしれません。二千円と安価ですし、カメラ回転装置も兼ねるので便利かと思います。上の(その1)で紹介したタカハシ製のカメラ回転装置を使わなくてよくなるので、かなり節約できます。

それでもタカハシのマルチフラットナーを取り付ける際のネジ径は(その1)で示した通り、ピッチが1mm
と0.75mmで微妙に違うのできちんとははまらないはずです。あくまで、自己責任で納得しながら試すことになります。繰り返しになりますが、私は自身は今回この回転リングを試していないので、アイデアのみのお話です。試す場合は人柱になることを覚悟して、自己責任でお願いいたします。

さて、ここでふと気づいたのですが、私がお借りしているのはEVOSTAR 72ED(だと思います)で、現在シュミットさんのページに載っているのがEVOSTAR 72ED IIになります。ホームページには「※初期型との外観の違いは鏡筒長がわずかに短くなっています。レンズ性能等は従来のモデルと同等です。またロゴ等も変更はありません。」と書いてあるので、外観以外にもしかしたら違いがあるのかもしれませんし、そもそも外観も新旧見比べないと分からないです。ので、イマイチ変更点が不明で、もしかしたら自分のところにあるのもすでに新型のIIなのかもしれません。(追記:  シュミットさんに電話で聞いてみました。現在手持ちのものはIIで確定。初期型のものとIIとの違いは本当に鏡筒長以外、ロゴなどからはほとんど分からないそうです。)

問題はカメラ回転リングがホームページの説明によると「※初期型EVOSTAR72EDにはお使いいただけません。」となっていることです。もし手持ちで初期型のEVOSTAR 72EDをお持ちの方は(どこがダメなのかはわかりませんが)おそらくうまくいかないと思いますので、注意してください。


マルチフラットナー以降の接続

さて、やっとマルチフラットナーまで接続できましたので、さらにその後ろの接続に行きます。

フラットナーの後ろにはタカハシが販売している、それぞれの鏡筒に適合したマルチCAリングと呼ばれるアダプターリングをつけるのですが、これが今回色々試してみるところです。今回は手持ちのマルチCAリング 60CとマルチCAリング 70を試します。

アダプターリングの後ろには、タカハシ純正の「カメラマウントDX-60W(EOS) [KA20245]」を使っています。EOS用とNikon用があるのに注意してください。私はCanonなのでEOS用、Nikonの場合は同ページで購入できますが、型番が違います。ポイントは、この部分をタカハシ純正以外の代替品に変えてしまうとバックフォーカス長が変わってしまい、きちんとした比較ができなくなるので注意が必要です。自分で何種類もマルチCAリングを試す場合は、この限りではなく、サードパーティ製でも構わないと思います。

ここまでできたらあとは、手持ちの一眼レフカメラを取り付けるだけですね。

IMG_9660


やっと準備が整いました。それでは実際の撮像を見てみましょう。


マルチCAリング 60C

まずはFS-60CBに使っているマルチCAリング 60Cを試します。FS-60CBが焦点距離355mmなので、今回のEVOSTAR 72EDの焦点距離420mmに一番近いからです。

IMG_5431

IMG_5431_cut

お、結構うまく補正されています。フルサイズではまだ少し流れていますが、APS-Cでは十分許容範囲でしょう。いやいや、素の鏡筒の星像から見たらすでに相当な改善で、マルチフラットナーとりあえず十分使えそうです。


マルチCAリング 76

次に、FC-76に使っているマルチCAリング 76を試します。FC-76が焦点距離600mmなので、今回のEVOSTAR 72EDの焦点距離420mmより多少長いです。

IMG_5433

IMG_5433_cut

CAリング60Cの時に比べると、同程度か若干CAリング76の方が星像の流れが大きいくらいでしょうか?

むしろ、CAリングの長さが1cm以上短くなっているのに、星像がそこまで変わらないのはなぜなのでしょう?答えは次でわかります。


マルチCAリング無し

リング長で星像が多少なりとも変わることが分かったので、今度はマルチCAリングを外してしまいました。その時の星像です。

IMG_5434

IMG_5434_cut

これはAPS-Cでさえも全然ダメですね。

マルチCAリングのラインナップを見てみると、焦点距離の長い鏡筒用のものほど、マルチCAリングの長さが短いです。ということは、リング無しだと全然補正できなくて、CA76でもまだ補正が足りない、EVOSTAR 72EDがFC-76とFS60CBの間の焦点距離なので、CA60Cだと過補正になっているのではという推測ができます。


最後の無理矢理、マルチCAリングゆるゆる撮影

CA76だと短すぎ、CA60Cだと長すぎということのようです。それではここでCA76を緩めて少しだけですが長さを伸ばしてみましょう。ネジの箇所はマルチフラットナーとCAリングの間、CAリングとカメラアダプターの間の2箇所あります。それぞれネジ山に2回転くらい引っ掛けただけなので、ガタガタしていますが、1箇所で2.5mmくらい伸ばすことができました。合計5mm程度伸びていることになります。この状態で撮影してみました。

下がその時の星像です。ただし、ガタガタしているために少しカメラ側が下がって、光軸がずれている可能性があります。

IMG_5435

IMG_5435_cut

いや、これは今までで一番良いんではないですか!!

ガタつきのために上下で少しだけ差が出ていますが、ほとんど誤差の範囲くらいです。これだけうまく補正できるのなら、マルチフラットナーでの補正を真剣に考えても良さそうです。

ここから考えると、マルチCAリング 76よりも少し長い、マルチCAリング 60 (60Cとは違うことに注意、60Cは相当長いです。) が一番適していそうだということが分かります。実際にはCA60だと1-2mm足りないかもしれないので、ガタつかないようにプラスチックシートなどでリング状のスペーサーを作って、微調整しながら少し伸ばして使うといいかもしれません。


少し考察

この記事を書いている途中で気づいたのですが、実は同様のことは天リフさんでもすでにFOT104で試されていました。



というか、天リフさんの記事のことすっかり忘れていて、最初は自分で考えたいいアイデアだと思って喜んでいました。改めて天リフさんの記事を読み直してみると、今回のテストやらなくても良かったのではというくらいのかなり詳細なレポートでした。ちょっと悔しいです。でも、よく内容を見比べてみると今回の結果に驚くほど一致しています。今回の記事もマルチフラットナーの汎用性の実証の一つくらいにはなったと思いますので、まあ、やってよかったかなと。

ところで、今回の結果を考えてみると、バックフォーカス長が相当重要だということが分かります。これはタカハシというメーカーが一眼レフカメラの接続まで純正オプションを揃えることで初めて成り立つ状況です。

では、CCDやCMOSカメラでの撮影はどうなのでしょうか?この場合は純正オプションはないので、結局自らテストしながら最適バックフォーカス長を調整していかなければいけません。これまでバックフォーカス長を気にしたことがあまりなかったので、少なくともレデューサーやフラットナーをつけるときは、これから気をつけなければということに気づかされました。

といったこともあり、前回のレデューサーの記事はカメラまでの部品をSkyWatcher推奨の純正品で揃えてバックフォーカス長をあわせた方が良いのでは、というような書き方にしています。でも実際にそこまで色々試したわけではないので、多少の許容範囲はあるでしょうし、それぞれの場合でテストしながらやっていくのが正しい道なのかと思います。


まとめ

今回は、メーカーを跨いだフォーカサーの試用テストをしてみました。タカハシ製のマルチフラットナーは汎用フラットナーとしての可能性を大きく秘めています。これは天リフさんと同じ結論かと思います。バックフォーカス長が調整できるような可変のリングが存在すれば、さらに応用範囲が広がると思います。

新しい可能性がある一方、メーカーの指定条件からは外れてしまうので、規格の違いなどもあり試行錯誤が必要となります。タカハシさんのほうがこのような使い方を喜ばない可能性も十分にあり得ます。

ユーザーとしては、こういったことを面白いと楽しめるなら、色々試してみるといいでしょう。もしくは、こういったやり方は不安だという方もいらっしゃると思いますので、やはりその場合はメーカー推奨のやり方で進めながら撮影に臨まれる方がいいかと思います。

個人的には、光学という誰でも自由に試すことのできる物理現象の範囲の話なので、手に入る設計のレンズなどを好き勝手に使いながらやるというので正しいのかと思います。うまくいかない時も当然あるので、それは自己責任でということを納得しながらやれば、いろんな応用範囲が広がっていくのかと思います。メーカー指定の範囲外でうまくいかないことを、メーカーに文句を言ったり問い合わせたりするのは、この場合筋違いです。

いや、何より楽しいのが一番で、こういった自由なテストをできること自体が天文趣味の醍醐味だと思っています。とりあえず楽しくて仕方ありません。


最後、おまけの裏話に続きます。

 


10cm PSTでの太陽撮影時の問題点

太陽のHα撮影はPSTを使っています。PSTは太陽望遠鏡の中でも入門用ということもあり、口径4cm程度です。分解能の観点からいくと口径で制限されていることはわかっているので、PSTに10cmアクロマートを無理やり取り付けた魔改造機で観測を続けてきました。

PSTの中に入っている波長選別器の働きをする2枚合わせ鏡のエタロンは、入射光に平行光を要求するために、直前においたレンズ系で平行光を作り出しています。このレンズ系はF10の光学系を要求するために、元々の口径4cmの鏡筒は焦点距離400mmでの設計。口径10cmのアクロマートも焦点距離はF10を保つために1000mmのものを選んでいます。焦点距離が長くなると、より拡大して見えるわけですが、焦点距離1000mmは太陽の全体像を見るのにもうギリギリです。ASI294MCを使っていてもセンサーいっぱいに太陽像が広がります。

根本的な問題は、センサーに来るまでにすでにサイズがギリギリいっぱいになっていて、少し光軸がずれるだけで太陽像が欠けてしまうところです。このサイズを制限しているのが、BF(ブロッキングフィルター)になります。安価なPSTには一辺わずか5mm程度のBFが使われています。実際にはこんな感じです。

IMG_3657

このBFのサイズを大きくすればいろいろ解決するのですが、このBFがとにかく高いのです。単体で購入するとざっくり1cm10万円が相場で、ちょっとサイズを大きくするだけで平気で数十万円とかいったりします。太陽は本気でやるとものすごい金食い虫で、私のような低予算組にはなかなか手が出ないのが現実です。

何かいい方法はないかと考えていた時に、半年くらい前、国際光器さんからバーダープラネタリウム製のの3.5nmのHαフィルターが販売されるとの情報がありました。「3.5nm? 結構線幅狭いな!」と思い、その時にパッと浮かんだアイデアが「もしかして3.5nmのHαフィルター、安価なBFの代わりにならないかな?」というものでした。


太陽Hα望遠鏡の仕組み

ここでまず、太陽Hα望遠鏡の仕組みを理解しなくてはいけません。PSTの場合、太陽側からアイピースに行くに向かって
  1. 対物レンズ
  2. 平行光を作るレンズ
  3. ファブリペローエタロン
  4. BF(ブロッキングフィルター)
  5. ERF (Energy Rejection Filter)
などで構成されています。PSTを以前分解したことがあるので、この記事を見ると中身がよくわかるかと思います。



この中で一番重要なのはファブリペローエタロン(太陽でHαフィルターと言ったら普通これを指す、以下エタロンとか呼びます)です。光彩面の模様やプロミネンスなどHα線をできるだけ単一波長で鋭くみるために必要です。PSTに入っているエタロンは1Å (オングストローム、0.1nm) の超狭帯域幅の波長を通すためのフィルターとのことです。このエタロンがあるから、一般的に太陽望遠鏡はおそろしく高価になります。エタロンの原理に関しては過去記事をご参照ください。

でもこのフィルターには決定的な欠点があります。Hαの656.3nmだけ0.1nm幅で通してくれればいいのですが、その波長幅を周期的に他の波長に対していくつも通してしまうのです。なのでコーム(櫛形)フィルターなどと呼ばれたりもしています。実際、エタロンに光を通してみても暗いわけではなく、様々な周期的な波長の光が通ってきているために、意外に明るかったりします。

でも太陽観測のためにはHα線だけを見たいので、Hα以外の波長をブロックする必要があります。そこで登場するのがBF(ブロッキングフィルター)になります。Hα周りに、エタロンよりももう少し広い波長幅で透過するようなフィルターで、余分な波長をカットしてくれます。

さらにさらに、実はBFもHαのみを通すのではなく、もっと短い波長、もっと長い波長を素通ししてしまいます。なので、その素通しを防ぐためにもっと広い範囲でHαのみを通し、さらに短い波長と長い波長は全てカットするフルターを入れる必要があります。その役割を果たすのが最後のERFです。

このように太陽望遠鏡は3段階のフィルターで構成されているというわけです。エタロンと、BFと、ERFの3つですが、順序はそれほど重要ではありません。例えば初期のころのPSTは、対物レンズにERF用のコーティングをしていました。これはコーティングの劣化で対物レンズごとダメになるので、そのうちにアイピース側に置く小さなERFに置き換えられました。


エタロンの透過波長の間隔

さて、エタロンが周期的に波長を透過すると言いましたが、その周期はどれくらいでしょうか?これはFabry-Perto etalonの2枚の鏡間の距離のみで決まるような、FSR(Free Spectral Range)という量で表され、以前計算しています。繰り返しになりますが式で表すと、以下のようになります。

Δλ=λ22nlcosθ

  • λ: 中心波長、今回の場合6563Å=656.3nm。
  • n: キャビティー中の媒質の屈折率、今回の場合空気なので1でいいでしょう。
  • l: 2枚の間の鏡の距離、PSTの場合0.1mm以下程度とのこと。
  • θ: 光の入射角、PSTの場合ここを回転つまみで調整している。動かせる幅はPSTでは0.5度程度とのこと。今回は初期状態として0としておきます。
これらの値を入れていくと、FSRは鏡の距離だけで決まるような量になり、

Δλ=λ22×1×l×cos0=λ22l

=656.3[nm]22×0.1[mm]=2.15[nm]

のように、PSTの場合 Δλ = 2nm ( = 20Å) か、(鏡間の距離が0.1mmより狭いということなので)2nmよりもう少し長い程度になります。

要するに、Hα線の656.3nm左右に2nm空けて、654.3nmと658.3nmも、さらに外側の波長も2nmおきに通してしまうということです。


ブロッキングフィルターの波長透過幅

では、BFの透過波長幅はどれくらいでしょうか?PSTのものではないですが、ここに同じCORONADOのBF15の透過率のグラフがあります。このグラフによるとFWHM(Full width Half Maximu: 半値全幅、最大値の半分の値になるところの両側の幅という意味) は縦軸最大の66%の半分の値の33%くらいのところの横軸の幅を見て、まあだいたい0.75nm程度ですね。エタロンの線幅の7倍くらいでHα線をとおし、左右2nm離れた波長は十分にカットできる性能を持っていると言うことが分かります。

ちなみに2nm離れたところでどれくらい光を通すかと言うと、左右ともにグラフの範囲外なのではっきりとした値はわかりませんが、上の658.3nmは無視できるくらい小さく、一方下の654.3nmは数%は透過してしまうことが推測できます。


3.5nm HαフィルターはBFとして使えるか? 

さて、これで求めたい条件が揃いました。これでやっと本題の3.5nmのHαフィルターはBFとして使えるかどうか?に答えが出せます。

単純に言えば2nmかそれより長い長さおきに、0.1nmのピークがあるわけです。今回のHαフィルターの中心周波数が656.3nmで、そこを中心に3.5nmだけの広がりを持っていたら、左右の2nm離れたところの0.1nmの広がりを持つ波長はカットされるはずです。

おお、やった!これなら安価にBFの代わりに使うことができる!と思ったわけです。


補足:
ただし、現実的には3.5nmの幅の定義があまりはっきりしてなくて、Baaderのページを見るとどうもFWHMらしいことがわかります。仮に3.5nmの幅がFWHMで定義されていて、かつその透過曲線をガウス分布と仮定すると、左右2nmのところではまだ40.5%程度の光を透過してしまいます。左右3nmのところまで広がっていれば13%透過まで絞れます。

やはりまだ隣の波長の光が多少漏れそうなので、もう少し透過幅の小さいフィルターがあるといいのかもしれません。現在では3.5nmが一般的に手に入れられる最狭(さいきょう、最強?)のものなので、まずはこれを考えることにします。

ちなみに、透過幅がこれまで販売されていた7nmのものだと、2nmのところでは計算上80%もの光を通してしまいます。これだとほとんど効果がないので、やはり3.5nmがでたことで可能性が出てきたと言ってもいいかと思います。



なんと国際光器さんの協力が!

と、こんな話を確か胎内の星まつりの時に、3.5nmのHαフィルターの輸入元の国際光器さんと話していました。その場で在庫があれば購入することも考えていたのですが、その時はまだ輸入するかしないかの頃で、天リフさんでやっとレポートが出たくらい。その場には当然在庫は無し。でも国際光器さんが、これは面白そうだということで、テスト用に無償で提供してくれることになり、なんと小海の星まつりで本当に持ってきてもらえたのです。これでとうとうテストすることができます。国際光器さん、本当にありがとうございました。

というわけで、小海から帰ってしばらくしての11月の晴れた日の昼間、早速テストです。まずは3.5nmのHαフィルターをASI290MMに取り付けます。

IMG_9361

うーん、なんかスペシャル感が漂います。でも写真の赤い色と実際の金色のような色が違うのが気になりますが、写真はまあイメージなのでしょう。

さて今回の記事、理論編はここまで。
実際撮影してみてのテスト結果は、また次の実践編で。


このページのトップヘ