ほしぞloveログ

天体観測始めました。

カテゴリ: アイデア、理論など

Natusです。今年(中1)の夏休みの自由研究を紹介します。

夏休み明けに学校に提出した後、学校で展示していました。1ヶ月ほどで返って来たのですが、そのまま放りっぱなしになっていました。せっかくなのでブログにまとめておきます。


IMG_3281


テーマは「手動赤道儀の恒星自動追尾化」です。
去年の自由研究の「星でめぐる銀河鉄道の夜」に続き、今年も天文関係のテーマにしました。
夏休み前にハンドルを手で回して星を追う手動赤道儀型の天体望遠鏡を手に入れたので、手でハンドルを回さなくて済むように、自分で赤道儀を自動追尾化させてみようという内容です。




IMG_3278

使用した望遠鏡:ポラリス80L

<望遠鏡の説明>
    夏休み前に名古屋のスコーピオで手に入れました。

望遠鏡セット:Vixenのポラリス80L
       40年ほど前の製品で、1980年にはすでに発売されていたことが確認できた
      
   赤道儀:手動
       赤緯を0度にすることで経緯台にもなるタイプ
       目盛り環付き
       赤経、赤緯軸ともに微動ハンドル付き

<視野角の測定>
 昼間に下の写真のように望遠鏡から10m離れたところにあるメジャーを見てどのくらい見えるのかを調べ、その結果から望遠鏡の視野角を計算しました。 
IMG_3285

望遠鏡の視野角の測定

<赤道儀を動かす>
目標は「10分経っても視野の中心に入れた星が真ん中と端の中間を超えない」ようにすることです。そのためにはできるだけ正確に10分間で微動ハンドルを1回転させる必要があります。    
 
IMG_3286

                                               
1番のポイントは微動ハンドルをどうやって回すかということですが、最初、重りを使って回してはどうかと考えました。モーターの代わりに何らかの重りを使って回転軸をまわすというものです。

ところが、重りでは動摩擦係数と静止摩擦係数の差が大きすぎるため、なかなか星を追う時の回転速度を安定させて出すような仕組みは作れそうにないことが分かりました。



次にモーターで赤道儀を動かすことにしました。

IMG_3273

モーターを取り付けた写真

 
モーターのギアと微動ハンドルを外したところにつけたギアを噛み合わせて動かします。
モーターの回転速度は計測するとぴったりでそのまま使うことができました。



IMG_3283

極軸が1°ずれたときの星の動きと赤道儀の動きの誤差の計算

<実測>
実際に星を自動追尾させてみました。
モーターで星を自動追尾させ、目標の視野の真ん中と端の中間を超えるまでの時間を計測します。
前の日も計測をしたのですが、極軸を正確に合わせていなかったため、8分ほどで星が中間を超えてしまいました。
今回は極軸をできるかぎり正確に合わせました。(2分のずれ)

IMG_3277



結果、1時間経っても星は視野の中心からまったくずれませんでした。極軸合わせで結果がここまで変わるのかと驚きました。



<結論・感想>
元々の目標の10分間の追尾を大幅に越して、1時間をこえても目では確認できないくらいの星像の流れに収めることができたので、大成功です。
今までただ見ていただけの星を自分で追いかけることができると分かったことに、何より感動しました。
来年はもっとレベルアップしたものに挑戦したいです。



夜に晴れるのを待ちこがれながら、雪の日曜日の昼間にSharpCapでテストをしています。β版がまた期限切れになってしまったのでアップデートしたら、ヒストグラムがすごいことになっていました。


ヒストグラムと情報

小さなヒストグラムがLive stackモードにしなくても使えるようになったのは以前報告しましたが、右の狭いエリアの中にしか表示できなかったので、見にくかったのと操作がちょっとしにくかったです。今回のアップデートでは、以前Live stackモードでしか出てこなかった大きな画面でのヒストグラムが、スタックとは独立にいつでも見えるようになりました。上の方のズームのすぐ右にある緑色のアイコンを押すと出てきます。もしくは「Tools」メニューからから選ぶこともできます。

まず便利なことは、カーソルを置くと、その位置での情報が見えます。

IMG_3254


意味は上から順に
  • Value: 横軸に相当。一番右端で2048(11bit?なぜ?)で100%になります。
  • Count: 縦軸に相当。カーソルを置いた位置でのピクセル数。
  • True ADU: 横軸に相当。ADCで数えたカウント数。一番右端で今回の場合14bitなので16384。単位は [ADU]。
  • Electrons: 上の数にコンバージョンファクターfcをかけたもの。単位は [e-]。
  • Electron Rate: 謎です。単位は[e-/s/um^2]
となるみたいです。また、RGBそれぞれの平均値(Mean)と標準偏差(SD, standard deviation)もわかるのもすごいです。

これらのヒストグラムの値は、デフォルトでは全画面ですが、上の方の赤い枠が表示されている小さなアイコンを押すと、エリアが選択できるようになり、場所と面積を任意に選べるようになります。その場合はヒストグラムはそのエリア内の情報を示すようになります。


読み出しノイズの影響

これだけでもすごいのですが、このヒストグラムの真骨頂は使っているセンサーの性能から、今見ている画面が読み出しノイズに支配されているか、ADCの分解能の影響があるかないかなどが、大まかにですがものすごく簡単にわかることです。ただし、まずはセンサーの性能を測定しないと、この機能が出てこないので注意です。8bit rawモードもしくは16bit rawモードで測定する必要がありますが、測定したモードの分しかこの機能は出てきないので、これも注意です。

さて実際の機能ですが、ヒストグラムの上の方に2本の色付きのバーが見えます。上のバーが読み出しノイズがどれだけ影響するかを示すもの。星雲の淡い成分もヒストグラムのピークより少し右側くらいにいますから、目安としてはヒストグラムのピーク位置で考えればいいと思います。このピークがどの色のところに来ているかで、読み出しノイズが支配的かどうかがわかります。赤のエリアにピークが来ている場合は、読み出しノイズが支配的なので、露出時間を長くすると読み出しノイズの影響を抑えることができるということを示しています。

IMG_3248
ピーク位置が上のバーの赤色のところにあると、読み出しノイズに支配されています。
露出時間を上げることで画質が改善されます。


オレンジはまだましですが、それでも読み出しノイズに影響されています。これもさらに露光時間を長くとった方がいいということです。

IMG_3247
ピークがオレンジのところだと、読み出しノイズが画質に明らかに影響があるという意味です。
これも露出時間を伸ばすと画質が改善されます。


グリーンのところに来ていれば問題ありません。このエリアになるまで露光時間を増やすといいということがわかります。

IMG_3250
この緑のところにヒストグラムのピークが来ると、読み出しノイズは画質には影響ありません。

上のバーの色の割合は、ゲインを変えると変化します。それぞれのゲインにあったピーク位置が存在するということです。一方、露光時間を変えただけではバーの色の割合は変化しません。このことはちょうど昨日記事にした、「読み出しノイズは露出時間を長くすると無視することができるようになる」と言っていたことと一致します。でも、昨日の時点でこの機能のことは知らなかったので、今朝のアップデートはものすごくタイムリーな機能を知ることとなりました。


ADCのbit分解能は十分?

一方、下のバーは8bitでいいのか、16bitの方が有利なのかを教えてくれます。 左の緑のエリアにピーク位置があると、8bitでは足りていなくて、このASI224MCが持っている14bit、もしくはもし得られるならばそれ以上のbit数の方が有利ということを示しています。

IMG_3252
ここの位置にピークが来ていると、SharpCapの設定で8bitにした場合と、
16bitにした場合に明らかに差があって、16bitに設定した方が有利だと示しています。


一方、ピークが黄緑の位置にある時は8bitでも14bitでもどちらでも画質に差はないということを示しています。

IMG_3253
黄緑のところにヒストグラムのピーク位置がくれば、
8bitモードでも16bitモードでも差がないということを示しています。



このことは、長年の疑問の一つ、ピーク位置をどこに持ってくればいいのかという疑問に対して一つの指針を示してくれています。ゲインを上げて、ピーク位置を黄緑のところまで持ってくれば8bitでもいいということです。ただし、これには注意が必要で、ピークを右側に持ってくれば当然明るい部分が飽和するまでに余裕がなくなってしまいます。なので当然14bitで撮影する(SharpCapの設定では16bit RAW)として、ピーク位置を緑と黄緑の境界くらいに持って来ると、暗い方の階調に関しては手持ちのbit数を最大限引き出しているということになるのかと思います。ただし、これも明るい部分の飽和には注意する必要があります。


背景光の測定モードも

他にもまだスカイノイズの測定もできるようです。バーの左上の脳みそマークを押すと、測定画面が出て来ます。こちらは暗い空を必要とするようなので、またいずれ試そうと思います。 

IMG_3255



最近のSharpCapのアップデート、特にTool類の追加はセンサー性能実測機能にとどまらず、凄まじいものがあります。特に最近個人的にはちょうどカメラのノイズのことを考え出したので、(もちろんただの偶然ですが)まるで自分のノイズの理解度に呼応してアップデートしてくれているような気分になってしまっています。 
 

KYOEIさんの在庫ありでせっかく手に入れることができたASI294MCですが、すでに一週間何もできずに過ごしてしまっています。昨日の朝起きたら、久しぶりに青空が広がっていて期待したのですが、夕方にはすでに曇り。今日はまたこれから雪みたいです。天気だけはどうしようもないので、相変わらず脳内ミュレーションです。今日はノイズについてもう少し考えてみます。


FullSizeRender

今日も家の外は雪景色。北陸の冬は天体観測には厳しいです。

カメラによる天体撮影をする時、誰もが綺麗な仕上がりになることを目指して撮影に臨むわけですが、最初は何をしたらいいのか、完全に手探りで全くよくわからないものです。それでも調べていくうちに、先人たちの貴重な経験から色々な手法があることがわかり、それに従ってマスターしていけばかなりのレベルで撮影ができるようになってきます。ところが、ある事柄について全く方向性が逆の手法が示されていたり、おまじないのようになぜそれをしなければならないかなど、手法の根拠がよくわからないということがよくあります。何が正しくて何が間違っているかよくわからなくなるのです。その助けになればいいと思って、ノイズのことをいろいろ調べたり考えてみましたので、メモがわりに書いておきます。


0. 天体撮影におけるノイズの一般式

まず一般的に天体撮影をする時にどういったノイズが出てくるかですが、定性的な話は調べるとたくさん出てくるのですが、きちんと式で説明してくれているようなところはなかなか見つかりませんでした。それでも天文系のCCDカメラやCMOSカメラを研究、開発しているようなところは、やはりノイズについても相当定量的に調べていて、我々アマチュア天文家の撮影にも使えそうな定式化をしてくれているので、そこらへんの話を考えてみます。

CCDカメラやCMOSセンサーを使ったカメラでの天体撮影において、信号とノイズの比S/Nは

S/N = (n t Ssig/ sqrt( A n σ^2 + A n t SskyA n t Sdark + n t Ssig) ∝ sqrt(n)

と書くことができます。ここで
  • A [pix] : 開口面積
  • n : フレーム枚数
  • σ [e-/pix] : 読み出しノイズ
  • t [s] : 1フレームの積分時間
  • Ssky  [e-/s/pix] : スカイバックグランウンド
  • Sdark  [e-/s/pix] : 暗電流
  • Ssig  [e-/s] : 天体からの信号
です。この式から様々なことがわかります。

まず、この式は全てのノイズ(分母の方)は枚数nを増やせば増やすほど、原理的には枚数のルートに比例して増えていくことを示しています。ノイズは減るのではありません、増えていくのです。その代わりに、ターゲットの信号に当たるS(分子の方)も枚数の1次で比例して増えていくので、結果としてS/Nは

/ sqrt(t) = sqrt(t)

で向上して行きます。もっと簡単に言い換えると、コンポジットした枚数のルートに比例して綺麗になっていくということです。

次に、分母のノイズの中身をもう少し詳しく見ていきましょう。


1. 読み出しノイズ

まず、読み出しノイズは積分時間によらず一定です。このことは、読み出しノイズは一枚のフレームをとるたびに必ず一定量入りますが、長く撮っても増えもしなければ減りもしないということを意味します。もちろん信号Sは時間の1次に比例して増えていくので、S/Nは結果として時間の1次で良くなっていきます。これはその他の時間のルートに比例して増えていくノイズと比べて、長時間かけて撮影するならば無視できうるノイズということになります。でも誤解しないで、式を今一度よく見てください。読み出しノイズは枚数を増やしても他のノイズと効きが同じでなだけで、無視できるようにはなりません。一枚あたりの時間を伸ばすことで初めて無視できるノイズということです。ここら辺は目からウロコの方も多いのではないでしょうか。私も最近まで意識できていませんでした。

読み出しノイズ以外のその他のノイズの振る舞いは、時間と枚数に関しては良く似ています。読み出しノイズを無視した形でS/Nを再び式を書くと


S/N ~ (n t Ssig) / sqrt( A n t Ssky + A n t Sdark + n t Ssig)
          = Ssig / sqrt( Ssky + Sdark + Ssig) x sqrt(n t∝ sqrt(n t)

となります。今度は時間のルートで全てのノイズが増大(減少ではありませんよ)していって、信号Sは時間の1次で比例して大きくなっていくので、結果としてS/Nが時間のルートで向上していくというわけです。nについても同じような関係になるため効果は同じですね。もう少し噛み砕いていうと、一枚の撮影時間をふやすか、もしくは撮影枚数を増やす、すなわちトータルの撮影時間を増やしていけばいくほど、そのルートで綺麗になっていくということです。


2. ダークノイズ

さて、分母に残った3種類のノイズの中で一番馴染みがあるのはダークノイズでしょうか。これはダークフレームを撮影した時にホットピクセルやクールピクセル、アンプの熱雑音ノイズなどに起因して明るくなったりするパターンノイズなどという形で実際に見ることができると思います。ここで注意ですが、そのダークフレームの中に写っている真っ暗に見える部分にも、ある程度の写り方のバラツキが存在するということです。ばらつきに関しては、すぐ下のノイズの説明のところで詳しく説明します。ダークフレームも時間をかけて撮影すると、時間のルートに比例してノイズが大きくなってきます。


3. スカイバックグランドノイズ

スカイバックグラウンドノイズは光害などに起因する背景の明るさのノイズですが、普段の撮影では、最もよく目にしているはずのノイズで、最も問題になるはずなのに、あまり定量的に議論されているのを見たことがありません。実はこれは撮影した画像からきちんと測定できるものなのですが、私もまだ実際に評価したことはないので、機会のある時に真面目に測ってみたいと思っています。撮影したときのある内部ゲインの時の、ADU(ADCのカウント数)からe-(センサーで数えられた電子の数)へのコンバージョンファクターfcが分かっていれば、画像の中での星が写っていない背景部分のADCのカウント数を数えることによって、きちんと定量的に見積もることができ、かつ電子の数として他のノイズと直接大小を比較できるわけです。ただ、ひとつ誤解を招かないようにしておきたいのは、今議論している画像というのは、すでにフラット補正もされて、背景光のオフセット分(DC成分)を差っ引いて、ノイズとなる揺らぎのみを考えているという意味です。なので、背景部分のADCのカウントをそのまま数えるのではなく、ある範囲のピクセルを多数数えて、そのバラつきを測定しなくてはいけません。また、ノイズがバラつきであるということを意識できていない場合が結構あるようなので、少しだけ説明しておきます。


ノイズとは

そもそも天体撮影におけるノイズとは一体どういうことなのでしょうか?ノイズを考えるには統計のことを少し知らなくてはなりません。例えば一台のカメラを使って全く同じ場所、同じ明るさ、同じ温度で多数枚の撮影をすることを考えます。普通に赤道儀に望遠鏡を乗せて、カメラで撮影するという状況で構いません。ゲインや露光時間も同じとします。適当な露光撮影、例えば1秒で、1000枚の画像を撮ったとしましょう。全く同じ状況なので、1000枚とも同じような画像が撮れると思いますが、ある一つのピクセルに注目した場合、1000枚とも全く同じ明るさ、言い換えると全く同じADCのカウントで全て記録されているでしょうか?通常はそんなことはありえません。よく似た明るさにはなるので、1000枚の平均値はある値を持ち、その値がそのピクセルでの明るさと言ってもいいと思います。ノイズというのはその平均値からどれくらいずれているか、そのずれがどれくらいの範囲に散らばっているかということを表す量です。細かい統計の話は教科書のようなものに譲るとして、ここで理解しておきたいことは、一般にノイズというのはバラツキ具合を「標準偏差σ」で表しているということです。標準偏差σという言葉に拒否反応を起こす人もいるかもしれませんが、最低限理解したいことはただ一点のみ。ある測定をしたときに、このバラツキの68%が標準偏差σで表される範囲内に入っているということです。

例えば先日測定したASI294MCの読み出しノイズは1.3[e-]ですが、これは平均値はよくわかりませんが、そのバラツキの68%は1.3[e-]という値の中に入っていますよという意味です。平均値はよくわからないので例えば10[e-]としましょう。ノイズはバラツキなので測定値がたまたま平均値と同じ10[e-]の時もあれば、10.1[e-]の時もあります。11.2の時もあれば11.5のときもあります。たまには12.6という結構外れた値をとることもあるでしょうし、13.9とかいうかなり外れた値をとる可能性も0ではありません。標準偏差のすごいところはここで、この場合10 - 1.3 = 8.7 [e-]から10 + 1.3 = 11.3 [e-]までの間に測定値が来る確率が68%と分かってしまうことです。もっと言うとσ=1.2 [e-]の倍の2.4[e-]、この場合2σ (にしぐま)と言いますが、この範囲に入っている確率は95%ということです。もしそれを超えた12.6[e-]なんていう値が測定されたら、これはありえない方5%に入っているので珍しいというわけです。ちなみに3σ = 3.9 [e-]なんていうと99.87%とほとんどの値が入ってしまうので、今回の場合13.9 [e-]以上なんていうとんでもない値をとるのは1000枚のうち1.3枚ほどしかないのですが、可能性としては0枚では決してないのです。

上は1000枚のフレームのある同じ1ピクセルについてのみ考えましたが、背景光なんかを測定する場合にはある一枚の100x100ピクセル分の平均値とバラツキの標準偏差を測定してやってコンバージョンファクターを使い電子の数に換算してやることで、読み出しノイズなどのその他のノイズとの大小が議論できるようになるというわけです。


4. ショットノイズ

さて式に戻って、分母の最後の残りsqrt(Ssig)についてです。これは入っている信号のルートに比例して出て来るノイズです。いろいろWebを調べていると、ダークノイズとショットノイズを混同しているケースた多々見受けられます。ショットノイズはセンサーに光を入れた時に、その光の量のルートに比例して出てくるので、真っ暗な時に出て来る限界のようなダークノイズとは別で扱う必要があります。ノイズなので、当然そのバラツキ具合で議論します。具体的な例でいうと、淡い星雲のようなところでは、当然星雲からの明るさがセンサーに入っているので、ダークノイズや、背景光のノイズもありますが、それに加えて星雲そのものの明るさのバラツキ具合もノイズとして考えなくてはいけません。また、天体がない背景の部分では逆に信号としてのSsigが小さいので信号Ssigからのバラツキも小さいため、Ssig起因のショットノイズは無視できるでしょう。


考察

以上のことから、ノイズを考えていくと、定量的にいろいろなことが評価できる可能性が見えてきます。実際には
  1. ある性能を評価したいカメラを使い、あるゲインを設定します。
  2. 既知の明るさが分かっている星を利用して、Ssigを測定してカメラのキャリプレーションのようなことを行い
  3. Sskyを測定することで
  4. そのカメラ、そのゲインでの限界等級を求める。限界等級は測定時間の関数になる。
  5. ゲインを変えて、各ゲインでの限界等級を繰り返し求めていく。
というような経緯で、カメラの性能をきちんと出すことができます。でもこれ真面目にやろうとすると結構大変で、私もそのうち余裕ができたらやろうと思っているくらいです。


定量的な評価まで行かなくても、式からわかる定性的な評価だけでも結構面白いです。例えば分母のノイズの項を考えてみましょう。理想的な暗い空では

Sdark ~ Ssky << Ssig

というような状況かと思います。冷却カメラはこのような状況時に非常に有効です。冷却はダークノイズを下げることができるので

Sdark << Ssky << Ssig

というような状況を作り出せてしまい、より高いS/Nを目指せます。

が、こんな状況はまれで普通は光害などがあり、淡い星雲などを写そうとすると

Sdark << Ssky ~ Ssig

というようになってしまいます。この場合はもともとダークノイズが十分無視できるため、冷却の効果は期待できません。光害地では冷却はあまり意味がないということになります。都市部などもっとひどい時には淡い天体は

Sdark << Ssig << Ssky 

というような状況にもなりますが、こうなってしまうと画像処理で無理やり天体をあぶり出す必要が出てきます。もちろんこのような状況でも撮影枚数や撮影時間を長くとることで、S/Nを改善することはできるということが式の上からわかります。


あとがき

今回色々式から天体撮影のノイズが原理的にどのような振る舞いをするのかを考えましたが、それでもしょせん式から導き出した推測だけに過ぎないことは心に留めて置いてください。なんでもそうなのですが、理論と実測は違います。例えば、S/Nはコンポジット枚数のルートに比例して無限に良くなっていくかと思いがちなのですが、実際にはそんなことはなく、ある程度の枚数に達すると改善しなくなります。例えば考えていなかったノイズに支配されてしまったりするからです。枚数をきちんと重ねられる方は、やはり撮影時の条件がきちんとしていて、多数枚のコンポジットにも耐えうるようなそもそもの素材を作り出していると言えるのでしょう。

もう少し言うと、一般的にどんな実験もそうなのですが、条件をきちんとしてかなり理想的な状況を作り出せば実験は理論に近づいていきます。でも通常は理想的な状態を作るのはものすごく大変なので、なかなかうまくいかないのです。理論が足りなかったり、実験条件が不十分だったりする場合がほとんどです。天体撮影は、夜のしかもとても暗い中でするので、決して環境がいいとは言えません。くれぐれも理想を追い求めるあまり無理をしすぎたりしないで、できないものはできないと割り切って、趣味の範囲で楽しみながら、少なくとも私はそのように進めたいと思っています。


おまけ

最後におまけとして、ノイズを考える例として、コンバージョンファクターを求める時に使った関係式

([ADU])^2 = [ADU] / fc [e-/ADU] + (Nread [e-])^2 / (fc [e-/ADU] )^2


の証明をしてみましょう。証明と言ってもあまり数学的にやるのもつまらないので、できるだけノイズの物理的な意味を具体的に理解できるように考えたいと思います。

ものすごく簡単に考えると、スタートはショットノイズの関係式ということになります。ショットノイズは信号のルートに比例するということです。式で書くと

[e-] = sqrt(S [e-])

両辺2乗して

([e-])^2 = S [e-]

コンバージョンファクター(gain) fc [e-/ADU]を考えると

(fc [e-/ADU] x [ADU])^2 = fc [e-/ADU] x S [ADU]

両辺fcの2乗でわると

([ADU])^2 = [ADU] / fc [e-/ADU]

という求めたい式の読み出しノイズを無視した形が出てきました。これは簡単に信号をショットノイズのみで考えたたためで、信号をきちんとショットノイズと読み出しノイズからなると考えると

[e-] = sqrt( (S [e-])^2 +(Nread [e-])^2 ) )

となるので、同様にして求める式がでてきますが、実際にコンバージョンファクターを求める時も読み出しノイズを無視できるくらい長時間をかけて測定するので、前半までの証明でも十分かと思います。


 

先日の記事で、メーカーが出しているASI294MCの性能のグラフの読み方を考えてみました。実際の性能を確かめるため、SharpCapを使い手持ちのASI294MCの実測もしたのですが、記事自体はかなり一般論になっていて、じゃあ具体的にどのような設定で使えばいいのかという話まではまだ繋がっていません。今回はそこら辺のところを考えてみたいと思います。難しい理屈は嫌だという方は、今回の記事だけ読んでも実用的には役に立つのかもしれません。

IMG_3233



さて今回は
  1. 電視観望
  2. 空が暗く、非常にいい環境での撮影
  3. 光害地での撮影
という3パターンに分けて考えてみましょう。



1. 電視観望

まずは電視観望から始めます。普通の天体撮影をされる方にとっては電視観望というのはあまり一般的ではないかもしれませんが、電視観望はかなり極端な設定を必要としますので、性能の限界を考える時にはなかなか面白いのです。

電視観望では、短時間でのリアルタイムビューを重要視するために、内部ゲインを相当上げて、露光時間をできるだけ短くして臨場感を出します。その代わりにノイズは大きいですし、そのノイズを緩和するためにライブスタックと呼ばれる、いわゆるコンポジットをリアルタイムで行なっていきます。

かなり基本的なところから考えます。まず、内部ゲインを上げるとは一体どういうことなのでしょうか?物理的にはセンサーの後に増幅回路があって、その増幅回路のゲインを上げるということなのですが、これがメーカのグラフの上でどのようなことを意味するのかを考えてみます。

電視観望ではZWOの言うGainを400とか500とか600近くまで上げます。Gainは200で20dB、すなわち10倍、400で40dB、すなわち100倍、600で60dB、すなわち1000倍ということです。簡単のため電視で仮に400まで上げたとしましょう。ZWOが出しているページのグラフの横軸で400のところを見ると、Read noiseは1.4 [e-] 程度とかなり小さい値を示しています。でも画面ではなぜかノイズが目立ちます。Read noiseは小さいはずなのになぜ?という疑問が湧くかもしれません。そこにコンバージョンファクター(ZWOのグラフではGAIN(e-/ADU)となっている2つ目のグラフ)がキーとなります。この値はGain400ではかなり低く、0近くになっていてグラフから読み取ることも困難です。昨日実測した値を見て見ると0.036 [e-/ADU]と記録されています。この値でADCのカウントでどれだけノイズが目立つのか計算してみると、

1.4 [e-]  / 0.036 [e-/ADU] = 39 [ADU]

となり、何とADCの読みで39カウントもノイズが出ていることになります。じゃあ39カウントのノイズって何だと言う話になりますが、分散とかの話をすると難しくなるので、まあざっくり39カウントくらいの間で明るくなったり暗くなったりしているピクセルが画面中にバラついていると考えてください。それよりも意識しておきたいことがあって、このGain400の時のfull wellの値です。full wellとは内部ゲインが高すぎる時にセンサーの出力が限られてしまい、これ以上ADCの値が上がらない上限値のことを指します。これも昨日の実測値を見てみると、何とわずか585です。ADCの値にすると、585が最大値でそのうちの39がノイズだとしたら、1割とは行かないまでもレンジの約7%がノイズになってしまっていることを示します。これじゃあ画面がノイズだらけなのは致し方ないと言うことです。

(追記1: すみません、上の記述勘違いしていました。[e-] が単位のfull wellと、[ADU]が単位の画面のサチレーションを勘違いしていました。ADCのサチレーションカウント16384の中で39カウントノイズになっているだけです。ちなみにゲインを600まで上げると400カウントくらいがノイズになります。これだと4%くらいになるので、これくらいでさすがに目に見えるくらいですね。)

(追記2: 改めてSharpCapのfull wellの値を見ているのですが、どうもこれは真面目に全てのゲインで飽和カウントを測定したわけではなく、単にADCのフルレンジ16384をコンバージョンファクターで割っているだけのようです。これはSharpCapだけでなくZWOの測定結果も同様の方法で簡易的に出しているだけのようです。そう言った意味ではセンサーが出せる最大出力という意味での真のfull wellとは言えないので注意が必要です。あくまで、ADCの最大カウントからくるfull wellがZWO及びSharpCapで示されているに過ぎないということでしょう。)



ライブビューを謳うので露光時間もあまり上げることができません。残る手はSharpCapの秘技、LiveStackです。これは単に画面を重ね合わせるのではなく、恒星の位置を数十個自動認識して、それらが重なるように画面をリアルタイムでコンポジットしていきます。上の読み出しノイズは枚数に正比例(注: 枚数のルートに比例してではありません、ノイズに関しての詳しい議論は後日します。)して減っていきますので、見ている間に劇的にノイズが軽減されていくというわけです。

(追記: 2017/12/212017/12/23実際にASI294MCで電視を試してみました。)


2. 空が暗く、非常にいい環境での撮影

次に、かなり空が暗いすごく環境の良い状態で、撮影をすることを考えて見ましょう。まず、空が暗いということは、長時間露光してもサチルことがないので、一枚一枚の露光時間を長くとることができます。 内部ゲインx 露光時間でヒストグラムのピーク位置が決まります。ピークの位置が左から3分の1程度になればいいとか言われている(これもまた議論の余地があると思いますが、いつか検証します。)ので、適当にゲインと露光時間を調節するのですが、じゃあゲインは具体的にはどれくらいにすればいいのでしょうか?

こんな時に指標になるのが、3つ目のグラフDR、すなわちダイナミックレンジです。ダイナミックレンジはFull wellをRead noiseで割ったものをbit換算したものになります。グラフを見ると一番いいところで13[stops]くらいでしょうか、これは2の13乗を意味し、2^13=8192となるので、信号部分である天体を最大8192階調で表すことができると言うことを示しています。ここで面白いのが、Read noiseが横軸のGain120あたりのところで、いきなりジャンプして劇的に良くなっていることです。このためダイナミックレンジも最初Gainとともに落ちていくのが、Gain120のあたりで再び良くなっています。これはGain120より多少大きいあたりで撮影するのが一番得だということを示しています。このGainでヒストグラムのピークが3分の1くらいになるような露光時間で撮るのが、最も効率のいいセッティングになります。これで時間が許す限り取れるだけの枚数を撮ってしまい、あとはコンポジットしてノイズを減らしていきます。


3. 光害地での撮影

最後に光害地での撮影です。基本的には上の最も効率のいいGain120で、露光時間を短くすることでヒストグラムのピーク位置を3分の1程度のところに持って来ればいいのですが、それでも明るすぎる場合には、Gainを0近くに持ってくる手もあるのかと思います。ダイナミックレンジが一番得をするところを探すという考え方は同じです。ただ、同じクオリティーの画質を出すのにより長い時間かかってしまうので、結局は損をしてしまうと思います。



3パターンで考えましたが、センサーの性能を理解していると、効率のいい設定をあらかじめ予測することができます。もちろんこの設定が完璧というわけではなく、例えば雲が多くて時間が限られている日には多少恒星が飽和するのを覚悟して、Gainを上げて短時間で撮影するなどの戦略をとることもできます。実はこのカメラが欲しかった理由の一つが、センサー感度がいいことを利用しての短時間露光のシンチレーション回避を試してみたいと思っていることなのですが、これはまた上の原則には当てはまらずに、いろいろ戦略を練ることになりそうです。ここら辺は追い追い試していきます。

(追記: 実は上のことだけ考えていると、一般的なカメラ撮影でもダイナミックレンジが一番広い低感度で撮る、すなわちiso100とか極端なのがいいという変な結論に陥ってしまいますが、もちろんそんなわけはないです。これをきちんと考えるためには、撮りたい天体の極限等級、露光にかけたい時間などの要求値をあらかじめ決めておかなければならず、それらの条件のものでノイズを考え、その時のS/Nから要求が満たせるかどうかの判断をして、その要求が充たせる範囲の中でゲインや露光時間を調整すべきです。S/Nの話は、定性的なお話や、定式化までは簡単なのですが、定量的に考えようとすると、読み出しノイズやダークノイズなどのカメラの性能だけでなく、ターゲット天体の明るさを信号として、空の明るさなどをノイズとして数値的にきちんと評価してやらなくてはいけません。具体的にこのブログのレベルで示せるものなのか、ちょっと今試行錯誤中です。)




さて、外を見ると今日は一日中雪が降り続いています。晴れるのはいつになることやら。

もう少し、次はノイズについてちょっとだけ議論したいと思います。


( 追記: ノイズについていろいろ検討してみました。定式化までですが、参考になればというくらいです。定量化はもう少し。)

先日の志摩での観望会で、Kさんと話をしている時に、ダークフレームは何枚必要かという話になりました。私はライト画像と同程度の枚数が必要なのではと話したのですが、Kさんはもっと少なくてもいいのではということです。で、色々考察してみました。

目的はダーク減算による改善ではなく、ダーク減算をした時に何枚くらい使えばダークフレームからのノイズでライトフレームが汚されないかを見積もることです。例えば何十枚とコンポジットしたライトフレームではノイズが平均化されて滑らかになるのですが、その際のダーク減算をザラザラの一枚だけでやってしまったら、せっかく綺麗にするはずのライトフレームの滑らかさを逆に汚すのではないかとか、そういうことです。


今回ノイズを無相関に出てくる「ランダムなノイズ」と、相関を持って同じように出てくる「コヒーレントなノイズ」に分けて考えます。

ランダムなノイズとは統計的な信号のゆらぎのことを指し、例えば光に関して言うと「カメラの画素に光を入れた時に、単位時間あたりの光量が一定でないために、ある時間露光して積分した時に一つの画素に溜まる光の量にばらつきがある」ということをいいます。また、一つの画素のADCの読み取りにも統計的にランダムな読み取り誤差が存在するので、それらも画像になった時には結果としてノイズとなります。これらのランダムノイズは時間的に無相関であるために時間的に平均化してやると時間のルートに比例して小さくなっていきます。

一方コヒーレントなノイズは、例えば光害のように、何回撮影しても同様に相関を持って入ってくる光です。センサー温度が高い時に画面の一部が明るくなるアンプノイズも相関があるノイズです。これらのノイズは相関があるため時間とともに足し合わさっていくだけなので、時間に比例して一次で増えていくノイズです。

あといくつか仮定ですが、ダークフレームもライトフレームも同じカメラで同じISO、同じ露光時間で撮影するとします。センサーの温度も変わらないとします。


さてまずダーク一枚で考えてみます。基本的に光は入れていないので、センサーに流れる暗電流で決まるようなノイズです。この一枚あたりの無相関なランダムノイズをN_darkとします。これらをn_d枚コンポジットします。コンポジットは加算して枚数で割って平均化すると言う過程なので、

sqrt( n_d x N_dark^2 ) /  n_d = N_dark / sqrt( n_d)

となって枚数のルートでノイズが減っていきます。

次にライトフレームの信号をSとすると、ライトフレームのノイズN_lightは統計的に信号のルートに比例するので

N_light ∝sqrt(S)

と書くことができます。ライトフレームもコンポジットしてn_l枚を重ねるとすると上と同様に

N_light / sqrt( n_l)

というノイズが残ります。

通常はライトフレーム一枚に対しコンポジットしたダークフレームで補正します。ダーク補正は差に相当するので、無相関なノイズにとっては2乗和のルートになるので、その場合のS/N比は

S / sqrt( N_light^2 + N_dark^2 / n_d)

となります。このダーク補正したライトフレームをコンポジットするので、信号は

n_l x S

ノイズは

sqrt( n_l x N_light^2 + n_l^2 x N_dark^2 / n_d )

となります。ここで、N_light / sqrt( n_l)は各ライトフレームに適用されているので、無相関ではなく正の相関を持っているコヒーレントノイズになり、そのまま和になることに注意です。なのでn_lの2乗で足してあります。

これらをn_l枚で平均化するので、信号は

n_l x S / n_l = S

ノイズは

sqrt( n_l x N_light^2 + n_l^2 x N_dark^2 / n_d )  / n_l = sqrt( N_light^2 / n_l + N_dark^2 / n_d )

となるため、S/N比は

S / sqrt( N_light^2 / n_l + N_dark^2 / n_d )

となります。



やっと式ができました。この式を具体的に考察します。

まず、ライトフレームをダークに近いくらい暗い空で撮るとか、そもそも非常に低いISOとか短い露光時間でとったりして、ライトフレームのノイズとダークノイズが非常に近い場合には

N = N_light = N_dark

とおいて、さらにライトもダークも同じn枚撮るとするとS/N比は

S / sqrt( N^2 / n + N^2 / n ) = S / ( sqrt (2) x N/sqrt(n) )

となり、sqrt(2)倍だけノイズが大きくなってしまいます。すなわちこのようにライトの背景とダークが近い場合はダークの枚数をライトの枚数よりも増やしてやらないとルート2倍損をしてしまいます。

ちなみにルート2倍損をすると言う意味は、ライトフレームの撮影枚数が半分になったことと等価ですので、ずいぶん勿体無いですね。

一方、ライトフレームのノイズがダークノイズよりも十分に大きい場合(十分に明るい場合ということ)にはダークの枚数を減らしていいことになります。例えば、ライトフレームの背景が100倍ダークよりも明るいとすると、ライトフレームのノイズはsqrt(100) = 10倍大きいことになります。100枚ライトを撮った時に一枚だけダークを取った時、やっとノイズがコンパラになり、その結果上と同じ様にルート2倍損することになります。式で書くと、ライトフレームのノイズをNとすると

S / sqrt( N^2 / 100 + (N/10)^2  / 1 ) = S / (sqrt( (N^2 + N^2)/100 ) = S / (sqrt(2) x N/10)

 となります。 

こんな場合でもダークを10枚とってやれば

S / sqrt( N^2 / 100 + (N/10)^2  / 10 ) = S / (sqrt(1+1/10) x N/10)

となり、sqrt(1.1) ~1.05なので、5%くらいの悪化で抑えることができます。


さて、ライトフレームの背景のノイズとダークノイズの比は一体どれくらいなのでしょうか?先日撮った馬頭星雲の画像で比べてみます。ヒストグラムのピークが背景だと考えると、ピークの位置が明るさになるので、Photoshopで比較してみます。ライトフレームのピークはざっくりヒストグラムの半分ほどなので125くらい。ダークは暗過ぎて判断できないので、レベル補正で10倍の明るさにして平均値を見て10で割ってやると3.7位です。比は34程度と、思ったより小さいです。

IMG_3190
ダーク画像を10倍明るくしたもの。平均3.3と思ったより明るいです。


ライトフレームは36枚撮影していて、ダークは30枚使ったので、

S / sqrt( N^2 / 36[枚] + (N^2/34[倍]) / 30[枚] ) = S / (sqrt(1+1/30/34x36) x N/sqrt(36) )

となります。

sqrt(1+1/30/34x36) = 1.015

なので、1.7%の悪化となり、ほとんど影響ありません。枚数にしたらライトフレーム1.1枚くらいのロスです。今回の場合は5枚も取れば10%くらいの悪化で、ライトフレーム7.6枚くらいのロス、10枚取れば5%くらいのロスで、ライトフレーム2.8枚くらいのロスになるということです。


というわけで、またかなり長い記事になってしまいましたが、結論としては、背景の空が暗くてダークに近ければ近いほど枚数が多い方がいいが、空が明るい場合は少なくてもいいということになりそうです。志摩観望会で間違ったことを言ってしまったことになります。Kさんごめんなさいm(_ _)m。

 

普段使いでいつも使っている数値です。覚えていると結構便利なので、書き留めておきます。
 
  • 分解能は口径60mmで約2秒角、口径120mmで約1秒角
ドーズ限界を考えると分解能は口径のみによって決まり、112秒角/口径[mm]と書くことができるので、ざっくり120秒角/口径[mm]と考えて60mmの場合で120/60=2 [秒角]

もっと大雑把に100秒角/口径[mm]と考えると、ざっくり口径200mmで0.5秒角と言ってしまってもいいです。


  • 1ピクセルあたりの画角は焦点距離600mm、ピクセルサイズ4umで約1.5秒
この値は私自身のシステムの場合のものなのですが、自分の代表的なシステムで一つ覚えておくと便利です。一つ覚えておくと
  • 焦点距離300mm、ピクセルサイズ4umで画角は約3秒 <- FS-60Qのエクステンダーを外しFSー60CB状態にした場合
  • 焦点距離200mm、ピクセルサイズ4umで画角は約4.5秒  -< ASI224MCで200mmでガイドしていた時
  • 焦点距離50mm、ピクセルサイズ4umで画角は約15秒 <- 現在私が使っているガイド鏡の焦点距離 (ピクセルサイズが3.75umなのでそれを考えると15秒くらい)
のように使うことができます。実際の画角を求める式は

  • 2 x arctan(画素サイズ/(2 x 焦点距離)) [rad] 

ですが、角度が小さい場合を考えているので、近似して

  • ~ 画素サイズ/焦点距離 [rad]

とします。さらに

  • radから度への変換で x 180/pi ~ x 60として
  • 度から秒への変換として60x60をかけるとして

例えば画素サイズが4umの場合

  • 画素サイズ/焦点距離 x 180/pi x 60 x 60 [秒角] ~ 0.004/600 x 60 x 60 x 60 [秒角] = 0.004 x 360 [秒角] ~ 1.5 [秒角]

となります。

よく使われる、感度がいいと言われるセンサーのピクセルサイズは多少大きめで
  • ピクセルサイズ ZWO ASI224MC: 3.75um
  • ピクセルサイズ Canon EOS 60D: 4.3um
  • ピクセルサイズ Nikon 810A: 4.9um
  • ピクセルサイズ Canon EOS 6D: 6.5um
  • ピクセルサイズ SONY α7s: 8.4um
と、4〜8um位が一般なので、せいぜいファクター2、なのでピクセルサイズで大きく変わるわけではなく、十分実用的に感覚として使える値になります。例えば、
  • 焦点距離600mm、ピクセルサイズ8umで画角は約3秒
という具合です。数ピクセルのずれが出ると、撮影して画像にした時に認識できるくらいの星像の流れになってしまうので、この値を元にどれくらいまで鏡筒の揺れや、極軸の精度を抑えればいいのか、暗い夜でもざっくり頭の中で見積もることができます。

  • 赤道儀で極軸の精度を1分角で合わせることができたら、4分間の露光で1秒角程度の星像の流れになる。

使い方としては、例えば
  • 3分角で極軸を合わせたら4分間で、3秒の流れ
  • 10分角の精度なら4分間で10秒角の流れ
  • 1度の精度なら4分間で1分の流れ
  • 4分角の精度なら1分間で1秒の流れ
とかになります。



簡単に考える方法として、極軸からどれくらいずれていたら、星像が、ある時間内でどれくらい流れるかをざっくり見積もります。
  1. まず極軸が1度ずれているとします。
  2. その場合、赤道儀で追いかける方向と、実際に星が進む方向に(ターゲットの星の位置によりますが、例えば東西に極軸がずれていたら南天において)最大で1度のずれができます。
  3. 度をラジアンにするには180で割ってπをかければいいので、ざっくり60で割ればいいことになります。なので1度のずれということは、イコール1/60ラジアンの角度を持って星が互いに別方向に行くということになります。
  4. 1時間で星は15度動くので、15度に1/60をかけたものが星像の流れになります。円弧の関係の、円の半径の部分が15度で、中心角が1/60ラジアン、弧の部分が星像のずれにあたり、この場合15度 x 1/60 = 15分角となります。角度とラジアンの変換がたまたま約60分の1なのでこの変換がなりたち、頭で考えることができるくらい簡単になりすごく便利です。
  5. 1時間で15度進むので、4分間で星は1度進み、1度のずれは上の計算から最大1分角の星像の流れを生みます。1分角の精度で極軸を合わせたら、4分間で1秒角のずれとなるわけです。

極軸は電子ファインダーなどを使うとがんばれば実測で1分角くらいでは合わせることが可能になります。これなら20分露光しても5秒くらいの流れなので、私の場合カメラの1ピクセルくらいにあたり、ここら辺が許容範囲といったところでしょうか。あ、もちろんこれはノータッチガイドの場合の許容範囲です。SWAT200のノータッチガイドでの星の流れを見積もるときに考えた簡単な見積もり方です。SWATは小型軽量ですが、その分機材に調整で触れたりすると極軸合わせの精度も変化するので、1分角を維持するというのが難しいということもわかってきました。

普通の赤道儀で2軸ともガイドさえしてしまえば、こんなに精度はいらないですね。


 

  • 望遠鏡側の揺れの1マイクロメートルが星のずれ1秒角程度に相当する。

頭の中ででもできるくらいの、簡単な計算の仕方を書いておきます。
  1. 鏡筒の長さが1mくらいのオーダー(10cmでも10mでもないという意味)だとします。
  2. もし鏡筒の先端が1μ[m] (= 10^-6 [m] = 1e-6 [m])動いたとします。
  3. 角度にすると1e-6[m]/1[m]=1e-6[rad]になります。
  4. ラジアンと°(度)の変換はπ(=3.14)で割って180をかければいいので、大まかにいうと60をかければいいです。なので1e-6[rad] x 60[°/rad] = 60e-6[°] = 6e-5[°]となります。
  5. 分角にするのは60をかけ、秒角にするのにさらに60をかけるので、3600をかけてやります。なので6e-5[°] x 3600 = 6e-5[°] x 3.6e3 ~ 20e-2 [秒角] =0.2[秒角]程度となります。
  6. 例えば、鏡筒が50cmくらいの長さなら2倍くらい星像のずれは大きくなり、0.4秒角くらいになります。まあ、1秒角くらいのオーダーということです。
1mのオーダーの機器が、1マイクロメートル動くと、すごくざっくりで星のずれ1秒角くらいという値を覚えておくと楽です。

実はこの値は相当厳しいということがわかります。今の私のシステム(鏡筒の長さが50cmくらいのFS-60Qで焦点距離600mm、EOS 60Dの1ピクセル3.75μm)だと、1ピクセルあたり1.4秒角程度になります。上の見積もりが正しいとすると、10μm(たかだか髪の毛の太さの10分の1くらい)の望遠鏡側のゆれで4秒角くらいの星像のずれなので、数ピクセルくらいになり、撮影した画像では容易に星像の流れとして認識されます。ネジが緩かったり、機器の自重でのたわみで簡単に星像の流れになり得ることがわかります。


 

画像処理をするにあたり、フラット補正は最初の方できちんとしているのですが、画像処理を進めて星雲部分を強調していくと、どうしてもフラットに仕切れていない部分が目立ってきます。そのため先日撮影したバラ星雲を使い、少し検証してみました。簡単のため、コンポジットなしの一枚の画像のみで比べます。

最初はフラット補正無しと有りの比較です。ステライメージ7上でフラット補正後、ベイヤー/RGB変換をしてレベル補正で暗い部分をあぶり出しています。以下の2枚の写真を見ると、明らかにフラット処理をした方が周辺減光がまともになっています。

  • フラット補正無し
ROSE_LIGHT_120s_3200iso_+11c_20170303-23h03m39s648ms_noflattest1

  • フラット補正有り
ROSE_LIGHT_120s_3200iso_+11c_20170303-23h03m39s648ms_flat0


なので効果はあることは明らかです。しかしながら、フラット補正をした後でも、少しわかりにくいですが、右上隅に行くに従って途中までは暗くなっていっているのに、あるところから突然明るくなって、三角州のような明るい形が残っています。左上は周辺減光という言葉の通り、徐々に暗くなっていきます。このように一方は明るく一方は暗くというような場合、特に右上のように途中から明るさのスロープの傾きの正負が逆転しているような場合は、ステライメージ7上での周辺減光補正がすごくやりにくくなるので、少なくとも両方とも暗いとかの、スロープが滑らかなる状態を目指します。

あと、もう一つ気になるのは、フラット補正をした場合としない場合で明らかにカラーバランスが変わっている点です。補正無しは緑っぽく、補正有りはホワイトバランスがマシになっています。これは作業ミスというわけではなく、上の2枚をレベル補正のRGBで明るさを合わせようとしただけで、カラーバランスは何も変えていません。


ここから検証です。まずフラット補正時のオフセットの値を変えてみます。
  • プラス20%: 右上、左上、共に少し暗くなりますが、まだ右上が明るいです。
ROSE_LIGHT_120s_3200iso_+11c_20170303-23h03m39s648ms_flat20


  • プラス40%: 左上はさらに暗く、右上はほぼフラットでしょうか。
ROSE_LIGHT_120s_3200iso_+11c_20170303-23h03m39s648ms_flat40


  • プラス60%: 両側とも暗くなる方向です。
ROSE_LIGHT_120s_3200iso_+11c_20170303-23h03m39s648ms_flat60



逆にマイナス側のオフセットをかけます。
  • マイナス20%: 逆に明らかに右上がより明るくなっています。
ROSE_LIGHT_120s_3200iso_+11c_20170303-23h03m39s648ms_flat-20


  • マイナス40%: 両側とも明るくなりました。
ROSE_LIGHT_120s_3200iso_+11c_20170303-23h03m39s648ms_flat-40


マイナス側は逆センス、プラス40%以上なら、少なくともアンバランスはかなり軽減されるようです。念のためこれ以降の処理をプラス60%をデフォルトとしておきます。

次にフラット補正時のガンマをいじってみました。オフセットは数学的にはフラットフレームに和もしくは差で下駄を履かせるというのでわかるのですが、このガンマはどのような処理なのかいまいちよくわかっていません。おそらくフラットフレームの明るさ方向の幅を決める係数のような気がします。オフセットは+60%で固定です。

  • ガンマ0.6: 四隅とも結構暗くなります。
ROSE_LIGHT_120s_3200iso_+11c_20170303-23h03m39s648ms_flat60_g06

  • ガンマ0.8: 0.6に比べると少し明るいでしょうか?でもデフォルトの1.0より少し暗いです。
ROSE_LIGHT_120s_3200iso_+11c_20170303-23h03m39s648ms_flat60_g08

  • ガンマ1.0: オフセットの変化の時に載せた60%と同じ画像を並べておきます。それほど悪いようには見えません。
ROSE_LIGHT_120s_3200iso_+11c_20170303-23h03m39s648ms_flat60

  • ガンマ1.4: 右上が再び明るくなりました。周辺減光補正(周辺を明るくするという効果)が効きすぎているようです。
ROSE_LIGHT_120s_3200iso_+11c_20170303-23h03m39s648ms_flat60_g14


ガンマを上げていくと、周辺減光補正の効きが強くなるようなので、ガンマがどれだけフラット補正の効果を効かせるかという係数という推測は間違っていない気がします。

オフセットとガンマではフラット補正で残った残差の調整は、最初の目的の明暗逆方向に行っているものを一方向のみにすることはできるとわかりましたが、それでも結局きちんとバランスを取るまでの調整はしきれないことがだいたいわかりました。そもそも、なぜこんなことが起きるかというと、フラットフレームとライトフレームの減光度合いが違っているからに他ならないのですが、考えられる原因はいくつかあって、
  • フラットとライトのカラーバランスが一致していない。
  • フラットの光源はPC画面だが、PC画面を見た場合と、夜空を見た場合で何らかの光の経路が違う。
  • 露光時間の違いが、周辺減光に何らかの影響を及ぼす。
  • ISOの違いが、周辺減光に何らかの影響を及ぼす。
  • フラットが明るすぎる。
などです。この中のフラットのカラーバランスだけはすぐに試すことができるので、とりあえずパッと試してみました。そしたら何と、明らかに効果ありです。

フラットフレームですが、ベイヤー状態ではカラーバランスの補正はできないので、まずはRGBに変換します。その時ホワイトバランスを自動で調整しないでそのまま見てみたら、何と画面全部緑です。

FLAT_1s_100iso_20170305-04h10m44s002ms_x60_RGBnowhiten

白い画面を写したのに、何でこんなに緑が大きくなるのでしょうか?カメラは天体改造してあるので、赤が目立つならわかるのですが。PCのプレビューでは普通に白く見えています。実はフラットフレームだけでなく、ライトフレームもホワイトバランスを自動にしないと緑が大きく強調されてしまいます。

ROSE_LIGHT_120s_3200iso_+11c_20170303-23h05m51s444ms_RGBnowhiten

何かがおかしいです。ステライメージのベイヤーからRGBへ変換ルーチンでしょうか?何か設定を間違えているのでしょうか?これは後できちんと検証するとして、とりあえず気を取り直して、とにかくホワイトバランスをトーンカーブで整え、まともな色のフラットフレームを作ります。

FLAT_1s_100iso_20170305-04h10m44s002ms_x60_RGB


次にライトフレーム一枚をRGBにします。これがこのページの一番上の写真と同じものです。その次に、作ったRGBカラーでのフラットフレームを使って補正します。オフセット0%、ガンマも1とデフォルトの状態にします。そしてできた画像がこれです。
  • ホワイトバランスをとったフラットで補正したもの

ROSE_LIGHT_120s_3200iso_flatten_byRGBwhitenframe

直接比較するべきは上から2枚目です。見やすいように再度載せます。
  • ホワイトバランスが大きくずれたフラットで補正したもの

ROSE_LIGHT_120s_3200iso_+11c_20170303-23h03m39s648ms_flat0

ホワイトバランスをとったフラットフレームで補正した上のほうは、完璧ではないですが四隅がかなり改善されています(追記: それでも画像処理を進めていくとやはり補正しきれていない部分が目立ってくるのが後でわかりました。まだ根本的に何かがずれているのかと思います。2017/9/21さらに追記: CANPでの話を参考に、その場でフラットを撮影するようにしたら、このようなズレは無くなりました。iPadなどのLEDでの光源と、周辺環境の余分光源からの回り込みにどうしても差が出てしまうようです。これ以降はフラットはその場で撮るようにすることにしました。)。それでも今回はとりあえずの対処療法で、フラットフレーム、ライトフレーム共にRGB変換した後にフラット補正したので、ベイヤーでフラット補正できるようカラーバランスの取れたフラットファイルが必要になってきます。

さて、そうなってくるとなぜ白い画面を撮っているのに、カラーバランスが崩れて緑になるかが謎です。これは機材を出して検証する必要があるので、また時間がある時に試します。


追記: どうやらステライメージ7でRAW現像(RAWで開いてベイヤー/RGB変換をしても、最初からRAW現像をしても)をすると緑がかるのは既知の問題の様で、アストロアーツによると仕様だとのことです。ということは、どうもホワイトバランスがとれたベイヤーでフラット補正するのは諦めた方が良さそうという結論になります。対策としては、
  • 最初の方の方式のようにフラット補正の際オフセットを加えて周辺減光を滑らかにしてから、マニュアルで周辺減光を撮る
  • ソフトを変える
などがありますが、当分は前者かなと思っています。 そのうちにPixinsightも試してみたいと思います。






最近SWAT-200の揺れがどうしても気になっています。一体どれくらいの揺れの赤道儀なら許容できるのか感覚的に知りたくなり、いくつかのショップを回ったついでに、実際に赤道儀や経緯台に載った鏡筒の先端をつついて試してみました。

基本的に値段の高い高級機と言われる機種の方が当然揺れは少なく、例えば安価な経緯台クラスでは少しつついただけで大きく揺れて、その揺れが長く続くのが一般的な傾向です。ただ、高級機といわれるものが必ずしも全ていいというわけでもないというのがすぐにわかるのが、このテストの面白いところです。比較的安価な赤道儀でもつついてもほとんど揺れないものも存在しますし、同じメーカーの赤道儀の中でも、揺れと値段は必ずしも反比例しないです。また、機種によって揺れの方向に得意、不得意があるのもよくわかります。鏡筒の上下には揺れないのに、回転方向には大きく揺れてしまうなどです。大っぴらに試すと店員さんに怒られてしまうかもしれませんが、こっそり試してみるとかなり違いがわかるので、一度自分で試してみると、赤道儀を購入するときの目安になるかもしれません。

いうまでもなく、つついて揺れないということは、風などがあっても揺れにくいということになります。今回の結果と自分の持っている機器と比較してみると、SWAT-200も三脚を変えたりした後の揺れは、それほど問題ではないということがわかりました。あと、驚くことに手持ちのAdvanced VXは揺れはかなり少ない方だということもわかりました。自宅で試しても、SWAT-200とAdvanced VXでは明らかに差がわかるほどAVXの揺れは少ないのですが、これはたまたまというわけではなく、他のものと比べても決して遜色ない揺れです。

最後に断っておきますが、自分の中では揺れに関する順位はある程度決まるのですが、これは決して定量的な評価でも何でもなく、また試した赤道儀についている鏡筒の長さも重さもまちまちです。しかも持っていない機種の具体的な名前を挙げるのは気が引けますし、迷惑がかかるかもしれません。そのため、すごく抽象的で感覚的な記事になってしまっていますが、望遠鏡が集まる観望会などでも簡単に比較できるテストなので、くれぐれも持ち主の方に怒られない範囲で試してみると、色々揺れについて実感できて面白いかと思います。

本当は加振器の上に赤道儀と鏡筒ごと乗せて、加速度センサーで伝達関数など測り、きちんと定量的に評価してみたいです。でもこんなところまでいくと星を楽しんでいるのか、機器を楽しんでいるのかよくわからなくなってくるので、ほどほどにしておきたいと思います。 

 

このページのトップヘ