ほしぞloveログ

天体観測始めました。

カテゴリ: アイデア、理論など

光害調査を進めていた娘の自由研究ですが、結構頑張っていて、私の目から見てもかなり面白い結果が出そうだというところまで以前報告しました。それがなんと、学校で代表に選ばれてしまったようです。妻からその時の話を聞きました。

富山の中学の自由研究の提出日は、夏休み終わり近くの登校日で今年は8月22日。意外に早く、ギリギリで仕上げる子にとっては死活問題です。その週のうちに学校の理科の先生から電話がかかってきて「自由研究が代表に選ばれました。夏休み中に一度打ち合わせに学校に来てください。」というものだったそうなのですが、なんとNatsuの返事がなんと「はぁ、ちょっと考えさせてください。」で、電話を切ってしまったそうです。あとで聞いてみたら「理科の先生あまり好きじゃない」が理由だそうです。どうもテストのための理科がつまらなくて、科学の楽しさを伝えてくれないところに不満があるみたいです。結局代表は引き受けたとのことですが、それでもせっかくの代表なのに、断ろうとするなんていったい何を考えてるのか...。周りはみんな呆れてました。そんな態度だとあぷらなーとさんに怒られますよ。

一応発表用にパワーポイントでプレゼン資料を作り出したのですが、これもまた結構凝りだして、せっかく星関連のことなのに全然私には手伝わさせてくれません。「グラフをパワポで作るの大変だった」とか「大丈夫だよ」とかいいながら全部自分でできてしまうようです。数少ない聞かれたことが「写真こっちのコンピュータに入れて欲しい」と「写真を小さくするの(パワポのトリミングのことらしい)ってどうやるの?」だけでした。それでもできた資料を見てみたら、ほとんど言うことなし。私があえて言った、たった一言のアドバイスが「観測した日にちは入れておいたら?」だけでした。嬉しいやら、悔しいやら、悲しいやら。

Natusに「今年はブログに書かないの?」と聞いたら「んー、まあいいや」とつれない返事です。なのでノートをこっそり写真に撮ったので一部だけ公開します(一応Natsuには許可をとっています。最初写真を5枚載せようとしましたが、許可が出たのは3枚でした。)。


IMG_5318

IMG_5319

IMG_5320


このノートも実は全部出来上がってから初めて見せてもらったのですが、まあよくまとめてあります。私も車を出したのだから、共同研究者くらいに入れてくれればいいのに、全然お構い無しでした。


最近悩んでいるのが、動画スタックによる画像の分解能の限界です。まだあまりよくわかっていないのですが、とりあえず簡単なことから始めようと思います。今回知りたいことは、そもそも「動画スタックでドーズ限界を超えることができるのかどうか」。印象としてはそんなんとっくに超えてるんじゃない?と勝手に思っていたのですが、実は確かめたことはなかったので、少し検証してみました。

IMG_9336



まずドーズ限界を感覚的に知るために、木星がもしドーズ限界で制限されるとしたらどのような画像になるかを試してみました。元画像はハッブルで最近(2018/4/25)撮影されたのものです。

JupiterOpal_HubbleMasztalerz_1880

検証するには十分な解像度があります(実際の画像は上の画像をクリックして拡大して見てください)。NASAの画像は著作権を主張していないとのことで、このようにブログでも使うことができるのでありがたいです。


これを手持ちのC8の画像と比べてみます。下は去年の惑星シーズン(2017/6/8)に撮影したもの。口径200mmでASI224MCを使いました。C8としてはそれほど悪い方でもなく、ちょっと頑張ればここら辺までは出るくらいかと思います。カメラがASI224MCでカラーなので、モノクロでL画像を撮ればもう少し改善の余地はあると思います。
2017-06-08-1241_5-RGB2


まずはドーズ限界による分解能を計算します。ドーズ限界は

115.8 / D [秒]

で表され、Dは口径をmmで表したものです。C8は口径203mmなので

115.8 / 203 = 0.570秒

となります。木星の視直径は変化しますが、撮影当時の視直径は調べてみると39.6秒だとのことです。なので、木星の直径を39.6/0.570=68.4ドットで表せばいいことになります。

Hubbleの画像の木星の直径(画面全体ではないことに注意)がキリのいい68ドットになるように画像の解像度をPhotoShopで落とし(その際、見かけが近くなるように彩度を落とし、上下逆にしました。)、その後、元のドットになるようにバイキュービック法で再び解像度を上げました。その結果がこちらになります。

JupiterOpal_HubbleMasztalerz_1880_200mm2

自分でC8で撮った上のものと比較してみると、ざっくりいって、ドーズ限界と同じかもう少し悪いくらいの分解能だったことがわかります。うーん、では状況がいいとドーズ限界に近づいていくのか、それでも超えることはないのか?もう少し検証してみます。


次にC14を想定して、355mmの口径の場合で、最近の木星の視直径44.1秒を仮定してドーズ限界での画像を再現してみると

JupiterOpal_HubbleMasztalerz_1880_355mm

くらいになります。これだと木星の直径を136ドットで表すことに相当します。ところが、例えばC14で最近撮影された日本の惑星撮影で代表的な「RB星のブログ」さんの2018/4/21の画像(RB星さんのご好意で掲載許可をいただきました)

j180421s1

と比べると、明らかにドーズ限界を超えて綺麗に見えています。この日はシーイングがベストではなかったとのことですが、C14では最高峰に近い木星画像かと思います。

ちなみにドーズ限界を1.5倍くらいよくしたものが

5

になりますが、これくらいだとだいたい同じくらいか、まだ撮影した方が少しいいくらいでしょうか。高々1.5倍の解像度増ですが、見え味は相当よくなるのがわかります。ちなみに今回の場合、2倍だと明らかに良くなりすぎてしまうので、条件が整えばドーズ限界の1.5倍から、2倍くらまで迫ることが出来そうだということがわかります。

うーん、でも個人的にはドーズ限界なんかはもっとはるかに越えていけるのかと勝手に思っていました。意外に近い結果でしたが、まあ考えてみれば光学的には回折限界から来ているので、当たり前かといえば当たり前ですかね。

ただし、波長によっても分解能は違うはずで、PhotoShopでRGBにチェンネル分解し波長に応じてドーズ限界を求めて再びチャンネル統合して試してみたのですが、Rが解像度が悪くなり、Bが解像度が良くなるので、結果的には相殺しほとんど見た目の影響はありませんでした。なので、上の画像には波長の依存性は入っていません。

こうやってみると、やはり口径の効果は大です。他の素晴らしい成果を出している方々の画像を見比べてみても、C8よりC11、C11よりC14の方がより精細なところまで描写できているので、やはりドーズ限界のような光学的な限界がまだまだ効いていると言えるでしょう。ここにシンチレーションなどの効果が邪魔をしているので、現在の手法はそのシンチレーションの効果を除き、いかに光学的な限界まで迫るのかという状況なのかと思われます。

では他に何が関わってくるかというと、例えばシンチレーションの軽減には
  • 露光時間(転送速度とも関係あり)
  • スタック枚数
などが関わり、ノイズには
  • カメラの感度
が関わってくると言えるでしょうか。カメラをモノクロにしてLを撮影してさらに解像度が上がったりもしているので、感度も解像度に効いてくると思うのですが、まだそのメカニズムがよく理解できていません。また、C14くらいの口径では
  • カメラの解像度
は今回の検証から考えるとまだまだ余裕がありますが、さらに大きい口径だと解像度が効いてくるようになるのかと思います。あと大きな効果は
  • 画像処理
でしょう。特にRegistaxなどのWavelet処理は見た目の解像度に大きく影響します。

さて、モノクロカメラを買うかどうか。まだ結論は出てませんが、まずは今のカラーカメラで口径を250mmで撮影してみて、去年の結果を超えることを目標にして、その結果が出てから考えます。



P.S.T.でFabry-Perot etalonを扱い始めたので、そこらへんの理屈を少しまとめておきたいと思います。今回はまず、前回示したFSR(Free Spectral Range)が、なぜこのような式になるのか簡単に考えたいと思います。

IMG_3672


 写真はゴムの滑り止めのリングを外して中のネジを取って、金属のリングを外したところ。本来このネジのところにシールが貼ってあって、はがさないような指示があるらしいのですが、購入したものにはそのようなシールはありませんでした。既に誰かが剥がしたのでしょうか?

このリングを外すと中にいくつも穴が見えます。この位置を調節することにより、エタロンの入射光への角度をより大きく変えることができるそうですが、これは次回晴れの日に実際の像を見ながら調整したいと思います。


概念
  1. 簡単のために波長1μm(マイクロメートル、10^-6m, 1e-6m)の赤外光を考えます。
  2. これまた簡単のために、まずはエタロンを構成する2枚の鏡の間の距離を上の光の波長と同じ1μmとします。
  3. このエタロンに上の光を入れると、ちょうど波長の長さとエタロン間のギャップの長さが同じなので定在波がたち*(もう少し詳し話は最後にします。)光が共振します。すなわち対物レンズ側から入った光がアイピース側に十分透過していきます。
  4. 次にエタロンを構成する2枚の鏡の間の距離を光の波長の10倍のと同じ10μmとして考えます。この場合、ギャップ感には10個の波がちょうど入ることになります。定在波が立つので、光は透過していきます。
  5. さてここで、ギャップの長さを10μmに保ったまま、波長の長さを少し長くしてみましょう。どれくらい長くするかというと、ギャップに9個波が入るくらいの長さの波長にします。10μm/9=1.11...μmくらいの長さの波長ということです。この場合も定在波が立つので光が共振し、光はそのままエタロンを透過していきます。
  6. 逆に波長の長さを短くして11個入れてみましょう。10μm/11=0.9090..μmの波長の光です。これも共振し透過します。
  7. 同じように、8個の波、12この波...も全て透過していきます。これが櫛のように光の波長を周期的に通すという理屈です。
  8. ギャップの長さをさらに10倍して100μmのものを考えましょう。100個の波も101個の波も99個の波も...透過していきます。P.S.T.では使われているエタロンは0.1mmくらいのギャップだというので、これくらいの数の波が実際にエタロンの中に入っていることになります。あ、ターゲットはH alphaの0.6536μmの長さの波長なのでもう少し入っている波の数は多いですね。

定式化

さて、理屈がわかったのでこれを式にしてみます。前回書いた式を考えてみましょう。

Δλ=λ22nlcosθ

  • λ: 中心波長、今回の場合6563Å=656.3nm。
  • n: キャビティー中の媒質の屈折率、今回の場合空気なので1でいいでしょう。
  • l: 2枚の間の鏡の距離、今回の場合0.1mm以下程度とのこと。
  • θ: 光の入射角、PSTの場合ここを回転つまみで調整している。動かせる幅はPSTでは0.5度程度とのこと。

1. まず、エタロンのギャップの中に含まれる波の数は

m=lλ [個]

と書くことができます。

2. エタロンのギャップの長さをキープしたまま、入射する波長の長さを変えていった時に、波長がどれくらいおきにエタロンを通過するかは大まかに言って、エタロンのギャップの長さを、含まれる波の個数で割った長さごとに起きるので、

Δλ=λm=λ2l

と書くことができます。だんだん近くなってきました。

3. ここで波はエタロンを往復しているこいうことを忘れてはいけません。そのためにエタロンのギャップの長さlの効きが2倍になります。そのためにlのところに2をかけます。

Δλ=λ22l

4. エタロンの中の媒質の屈折率が上がるとそのぶん波は進みにくくなるので密度が増します。周期的には短くなるセンスです。これは1次で効いてくるので分母にnと置いてやって割ります。

Δλ=λ22nl

5. 最後に、エタロンを光の入射方向に対して傾けると入射光から見るとエタロン間のギャップの距離が1/cosθで長くなったように見えます。これはFSRが長くなるセンスです。その項を考えると

Δλ=λ22nlcosθ

となります。やっと先日書いた式と同じになりました。

実際にはP.S.T.では入射角を0.5度程度を変えられるらしいです。近似でcosθ = 1 - θ^2 / 2と考えると、cos(0.5deg) = cos(0.5/180 * pi) = cos(0.0087) = 1- 0.0087^2/2 = 0.999962とほとんど1に近くなりますが、FSRが変わるということは、個々の透過光のピークトピークの間隔がこれくらい変わるということなので、全体の長さはこれのλ / FSR倍くらい変わるはずです。波長が600nm程度でFSRが2nmとすると300倍くらい効くはずで、1- 0.0087^2/2 * 300 = 0.978となり、透過光のピーク位置でFSRの2%くらいは変更できるはずです。うーん、でもまだ変化が小さすぎるような気がします。何か計算間違ってますでしょうか?



補足: 光の共振

上で「定在波が立つ」という書き方をしましたが、あまり正確な表現ではありません。もう少し正確に記述します。

エタロンの対物レンズ側の1枚目の鏡を(ある透過率で)透過した光が、アイピース側の2枚目の鏡で反射して、1枚目の鏡に戻り再び1枚目の鏡で反射します。その時対物レンズ側から入ってきた光と先ほどの反射光の光の位相が一致すると光は強めあって共振します。それらの光はまた2枚目の鏡で反射し、さらに1枚目の鏡で外から入射してきた光と(今度は自動的に)位相が合うので、さらに共振して強め合います。このような折り返し反射を何度か繰り返すのですが、何回くらい折り返すかはエタロンで使っている鏡の反射率と透過率で決まります。

例えば、反射率90%、透過率10%の鏡を両端に持っていると、最初に1枚目の鏡を10%光が透過して入ってきます。その光は2枚目の鏡で10%抜けるけれども9割は戻ってきます。戻ってきて9割は1割は入射側に抜けていきますが、9割は反射するので、約8割はまたエタロンの中に戻されます。大まかに言って1割抜けていくのを10回繰り返すと光は全て共振器の中からなくなるでしょう。この場合、10回片道旅行できるので5往復します。

これが反射率99%、透過率1%の鏡を使うと、100回片道旅行ができるので50往復できるでしょう。ただし、鏡のロスとかを無視しているので、ロスがあるとこの回数は当然減っていきます。P.S.TはFinesseが15程度といっているので、折り返し回数は15 / Pi * 2 = 10回程度とすると、反射率95%、透過率5%程度の鏡を使っていると考えられます。

とりあえず訂正的な説明と、少し数値を入れてみましたが、イメージは多少しやすくなったかなと思います。式をきちんと書いた方がスッキリするかもしれませんが、また時間とやる気のある時に書いてみるかもしれません。

 続き その6へ: 実際に太陽での撮影をしてみました。 

Natusです。今年(中1)の夏休みの自由研究を紹介します。

夏休み明けに学校に提出した後、学校で展示していました。1ヶ月ほどで返って来たのですが、そのまま放りっぱなしになっていました。せっかくなのでブログにまとめておきます。


IMG_3281


テーマは「手動赤道儀の恒星自動追尾化」です。
去年の自由研究の「星でめぐる銀河鉄道の夜」に続き、今年も天文関係のテーマにしました。
夏休み前にハンドルを手で回して星を追う手動赤道儀型の天体望遠鏡を手に入れたので、手でハンドルを回さなくて済むように、自分で赤道儀を自動追尾化させてみようという内容です。




IMG_3278

使用した望遠鏡:ポラリス80L

<望遠鏡の説明>
    夏休み前に名古屋のスコーピオで手に入れました。

望遠鏡セット:Vixenのポラリス80L
       40年ほど前の製品で、1980年にはすでに発売されていたことが確認できた
      
   赤道儀:手動
       赤緯を0度にすることで経緯台にもなるタイプ
       目盛り環付き
       赤経、赤緯軸ともに微動ハンドル付き

<視野角の測定>
 昼間に下の写真のように望遠鏡から10m離れたところにあるメジャーを見てどのくらい見えるのかを調べ、その結果から望遠鏡の視野角を計算しました。 
IMG_3285

望遠鏡の視野角の測定

<赤道儀を動かす>
目標は「10分経っても視野の中心に入れた星が真ん中と端の中間を超えない」ようにすることです。そのためにはできるだけ正確に10分間で微動ハンドルを1回転させる必要があります。    
 
IMG_3286

                                               
1番のポイントは微動ハンドルをどうやって回すかということですが、最初、重りを使って回してはどうかと考えました。モーターの代わりに何らかの重りを使って回転軸をまわすというものです。

ところが、重りでは動摩擦係数と静止摩擦係数の差が大きすぎるため、なかなか星を追う時の回転速度を安定させて出すような仕組みは作れそうにないことが分かりました。



次にモーターで赤道儀を動かすことにしました。

IMG_3273

モーターを取り付けた写真

 
モーターのギアと微動ハンドルを外したところにつけたギアを噛み合わせて動かします。
モーターの回転速度は計測するとぴったりでそのまま使うことができました。



IMG_3283

極軸が1°ずれたときの星の動きと赤道儀の動きの誤差の計算

<実測>
実際に星を自動追尾させてみました。
モーターで星を自動追尾させ、目標の視野の真ん中と端の中間を超えるまでの時間を計測します。
前の日も計測をしたのですが、極軸を正確に合わせていなかったため、8分ほどで星が中間を超えてしまいました。
今回は極軸をできるかぎり正確に合わせました。(2分のずれ)

IMG_3277



結果、1時間経っても星は視野の中心からまったくずれませんでした。極軸合わせで結果がここまで変わるのかと驚きました。



<結論・感想>
元々の目標の10分間の追尾を大幅に越して、1時間をこえても目では確認できないくらいの星像の流れに収めることができたので、大成功です。
今までただ見ていただけの星を自分で追いかけることができると分かったことに、何より感動しました。
来年はもっとレベルアップしたものに挑戦したいです。



夜に晴れるのを待ちこがれながら、雪の日曜日の昼間にSharpCapでテストをしています。β版がまた期限切れになってしまったのでアップデートしたら、ヒストグラムがすごいことになっていました。


ヒストグラムと情報

小さなヒストグラムがLive stackモードにしなくても使えるようになったのは以前報告しましたが、右の狭いエリアの中にしか表示できなかったので、見にくかったのと操作がちょっとしにくかったです。今回のアップデートでは、以前Live stackモードでしか出てこなかった大きな画面でのヒストグラムが、スタックとは独立にいつでも見えるようになりました。上の方のズームのすぐ右にある緑色のアイコンを押すと出てきます。もしくは「Tools」メニューからから選ぶこともできます。

まず便利なことは、カーソルを置くと、その位置での情報が見えます。

IMG_3254


意味は上から順に
  • Value: 横軸に相当。一番右端で2048(11bit?なぜ?)で100%になります。
  • Count: 縦軸に相当。カーソルを置いた位置でのピクセル数。
  • True ADU: 横軸に相当。ADCで数えたカウント数。一番右端で今回の場合14bitなので16384。単位は [ADU]。
  • Electrons: 上の数にコンバージョンファクターfcをかけたもの。単位は [e-]。
  • Electron Rate: 謎です。単位は[e-/s/um^2]
となるみたいです。また、RGBそれぞれの平均値(Mean)と標準偏差(SD, standard deviation)もわかるのもすごいです。

これらのヒストグラムの値は、デフォルトでは全画面ですが、上の方の赤い枠が表示されている小さなアイコンを押すと、エリアが選択できるようになり、場所と面積を任意に選べるようになります。その場合はヒストグラムはそのエリア内の情報を示すようになります。


読み出しノイズの影響

これだけでもすごいのですが、このヒストグラムの真骨頂は使っているセンサーの性能から、今見ている画面が読み出しノイズに支配されているか、ADCの分解能の影響があるかないかなどが、大まかにですがものすごく簡単にわかることです。ただし、まずはセンサーの性能を測定しないと、この機能が出てこないので注意です。8bit rawモードもしくは16bit rawモードで測定する必要がありますが、測定したモードの分しかこの機能は出てきないので、これも注意です。

さて実際の機能ですが、ヒストグラムの上の方に2本の色付きのバーが見えます。上のバーが読み出しノイズがどれだけ影響するかを示すもの。星雲の淡い成分もヒストグラムのピークより少し右側くらいにいますから、目安としてはヒストグラムのピーク位置で考えればいいと思います。このピークがどの色のところに来ているかで、読み出しノイズが支配的かどうかがわかります。赤のエリアにピークが来ている場合は、読み出しノイズが支配的なので、露出時間を長くすると読み出しノイズの影響を抑えることができるということを示しています。

IMG_3248
ピーク位置が上のバーの赤色のところにあると、読み出しノイズに支配されています。
露出時間を上げることで画質が改善されます。


オレンジはまだましですが、それでも読み出しノイズに影響されています。これもさらに露光時間を長くとった方がいいということです。

IMG_3247
ピークがオレンジのところだと、読み出しノイズが画質に明らかに影響があるという意味です。
これも露出時間を伸ばすと画質が改善されます。


グリーンのところに来ていれば問題ありません。このエリアになるまで露光時間を増やすといいということがわかります。

IMG_3250
この緑のところにヒストグラムのピークが来ると、読み出しノイズは画質には影響ありません。

上のバーの色の割合は、ゲインを変えると変化します。それぞれのゲインにあったピーク位置が存在するということです。一方、露光時間を変えただけではバーの色の割合は変化しません。このことはちょうど昨日記事にした、「読み出しノイズは露出時間を長くすると無視することができるようになる」と言っていたことと一致します。でも、昨日の時点でこの機能のことは知らなかったので、今朝のアップデートはものすごくタイムリーな機能を知ることとなりました。


ADCのbit分解能は十分?

一方、下のバーは8bitでいいのか、16bitの方が有利なのかを教えてくれます。 左の緑のエリアにピーク位置があると、8bitでは足りていなくて、このASI224MCが持っている14bit、もしくはもし得られるならばそれ以上のbit数の方が有利ということを示しています。

IMG_3252
ここの位置にピークが来ていると、SharpCapの設定で8bitにした場合と、
16bitにした場合に明らかに差があって、16bitに設定した方が有利だと示しています。


一方、ピークが黄緑の位置にある時は8bitでも14bitでもどちらでも画質に差はないということを示しています。

IMG_3253
黄緑のところにヒストグラムのピーク位置がくれば、
8bitモードでも16bitモードでも差がないということを示しています。



このことは、長年の疑問の一つ、ピーク位置をどこに持ってくればいいのかという疑問に対して一つの指針を示してくれています。ゲインを上げて、ピーク位置を黄緑のところまで持ってくれば8bitでもいいということです。ただし、これには注意が必要で、ピークを右側に持ってくれば当然明るい部分が飽和するまでに余裕がなくなってしまいます。なので当然14bitで撮影する(SharpCapの設定では16bit RAW)として、ピーク位置を緑と黄緑の境界くらいに持って来ると、暗い方の階調に関しては手持ちのbit数を最大限引き出しているということになるのかと思います。ただし、これも明るい部分の飽和には注意する必要があります。


背景光の測定モードも

他にもまだスカイノイズの測定もできるようです。バーの左上の脳みそマークを押すと、測定画面が出て来ます。こちらは暗い空を必要とするようなので、またいずれ試そうと思います。 

IMG_3255



最近のSharpCapのアップデート、特にTool類の追加はセンサー性能実測機能にとどまらず、凄まじいものがあります。特に最近個人的にはちょうどカメラのノイズのことを考え出したので、(もちろんただの偶然ですが)まるで自分のノイズの理解度に呼応してアップデートしてくれているような気分になってしまっています。 
 

KYOEIさんの在庫ありでせっかく手に入れることができたASI294MCですが、すでに一週間何もできずに過ごしてしまっています。昨日の朝起きたら、久しぶりに青空が広がっていて期待したのですが、夕方にはすでに曇り。今日はまたこれから雪みたいです。天気だけはどうしようもないので、相変わらず脳内ミュレーションです。今日はノイズについてもう少し考えてみます。


FullSizeRender

今日も家の外は雪景色。北陸の冬は天体観測には厳しいです。

カメラによる天体撮影をする時、誰もが綺麗な仕上がりになることを目指して撮影に臨むわけですが、最初は何をしたらいいのか、完全に手探りで全くよくわからないものです。それでも調べていくうちに、先人たちの貴重な経験から色々な手法があることがわかり、それに従ってマスターしていけばかなりのレベルで撮影ができるようになってきます。ところが、ある事柄について全く方向性が逆の手法が示されていたり、おまじないのようになぜそれをしなければならないかなど、手法の根拠がよくわからないということがよくあります。何が正しくて何が間違っているかよくわからなくなるのです。その助けになればいいと思って、ノイズのことをいろいろ調べたり考えてみましたので、メモがわりに書いておきます。


0. 天体撮影におけるノイズの一般式

まず一般的に天体撮影をする時にどういったノイズが出てくるかですが、定性的な話は調べるとたくさん出てくるのですが、きちんと式で説明してくれているようなところはなかなか見つかりませんでした。それでも天文系のCCDカメラやCMOSカメラを研究、開発しているようなところは、やはりノイズについても相当定量的に調べていて、我々アマチュア天文家の撮影にも使えそうな定式化をしてくれているので、そこらへんの話を考えてみます。

CCDカメラやCMOSセンサーを使ったカメラでの天体撮影において、信号とノイズの比S/Nは

S/N = (n t Ssig/ sqrt( A n σ^2 + A n t SskyA n t Sdark + n t Ssig) ∝ sqrt(n)

と書くことができます。ここで
  • A [pix] : 開口面積
  • n : フレーム枚数
  • σ [e-/pix] : 読み出しノイズ
  • t [s] : 1フレームの積分時間
  • Ssky  [e-/s/pix] : スカイバックグランウンド
  • Sdark  [e-/s/pix] : 暗電流
  • Ssig  [e-/s] : 天体からの信号
です。この式から様々なことがわかります。

まず、この式は全てのノイズ(分母の方)は枚数nを増やせば増やすほど、原理的には枚数のルートに比例して増えていくことを示しています。ノイズは減るのではありません、増えていくのです。その代わりに、ターゲットの信号に当たるS(分子の方)も枚数の1次で比例して増えていくので、結果としてS/Nは

/ sqrt(t) = sqrt(t)

で向上して行きます。もっと簡単に言い換えると、コンポジットした枚数のルートに比例して綺麗になっていくということです。

次に、分母のノイズの中身をもう少し詳しく見ていきましょう。


1. 読み出しノイズ

まず、読み出しノイズは積分時間によらず一定です。このことは、読み出しノイズは一枚のフレームをとるたびに必ず一定量入りますが、長く撮っても増えもしなければ減りもしないということを意味します。もちろん信号Sは時間の1次に比例して増えていくので、S/Nは結果として時間の1次で良くなっていきます。これはその他の時間のルートに比例して増えていくノイズと比べて、長時間かけて撮影するならば無視できうるノイズということになります。でも誤解しないで、式を今一度よく見てください。読み出しノイズは枚数を増やしても他のノイズと効きが同じでなだけで、無視できるようにはなりません。一枚あたりの時間を伸ばすことで初めて無視できるノイズということです。ここら辺は目からウロコの方も多いのではないでしょうか。私も最近まで意識できていませんでした。

読み出しノイズ以外のその他のノイズの振る舞いは、時間と枚数に関しては良く似ています。読み出しノイズを無視した形でS/Nを再び式を書くと


S/N ~ (n t Ssig) / sqrt( A n t Ssky + A n t Sdark + n t Ssig)
          = Ssig / sqrt( Ssky + Sdark + Ssig) x sqrt(n t∝ sqrt(n t)

となります。今度は時間のルートで全てのノイズが増大(減少ではありませんよ)していって、信号Sは時間の1次で比例して大きくなっていくので、結果としてS/Nが時間のルートで向上していくというわけです。nについても同じような関係になるため効果は同じですね。もう少し噛み砕いていうと、一枚の撮影時間をふやすか、もしくは撮影枚数を増やす、すなわちトータルの撮影時間を増やしていけばいくほど、そのルートで綺麗になっていくということです。


2. ダークノイズ

さて、分母に残った3種類のノイズの中で一番馴染みがあるのはダークノイズでしょうか。これはダークフレームを撮影した時にホットピクセルやクールピクセル、アンプの熱雑音ノイズなどに起因して明るくなったりするパターンノイズなどという形で実際に見ることができると思います。ここで注意ですが、そのダークフレームの中に写っている真っ暗に見える部分にも、ある程度の写り方のバラツキが存在するということです。ばらつきに関しては、すぐ下のノイズの説明のところで詳しく説明します。ダークフレームも時間をかけて撮影すると、時間のルートに比例してノイズが大きくなってきます。


3. スカイバックグランドノイズ

スカイバックグラウンドノイズは光害などに起因する背景の明るさのノイズですが、普段の撮影では、最もよく目にしているはずのノイズで、最も問題になるはずなのに、あまり定量的に議論されているのを見たことがありません。実はこれは撮影した画像からきちんと測定できるものなのですが、私もまだ実際に評価したことはないので、機会のある時に真面目に測ってみたいと思っています。撮影したときのある内部ゲインの時の、ADU(ADCのカウント数)からe-(センサーで数えられた電子の数)へのコンバージョンファクターfcが分かっていれば、画像の中での星が写っていない背景部分のADCのカウント数を数えることによって、きちんと定量的に見積もることができ、かつ電子の数として他のノイズと直接大小を比較できるわけです。ただ、ひとつ誤解を招かないようにしておきたいのは、今議論している画像というのは、すでにフラット補正もされて、背景光のオフセット分(DC成分)を差っ引いて、ノイズとなる揺らぎのみを考えているという意味です。なので、背景部分のADCのカウントをそのまま数えるのではなく、ある範囲のピクセルを多数数えて、そのバラつきを測定しなくてはいけません。また、ノイズがバラつきであるということを意識できていない場合が結構あるようなので、少しだけ説明しておきます。


ノイズとは

そもそも天体撮影におけるノイズとは一体どういうことなのでしょうか?ノイズを考えるには統計のことを少し知らなくてはなりません。例えば一台のカメラを使って全く同じ場所、同じ明るさ、同じ温度で多数枚の撮影をすることを考えます。赤道儀に望遠鏡を乗せて、カメラで設営するという状況で構いません。ゲインや露光時間も同じとします。適当な露光撮影、例えば1秒で、1000枚の画像を撮ったとしましょう。全く同じ状況なので、1000枚とも同じような画像が撮れると思いますが、ある一つのピクセルに注目した場合、1000枚とも全く同じ明るさ、言い換えると全く同じADCのカウントで全て記録されているでしょうか?通常はそんなことはありえません。よく似た明るさにはなるので、1000枚の平均値はある値を持ち、その値がそのピクセルでの明るさと言ってもいいともいます。ノイズというのはその平均値からどれくらいずれているか、そのずれがどれくらいの範囲に散らばっているかということを表す量です。細かい統計の話は教科書のようなものに譲るとして、ここで理解しておきたいことは、一般にノイズというのはバラツキ具合を「標準偏差σ」で表しているということです。標準偏差σという言葉に拒否反応を起こす人もいるかもしれませんが、最低限理解したいことはただ一点のみ。ある測定をしたときに、このバラツキの68%が標準偏差σで表される範囲内に入っているということです。

例えば先日測定したASI294MCの読み出しノイズは1.3[e-]ですが、これは平均値はよくわかりませんが、そのバラツキの68%は1.3[e-]という値の中に入っていますよという意味です。平均値はよくわからないので例えば10[e-]としましょう。ノイズはバラツキなので測定値がたまたま平均値と同じ10[e-]の時もあれば、10.1[e-]の時もあります。11.2の時もあれば11.5のときもあります。たまには12.6という結構外れた値をとることもあるでしょうし、13.9とかいうかなり外れた値をとる可能性も0ではありません。標準偏差のすごいところはここで、この場合10 - 1.3 = 8.7 [e-]から10 + 1.3 = 11.3 [e-]までの間に測定値が来る確率が68%と分かってしまうことです。もっと言うとσ=1.2 [e-]の倍の2.4[e-]、この場合2σ (にしぐま)と言いますが、この範囲に入っている確率は95%ということです。もし12.6[e-]なんていう値が測定されたら、これはありえない方5%に入っているので珍しいというわけです。ちなみに3σ = 3.9 [e-]なんていうと99.87%とほとんどの値が入ってしまうので、今回の場合13.9 [e-]以上なんていうとんでもない値をとるのは1000枚のうち1.3枚ほどしかないのですが、可能性としては0枚では決してないのです。

上は1000枚のフレームのある同じ1ピクセルについてのみ考えましたが、背景光なんかを測定する場合にはある一枚の100x100ピクセル分の平均値とバラツキの標準偏差を測定してやってコンバージョンファクターを使い電子の数に換算してやることで、読み出しノイズなどのその他のノイズとの大小が議論できるようになるというわけです。


4. ショットノイズ

さて式に戻って、分母の最後の残りsqrt(Ssig)についてです。これは入っている信号のルートに比例して出て来るノイズです。いろいろWebを調べていると、ダークノイズとショットノイズを混同しているケースた多々見受けられます。ショットノイズはセンサーに光を入れた時に、その光の量のルートに比例して出てくるので、真っ暗な時に出て来る限界のようなダークノイズとは別で扱う必要があります。ノイズなので、当然そのバラツキ具合で議論します。具体的な例でいうと、淡い星雲のようなところでは、当然星雲からの明るさがセンサーに入っているので、ダークノイズや、背景光のノイズもありますが、それに加えて星雲そのものの明るさのバラツキ具合もノイズとして考えなくてはいけません。また、天体がない背景の部分では逆に信号としてのSsigが小さいので信号Ssigからのバラツキも小さいため、Ssig起因のショットノイズは無視できるでしょう。


考察

以上のことから、ノイズを考えていくと、定量的にいろいろなことが評価できる可能性が見えてきます。実際には
  1. ある性能を評価したいカメラを使い、あるゲインを設定します。
  2. 既知の明るさが分かっている星を利用して、Ssigを測定してカメラのキャリプレーションのようなことを行い
  3. Sskyを測定することで
  4. そのカメラ、そのゲインでの限界等級を求める。限界等級は測定時間の関数になる。
  5. ゲインを変えて、各ゲインでの限界等級を繰り返し求めていく。
というような経緯で、カメラの性能をきちんと出すことができます。でもこれ真面目にやろうとすると結構大変で、私もそのうち余裕ができたらやろうと思っているくらいです。


定量的な評価まで行かなくても、式からわかる定性的な評価だけでも結構面白いです。例えば分母のノイズの項を考えてみましょう。理想的な暗い空では

Sdark ~ Ssky << Ssig

というような状況かと思います。冷却カメラはこのような状況時に非常に有効です。冷却はダークノイズを下げることができるので

Sdark << Ssky << Ssig

というような状況を作り出せてしまい、より高いS/Nを目指せます。

が、こんな状況はまれで普通は光害などがあり、淡い星雲などを写そうとすると

Sdark << Ssky ~ Ssig

というようになってしまいます。この場合はもともとダークノイズが十分無視できるため、冷却の効果は期待できません。光害地では冷却はあまり意味がないということになります。都市部などもっとひどい時には淡い天体は

Sdark << Ssig << Ssky 

というような状況にもなりますが、こうなってしまうと画像処理で無理やり天体をあぶり出す必要が出てきます。もちろんこのような状況でも撮影枚数や撮影時間を長くとることで、S/Nを改善することはできるということが式の上からわかります。


あとがき

今回色々式から天体撮影のノイズが原理的にどのような振る舞いをするのかを考えましたが、それでもしょせん式から導き出した推測だけに過ぎないことは心に留めて置いてください。なんでもそうなのですが、理論と実測は違います。例えば、S/Nはコンポジット枚数のルートに比例して無限に良くなっていくかと思いがちなのですが、実際にはそんなことはなく、ある程度の枚数に達すると改善しなくなります。例えば考えていなかったノイズに支配されてしまったりするからです。枚数をきちんと重ねられる方は、やはり撮影時の条件がきちんとしていて、多数枚のコンポジットにも耐えうるようなそもそもの素材を作り出していると言えるのでしょう。

もう少し言うと、一般的にどんな実験もそうなのですが、条件をきちんとしてかなり理想的な状況を作り出せば実験は理論に近づいていきます。でも通常は理想的な状態を作るのはものすごく大変なので、なかなかうまくいかないのです。理論が足りなかったり、実験条件が不十分だったりする場合がほとんどです。天体撮影は、夜のしかもとても暗い中でするので、決して環境がいいとは言えません。くれぐれも理想を追い求めるあまり無理をしすぎたりしないで、できないものはできないと割り切って、趣味の範囲で楽しみながら、少なくとも私はそのように進めたいと思っています。


おまけ

最後におまけとして、ノイズを考える例として、コンバージョンファクターを求める時に使った関係式

([ADU])^2 = [ADU] / fc [e-/ADU] + (Nread [e-])^2 / (fc [e-/ADU] )^2


の証明をしてみましょう。証明と言ってもあまり数学的にやるのもつまらないので、できるだけノイズの物理的な意味を具体的に理解できるように考えたいと思います。

ものすごく簡単に考えると、スタートはショットノイズの関係式ということになります。ショットノイズは信号のルートに比例するということです。式で書くと

[e-] = sqrt(S [e-])

両辺2乗して

([e-])^2 = S [e-]

コンバージョンファクター(gain) fc [e-/ADU]を考えると

(fc [e-/ADU] x [ADU])^2 = fc [e-/ADU] x S [ADU]

両辺fcの2乗でわると

([ADU])^2 = [ADU] / fc [e-/ADU]

という求めたい式の読み出しノイズを無視した形が出てきました。これは簡単に信号をショットノイズのみで考えたたためで、信号をきちんとショットノイズと読み出しノイズからなると考えると

[e-] = sqrt( (S [e-])^2 +(Nread [e-])^2 ) )

となるので、同様にして求める式がでてきますが、実際にコンバージョンファクターを求める時も読み出しノイズを無視できるくらい長時間をかけて測定するので、前半までの証明でも十分かと思います。


 

先日の記事で、メーカーが出しているASI294MCの性能のグラフの読み方を考えてみました。実際の性能を確かめるため、SharpCapを使い手持ちのASI294MCの実測もしたのですが、記事自体はかなり一般論になっていて、じゃあ具体的にどのような設定で使えばいいのかという話まではまだ繋がっていません。今回はそこら辺のところを考えてみたいと思います。難しい理屈は嫌だという方は、今回の記事だけ読んでも実用的には役に立つのかもしれません。

IMG_3233



さて今回は
  1. 電視観望
  2. 空が暗く、非常にいい環境での撮影
  3. 光害地での撮影
という3パターンに分けて考えてみましょう。



1. 電視観望

まずは電視観望から始めます。普通の天体撮影をされる方にとっては電視観望というのはあまり一般的ではないかもしれませんが、電視観望はかなり極端な設定を必要としますので、性能の限界を考える時にはなかなか面白いのです。

電視観望では、短時間でのリアルタイムビューを重要視するために、内部ゲインを相当上げて、露光時間をできるだけ短くして臨場感を出します。その代わりにノイズは大きいですし、そのノイズを緩和するためにライブスタックと呼ばれる、いわゆるコンポジットをリアルタイムで行なっていきます。

かなり基本的なところから考えます。まず、内部ゲインを上げるとは一体どういうことなのでしょうか?物理的にはセンサーの後に増幅回路があって、その増幅回路のゲインを上げるということなのですが、これがメーカのグラフの上でどのようなことを意味するのかを考えてみます。

電視観望ではZWOの言うGainを400とか500とか600近くまで上げます。Gainは200で20dB、すなわち10倍、400で40dB、すなわち100倍、600で60dB、すなわち1000倍ということです。簡単のため電視で仮に400まで上げたとしましょう。ZWOが出しているページのグラフの横軸で400のところを見ると、Read noiseは1.4 [e-] 程度とかなり小さい値を示しています。でも画面ではなぜかノイズが目立ちます。Read noiseは小さいはずなのになぜ?という疑問が湧くかもしれません。そこにコンバージョンファクター(ZWOのグラフではGAIN(e-/ADU)となっている2つ目のグラフ)がキーとなります。この値はGain400ではかなり低く、0近くになっていてグラフから読み取ることも困難です。昨日実測した値を見て見ると0.036 [e-/ADU]と記録されています。この値でADCのカウントでどれだけノイズが目立つのか計算してみると、

1.4 [e-]  / 0.036 [e-/ADU] = 39 [ADU]

となり、何とADCの読みで39カウントもノイズが出ていることになります。じゃあ39カウントのノイズって何だと言う話になりますが、分散とかの話をすると難しくなるので、まあざっくり39カウントくらいの間で明るくなったり暗くなったりしているピクセルが画面中にバラついていると考えてください。それよりも意識しておきたいことがあって、このGain400の時のfull wellの値です。full wellとは内部ゲインが高すぎる時にセンサーの出力が限られてしまい、これ以上ADCの値が上がらない上限値のことを指します。これも昨日の実測値を見てみると、何とわずか585です。ADCの値にすると、585が最大値でそのうちの39がノイズだとしたら、1割とは行かないまでもレンジの約7%がノイズになってしまっていることを示します。これじゃあ画面がノイズだらけなのは致し方ないと言うことです。

(追記1: すみません、上の記述勘違いしていました。[e-] が単位のfull wellと、[ADU]が単位の画面のサチレーションを勘違いしていました。ADCのサチレーションカウント16384の中で39カウントノイズになっているだけです。ちなみにゲインを600まで上げると400カウントくらいがノイズになります。これだと4%くらいになるので、これくらいでさすがに目に見えるくらいですね。)

(追記2: 改めてSharpCapのfull wellの値を見ているのですが、どうもこれは真面目に全てのゲインで飽和カウントを測定したわけではなく、単にADCのフルレンジ16384をコンバージョンファクターで割っているだけのようです。これはSharpCapだけでなくZWOの測定結果も同様の方法で簡易的に出しているだけのようです。そう言った意味ではセンサーが出せる最大出力という意味での真のfull wellとは言えないので注意が必要です。あくまで、ADCの最大カウントからくるfull wellがZWO及びSharpCapで示されているに過ぎないということでしょう。)



ライブビューを謳うので露光時間もあまり上げることができません。残る手はSharpCapの秘技、LiveStackです。これは単に画面を重ね合わせるのではなく、恒星の位置を数十個自動認識して、それらが重なるように画面をリアルタイムでコンポジットしていきます。上の読み出しノイズは枚数に正比例(注: 枚数のルートに比例してではありません、ノイズに関しての詳しい議論は後日します。)して減っていきますので、見ている間に劇的にノイズが軽減されていくというわけです。

(追記: 2017/12/212017/12/23実際にASI294MCで電視を試してみました。)


2. 空が暗く、非常にいい環境での撮影

次に、かなり空が暗いすごく環境の良い状態で、撮影をすることを考えて見ましょう。まず、空が暗いということは、長時間露光してもサチルことがないので、一枚一枚の露光時間を長くとることができます。 内部ゲインx 露光時間でヒストグラムのピーク位置が決まります。ピークの位置が左から3分の1程度になればいいとか言われている(これもまた議論の余地があると思いますが、いつか検証します。)ので、適当にゲインと露光時間を調節するのですが、じゃあゲインは具体的にはどれくらいにすればいいのでしょうか?

こんな時に指標になるのが、3つ目のグラフDR、すなわちダイナミックレンジです。ダイナミックレンジはFull wellをRead noiseで割ったものをbit換算したものになります。グラフを見ると一番いいところで13[stops]くらいでしょうか、これは2の13乗を意味し、2^13=8192となるので、信号部分である天体を最大8192階調で表すことができると言うことを示しています。ここで面白いのが、Read noiseが横軸のGain120あたりのところで、いきなりジャンプして劇的に良くなっていることです。このためダイナミックレンジも最初Gainとともに落ちていくのが、Gain120のあたりで再び良くなっています。これはGain120より多少大きいあたりで撮影するのが一番得だということを示しています。このGainでヒストグラムのピークが3分の1くらいになるような露光時間で撮るのが、最も効率のいいセッティングになります。これで時間が許す限り取れるだけの枚数を撮ってしまい、あとはコンポジットしてノイズを減らしていきます。


3. 光害地での撮影

最後に光害地での撮影です。基本的には上の最も効率のいいGain120で、露光時間を短くすることでヒストグラムのピーク位置を3分の1程度のところに持って来ればいいのですが、それでも明るすぎる場合には、Gainを0近くに持ってくる手もあるのかと思います。ダイナミックレンジが一番得をするところを探すという考え方は同じです。ただ、同じクオリティーの画質を出すのにより長い時間かかってしまうので、結局は損をしてしまうと思います。



3パターンで考えましたが、センサーの性能を理解していると、効率のいい設定をあらかじめ予測することができます。もちろんこの設定が完璧というわけではなく、例えば雲が多くて時間が限られている日には多少恒星が飽和するのを覚悟して、Gainを上げて短時間で撮影するなどの戦略をとることもできます。実はこのカメラが欲しかった理由の一つが、センサー感度がいいことを利用しての短時間露光のシンチレーション回避を試してみたいと思っていることなのですが、これはまた上の原則には当てはまらずに、いろいろ戦略を練ることになりそうです。ここら辺は追い追い試していきます。

(追記: 実は上のことだけ考えていると、一般的なカメラ撮影でもダイナミックレンジが一番広い低感度で撮る、すなわちiso100とか極端なのがいいという変な結論に陥ってしまいますが、もちろんそんなわけはないです。これをきちんと考えるためには、撮りたい天体の極限等級、露光にかけたい時間などの要求値をあらかじめ決めておかなければならず、それらの条件のものでノイズを考え、その時のS/Nから要求が満たせるかどうかの判断をして、その要求が充たせる範囲の中でゲインや露光時間を調整すべきです。S/Nの話は、定性的なお話や、定式化までは簡単なのですが、定量的に考えようとすると、読み出しノイズやダークノイズなどのカメラの性能だけでなく、ターゲット天体の明るさを信号として、空の明るさなどをノイズとして数値的にきちんと評価してやらなくてはいけません。具体的にこのブログのレベルで示せるものなのか、ちょっと今試行錯誤中です。)




さて、外を見ると今日は一日中雪が降り続いています。晴れるのはいつになることやら。

もう少し、次はノイズについてちょっとだけ議論したいと思います。


( 追記: ノイズについていろいろ検討してみました。定式化までですが、参考になればというくらいです。定量化はもう少し。)

先日の志摩での観望会で、Kさんと話をしている時に、ダークフレームは何枚必要かという話になりました。私はライト画像と同程度の枚数が必要なのではと話したのですが、Kさんはもっと少なくてもいいのではということです。で、色々考察してみました。

目的はダーク減算による改善ではなく、ダーク減算をした時に何枚くらい使えばダークフレームからのノイズでライトフレームが汚されないかを見積もることです。例えば何十枚とコンポジットしたライトフレームではノイズが平均化されて滑らかになるのですが、その際のダーク減算をザラザラの一枚だけでやってしまったら、せっかく綺麗にするはずのライトフレームの滑らかさを逆に汚すのではないかとか、そういうことです。


今回ノイズを無相関に出てくる「ランダムなノイズ」と、相関を持って同じように出てくる「コヒーレントなノイズ」に分けて考えます。

ランダムなノイズとは統計的な信号のゆらぎのことを指し、例えば光に関して言うと「カメラの画素に光を入れた時に、単位時間あたりの光量が一定でないために、ある時間露光して積分した時に一つの画素に溜まる光の量にばらつきがある」ということをいいます。また、一つの画素のADCの読み取りにも統計的にランダムな読み取り誤差が存在するので、それらも画像になった時には結果としてノイズとなります。これらのランダムノイズは時間的に無相関であるために時間的に平均化してやると時間のルートに比例して小さくなっていきます。

一方コヒーレントなノイズは、例えば光害のように、何回撮影しても同様に相関を持って入ってくる光です。センサー温度が高い時に画面の一部が明るくなるアンプノイズも相関があるノイズです。これらのノイズは相関があるため時間とともに足し合わさっていくだけなので、時間に比例して一次で増えていくノイズです。

あといくつか仮定ですが、ダークフレームもライトフレームも同じカメラで同じISO、同じ露光時間で撮影するとします。センサーの温度も変わらないとします。


さてまずダーク一枚で考えてみます。基本的に光は入れていないので、センサーに流れる暗電流で決まるようなノイズです。この一枚あたりの無相関なランダムノイズをN_darkとします。これらをn_d枚コンポジットします。コンポジットは加算して枚数で割って平均化すると言う過程なので、

sqrt( n_d x N_dark^2 ) /  n_d = N_dark / sqrt( n_d)

となって枚数のルートでノイズが減っていきます。

次にライトフレームの信号をSとすると、ライトフレームのノイズN_lightは統計的に信号のルートに比例するので

N_light ∝sqrt(S)

と書くことができます。ライトフレームもコンポジットしてn_l枚を重ねるとすると上と同様に

N_light / sqrt( n_l)

というノイズが残ります。

通常はライトフレーム一枚に対しコンポジットしたダークフレームで補正します。ダーク補正は差に相当するので、無相関なノイズにとっては2乗和のルートになるので、その場合のS/N比は

S / sqrt( N_light^2 + N_dark^2 / n_d)

となります。このダーク補正したライトフレームをコンポジットするので、信号は

n_l x S

ノイズは

sqrt( n_l x N_light^2 + n_l^2 x N_dark^2 / n_d )

となります。ここで、N_light / sqrt( n_l)は各ライトフレームに適用されているので、無相関ではなく正の相関を持っているコヒーレントノイズになり、そのまま和になることに注意です。なのでn_lの2乗で足してあります。

これらをn_l枚で平均化するので、信号は

n_l x S / n_l = S

ノイズは

sqrt( n_l x N_light^2 + n_l^2 x N_dark^2 / n_d )  / n_l = sqrt( N_light^2 / n_l + N_dark^2 / n_d )

となるため、S/N比は

S / sqrt( N_light^2 / n_l + N_dark^2 / n_d )

となります。



やっと式ができました。この式を具体的に考察します。

まず、ライトフレームをダークに近いくらい暗い空で撮るとか、そもそも非常に低いISOとか短い露光時間でとったりして、ライトフレームのノイズとダークノイズが非常に近い場合には

N = N_light = N_dark

とおいて、さらにライトもダークも同じn枚撮るとするとS/N比は

S / sqrt( N^2 / n + N^2 / n ) = S / ( sqrt (2) x N/sqrt(n) )

となり、sqrt(2)倍だけノイズが大きくなってしまいます。すなわちこのようにライトの背景とダークが近い場合はダークの枚数をライトの枚数よりも増やしてやらないとルート2倍損をしてしまいます。

ちなみにルート2倍損をすると言う意味は、ライトフレームの撮影枚数が半分になったことと等価ですので、ずいぶん勿体無いですね。

一方、ライトフレームのノイズがダークノイズよりも十分に大きい場合(十分に明るい場合ということ)にはダークの枚数を減らしていいことになります。例えば、ライトフレームの背景が100倍ダークよりも明るいとすると、ライトフレームのノイズはsqrt(100) = 10倍大きいことになります。100枚ライトを撮った時に一枚だけダークを取った時、やっとノイズがコンパラになり、その結果上と同じ様にルート2倍損することになります。式で書くと、ライトフレームのノイズをNとすると

S / sqrt( N^2 / 100 + (N/10)^2  / 1 ) = S / (sqrt( (N^2 + N^2)/100 ) = S / (sqrt(2) x N/10)

 となります。 

こんな場合でもダークを10枚とってやれば

S / sqrt( N^2 / 100 + (N/10)^2  / 10 ) = S / (sqrt(1+1/10) x N/10)

となり、sqrt(1.1) ~1.05なので、5%くらいの悪化で抑えることができます。


さて、ライトフレームの背景のノイズとダークノイズの比は一体どれくらいなのでしょうか?先日撮った馬頭星雲の画像で比べてみます。ヒストグラムのピークが背景だと考えると、ピークの位置が明るさになるので、Photoshopで比較してみます。ライトフレームのピークはざっくりヒストグラムの半分ほどなので125くらい。ダークは暗過ぎて判断できないので、レベル補正で10倍の明るさにして平均値を見て10で割ってやると3.7位です。比は34程度と、思ったより小さいです。

IMG_3190
ダーク画像を10倍明るくしたもの。平均3.3と思ったより明るいです。


ライトフレームは36枚撮影していて、ダークは30枚使ったので、

S / sqrt( N^2 / 36[枚] + (N^2/34[倍]) / 30[枚] ) = S / (sqrt(1+1/30/34x36) x N/sqrt(36) )

となります。

sqrt(1+1/30/34x36) = 1.015

なので、1.7%の悪化となり、ほとんど影響ありません。枚数にしたらライトフレーム1.1枚くらいのロスです。今回の場合は5枚も取れば10%くらいの悪化で、ライトフレーム7.6枚くらいのロス、10枚取れば5%くらいのロスで、ライトフレーム2.8枚くらいのロスになるということです。


というわけで、またかなり長い記事になってしまいましたが、結論としては、背景の空が暗くてダークに近ければ近いほど枚数が多い方がいいが、空が明るい場合は少なくてもいいということになりそうです。志摩観望会で間違ったことを言ってしまったことになります。Kさんごめんなさいm(_ _)m。

 

普段使いでいつも使っている数値です。覚えていると結構便利なので、書き留めておきます。
 
  • 分解能は口径60mmで約2秒角、口径120mmで約1秒角
ドーズ限界を考えると分解能は口径のみによって決まり、112秒角/口径[mm]と書くことができるので、ざっくり120秒角/口径[mm]と考えて60mmの場合で120/60=2 [秒角]

もっと大雑把に100秒角/口径[mm]と考えると、ざっくり口径200mmで0.5秒角と言ってしまってもいいです。


  • 1ピクセルあたりの画角は焦点距離600mm、ピクセルサイズ4umで約1.5秒
この値は私自身のシステムの場合のものなのですが、自分の代表的なシステムで一つ覚えておくと便利です。一つ覚えておくと
  • 焦点距離300mm、ピクセルサイズ4umで画角は約3秒 <- FS-60Qのエクステンダーを外しFSー60CB状態にした場合
  • 焦点距離200mm、ピクセルサイズ4umで画角は約4.5秒  -< ASI224MCで200mmでガイドしていた時
  • 焦点距離50mm、ピクセルサイズ4umで画角は約15秒 <- 現在私が使っているガイド鏡の焦点距離 (ピクセルサイズが3.75umなのでそれを考えると15秒くらい)
のように使うことができます。実際の画角を求める式は

  • 2 x arctan(画素サイズ/(2 x 焦点距離)) [rad] 

ですが、角度が小さい場合を考えているので、近似して

  • ~ 画素サイズ/焦点距離 [rad]

とします。さらに

  • radから度への変換で x 180/pi ~ x 60として
  • 度から秒への変換として60x60をかけるとして

例えば画素サイズが4umの場合

  • 画素サイズ/焦点距離 x 180/pi x 60 x 60 [秒角] ~ 0.004/600 x 60 x 60 x 60 [秒角] = 0.004 x 360 [秒角] ~ 1.5 [秒角]

となります。

よく使われる、感度がいいと言われるセンサーのピクセルサイズは多少大きめで
  • ピクセルサイズ ZWO ASI224MC: 3.75um
  • ピクセルサイズ Canon EOS 60D: 4.3um
  • ピクセルサイズ Nikon 810A: 4.9um
  • ピクセルサイズ Canon EOS 6D: 6.5um
  • ピクセルサイズ SONY α7s: 8.4um
と、4〜8um位が一般なので、せいぜいファクター2、なのでピクセルサイズで大きく変わるわけではなく、十分実用的に感覚として使える値になります。例えば、
  • 焦点距離600mm、ピクセルサイズ8umで画角は約3秒
という具合です。数ピクセルのずれが出ると、撮影して画像にした時に認識できるくらいの星像の流れになってしまうので、この値を元にどれくらいまで鏡筒の揺れや、極軸の精度を抑えればいいのか、暗い夜でもざっくり頭の中で見積もることができます。

  • 赤道儀で極軸の精度を1分角で合わせることができたら、4分間の露光で1秒角程度の星像の流れになる。

使い方としては、例えば
  • 3分角で極軸を合わせたら4分間で、3秒の流れ
  • 10分角の精度なら4分間で10秒角の流れ
  • 1度の精度なら4分間で1分の流れ
  • 4分角の精度なら1分間で1秒の流れ
とかになります。



簡単に考える方法として、極軸からどれくらいずれていたら、星像が、ある時間内でどれくらい流れるかをざっくり見積もります。
  1. まず極軸が1度ずれているとします。
  2. その場合、赤道儀で追いかける方向と、実際に星が進む方向に(ターゲットの星の位置によりますが、例えば東西に極軸がずれていたら南天において)最大で1度のずれができます。
  3. 度をラジアンにするには180で割ってπをかければいいので、ざっくり60で割ればいいことになります。なので1度のずれということは、イコール1/60ラジアンの角度を持って星が互いに別方向に行くということになります。
  4. 1時間で星は15度動くので、15度に1/60をかけたものが星像の流れになります。円弧の関係の、円の半径の部分が15度で、中心角が1/60ラジアン、弧の部分が星像のずれにあたり、この場合15度 x 1/60 = 15分角となります。角度とラジアンの変換がたまたま約60分の1なのでこの変換がなりたち、頭で考えることができるくらい簡単になりすごく便利です。
  5. 1時間で15度進むので、4分間で星は1度進み、1度のずれは上の計算から最大1分角の星像の流れを生みます。1分角の精度で極軸を合わせたら、4分間で1秒角のずれとなるわけです。

極軸は電子ファインダーなどを使うとがんばれば実測で1分角くらいでは合わせることが可能になります。これなら20分露光しても5秒くらいの流れなので、私の場合カメラの1ピクセルくらいにあたり、ここら辺が許容範囲といったところでしょうか。あ、もちろんこれはノータッチガイドの場合の許容範囲です。SWAT200のノータッチガイドでの星の流れを見積もるときに考えた簡単な見積もり方です。SWATは小型軽量ですが、その分機材に調整で触れたりすると極軸合わせの精度も変化するので、1分角を維持するというのが難しいということもわかってきました。

普通の赤道儀で2軸ともガイドさえしてしまえば、こんなに精度はいらないですね。


 

このページのトップヘ