ほしぞloveログ

天体観測始めました。

カテゴリ: アイデア、理論など

年が明けてもうだいぶん立っていますが、相変わらずやりたいことだらけです。でも時間も天気も全然思い通りになりません。なので今年の目標を書くだけ書いておこうかと思います。長期目標も入っているので、まあできる範囲ということで。


機材関連
  1. FS-60Qにカメラを付けたままでしまえるケース
  2. MEAD 25cmシュミカセ用フードをヒーターに改造
  3. Vixen Portaの経緯台の評価と安定化
  4. α7sの入手
  5. 焦点距離100mmくらいの、いいカメラレンズを手に入れる
  6. FS-60Qより長焦点の撮影鏡筒を手に入れる
  7. 双眼鏡の性能がわかるようになる
1のケースは今年初めに実家の名古屋のホームセンターで大きなものを見つけました。スポンジを入れて今はこんな風になっています。エクステンダーをつけてもカメラを外さずに入れることができます。とにかく、組み立ての時間を短縮したいので、できるだけ分解せずに出し入れできるケースにしました。何度か使ってみてもう少しスポンジの位置を調整します。

IMG_6195

2は国際光器で購入したフードがあるのですが、冬場にはヒーターが必須なことがわかりました。ヒータ付きのものはサイズが限られたり高価だったりするので、自分で改造するつもりです。実はもうニクロム線とかも買ってあるので、近いうちに改造です。

3ですが、VixenのPortaを小海の星フェスで手に入れて、自宅で一度月や星を見てみたのですが、思ったより揺れてしまいます。なんでこんなに揺れるのか、対策はできないかなど、時間ができたら試してみたいです。

IMG_5577


4は長期計画の一つで、予算ができたら手に入れておきたいと思っています。α7sとSharpCapでライブスタックができる可能性が何通りか見えてきているので、予算の都合がつけば早めに試したいところです。また、30秒縛りの星景写真でも威力を発揮しそうなので、できれば夏までには手に入れたいのですが、予算が...。

5ですが、FS-60CB+レデューサーで焦点距離255mmです。もう少し広角で撮りたい時のレンズが今のところありません。撮影に耐えるようなレンズを手に入れておきたいですが、3が先か、4が先か?

6はさらに長期での計画です。600mmを超えた長焦点の撮影鏡筒の可能性を探っているところで、今のシュミカセの延長になるのか、屈折にするのか?まだまだのんびりと結論を出すつもりです。

7ですが、このまえ安価な双眼鏡を購入しました。でもまだまだ双眼鏡を見る目を全然持っていません。そのうちレポートしますが、私にとって双眼鏡という分野はまだまだ長期計画の部類でしょうか。あ、できればもうこれ以上沼に落ちたくはないとは思っています。一応。


撮影

撮影関連の目標は結構具体的です。機材関連のことも一部入っています。
  1. FS-60CBでのレデューサとマルチフラットナーを使った継続的な撮影
  2. AZ-GTiの赤道儀モードでのガイド撮影
  3. C8での太陽Hα撮影
  4. シュミカセのコマ収差の補正
  5. シュミカセを使ったラッキーイメージ法での遠方銀河の撮影
  6. 冷却CMOSカメラに慣れる
  7. モノクロでの天体撮影
  8. モノクロ冷却カメラの入手と撮影
1はQBPの入手とともに、すでに始めています。ちょっとづつですが結果も出てきているので、継続して続けていきたいです。

2は昨年やり残したことで、ガイド付きではまだ撮影に入ったていません。すでに短時間の数ショットでは試しているのですが、長時間撮影までまだ及んでいません。近いうちに試そうと思っています。

3は昨年のリベンジです。危険でなく、口径を生かせる安価な方法を考えています。これは早いうちに試したいです。

IMG_4649
昨年C8で太陽の熱で割れたフィルター。もっと安全な方法を探ります。


4から6くらいまではセットで考えていて、最近冷却カメラを手に入れたので、夏頃までになんとかものにしたいです。

IMG_6182


7と8はまだ長期計画で、来年以降になるかもしれません。


画像処理
  1. FS-60CB用+レデューサーの四隅の処理法
  2. FS-60CB用+マルチフラットナーの四隅の処理法
新しく手に入れたレデューサーとマルチフラットナーですが、レデューサーで撮影した画像をみるとぱっと見は不満はないですが、強拡大すると四隅は完全な星像にはなっていません。画像処理でどこまで綺麗になるのか、もう少し試してみたいです。


電視観望
  1. 季節ごとの電視観望に適した天体リストの作成
  2. 電視メシエマラソン
昨年はASI294MCを手に入れたおかげで、電視観望のクオリティーが大幅に上がりました。これはセンサー面積によるところが大きいです。また、後半に手に入れたAZ-GTiが電視観望に向いているので、こちらも機材のコンパクト化に大きく貢献してくれました。

IMG_4972
AZ-GTiで電視観望用のセットアップがかなりコンパクトになりました。

2ですが、昔電視メシエマラソンの練習だけしました。月と天気を選んでまるまる一晩やってみたいです。ライブ配信とかできたらいいのですが、自宅から離れるとネット環境が厳しいのでなかなか難しそうです。


考察など
  1. シュミカセの補正レンズの設計と簡単な試験
  2. FS-60CBの光学設計を理解、フラットナー、レデューサーでの星像の再現
  3. CMOSカメラのゲインの最適値の議論
ラッキーイメージに関連して、もう少しきちんとシュミカセの理解と補正法を、光学設計の観点から確認しておきたいと思っています。あわよくば、FS-60CBで旧フラットナーとか今回購入したフラットナーとレデューサーのスポットダイアグラムの再現ができたらと思っています。

3はあぷらなーとさんのブログで質問されたのですが、なかなかパッと答えるのは難しくて、もう一度きちんと今考えることができるものを考慮して、一から追ってみたいと思っています。


その他
  1. 機材リストのアップデート
  2. 古い機材の整理整頓
星を始めてから2年半で手に入れた、ほぼ全ての機材のリストをエクセルで作っています。それぞれの値段も記載しててあるのですが、合計を取るのが怖い怖い。でも最近書き込むのをサボっているので、レシートとにらめっこでリストのアップデートが必要です。

ついでに今の機材で稼働率が良くないものを見直して、活用できる手を考えたいと思っています。


まとめ

まあ、こうやってみるとやっぱりやりたいことだらけですね。どこまでできることやら。でもどれも楽しみながらできそうで、あくまで仕事ではなく趣味の範囲なので、あせらず、やりたい時に気の向くままにやろうと思っています。

突然レンズ設計に目覚めてしまいました。ここ最近のマイブームで、四六時中ずっとレンズ設計のことを考えています。そもそもの動機が、シュミカセでコマ収差が盛大に出ていたのを、コマコレクターである程度軽減できることがわかったのですが、じゃあそもそもコマコレクター ってなんですか?というところから来ています。

IMG_5869

上の写真は手持ちのコマコレクター、バーダープラネタリウムのMPCC MarkIIIです。結構歪んで見えるので非球面レンズなのでしょうか?でも値段からいったら単純なレンズの組み合わせな気がします。説明書にはF4からF6まで対応すると書いてあるのですが、実際にコマ補正したい鏡筒はMEADEのLX-200の口径25cm、焦点距離1600mm、F6.3のものなので、少しだけ範囲から外れてしまいます。以前一度試しにつけてみたのですが、そこそこ効果があることはわかっています。

でもこのコマコレクターでこと足りるのか?最適な位置やバックフォーカスはどこなのか?もっといいコマコレクター はできないのか?と疑問は尽きず、気づいたらじゃあそもそもシュミカセってどんなものなの?という疑問に行き着きました。これを確かめるにはある程度シュミカセの設計自体を理解しなくてはダメです。


と言うわけで、前置きが長くなりましたがレンズ設計の挑戦の始まりです。どこまで続くことやら。

レンズ設計に関しては先人の理論、設計、ソフトウェアや検証など、多くの蓄積があります。まずはシュミカセに行く前に、レンズ設計ソフトを触ってみることにしました。あぷらなーとさんHIROPONさんがブログの中で試していらっしゃるので、それを捕捉する形で書いて行きたいと思います。ソフトはその中でオススメの「LensCal」です。製作者は京都の「星を求めて」でお会いすることができたラッキーイメージを得意とするYamashitaさんとのことです。Yamashitaさん、こんな素晴らしいソフトをフリーで提供していただいて、ありがとうございます。

とすぐにでもソフトに手を出したいのですが、ここではあぷらなーとさんが試したように、基準となる拠り所が欲しくて、まずはハルチング(今はハーティングと言うべきなのでしょうか)の公式に手を出してみました。


ハルチングの解とは、フランフォーフェル型と言う凸レンズと凹レンズの組み合わせにおいて、C線(656.27nmのHα)の焦点とF線(486.13nmのHβ)の焦点を一致させ、d線(587.56nmの黄)に対して球面収差とコマが最小になるような設計とのことです。2枚の設計したいレンズの上の3つの波長での屈折率を与えてやって、16個の連立方程式を解くと目的のレンズの曲率半径が求められるものです。

ネットを漁るとこのページにたどり着いて、ここから辿っていくとエクセルの表を手に入れることができます。ただ、これだけだと何をやっているかわからないので、式が書いてある掲示板を参照してみてください。私は吉田正太郎著「天文アマチュアのための望遠鏡光学〈屈折編〉」という本で式と概念をフォローしましたが、他の書籍でも同様の記述は見つかると思います。本の方では多少詳しい説明がありますが、連立方程式の導出から書いてあるわけではないので、結局は天下り的にこの連立方程式を解くだけです。リンク先で手に入るエクセルの表のパラメータも解も、上記書籍のパラメータ及び解と全く同じだったので、少なくとも表に特に変な間違がないことがわかるので安心できます。


この時のパラメータが最初のレンズをBK7、2枚目をF2で作るとして

BK7:
nC = 1.51385
nd = 1.516330
nF = 1.521900

F2:
nC = 1.615020
nd = 1.620041
nF = 1.632120

となっていて、最初のレンズの厚さが0.65mm、レンズ間距離が0.02mm、2枚目のレンズの厚さが0.45mmとするとします。

その時のハルチング公式からのそれぞれの曲率半径の解が

r1 = +60.572mm
r2 = -35.620mm
r3 = -36.041mm
r4 = -147.961mm

となるのは、上記書籍も、表計算の値も同じです。


さて、ハルチング解がある程度理解できたところで、やっとLensCalに移ります。ダウンロードインストールなどはマニュアルの通りです。Example of glass dataは必須ですし、Data.zipも落としておいた方がいいでしょう。ヘルプファイルは絶対あったほうがいいです。

一つ注意点は、ものすごく重要なヘルプファイルがWindow10だと中身を見ることができません。ヘルプファイル自身はダウンロードしてファイルをダブルクリックするだけでいいのですが、LensCalの掲示板にあるように

1.LensCal.chmを右クリックしてプロパティを開き、
2.いちばん下の「ブロックの解除」のボタン又はチェックボックスに印を入れてOKを押す
と読めるようになるようです。

とあるので、これに従うと無事にWindow10でもヘルプファイルの中身がきちんと見えるようになります。

基本的にはこのヘルプファイルの「簡単な使い方」のその1からその3までを丁寧に試していけばあるていどのことは学べてしまいます。ここで注意することは、ヘルプファイルの説明が少し添付データと違っていることです。2枚目のレンズのF2が「Sumita」から選ぶように書いてあるのですが、実際には「Schott」の方に入っています。しかもSchottのデーターも、Example of glass dataでダウンロードしたGlassData.zipを解凍して、出てきたファイルをLensCal.exeと同じフォルダに入れておかなければ、ガラスデータとして選択することができません(マニュアルにこのことは書かれています)。私が迷ったのは上記2点くらいで、他は全て問題なく、非常にわかりやすく扱いやすいソフトでした。

ヘルプに沿っていけば、「ベンディング」というらしいのですが、ある2つのパラメータを自由にして、収差を最小にするようなチューニングのようなこともできてしまいます。最適解を数値計算的に求めることもできるようです。ただ、最適解の場合は条件出しに少し癖があるようで、例えば波長の効き具合とかに、あまり効かせたくないと思って0を入れたりするとエラーが表示されて、立ち上げ直すまで2度と計算できなくなってしまったりします。そんなときは0.01とか小さな数を入れてやることで回避しています。

IMG_5867


上記写真は最適解とベンディングを駆使して求めた曲率ですが(距離は固定)、ガラスの屈折率にごくわずか違いがあることや、最適化の条件の調整が難しいこと、ベンディングの調整の誤差もあることなどから、ハルチングの解析解と少し違った値になっています。それでもまあ、かなりいいところまで最適化できていると言っていいでしょう。ここで気付いたのは、ハルチング公式の条件の一つの「C線(656.27nmのHα)の焦点とF線(486.13nmのHβ)の焦点を一致させ」というのは、シミュレーションでは球面収差を見ながら「有効径の外の方で合わせる」というのが解に近いみたいです。最初中心で焦点を合わせていたら、どうしても解析解とずれてしまいました。でも外側で合わせるというので本当に正しいのでしょうか?ここは謎が残ったままです。


さて、LensCalには20cm F10のシュミカセのサンプルファイルも添付されています。でもこのサンプルファイルにあるシュミット補正板の係数の値が本当に正しいかどうか、いまいち確信が持てません。シュミット補正板については同じ吉田正太郎著「天文アマチュアのための望遠鏡光学・反射編」にある程度書いてあるのですが、これも式の導出までは記述がないので、出ている式を天下り的に使うしかないのですが、どうもサンプルファイルの補正板の曲線の係数と全然一致しません。

もう一本Opt-Design 2000というソフトでも試していて、こちらもLensCalとある程度似たようなことができ、さらにこちらにも20cm F10のシュミカセのサンプルファイルが添付されています。でもこの補正板の係数の値もまた全然違います。

球面収差図を見ていると、原理から言って補正板の中性帯(曲率の正負が逆転する中間地点で、ここを入射する光は補正板の影響を受けない)を通るところで収差がなくなるはずで、LensCalの方はそれを再現しているようにも見えるので、LensCalの値が正しいように思えます。でもじゃあどうやってこの補正板の値を出したのかなど、まだ謎だらけです。

とりあえず、今やっとここら辺です。
 





 

ブログのコメントで赤道儀のセッティングについて議論があったので、少しまとめておきます。


目的

赤道儀の設定で何が重要かを考えてみる。
具体的には極軸を取るだけでいいのか、赤道儀の水平を取るのは必要なのかを考えます。


検討すべき状況

自分が地表のある経度、ある緯度、ある高度にいるとします。その位置において赤道儀を設置することを考えます。


考えるべき自由度の確認

極軸の向きで2自由度、赤経の初期位置の不定性で1自由度、同じく、赤緯の初期位置の不定性で1自由度の、計4自由度が考えられます。 


さて、検討を始めます。

極軸をきちんと合わせた状態ではどうなるか?

赤道儀の極軸調整だけして、水平とかは全然とれていない場合は何ができて何ができないのでしょうか?実はマニュアルで天体を導入して、あとは自動追尾するだけなら、これで十分です。赤道儀の水平が出ていようが出ていまいが、関係ありません。赤経、赤緯のクランプを緩めるなり、微動であわせるなりしして、マニュアルでターゲットの天体さえ導入さえすれば、あとは自動で追尾していきます。

自動追尾で時間とともに天体がずれていくのは別の問題で
  • 極軸あわせの精度が悪い
  • モーターの回転精度が日周変化とあっていないなど
  • ピリオディックモーションもこの範疇
などが原因です。いずれにせよ、極軸さえ合わせれば、自動追尾はできます。


自動導入は?

極軸をとるだけでは自動導入まで考えると不十分でしょう。では水平を取ればいいのか?他に気をつけることはないのか?
  1. まず初期アラインメントのことを考えてみます。簡単のために、赤道儀の極軸調整は理想的に取れていて、赤経軸は正しく極軸に一致していると仮定します。
  2. 各メーカーの初期アライメントの詳しいアルゴリズムはよくわかりませんが、普通にプログラミングのことを考えると、何かを仮定しなければいけません。ぱっと考えて、最初はまず鏡筒がきちんと極軸を向いているということを仮定するでしょう。
  3. これをもう少し分解すると、初期アラインメントアルゴリズムは(極軸は理想的にあっているとするので) A. 赤緯の初期位置(クランプを緩めて赤緯の回転体の矢印を二つを合わせて、きちんと北向き(極軸方向)にとるということ)はあっていると仮定する(かんたろうさんとの議論で今回の記事をここから何箇所か訂正しました)でしょうしかもしれませんし、さらにB. 赤経の初期位置(クランプを緩めて赤経の回転体の矢印を二つを合わせて、きちんと地面に対し垂直に向けるということ)もあっていると仮定するでしょうかもしれません。さらに、C. 赤道儀は水平に設置されていることも仮定するでしょうかもしれません。
  4. でもBとCは自由度としては同じことを言っていて、例え水平がずれていても、(極軸は理想的と仮定しているので)赤経の矢印合わせのところで少しずらして補正してやれば同じことです。なので、本質的には自由度はAとBCを合わせた2つになります。セレストロンの実際のアルゴリズムは赤緯体が天頂方向を向いていることだけを仮定しています。なので、赤緯体が天頂を向いていれさえすれば、必ずしも水平が取れている必要はありません。ただし、その場合赤経の矢印もずれることになります。
  5. でもこのことは、実際の初期アラインメント時には正しくないです。たとえ赤緯体がきちんと真上を向くように赤経を合わせてあっても、初期アラインメントプログラムは「水平が取れている状態できちんと赤経の0度が真上を向いているのか、水平がずれていて赤経の0度も真上から少しずれているのに赤緯体が真上を向いているか」を知る手段がないからです。なので普通にプログラムを組むことを考えた場合、赤経が0度が上を向いていて、かつ水平も取れている状態を仮定するでしょう。
  6. なので、一発目の導入をきちんと視野に入れたい場合には、赤緯体を天頂に向けるか、水平を取って赤経、赤緯はきちんと矢印を合わせたほうがいいというわけです。



実際の導入手順

上記のことより、実際の赤道儀のセッティングのしかたは例えば以下のような手順が考えられるでしょう。ここではコメントにあったAdvanced VXを例にとって考えます。

IMG_5808
  1. 初期アラインメントで一発目からある程度天体を導入したい場合は、赤緯体を天頂方向に向ける必要があります。インデックスマークを使う場合は水平を出す必要があります(赤緯体を天頂に向ける方法が他にあるなら、水平にこだわる必要はありません)。手持ちのAdvanced VXには水準器がついていないので、ホームセンターで小さな全方向の水準器を買ってきて、上の写真のようにエポキシ接着剤で三脚に取り付けました。
  2. 最初に水準器を取り付ける時の水平は、三脚と赤道儀の間に板を挟み、そこに水準器を乗せて足の長さを調整して水平を出し、その足の長さを保ったまま、水準器を三脚の上に移動し、水準器が水平を示すように接着剤でつけました。ここまでが事前準備です。
  3. ここからが、毎回の設置時の話です。初期アラインメントの前に、極軸合わせですが、さらにその前に、毎回必ず三脚の水準器で水平を出します。
  4. 水平を出しておけば、赤道儀を設置する場所の緯度が大きく変わらない限り、北極星の高さはほとんど狂わないので、赤道儀の下の横の2本のネジでYawだけを調整して北極星を視野中心に入れます。私の場合、鏡筒(600mmとか)につけたASI294MCをSharpCapで見た画面のだいたい真ん中くらいに北極星が入るようにします。
  5. この状態でSharpCapの極軸調整で1分角程度まで合わせこみます。
  6. その後、赤道儀の電源を入れ、赤経と赤緯の矢印マークをできるだけきちんとモーターで合わせてから初期アラインメントを始めます。
  7. 基本的に水平出しと、極軸合わせこみでほとんど一発目で、鏡筒につけたカメラのSharpCapの画面の中に入ってきます。
  8. ASI224MCの時はセンサー面積が小さく流石に600mmだと一発で入らない時もあったので、50mmのレンズにASI224をつけて電子ファイダーで一発目の導入を補助していましたが、それでも二発目は十分に600mm+ASI224で入ってきます。

実は最初に書いてませんでしたが、鏡筒を赤緯体に取り付ける時にきちんと鏡筒が赤緯軸に対して垂直な面内に存在するという仮定もしています。この仮定が破られている状況とは、例えば極軸がきちんとあっていて、赤緯が0度を向いているのに、鏡筒の頭が下がっていて全然極軸方向を向いていないなどです。アリガタやアリミゾの精度が悪かったり、アリガタに対して斜めに鏡筒を取り付けてしまったときに起こります。上記設定手順を試して、それでも初期アラインメントの一発目に目標天体が入らない時は、鏡筒の取付時のずれを見直してみるといいかもしれません。

というわけで、本当は最初に説明した極軸2自由度、赤経、赤緯の不定性2自由度、さらに赤緯体に対する鏡筒の向きの2自由度の計6自由度があって(厳密にいうと、赤緯の不定性と鏡筒の向きのYaw方向は同じ自由度なので計5つ)、極軸を合わせることで2自由度減り、残り4(厳密には3)自由度を求める必要があります。初期アラインメントの一度の導入で2自由度決まるので、2スターアラインメントで一応4自由度が求まるはずです。3スター以上だと、極軸のズレまでわかると思うのですが、そのアルゴリズムはどうやっているのかあまり想像できません。結構大変そうです。

また、1スターアラインメントだと、原理的に自由度が足りないので、どこかが合っていると仮定せざるを得ません。なので、簡易アラインメントと考えるべきでしょう。でも上記方法で赤道儀を設置すると、1スターアラインメントでも十分実用的になります。

最近のアルゴリズムは相当優秀なので、一発目に導入したいという要求を外してしまえば、2スターアラインメント以上を使えば、多少赤緯体が天頂からずれていても大丈夫ですし、水平もこだわる必要はないですし、矢印も多少ずれていても構いません。下手をすると多少極軸がずれてしまっていても補正しながら追尾することも可能かもしれません。

もっと言うと、赤道儀下部の極軸合わせのPitchとYawの押しネジのところにモーターをつけて、最近はやりのPlate Solvingなんかまで駆使したら、本当にポンと置いて全自動で極軸を取って、アランメント完了まで全自動でできそうな気がします。経緯台など、簡易的なものではすでに実現されつつありますが、元気のある中国メーカーとかが、撮影に耐えられるくらいの安定したレベルのものを赤道儀で作ってくれませんかね?


毎度長々と書いてしまってすみません。とりあえずパッと考えたことを書いただけなので間違ったことを言っているかもしれません。何かおかしなところがあったらコメントなどで指摘していただけると嬉しいです。 ->かんたろうさんのコメントとその後の議論で、初出の記事からいくつか訂正しました。



 

光害調査を進めていた娘の自由研究ですが、結構頑張っていて、私の目から見てもかなり面白い結果が出そうだというところまで以前報告しました。それがなんと、学校で代表に選ばれてしまったようです。妻からその時の話を聞きました。

富山の中学の自由研究の提出日は、夏休み終わり近くの登校日で今年は8月22日。意外に早く、ギリギリで仕上げる子にとっては死活問題です。その週のうちに学校の理科の先生から電話がかかってきて「自由研究が代表に選ばれました。夏休み中に一度打ち合わせに学校に来てください。」というものだったそうなのですが、なんとNatsuの返事がなんと「はぁ、ちょっと考えさせてください。」で、電話を切ってしまったそうです。あとで聞いてみたら「理科の先生あまり好きじゃない」が理由だそうです。どうもテストのための理科がつまらなくて、科学の楽しさを伝えてくれないところに不満があるみたいです。結局代表は引き受けたとのことですが、それでもせっかくの代表なのに、断ろうとするなんていったい何を考えてるのか...。周りはみんな呆れてました。そんな態度だとあぷらなーとさんに怒られますよ。

一応発表用にパワーポイントでプレゼン資料を作り出したのですが、これもまた結構凝りだして、せっかく星関連のことなのに全然私には手伝わさせてくれません。「グラフをパワポで作るの大変だった」とか「大丈夫だよ」とかいいながら全部自分でできてしまうようです。数少ない聞かれたことが「写真こっちのコンピュータに入れて欲しい」と「写真を小さくするの(パワポのトリミングのことらしい)ってどうやるの?」だけでした。それでもできた資料を見てみたら、ほとんど言うことなし。私があえて言った、たった一言のアドバイスが「観測した日にちは入れておいたら?」だけでした。嬉しいやら、悔しいやら、悲しいやら。

Natusに「今年はブログに書かないの?」と聞いたら「んー、まあいいや」とつれない返事です。なのでノートをこっそり写真に撮ったので一部だけ公開します(一応Natsuには許可をとっています。最初写真を5枚載せようとしましたが、許可が出たのは3枚でした。)。


IMG_5318

IMG_5319

IMG_5320


このノートも実は全部出来上がってから初めて見せてもらったのですが、まあよくまとめてあります。私も車を出したのだから、共同研究者くらいに入れてくれればいいのに、全然お構い無しでした。


最近悩んでいるのが、動画スタックによる画像の分解能の限界です。まだあまりよくわかっていないのですが、とりあえず簡単なことから始めようと思います。今回知りたいことは、そもそも「動画スタックでドーズ限界を超えることができるのかどうか」。印象としてはそんなんとっくに超えてるんじゃない?と勝手に思っていたのですが、実は確かめたことはなかったので、少し検証してみました。

IMG_9336



まずドーズ限界を感覚的に知るために、木星がもしドーズ限界で制限されるとしたらどのような画像になるかを試してみました。元画像はハッブルで最近(2018/4/25)撮影されたのものです。

JupiterOpal_HubbleMasztalerz_1880

検証するには十分な解像度があります(実際の画像は上の画像をクリックして拡大して見てください)。NASAの画像は著作権を主張していないとのことで、このようにブログでも使うことができるのでありがたいです。


これを手持ちのC8の画像と比べてみます。下は去年の惑星シーズン(2017/6/8)に撮影したもの。口径200mmでASI224MCを使いました。C8としてはそれほど悪い方でもなく、ちょっと頑張ればここら辺までは出るくらいかと思います。カメラがASI224MCでカラーなので、モノクロでL画像を撮ればもう少し改善の余地はあると思います。
2017-06-08-1241_5-RGB2


まずはドーズ限界による分解能を計算します。ドーズ限界は

115.8 / D [秒]

で表され、Dは口径をmmで表したものです。C8は口径203mmなので

115.8 / 203 = 0.570秒

となります。木星の視直径は変化しますが、撮影当時の視直径は調べてみると39.6秒だとのことです。なので、木星の直径を39.6/0.570=68.4ドットで表せばいいことになります。

Hubbleの画像の木星の直径(画面全体ではないことに注意)がキリのいい68ドットになるように画像の解像度をPhotoShopで落とし(その際、見かけが近くなるように彩度を落とし、上下逆にしました。)、その後、元のドットになるようにバイキュービック法で再び解像度を上げました。その結果がこちらになります。

JupiterOpal_HubbleMasztalerz_1880_200mm2

自分でC8で撮った上のものと比較してみると、ざっくりいって、ドーズ限界と同じかもう少し悪いくらいの分解能だったことがわかります。うーん、では状況がいいとドーズ限界に近づいていくのか、それでも超えることはないのか?もう少し検証してみます。


次にC14を想定して、355mmの口径の場合で、最近の木星の視直径44.1秒を仮定してドーズ限界での画像を再現してみると

JupiterOpal_HubbleMasztalerz_1880_355mm

くらいになります。これだと木星の直径を136ドットで表すことに相当します。ところが、例えばC14で最近撮影された日本の惑星撮影で代表的な「RB星のブログ」さんの2018/4/21の画像(RB星さんのご好意で掲載許可をいただきました)

j180421s1

と比べると、明らかにドーズ限界を超えて綺麗に見えています。この日はシーイングがベストではなかったとのことですが、C14では最高峰に近い木星画像かと思います。

ちなみにドーズ限界を1.5倍くらいよくしたものが

5

になりますが、これくらいだとだいたい同じくらいか、まだ撮影した方が少しいいくらいでしょうか。高々1.5倍の解像度増ですが、見え味は相当よくなるのがわかります。ちなみに今回の場合、2倍だと明らかに良くなりすぎてしまうので、条件が整えばドーズ限界の1.5倍から、2倍くらまで迫ることが出来そうだということがわかります。

うーん、でも個人的にはドーズ限界なんかはもっとはるかに越えていけるのかと勝手に思っていました。意外に近い結果でしたが、まあ考えてみれば光学的には回折限界から来ているので、当たり前かといえば当たり前ですかね。

ただし、波長によっても分解能は違うはずで、PhotoShopでRGBにチェンネル分解し波長に応じてドーズ限界を求めて再びチャンネル統合して試してみたのですが、Rが解像度が悪くなり、Bが解像度が良くなるので、結果的には相殺しほとんど見た目の影響はありませんでした。なので、上の画像には波長の依存性は入っていません。

こうやってみると、やはり口径の効果は大です。他の素晴らしい成果を出している方々の画像を見比べてみても、C8よりC11、C11よりC14の方がより精細なところまで描写できているので、やはりドーズ限界のような光学的な限界がまだまだ効いていると言えるでしょう。ここにシンチレーションなどの効果が邪魔をしているので、現在の手法はそのシンチレーションの効果を除き、いかに光学的な限界まで迫るのかという状況なのかと思われます。

では他に何が関わってくるかというと、例えばシンチレーションの軽減には
  • 露光時間(転送速度とも関係あり)
  • スタック枚数
などが関わり、ノイズには
  • カメラの感度
が関わってくると言えるでしょうか。カメラをモノクロにしてLを撮影してさらに解像度が上がったりもしているので、感度も解像度に効いてくると思うのですが、まだそのメカニズムがよく理解できていません。また、C14くらいの口径では
  • カメラの解像度
は今回の検証から考えるとまだまだ余裕がありますが、さらに大きい口径だと解像度が効いてくるようになるのかと思います。あと大きな効果は
  • 画像処理
でしょう。特にRegistaxなどのWavelet処理は見た目の解像度に大きく影響します。

さて、モノクロカメラを買うかどうか。まだ結論は出てませんが、まずは今のカラーカメラで口径を250mmで撮影してみて、去年の結果を超えることを目標にして、その結果が出てから考えます。



P.S.T.でFabry-Perot etalonを扱い始めたので、そこらへんの理屈を少しまとめておきたいと思います。今回はまず、前回示したFSR(Free Spectral Range)が、なぜこのような式になるのか簡単に考えたいと思います。

IMG_3672


 写真はゴムの滑り止めのリングを外して中のネジを取って、金属のリングを外したところ。本来このネジのところにシールが貼ってあって、はがさないような指示があるらしいのですが、購入したものにはそのようなシールはありませんでした。既に誰かが剥がしたのでしょうか?

このリングを外すと中にいくつも穴が見えます。この位置を調節することにより、エタロンの入射光への角度をより大きく変えることができるそうですが、これは次回晴れの日に実際の像を見ながら調整したいと思います。


概念
  1. 簡単のために波長1μm(マイクロメートル、10^-6m, 1e-6m)の赤外光を考えます。
  2. これまた簡単のために、まずはエタロンを構成する2枚の鏡の間の距離を上の光の波長と同じ1μmとします。
  3. このエタロンに上の光を入れると、ちょうど波長の長さとエタロン間のギャップの長さが同じなので定在波がたち*(もう少し詳し話は最後にします。)光が共振します。すなわち対物レンズ側から入った光がアイピース側に十分透過していきます。
  4. 次にエタロンを構成する2枚の鏡の間の距離を光の波長の10倍のと同じ10μmとして考えます。この場合、ギャップ感には10個の波がちょうど入ることになります。定在波が立つので、光は透過していきます。
  5. さてここで、ギャップの長さを10μmに保ったまま、波長の長さを少し長くしてみましょう。どれくらい長くするかというと、ギャップに9個波が入るくらいの長さの波長にします。10μm/9=1.11...μmくらいの長さの波長ということです。この場合も定在波が立つので光が共振し、光はそのままエタロンを透過していきます。
  6. 逆に波長の長さを短くして11個入れてみましょう。10μm/11=0.9090..μmの波長の光です。これも共振し透過します。
  7. 同じように、8個の波、12この波...も全て透過していきます。これが櫛のように光の波長を周期的に通すという理屈です。
  8. ギャップの長さをさらに10倍して100μmのものを考えましょう。100個の波も101個の波も99個の波も...透過していきます。P.S.T.では使われているエタロンは0.1mmくらいのギャップだというので、これくらいの数の波が実際にエタロンの中に入っていることになります。あ、ターゲットはH alphaの0.6536μmの長さの波長なのでもう少し入っている波の数は多いですね。

定式化

さて、理屈がわかったのでこれを式にしてみます。前回書いた式を考えてみましょう。

Δλ=λ22nlcosθ

  • λ: 中心波長、今回の場合6563Å=656.3nm。
  • n: キャビティー中の媒質の屈折率、今回の場合空気なので1でいいでしょう。
  • l: 2枚の間の鏡の距離、今回の場合0.1mm以下程度とのこと。
  • θ: 光の入射角、PSTの場合ここを回転つまみで調整している。動かせる幅はPSTでは0.5度程度とのこと。

1. まず、エタロンのギャップの中に含まれる波の数は

m=lλ [個]

と書くことができます。

2. エタロンのギャップの長さをキープしたまま、入射する波長の長さを変えていった時に、波長がどれくらいおきにエタロンを通過するかは大まかに言って、エタロンのギャップの長さを、含まれる波の個数で割った長さごとに起きるので、

Δλ=λm=λ2l

と書くことができます。だんだん近くなってきました。

3. ここで波はエタロンを往復しているこいうことを忘れてはいけません。そのためにエタロンのギャップの長さlの効きが2倍になります。そのためにlのところに2をかけます。

Δλ=λ22l

4. エタロンの中の媒質の屈折率が上がるとそのぶん波は進みにくくなるので密度が増します。周期的には短くなるセンスです。これは1次で効いてくるので分母にnと置いてやって割ります。

Δλ=λ22nl

5. 最後に、エタロンを光の入射方向に対して傾けると入射光から見るとエタロン間のギャップの距離が1/cosθで長くなったように見えます。これはFSRが長くなるセンスです。その項を考えると

Δλ=λ22nlcosθ

となります。やっと先日書いた式と同じになりました。

実際にはP.S.T.では入射角を0.5度程度を変えられるらしいです。近似でcosθ = 1 - θ^2 / 2と考えると、cos(0.5deg) = cos(0.5/180 * pi) = cos(0.0087) = 1- 0.0087^2/2 = 0.999962とほとんど1に近くなりますが、FSRが変わるということは、個々の透過光のピークトピークの間隔がこれくらい変わるということなので、全体の長さはこれのλ / FSR倍くらい変わるはずです。波長が600nm程度でFSRが2nmとすると300倍くらい効くはずで、1- 0.0087^2/2 * 300 = 0.978となり、透過光のピーク位置でFSRの2%くらいは変更できるはずです。うーん、でもまだ変化が小さすぎるような気がします。何か計算間違ってますでしょうか?



補足: 光の共振

上で「定在波が立つ」という書き方をしましたが、あまり正確な表現ではありません。もう少し正確に記述します。

エタロンの対物レンズ側の1枚目の鏡を(ある透過率で)透過した光が、アイピース側の2枚目の鏡で反射して、1枚目の鏡に戻り再び1枚目の鏡で反射します。その時対物レンズ側から入ってきた光と先ほどの反射光の光の位相が一致すると光は強めあって共振します。それらの光はまた2枚目の鏡で反射し、さらに1枚目の鏡で外から入射してきた光と(今度は自動的に)位相が合うので、さらに共振して強め合います。このような折り返し反射を何度か繰り返すのですが、何回くらい折り返すかはエタロンで使っている鏡の反射率と透過率で決まります。

例えば、反射率90%、透過率10%の鏡を両端に持っていると、最初に1枚目の鏡を10%光が透過して入ってきます。その光は2枚目の鏡で10%抜けるけれども9割は戻ってきます。戻ってきて9割は1割は入射側に抜けていきますが、9割は反射するので、約8割はまたエタロンの中に戻されます。大まかに言って1割抜けていくのを10回繰り返すと光は全て共振器の中からなくなるでしょう。この場合、10回片道旅行できるので5往復します。

これが反射率99%、透過率1%の鏡を使うと、100回片道旅行ができるので50往復できるでしょう。ただし、鏡のロスとかを無視しているので、ロスがあるとこの回数は当然減っていきます。P.S.TはFinesseが15程度といっているので、折り返し回数は15 / Pi * 2 = 10回程度とすると、反射率95%、透過率5%程度の鏡を使っていると考えられます。

とりあえず訂正的な説明と、少し数値を入れてみましたが、イメージは多少しやすくなったかなと思います。式をきちんと書いた方がスッキリするかもしれませんが、また時間とやる気のある時に書いてみるかもしれません。

 続き その6へ: 実際に太陽での撮影をしてみました。 

Natusです。今年(中1)の夏休みの自由研究を紹介します。

夏休み明けに学校に提出した後、学校で展示していました。1ヶ月ほどで返って来たのですが、そのまま放りっぱなしになっていました。せっかくなのでブログにまとめておきます。


IMG_3281


テーマは「手動赤道儀の恒星自動追尾化」です。
去年の自由研究の「星でめぐる銀河鉄道の夜」に続き、今年も天文関係のテーマにしました。
夏休み前にハンドルを手で回して星を追う手動赤道儀型の天体望遠鏡を手に入れたので、手でハンドルを回さなくて済むように、自分で赤道儀を自動追尾化させてみようという内容です。




IMG_3278

使用した望遠鏡:ポラリス80L

<望遠鏡の説明>
    夏休み前に名古屋のスコーピオで手に入れました。

望遠鏡セット:Vixenのポラリス80L
       40年ほど前の製品で、1980年にはすでに発売されていたことが確認できた
      
   赤道儀:手動
       赤緯を0度にすることで経緯台にもなるタイプ
       目盛り環付き
       赤経、赤緯軸ともに微動ハンドル付き

<視野角の測定>
 昼間に下の写真のように望遠鏡から10m離れたところにあるメジャーを見てどのくらい見えるのかを調べ、その結果から望遠鏡の視野角を計算しました。 
IMG_3285

望遠鏡の視野角の測定

<赤道儀を動かす>
目標は「10分経っても視野の中心に入れた星が真ん中と端の中間を超えない」ようにすることです。そのためにはできるだけ正確に10分間で微動ハンドルを1回転させる必要があります。    
 
IMG_3286

                                               
1番のポイントは微動ハンドルをどうやって回すかということですが、最初、重りを使って回してはどうかと考えました。モーターの代わりに何らかの重りを使って回転軸をまわすというものです。

ところが、重りでは動摩擦係数と静止摩擦係数の差が大きすぎるため、なかなか星を追う時の回転速度を安定させて出すような仕組みは作れそうにないことが分かりました。



次にモーターで赤道儀を動かすことにしました。

IMG_3273

モーターを取り付けた写真

 
モーターのギアと微動ハンドルを外したところにつけたギアを噛み合わせて動かします。
モーターの回転速度は計測するとぴったりでそのまま使うことができました。



IMG_3283

極軸が1°ずれたときの星の動きと赤道儀の動きの誤差の計算

<実測>
実際に星を自動追尾させてみました。
モーターで星を自動追尾させ、目標の視野の真ん中と端の中間を超えるまでの時間を計測します。
前の日も計測をしたのですが、極軸を正確に合わせていなかったため、8分ほどで星が中間を超えてしまいました。
今回は極軸をできるかぎり正確に合わせました。(2分のずれ)

IMG_3277



結果、1時間経っても星は視野の中心からまったくずれませんでした。極軸合わせで結果がここまで変わるのかと驚きました。



<結論・感想>
元々の目標の10分間の追尾を大幅に越して、1時間をこえても目では確認できないくらいの星像の流れに収めることができたので、大成功です。
今までただ見ていただけの星を自分で追いかけることができると分かったことに、何より感動しました。
来年はもっとレベルアップしたものに挑戦したいです。



夜に晴れるのを待ちこがれながら、雪の日曜日の昼間にSharpCapでテストをしています。β版がまた期限切れになってしまったのでアップデートしたら、ヒストグラムがすごいことになっていました。


ヒストグラムと情報

小さなヒストグラムがLive stackモードにしなくても使えるようになったのは以前報告しましたが、右の狭いエリアの中にしか表示できなかったので、見にくかったのと操作がちょっとしにくかったです。今回のアップデートでは、以前Live stackモードでしか出てこなかった大きな画面でのヒストグラムが、スタックとは独立にいつでも見えるようになりました。上の方のズームのすぐ右にある緑色のアイコンを押すと出てきます。もしくは「Tools」メニューからから選ぶこともできます。

まず便利なことは、カーソルを置くと、その位置での情報が見えます。

IMG_3254


意味は上から順に
  • Value: 横軸に相当。一番右端で2048(11bit?なぜ?)で100%になります。
  • Count: 縦軸に相当。カーソルを置いた位置でのピクセル数。
  • True ADU: 横軸に相当。ADCで数えたカウント数。一番右端で今回の場合14bitなので16384。単位は [ADU]。
  • Electrons: 上の数にコンバージョンファクターfcをかけたもの。単位は [e-]。
  • Electron Rate: 謎です。単位は[e-/s/um^2]
となるみたいです。また、RGBそれぞれの平均値(Mean)と標準偏差(SD, standard deviation)もわかるのもすごいです。

これらのヒストグラムの値は、デフォルトでは全画面ですが、上の方の赤い枠が表示されている小さなアイコンを押すと、エリアが選択できるようになり、場所と面積を任意に選べるようになります。その場合はヒストグラムはそのエリア内の情報を示すようになります。


読み出しノイズの影響

これだけでもすごいのですが、このヒストグラムの真骨頂は使っているセンサーの性能から、今見ている画面が読み出しノイズに支配されているか、ADCの分解能の影響があるかないかなどが、大まかにですがものすごく簡単にわかることです。ただし、まずはセンサーの性能を測定しないと、この機能が出てこないので注意です。8bit rawモードもしくは16bit rawモードで測定する必要がありますが、測定したモードの分しかこの機能は出てきないので、これも注意です。

さて実際の機能ですが、ヒストグラムの上の方に2本の色付きのバーが見えます。上のバーが読み出しノイズがどれだけ影響するかを示すもの。星雲の淡い成分もヒストグラムのピークより少し右側くらいにいますから、目安としてはヒストグラムのピーク位置で考えればいいと思います。このピークがどの色のところに来ているかで、読み出しノイズが支配的かどうかがわかります。赤のエリアにピークが来ている場合は、読み出しノイズが支配的なので、露出時間を長くすると読み出しノイズの影響を抑えることができるということを示しています。

IMG_3248
ピーク位置が上のバーの赤色のところにあると、読み出しノイズに支配されています。
露出時間を上げることで画質が改善されます。


オレンジはまだましですが、それでも読み出しノイズに影響されています。これもさらに露光時間を長くとった方がいいということです。

IMG_3247
ピークがオレンジのところだと、読み出しノイズが画質に明らかに影響があるという意味です。
これも露出時間を伸ばすと画質が改善されます。


グリーンのところに来ていれば問題ありません。このエリアになるまで露光時間を増やすといいということがわかります。

IMG_3250
この緑のところにヒストグラムのピークが来ると、読み出しノイズは画質には影響ありません。

上のバーの色の割合は、ゲインを変えると変化します。それぞれのゲインにあったピーク位置が存在するということです。一方、露光時間を変えただけではバーの色の割合は変化しません。このことはちょうど昨日記事にした、「読み出しノイズは露出時間を長くすると無視することができるようになる」と言っていたことと一致します。でも、昨日の時点でこの機能のことは知らなかったので、今朝のアップデートはものすごくタイムリーな機能を知ることとなりました。


ADCのbit分解能は十分?

一方、下のバーは8bitでいいのか、16bitの方が有利なのかを教えてくれます。 左の緑のエリアにピーク位置があると、8bitでは足りていなくて、このASI224MCが持っている14bit、もしくはもし得られるならばそれ以上のbit数の方が有利ということを示しています。

IMG_3252
ここの位置にピークが来ていると、SharpCapの設定で8bitにした場合と、
16bitにした場合に明らかに差があって、16bitに設定した方が有利だと示しています。


一方、ピークが黄緑の位置にある時は8bitでも14bitでもどちらでも画質に差はないということを示しています。

IMG_3253
黄緑のところにヒストグラムのピーク位置がくれば、
8bitモードでも16bitモードでも差がないということを示しています。



このことは、長年の疑問の一つ、ピーク位置をどこに持ってくればいいのかという疑問に対して一つの指針を示してくれています。ゲインを上げて、ピーク位置を黄緑のところまで持ってくれば8bitでもいいということです。ただし、これには注意が必要で、ピークを右側に持ってくれば当然明るい部分が飽和するまでに余裕がなくなってしまいます。なので当然14bitで撮影する(SharpCapの設定では16bit RAW)として、ピーク位置を緑と黄緑の境界くらいに持って来ると、暗い方の階調に関しては手持ちのbit数を最大限引き出しているということになるのかと思います。ただし、これも明るい部分の飽和には注意する必要があります。


背景光の測定モードも

他にもまだスカイノイズの測定もできるようです。バーの左上の脳みそマークを押すと、測定画面が出て来ます。こちらは暗い空を必要とするようなので、またいずれ試そうと思います。 

IMG_3255



最近のSharpCapのアップデート、特にTool類の追加はセンサー性能実測機能にとどまらず、凄まじいものがあります。特に最近個人的にはちょうどカメラのノイズのことを考え出したので、(もちろんただの偶然ですが)まるで自分のノイズの理解度に呼応してアップデートしてくれているような気分になってしまっています。 
 

KYOEIさんの在庫ありでせっかく手に入れることができたASI294MCですが、すでに一週間何もできずに過ごしてしまっています。昨日の朝起きたら、久しぶりに青空が広がっていて期待したのですが、夕方にはすでに曇り。今日はまたこれから雪みたいです。天気だけはどうしようもないので、相変わらず脳内ミュレーションです。今日はノイズについてもう少し考えてみます。


FullSizeRender

今日も家の外は雪景色。北陸の冬は天体観測には厳しいです。

カメラによる天体撮影をする時、誰もが綺麗な仕上がりになることを目指して撮影に臨むわけですが、最初は何をしたらいいのか、完全に手探りで全くよくわからないものです。それでも調べていくうちに、先人たちの貴重な経験から色々な手法があることがわかり、それに従ってマスターしていけばかなりのレベルで撮影ができるようになってきます。ところが、ある事柄について全く方向性が逆の手法が示されていたり、おまじないのようになぜそれをしなければならないかなど、手法の根拠がよくわからないということがよくあります。何が正しくて何が間違っているかよくわからなくなるのです。その助けになればいいと思って、ノイズのことをいろいろ調べたり考えてみましたので、メモがわりに書いておきます。


0. 天体撮影におけるノイズの一般式

まず一般的に天体撮影をする時にどういったノイズが出てくるかですが、定性的な話は調べるとたくさん出てくるのですが、きちんと式で説明してくれているようなところはなかなか見つかりませんでした。それでも天文系のCCDカメラやCMOSカメラを研究、開発しているようなところは、やはりノイズについても相当定量的に調べていて、我々アマチュア天文家の撮影にも使えそうな定式化をしてくれているので、そこらへんの話を考えてみます。

CCDカメラやCMOSセンサーを使ったカメラでの天体撮影において、信号とノイズの比S/Nは

S/N = (n t Ssig/ sqrt( A n σ^2 + A n t SskyA n t Sdark + n t Ssig) ∝ sqrt(n)

と書くことができます。ここで
  • A [pix] : 開口面積
  • n : フレーム枚数
  • σ [e-/pix] : 読み出しノイズ
  • t [s] : 1フレームの積分時間
  • Ssky  [e-/s/pix] : スカイバックグランウンド
  • Sdark  [e-/s/pix] : 暗電流
  • Ssig  [e-/s] : 天体からの信号
です。この式から様々なことがわかります。

まず、この式は全てのノイズ(分母の方)は枚数nを増やせば増やすほど、原理的には枚数のルートに比例して増えていくことを示しています。ノイズは減るのではありません、増えていくのです。その代わりに、ターゲットの信号に当たるS(分子の方)も枚数の1次で比例して増えていくので、結果としてS/Nは

/ sqrt(t) = sqrt(t)

で向上して行きます。もっと簡単に言い換えると、コンポジットした枚数のルートに比例して綺麗になっていくということです。

次に、分母のノイズの中身をもう少し詳しく見ていきましょう。


1. 読み出しノイズ

まず、読み出しノイズは積分時間によらず一定です。このことは、読み出しノイズは一枚のフレームをとるたびに必ず一定量入りますが、長く撮っても増えもしなければ減りもしないということを意味します。もちろん信号Sは時間の1次に比例して増えていくので、S/Nは結果として時間の1次で良くなっていきます。これはその他の時間のルートに比例して増えていくノイズと比べて、長時間かけて撮影するならば無視できうるノイズということになります。でも誤解しないで、式を今一度よく見てください。読み出しノイズは枚数を増やしても他のノイズと効きが同じでなだけで、無視できるようにはなりません。一枚あたりの時間を伸ばすことで初めて無視できるノイズということです。ここら辺は目からウロコの方も多いのではないでしょうか。私も最近まで意識できていませんでした。

読み出しノイズ以外のその他のノイズの振る舞いは、時間と枚数に関しては良く似ています。読み出しノイズを無視した形でS/Nを再び式を書くと


S/N ~ (n t Ssig) / sqrt( A n t Ssky + A n t Sdark + n t Ssig)
          = Ssig / sqrt( Ssky + Sdark + Ssig) x sqrt(n t∝ sqrt(n t)

となります。今度は時間のルートで全てのノイズが増大(減少ではありませんよ)していって、信号Sは時間の1次で比例して大きくなっていくので、結果としてS/Nが時間のルートで向上していくというわけです。nについても同じような関係になるため効果は同じですね。もう少し噛み砕いていうと、一枚の撮影時間をふやすか、もしくは撮影枚数を増やす、すなわちトータルの撮影時間を増やしていけばいくほど、そのルートで綺麗になっていくということです。


2. ダークノイズ

さて、分母に残った3種類のノイズの中で一番馴染みがあるのはダークノイズでしょうか。これはダークフレームを撮影した時にホットピクセルやクールピクセル、アンプの熱雑音ノイズなどに起因して明るくなったりするパターンノイズなどという形で実際に見ることができると思います。ここで注意ですが、そのダークフレームの中に写っている真っ暗に見える部分にも、ある程度の写り方のバラツキが存在するということです。ばらつきに関しては、すぐ下のノイズの説明のところで詳しく説明します。ダークフレームも時間をかけて撮影すると、時間のルートに比例してノイズが大きくなってきます。


3. スカイバックグランドノイズ

スカイバックグラウンドノイズは光害などに起因する背景の明るさのノイズですが、普段の撮影では、最もよく目にしているはずのノイズで、最も問題になるはずなのに、あまり定量的に議論されているのを見たことがありません。実はこれは撮影した画像からきちんと測定できるものなのですが、私もまだ実際に評価したことはないので、機会のある時に真面目に測ってみたいと思っています。撮影したときのある内部ゲインの時の、ADU(ADCのカウント数)からe-(センサーで数えられた電子の数)へのコンバージョンファクターfcが分かっていれば、画像の中での星が写っていない背景部分のADCのカウント数を数えることによって、きちんと定量的に見積もることができ、かつ電子の数として他のノイズと直接大小を比較できるわけです。ただ、ひとつ誤解を招かないようにしておきたいのは、今議論している画像というのは、すでにフラット補正もされて、背景光のオフセット分(DC成分)を差っ引いて、ノイズとなる揺らぎのみを考えているという意味です。なので、背景部分のADCのカウントをそのまま数えるのではなく、ある範囲のピクセルを多数数えて、そのバラつきを測定しなくてはいけません。また、ノイズがバラつきであるということを意識できていない場合が結構あるようなので、少しだけ説明しておきます。


ノイズとは

そもそも天体撮影におけるノイズとは一体どういうことなのでしょうか?ノイズを考えるには統計のことを少し知らなくてはなりません。例えば一台のカメラを使って全く同じ場所、同じ明るさ、同じ温度で多数枚の撮影をすることを考えます。普通に赤道儀に望遠鏡を乗せて、カメラで撮影するという状況で構いません。ゲインや露光時間も同じとします。適当な露光撮影、例えば1秒で、1000枚の画像を撮ったとしましょう。全く同じ状況なので、1000枚とも同じような画像が撮れると思いますが、ある一つのピクセルに注目した場合、1000枚とも全く同じ明るさ、言い換えると全く同じADCのカウントで全て記録されているでしょうか?通常はそんなことはありえません。よく似た明るさにはなるので、1000枚の平均値はある値を持ち、その値がそのピクセルでの明るさと言ってもいいと思います。ノイズというのはその平均値からどれくらいずれているか、そのずれがどれくらいの範囲に散らばっているかということを表す量です。細かい統計の話は教科書のようなものに譲るとして、ここで理解しておきたいことは、一般にノイズというのはバラツキ具合を「標準偏差σ」で表しているということです。標準偏差σという言葉に拒否反応を起こす人もいるかもしれませんが、最低限理解したいことはただ一点のみ。ある測定をしたときに、このバラツキの68%が標準偏差σで表される範囲内に入っているということです。

例えば先日測定したASI294MCの読み出しノイズは1.3[e-]ですが、これは平均値はよくわかりませんが、そのバラツキの68%は1.3[e-]という値の中に入っていますよという意味です。平均値はよくわからないので例えば10[e-]としましょう。ノイズはバラツキなので測定値がたまたま平均値と同じ10[e-]の時もあれば、10.1[e-]の時もあります。11.2の時もあれば11.5のときもあります。たまには12.6という結構外れた値をとることもあるでしょうし、13.9とかいうかなり外れた値をとる可能性も0ではありません。標準偏差のすごいところはここで、この場合10 - 1.3 = 8.7 [e-]から10 + 1.3 = 11.3 [e-]までの間に測定値が来る確率が68%と分かってしまうことです。もっと言うとσ=1.2 [e-]の倍の2.4[e-]、この場合2σ (にしぐま)と言いますが、この範囲に入っている確率は95%ということです。もしそれを超えた12.6[e-]なんていう値が測定されたら、これはありえない方5%に入っているので珍しいというわけです。ちなみに3σ = 3.9 [e-]なんていうと99.87%とほとんどの値が入ってしまうので、今回の場合13.9 [e-]以上なんていうとんでもない値をとるのは1000枚のうち1.3枚ほどしかないのですが、可能性としては0枚では決してないのです。

上は1000枚のフレームのある同じ1ピクセルについてのみ考えましたが、背景光なんかを測定する場合にはある一枚の100x100ピクセル分の平均値とバラツキの標準偏差を測定してやってコンバージョンファクターを使い電子の数に換算してやることで、読み出しノイズなどのその他のノイズとの大小が議論できるようになるというわけです。


4. ショットノイズ

さて式に戻って、分母の最後の残りsqrt(Ssig)についてです。これは入っている信号のルートに比例して出て来るノイズです。いろいろWebを調べていると、ダークノイズとショットノイズを混同しているケースた多々見受けられます。ショットノイズはセンサーに光を入れた時に、その光の量のルートに比例して出てくるので、真っ暗な時に出て来る限界のようなダークノイズとは別で扱う必要があります。ノイズなので、当然そのバラツキ具合で議論します。具体的な例でいうと、淡い星雲のようなところでは、当然星雲からの明るさがセンサーに入っているので、ダークノイズや、背景光のノイズもありますが、それに加えて星雲そのものの明るさのバラツキ具合もノイズとして考えなくてはいけません。また、天体がない背景の部分では逆に信号としてのSsigが小さいので信号Ssigからのバラツキも小さいため、Ssig起因のショットノイズは無視できるでしょう。


考察

以上のことから、ノイズを考えていくと、定量的にいろいろなことが評価できる可能性が見えてきます。実際には
  1. ある性能を評価したいカメラを使い、あるゲインを設定します。
  2. 既知の明るさが分かっている星を利用して、Ssigを測定してカメラのキャリプレーションのようなことを行い
  3. Sskyを測定することで
  4. そのカメラ、そのゲインでの限界等級を求める。限界等級は測定時間の関数になる。
  5. ゲインを変えて、各ゲインでの限界等級を繰り返し求めていく。
というような経緯で、カメラの性能をきちんと出すことができます。でもこれ真面目にやろうとすると結構大変で、私もそのうち余裕ができたらやろうと思っているくらいです。


定量的な評価まで行かなくても、式からわかる定性的な評価だけでも結構面白いです。例えば分母のノイズの項を考えてみましょう。理想的な暗い空では

Sdark ~ Ssky << Ssig

というような状況かと思います。冷却カメラはこのような状況時に非常に有効です。冷却はダークノイズを下げることができるので

Sdark << Ssky << Ssig

というような状況を作り出せてしまい、より高いS/Nを目指せます。

が、こんな状況はまれで普通は光害などがあり、淡い星雲などを写そうとすると

Sdark << Ssky ~ Ssig

というようになってしまいます。この場合はもともとダークノイズが十分無視できるため、冷却の効果は期待できません。光害地では冷却はあまり意味がないということになります。都市部などもっとひどい時には淡い天体は

Sdark << Ssig << Ssky 

というような状況にもなりますが、こうなってしまうと画像処理で無理やり天体をあぶり出す必要が出てきます。もちろんこのような状況でも撮影枚数や撮影時間を長くとることで、S/Nを改善することはできるということが式の上からわかります。


あとがき

今回色々式から天体撮影のノイズが原理的にどのような振る舞いをするのかを考えましたが、それでもしょせん式から導き出した推測だけに過ぎないことは心に留めて置いてください。なんでもそうなのですが、理論と実測は違います。例えば、S/Nはコンポジット枚数のルートに比例して無限に良くなっていくかと思いがちなのですが、実際にはそんなことはなく、ある程度の枚数に達すると改善しなくなります。例えば考えていなかったノイズに支配されてしまったりするからです。枚数をきちんと重ねられる方は、やはり撮影時の条件がきちんとしていて、多数枚のコンポジットにも耐えうるようなそもそもの素材を作り出していると言えるのでしょう。

もう少し言うと、一般的にどんな実験もそうなのですが、条件をきちんとしてかなり理想的な状況を作り出せば実験は理論に近づいていきます。でも通常は理想的な状態を作るのはものすごく大変なので、なかなかうまくいかないのです。理論が足りなかったり、実験条件が不十分だったりする場合がほとんどです。天体撮影は、夜のしかもとても暗い中でするので、決して環境がいいとは言えません。くれぐれも理想を追い求めるあまり無理をしすぎたりしないで、できないものはできないと割り切って、趣味の範囲で楽しみながら、少なくとも私はそのように進めたいと思っています。


おまけ

最後におまけとして、ノイズを考える例として、コンバージョンファクターを求める時に使った関係式

([ADU])^2 = [ADU] / fc [e-/ADU] + (Nread [e-])^2 / (fc [e-/ADU] )^2


の証明をしてみましょう。証明と言ってもあまり数学的にやるのもつまらないので、できるだけノイズの物理的な意味を具体的に理解できるように考えたいと思います。

ものすごく簡単に考えると、スタートはショットノイズの関係式ということになります。ショットノイズは信号のルートに比例するということです。式で書くと

[e-] = sqrt(S [e-])

両辺2乗して

([e-])^2 = S [e-]

コンバージョンファクター(gain) fc [e-/ADU]を考えると

(fc [e-/ADU] x [ADU])^2 = fc [e-/ADU] x S [ADU]

両辺fcの2乗でわると

([ADU])^2 = [ADU] / fc [e-/ADU]

という求めたい式の読み出しノイズを無視した形が出てきました。これは簡単に信号をショットノイズのみで考えたたためで、信号をきちんとショットノイズと読み出しノイズからなると考えると

[e-] = sqrt( (S [e-])^2 +(Nread [e-])^2 ) )

となるので、同様にして求める式がでてきますが、実際にコンバージョンファクターを求める時も読み出しノイズを無視できるくらい長時間をかけて測定するので、前半までの証明でも十分かと思います。


 

先日の記事で、メーカーが出しているASI294MCの性能のグラフの読み方を考えてみました。実際の性能を確かめるため、SharpCapを使い手持ちのASI294MCの実測もしたのですが、記事自体はかなり一般論になっていて、じゃあ具体的にどのような設定で使えばいいのかという話まではまだ繋がっていません。今回はそこら辺のところを考えてみたいと思います。難しい理屈は嫌だという方は、今回の記事だけ読んでも実用的には役に立つのかもしれません。

IMG_3233



さて今回は
  1. 電視観望
  2. 空が暗く、非常にいい環境での撮影
  3. 光害地での撮影
という3パターンに分けて考えてみましょう。



1. 電視観望

まずは電視観望から始めます。普通の天体撮影をされる方にとっては電視観望というのはあまり一般的ではないかもしれませんが、電視観望はかなり極端な設定を必要としますので、性能の限界を考える時にはなかなか面白いのです。

電視観望では、短時間でのリアルタイムビューを重要視するために、内部ゲインを相当上げて、露光時間をできるだけ短くして臨場感を出します。その代わりにノイズは大きいですし、そのノイズを緩和するためにライブスタックと呼ばれる、いわゆるコンポジットをリアルタイムで行なっていきます。

かなり基本的なところから考えます。まず、内部ゲインを上げるとは一体どういうことなのでしょうか?物理的にはセンサーの後に増幅回路があって、その増幅回路のゲインを上げるということなのですが、これがメーカのグラフの上でどのようなことを意味するのかを考えてみます。

電視観望ではZWOの言うGainを400とか500とか600近くまで上げます。Gainは200で20dB、すなわち10倍、400で40dB、すなわち100倍、600で60dB、すなわち1000倍ということです。簡単のため電視で仮に400まで上げたとしましょう。ZWOが出しているページのグラフの横軸で400のところを見ると、Read noiseは1.4 [e-] 程度とかなり小さい値を示しています。でも画面ではなぜかノイズが目立ちます。Read noiseは小さいはずなのになぜ?という疑問が湧くかもしれません。そこにコンバージョンファクター(ZWOのグラフではGAIN(e-/ADU)となっている2つ目のグラフ)がキーとなります。この値はGain400ではかなり低く、0近くになっていてグラフから読み取ることも困難です。昨日実測した値を見て見ると0.036 [e-/ADU]と記録されています。この値でADCのカウントでどれだけノイズが目立つのか計算してみると、

1.4 [e-]  / 0.036 [e-/ADU] = 39 [ADU]

となり、何とADCの読みで39カウントもノイズが出ていることになります。じゃあ39カウントのノイズって何だと言う話になりますが、分散とかの話をすると難しくなるので、まあざっくり39カウントくらいの間で明るくなったり暗くなったりしているピクセルが画面中にバラついていると考えてください。それよりも意識しておきたいことがあって、このGain400の時のfull wellの値です。full wellとは内部ゲインが高すぎる時にセンサーの出力が限られてしまい、これ以上ADCの値が上がらない上限値のことを指します。これも昨日の実測値を見てみると、何とわずか585です。ADCの値にすると、585が最大値でそのうちの39がノイズだとしたら、1割とは行かないまでもレンジの約7%がノイズになってしまっていることを示します。これじゃあ画面がノイズだらけなのは致し方ないと言うことです。

(追記1: すみません、上の記述勘違いしていました。[e-] が単位のfull wellと、[ADU]が単位の画面のサチレーションを勘違いしていました。ADCのサチレーションカウント16384の中で39カウントノイズになっているだけです。ちなみにゲインを600まで上げると400カウントくらいがノイズになります。これだと4%くらいになるので、これくらいでさすがに目に見えるくらいですね。)

(追記2: 改めてSharpCapのfull wellの値を見ているのですが、どうもこれは真面目に全てのゲインで飽和カウントを測定したわけではなく、単にADCのフルレンジ16384をコンバージョンファクターで割っているだけのようです。これはSharpCapだけでなくZWOの測定結果も同様の方法で簡易的に出しているだけのようです。そう言った意味ではセンサーが出せる最大出力という意味での真のfull wellとは言えないので注意が必要です。あくまで、ADCの最大カウントからくるfull wellがZWO及びSharpCapで示されているに過ぎないということでしょう。)



ライブビューを謳うので露光時間もあまり上げることができません。残る手はSharpCapの秘技、LiveStackです。これは単に画面を重ね合わせるのではなく、恒星の位置を数十個自動認識して、それらが重なるように画面をリアルタイムでコンポジットしていきます。上の読み出しノイズは枚数に正比例(注: 枚数のルートに比例してではありません、ノイズに関しての詳しい議論は後日します。)して減っていきますので、見ている間に劇的にノイズが軽減されていくというわけです。

(追記: 2017/12/212017/12/23実際にASI294MCで電視を試してみました。)


2. 空が暗く、非常にいい環境での撮影

次に、かなり空が暗いすごく環境の良い状態で、撮影をすることを考えて見ましょう。まず、空が暗いということは、長時間露光してもサチルことがないので、一枚一枚の露光時間を長くとることができます。 内部ゲインx 露光時間でヒストグラムのピーク位置が決まります。ピークの位置が左から3分の1程度になればいいとか言われている(これもまた議論の余地があると思いますが、いつか検証します。)ので、適当にゲインと露光時間を調節するのですが、じゃあゲインは具体的にはどれくらいにすればいいのでしょうか?

こんな時に指標になるのが、3つ目のグラフDR、すなわちダイナミックレンジです。ダイナミックレンジはFull wellをRead noiseで割ったものをbit換算したものになります。グラフを見ると一番いいところで13[stops]くらいでしょうか、これは2の13乗を意味し、2^13=8192となるので、信号部分である天体を最大8192階調で表すことができると言うことを示しています。ここで面白いのが、Read noiseが横軸のGain120あたりのところで、いきなりジャンプして劇的に良くなっていることです。このためダイナミックレンジも最初Gainとともに落ちていくのが、Gain120のあたりで再び良くなっています。これはGain120より多少大きいあたりで撮影するのが一番得だということを示しています。このGainでヒストグラムのピークが3分の1くらいになるような露光時間で撮るのが、最も効率のいいセッティングになります。これで時間が許す限り取れるだけの枚数を撮ってしまい、あとはコンポジットしてノイズを減らしていきます。


3. 光害地での撮影

最後に光害地での撮影です。基本的には上の最も効率のいいGain120で、露光時間を短くすることでヒストグラムのピーク位置を3分の1程度のところに持って来ればいいのですが、それでも明るすぎる場合には、Gainを0近くに持ってくる手もあるのかと思います。ダイナミックレンジが一番得をするところを探すという考え方は同じです。ただ、同じクオリティーの画質を出すのにより長い時間かかってしまうので、結局は損をしてしまうと思います。



3パターンで考えましたが、センサーの性能を理解していると、効率のいい設定をあらかじめ予測することができます。もちろんこの設定が完璧というわけではなく、例えば雲が多くて時間が限られている日には多少恒星が飽和するのを覚悟して、Gainを上げて短時間で撮影するなどの戦略をとることもできます。実はこのカメラが欲しかった理由の一つが、センサー感度がいいことを利用しての短時間露光のシンチレーション回避を試してみたいと思っていることなのですが、これはまた上の原則には当てはまらずに、いろいろ戦略を練ることになりそうです。ここら辺は追い追い試していきます。

(追記: 実は上のことだけ考えていると、一般的なカメラ撮影でもダイナミックレンジが一番広い低感度で撮る、すなわちiso100とか極端なのがいいという変な結論に陥ってしまいますが、もちろんそんなわけはないです。これをきちんと考えるためには、撮りたい天体の極限等級、露光にかけたい時間などの要求値をあらかじめ決めておかなければならず、それらの条件のものでノイズを考え、その時のS/Nから要求が満たせるかどうかの判断をして、その要求が充たせる範囲の中でゲインや露光時間を調整すべきです。S/Nの話は、定性的なお話や、定式化までは簡単なのですが、定量的に考えようとすると、読み出しノイズやダークノイズなどのカメラの性能だけでなく、ターゲット天体の明るさを信号として、空の明るさなどをノイズとして数値的にきちんと評価してやらなくてはいけません。具体的にこのブログのレベルで示せるものなのか、ちょっと今試行錯誤中です。)




さて、外を見ると今日は一日中雪が降り続いています。晴れるのはいつになることやら。

もう少し、次はノイズについてちょっとだけ議論したいと思います。


( 追記: ノイズについていろいろ検討してみました。定式化までですが、参考になればというくらいです。定量化はもう少し。)

このページのトップヘ