ほしぞloveログ

天体観測始めました。

タグ:SharpCap

長く続いてきたSV405CCの評価も佳境になってきました。今回の記事は作例とともに、青ズレの謎に迫ります。さてさて、どこまで解明できるのか?


北アメリカ星雲再び

まずは作例です。今回の一連の記事のその2で出した北アメリカ星雲の再撮影です。

目的は2つ、
  • 前回の撮影は透明度がかなり悪く、階調がほとんど出なかったので、そのリベンジ。
  • 四隅の流れを改善しておきたい。
といったところです。本当はあと一つ、あわよくば青ズレを直す方法が見つかったらと思いましたが、この時点ではそれは叶いませんでした。

まず透明度ですが、今回の撮影では白鳥座の羽の先が見えるくらいよかったです。その影響はかなり大きく、見た目だけなら今回の3分露光の1枚で前回の全スタック分くらいの諧調が出ています。(アップロードの関係でサイズを各辺半分にしています。)

2022-07-02_00-00-47_NGC 7000_180.00s_g120_0.10c_0050_low

依然青ズレは出ていますが、これならインテグレーションしたら階調に関してはかなり期待できそうです。

もう一点、マルチフラットナーを使っているにもかかわらず、前回までバックフォーカス長を適当にとっていたため、SV405CCでもASI294MC PRoでも、いずれの撮影にも関わらず四隅の星像が流れまくりでした。

2022_07_01_01_39_49_M_20_180_00s_g120_0_10c_0034_mosaic
前回までの間違ったバックフォーカスでの四隅の一例。

タカハシの鏡筒はCanonやNikonといった、一眼レフカメラのバックフォーカス長に合わせてアダプターなどの製品を提供しています。今回は手持ちのタカハシ純正のCanon用の一眼レフカメラ用のアダプターを使ってマルチフラットナーのバックフォーカス長に合わせるようにしました。このアダプターに合わせてCMOSカメラを使う場合は、例えばZWOから出ているCMOSカメラとCanon EFマウントに変換するアダプターを使うこと、ほぼ何も考えることなくバックフォーカス長があった状態にしてくれるので楽です。

今回は、かなり前に買ったZWOのCanon EFマウントアダプターを使ってみました。現行モデルはフランジ長が固定ですが、初代のZWOのCanonマウントアダプターはフランジ長を1cm位調整できます。CBPを取り付けたくて、SV405CCに付属の1.1.25インチフィルター用のリングをセンサー部に取り付けたので、ZWOのCanonマウントアダプターは少し手前で固定されるはずです。そのため、マウントアダプターの長さは最短に調整しました。この状態で四隅を見てみると、

2022_07_02_00_00_47_NGC_7000_180_00s_g120_0_10c_0050_mosaic
のように四隅の流れはほぼ無くなりました。

その後、撮影前に少しだけ青ズレを直せないか試したのですが、この日は結局太刀打ちできず、透明度も良くて時間ももったいなかったので、そのまま撮影続行としました。結局天文薄明開始までの午前3時前まで3分露光で72枚撮影しました。前半は雲が通ることも多かったですが、後半はずっと快晴でした。使えたのは雲のない44枚の2時間12分ぶんでした。


画像処理

インテグレーション直後の画像をオートストレッチしたものです。

integration1

一部拡大するとわかりますが、依然青ズレがあります。

integration1_Preview01

もう一つ、今一度上の画像をクリックして拡大して見てもらいたいのですが、微恒星の中心が暗く抜けてしまっています。最初はピントが合っていなかったと思っていたのですが、実際にはかなりピントは気を付けて合わせているにもかかわらず、ほぼ毎回こうなります。また、そーなのかーさんがSV405CCで撮影した画像も同様に中心抜けになっているようなので、どうもこれはピンボケというよりは何か系統的に問題があるような気がしています。

恒星に関しては仕方ないとして、そのまま画像処理を進めます。

途中やはり恒星部分で苦労しました。一番大変だったのは、StarNetのバックグラウンドと恒星部の分離の時に、色ズレのせいかハロの部分がバックグラウンドと認識されてしまい、ここを誤魔化すのが大変で、最後まで不満が残ってしまいました。

Image24_Linear_PCC_ASx2_MS_HT_bg

パッと見はわかりませんが、B画像を抽出してみると同様のハロが他にもたくさん残っていて、あぶり出しとともにたくさんのハロが目立ってきます。

結果


Image24_Linear_PCC_ASx2_MS_HT3_cut_tw
  • 撮影日: 2022年7月2日0時38分-2時53分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: TAKAHASHI FS-60CB+マルチフラットナー(f370mm)
  • フィルター: SIGHTRON CBP(Comet BandPass filter)
  • 赤道儀: Celestron CGEM II
  • カメラ: SVBONY SV405CC (0℃)
  • ガイド:  f50mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイド
  • 撮影: NINA、Gain 120、露光時間3分x44枚で総露光時間2時間12分
  • Dark: Gain 120、露光時間3分、128枚
  • Flat, Darkflat: Gain 120、露光時間 0.3秒、128枚
  • 画像処理: PixInsight、Photoshop CC

淡いところの階調もかなり出ています。前回の透明度の悪い時より相当良くなっています。庭撮りでここまで出るならまあ満足でしょう。あとはやはり恒星です。

普通ならここでおしまいなのですが、もう少し続きます。ここから大きな進展です


青ズレ検証その後

上の北アメリカ星雲の撮影のあと、もう少し青ズレに関して何かわからないかと思い、後日いろいろ試してみました。ただし雲が多く出ていたので、その隙間でのテストであまり時間をかけることができませんでした。

とりあえず、SharpCapで3分露光を何ショットか撮影しました。最初のショットがやはりこれまでのように暗くなるのが再現され、やはりドライバーレベルで何かやっているのかと思います。この時、雲の動きが速く、雲間が貴重なためにすぐにNINAに移りました(ここで焦っていたのが後で効いてきます)。

NINAでは少し雲が薄くなってきて余裕も出てきたので、じっくり青ズレを見ながら、ASI294MC Proとも交換しながら、何が問題かじっくりみることができました。

一つ疑っていたことがあって、オフセットが40と小さすぎることが原因ではないかということです。SV405CCの場合、オフセットは最大255まで設定でき、今回はわずか40と、最大の6分の1くらいとしています。ちなみにASI294MC Proの場合は最大80で半分の40としています。前回のPedestalの記事であったように、オフセットが低くて輝度の低いところが問題を起こしているのかと思ったわけです。でもオフセットが40の場合でも、120にした場合でも、青ズレに関してはなんら違いが見られませんでした。なので、オフセットは無関係かと思います。

結局、このとき画面を見ながら出した結論は、ASI294MC Proでは何をどうやっても(ゲインやオフセット、露光時間など)青ズレのようなものは出ない、その一方SV405CCでは何をどうやっても(こちらおゲインやオフセット、露光時間など)青ズレを消すことはできない。ということでした。

その後、改めてSV405CCのRAW画像を、RGBで分離して見たり、4つのセグメントごとに見たりしました。
  • SV405CCのBayer パターンがなぜかGRBGであること。ASI294MC ProはRGGB。
  • でもなぜか星雲の濃さから判断するとCF0:G1, CF1:B, CF2:R, CF3:G1のように見えること。
  • CF2の恒星中心部近くに極端に暗くなっている欠損部が多いこと。輝度は周りの1%程度であるが0でないこと。
  • CF1に星の中心部近くに輝度が完全に0のところがあること。CF2ほど欠損の数は多くないこと。
などがわかりました。そーなのかーさんも同様のレポートをしていたので、再現性もあるようです。

結局、この時点ではどうすることもできなくて諦めて、次はNINAで触れないパラメータをいじってみるのかなと思っていました。というのも、CMOSカメラはどこかに設定が保存されていて、例えばSharpCapで触った設定が、FireCaptureを立ち上げるとそのまま引き継がれるというようなことがあるからです。


なんと、原因判明!

そんなことを考えながら昨晩、上の北アメリカ星雲の画像処理を終えて、次回テストの準備をしようと思い、「そういえばSharpCapでSV405CCで撮影した画像があったなあ」と何の気無しに開いてみたら、どこをどう見ても青ズレが見えません。

Capture_00001_20_47_33_RGB_VNG
SV405CCでSharpCapで撮影。青ズレは皆無です。

2022_07_04_21_28_47_NGC_7000_30_00s_g120_10_00c_0084
上の画像の直後にSV405CCでNINAで撮影。明らかに青ズレが出ています。

わかりやすいように拡大して比較して見ます。
ShapCap_NINA_SV405CC
左がSharpCap+SV405CC、右がNINA+SV405CCです。

明らかに違いがわかると思います。ただし、SharpCapでの露光は180秒、NINAでの露光は30秒です。露光時間が逆だったらまだ疑いの余地もありますが、NINAでわずか30秒で青ズレが出てしまっているので、結論は覆らないでしょう。これは明らかにどうやっても青ズレが消えなかったNINAとは、状況が全く違います。

カメラのドライバーはSharpCapでもNINAでも同じ「SVBCameraSDK.dll」を使っています。一応念のために改めて確認しましたが、SVBONYで配布されている1.7.3のカメラドライバーを普通にインストールしたあと、SharpCapは最新版を改めてインストールすると、SVBCameraSDK.dllに置き換わっていました。その一方NINAでは現在の最新版でも、カメラドライバーは最新のものに自動的に置き換わらず
、その前に使っていた1.7.2のままだったので、マニュアルでSharpCapにインストールされていたSVBCameraSDK.dllをNINAの方にコピペして、改めてNINAを立ち上げて1.7.3になったことを確認しています。

ここまでの検証が正しければ、最新版のNINAでの読み出し方の問題ということになります。


よく考えると、SharpCapで撮影した時は雲が流れてたので、時間がなくあせっていて青ズレをきちんと画面で確認していませんでした。そういえばSharpCapで電視観望した時もSV40CCで青ズレが出なくて、彩度もSV405CCとASI294MCで変わりがなかったことを改めて思い出しました。この時は露光時間が短かったからかと思っていましたが、どうもNINAとSharpCapの違いの方が濃厚そうです。

今のところCMOSカメラを使ってのDSOの撮影はShaprCapではディザーガイドがやりにくいなど、NINAやAPTなどに頼らざるを得ません。SV405CCはAPTは対応していないので、実際はほぼNINA一択になるかと思います。NINAでこの青ズレがある状態は致命的です。

というわけで、SVBONYさんの方に今回の結果を報告し、開発陣に連絡してもらうように頼みました。これでキチンとNINAでも対応してくれるように手配してもらえれば、青ズレ問題はとりあえず解決することになりそうです。

今の段階であとやれることは、次に晴れた時に改めてSV405CCを使ってSharpCapで撮影、画像処理までしてみて、(ディザーはやりにくいのでパスするかもしれませんが)青ズレが出ない仕上げ画像まで作ってみることでしょうか。


まとめ

ここまでの結果が正しいのなら、問題はハードではなくてソフトで解決できるということになります。ここが切り分けられるだけでも、かなりSV405CCの未来は明るくなります。その際、彩度がこれまで通り出なくなるのかちょっと気になりますが、まあ優先度としては次の話でしょう。

SV405CCの初期の評価、長かったですがやっと解決につながる道を見つけることができました。やっとあぷらなーとさんにお渡しすることができそうですが、どうもあぷらなーとさん骨折で入院しいるとかで心配です。焦らせてしまっても申し訳ないので、活動できるようになってから渡るようにしたいと思います。


北アメリカ星雲撮影後、6月13日付で新型ドライバー1.7.3が出ました。今回の記事はこのドライバーを適用して書いています。


新ドライバーでのセンサー解析

早速ですが、前ドライバーでも試したように、SharpCapを使いセンサー解析を実行します。

20220630_SV405CC_1.7.3

この結果を見る限り、100と150の間、おそらく120あたりでHCGもオンになり、前回測定した時のような変なゲイン設定と実測のゲインがずれるというようなおかしな振る舞いももう見られません。

ここで改めてASI294MC Proの測定結果を再掲して比較してみます。

ASI294MCPro

  • まず、コンバージョンファクターがSV405CCの方が2割ほど大きく出ています。
  • 読み出しノイズも2割ほど大きく出ているように見えますが、これは単位が [e] になっています。これを2割大きく測定されたコンバージョンファクターで割ってやり [ADU] で見てやると、ASI294MC Proの結果とほとんど同じになります。なので、ノイズに関しては同様の結果で、コンバージョンファクターに差があるということです。
  • フルウェルに関しても同様です。SV405CCの方が2割ほど増して電荷を貯めることができるように思われるかもしれませんが、これは14bit = 16384 [ADU] にコンバージョンファクターをかけているだけなので、コンバージョンファクターが大きいと勝手に大きなフルウェルとなってしまうだけです。
結局突き詰めると、コンバージョンファクターのみがASI294MC ProとSV405CCで2割ほど違うということになります。ではなぜSV405CCのコンバージョンファクターが大きく出たのでしょうか?少し考えてみます。

そもそもコンバージョンファクターは撮影された輝度(信号)と、その輝度のばらつき具合(ノイズ)の比から計算されます。さまざまな輝度を横軸に、ばらつき具合縦軸にプロットし、その傾きの逆数がコンバージョンファクターとなります(簡易証明はここを参照)。ということは、コンバージョンファクターが大きいということは、同じ量の輝度に対し(傾きの逆数なので)その輝度のばらつき具合が小さいということになります。簡単にいうと、ノイズが小さいということです。今回の測定結果だけ考えると、SV405CCの方がASI294MC Proよりもノイズが小さいということです。また、言い換えるとADCの1カウントを稼ぐためにより多くの電子(突き詰めれば光子)が必要になるため、効率が悪いとも言えます。効率が悪いために、ADCの飽和までにより多くの殿下が必要になり、フルウェルが大きく出るというわけです。

ただ、センサーが同じで測定結果が違うということなので、そのまま信じるのも少し疑問が残り、他に何か別の要因が効いている可能性は残されていると思います。今のところは測定結果がわかっているのみで、それ以上のことはわかっていないので、これはこれで事実として置いておくとして、先に進みます。


画像比較

今回はM8干潟星雲とM20三裂星雲で画像を比較してみました。機材は前回同様FS-60CBとCBPで、ASI294MC ProとSV405CCで自宅撮影した画像での比較です。撮影日の透明度はかなり良く、白鳥座の羽は端まで見えていていて、こと座も三角形と平行四辺形が良く見えました。天の川も薄っすらですが見えていて、3分露光一枚でもかなりはっきり写るくらいでした。

NINAの画面と、ASIFitsViewerでのヒストグラムを示します。


SV405CC

01_capture

3分露光のオートストレッチになりますが、すでにこの時点でかなり色濃く出ています。

撮影画面の右下隣のグラフを見るとわかりますが、黄土色の線が検出された星の数を表していて、相変わらず最初の1枚はなぜか暗く撮影されるため、星の数が少ない状態で写っています。

少し気になるのは、冷却時のパワーが大きいことです。1.7.2の時から冷却時も加熱時も時間がかかるようになりました。それはそれで結露しにくくなるはずなのでいいのですが、同じ温度にするときにSV405CCが65%で、ASI294MC Proが48%なので、1.4倍ほどパワーを食うようです。冷却効率はまだASI294MC Proに分があるようです。

02_histgram

ヒストグラムも全ドライバーのように右にシフトすることもないですし、赤だけ山の広がりが極端に大きいということもありません。


ASI294MC Pro

比較のASI294MC Proです。
03_capture_ASI294MCPro

上と比べると明らかに色は淡いです。ただ、右下グラフの緑線を見ると、恒星の径が294に移った時点で3.15を切るくらいから2.9付近に1割近く改善しています。これも毎回のことでそこそ再現性があり、不思議なところの一つです。

02_histgram_ASI294MCPro

このヒストグラムと比べると、まだSV405CCは最適化の余地があるように思えます。まず山の左側の裾の具合が違います。ASI294MC Proのほうが左側がスパッと切れていて、理想に近いです。

あと、やはりSV405CCの赤はまだ少し広がりが大きいようにも見えます。ただ、後の画像処理では前回起きたPCCの背景がニュートラルにならないというようなことはありませんでした。

それぞれ30分程度撮影して、PixInsightのWBPPでインテグレーションまでして、オートストレッチしたものを比較します。天頂を挟んで先にSV405CCで30分撮影、その後ASI294MC Proで30分撮影しました。ASI294MC Proの方が心持ち天頂に近く、10分ぶんくらいの差で少しだけ有利ですが、まあ誤差の範囲でしょう。

上がSV405CCで、下がASI294MC Proになります。
masterLight_BIN-1_4144x2820_EXPOSURE-180.00s_FILTER-NoFilter_RGB

masterLight_BIN-1_4144x2822_EXPOSURE-180.00s_FILTER-NoFilter_RGB

ここで見ても、明らかにSV405CCの方が色が濃いことがわかります。その代わりに、SV405CCの方は恒星の青ズレが依然出ていることも変わりません。

また、SV405CCのマスターダークファイルは以下のようになり、やはりアンプグロー抑制のような効果は確認することができませんでした。
masterDark_BIN-1_4144x2820_EXPOSURE-180.00s


ただ、これはASI294MC Proでも以下のように同様に出ているので、SV405CCが不利ということではありません。
masterDark_BIN-1_4144x2822_EXPOSURE-180.00s

その証拠に上のWBPP後の画像を見ても、SV405CCの場合も、ASI294MC Proの場合もアンプグローのような後は確認できません。


SV405で撮影したM8干潟星雲とM20三裂星雲

その後、さらにSV405CCで追加撮影して、M8干潟星雲とM20三裂星雲を仕上げてみました。テスト撮影の時と同様にFS-60CBにCBP入れて自宅庭撮りで、露光時間は3分x34枚でトータル1時間42分です。

WBPPでインテグレーションした直後の画像です。さすがに上の30分の画像よりは滑らかになっています。

masterLight_BIN-1_4144x2820_EXPOSURE-180.00s_FILTER-NoFilter_RGB

あとはいつも通りPIでストレッチして、Photoshopで仕上げたものが以下になります。
masterLight_180_00s_FILTER_NoFilter_ABE2_mod_cut
  • 撮影日: 2022年6月30日23時56分-7月1日1時39分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: TAKAHASHI FS-60CB+マルチフラットナー(f370mm)
  • フィルター: SIGHTRON CBP(Comet BandPass filter)
  • 赤道儀: Celestron CGEM II
  • カメラ: SVBONY SV405CC (0℃)
  • ガイド:  f50mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイド
  • 撮影: NINA、Gain 120、露光時間3分x34枚で総露光時間1時間42分
  • Dark: Gain 120、露光時間3分、128枚
  • Flat, Darkflat: Gain 120、露光時間 0.3秒、128枚
  • 画像処理: PixInsight、Photoshop CC

このカメラ、画像処理するとよく分かりますが、色がかなり出やすいです。三裂星雲の周りの青も簡単に出ました。そもそも1枚画像でも色が出てますし、インテグレーション直後でもかなりきちんと色が出ているので、色出しについては全然楽です。実際、明らかにASI294MC Proで画像処理を試したときよりもはるかに楽でした。

画像処理の中でも、色出しは最初のうちは苦労すると思うので、撮影用の入門カメラとしては大きな特徴であると言えるのかもしれません。ただし、青ズレが気になる場合は画像処理でどうにかする必要があり、上の画像くらいには目立たなくすることは可能かと思われます。

正直言うと、庭撮りでここまで色が出やすいなら利点の方が大きく、青ズレのことは画像処理である程度気にならないくらいになるので、結構満足です。

ちなみに、以前FC-76で自宅で撮影したものが以下になります。

integration_DBE_PCC_stretched3

当時はそこそこ満足していましたが、今回の方がM20周りの青の出方、指先の青、階調、分子雲、どれをとっても圧倒的に進歩していると思います。


まとめ

SV405CCですが、最新のドライバー1.7.3でセンサーの振る舞いとしてはかなりまともになりました。

撮影では依然青ズレは存在しますが、画像処理まで考えると色が出やすく一気に評価が高くなります。とくに、画像処理初心者にとっては色が出るというのはかなりの魅力なのではないでしょうか?青ズレ問題は画像処理である程度目立たなくすることもできるのかと思います。

そうは言ってもこの青ズレ問題、できることならやはり解決したいと思っているので、もう少し検証してみます。その一方心配しているのが、青ズレがなくなると同時に、この色が出やすいと言う特徴ももしかしたら無くなってしまうのではという可能性です。まだ解決法も見つかっていない状態なので、結果がどうなるかは分かりませんが、もう少しお付き合いください。


  1. SV405CCの評価(その1): センサー編 
  2. SV405CCの評価(その2): 撮影編 
  3. SV405CCの評価(その3): 画像比較
  4. SV405CCの評価(その4): 新ドライバーでの画像比較
  5. SV405CCの評価(その5): 青ズレの調査と作例
  6. 番外編1: 階調が出ない時のPedestalの効果
  7. 番外編2: ASI294MC Proでの結露


今回の記事は悪いことをしているので真似しないでください(笑)。

冗談はさておき、撮影の準備をどこまで短縮できるか考えてるのですが、最近大きな進歩があったので書いておきます。


赤道儀のセットアップ

私は普段は自宅での撮影なので、赤道儀が玄関に置いてあります。全部CelestronでAdanced VXとCGEM IIとCGX-Lと、3つあります。

97E8C9BD-8951-454B-9A68-774EBC1A07FA
  • AVXは軽いので、組み上がったまま、ウェイトも鏡筒もつけたまま(クランプは緩めて)運びます。ケーブルまで含めて組み上がっているので楽です。
  • CGEM IIは三脚と赤道儀をまとめて運びます。これで運べるギリギリの重さで、ウェイトや鏡筒が載っているととてもじゃないけど運べません。でもケーブルとかは赤道儀までは接続されているので、まだ楽です。
  • CGX-Lは赤道義単体だけでもすごく重いです。ウェイトバーはまだつけたまま運びますが、毎回三脚から切り離して運びます。三脚も上二つとは段違いにゴツくて、三脚単体で運ぶのだけでも大変です。固定するのはM10のキャップネジ3本なので、載せて固定するのに六角レンチが毎回いるのでちょっと面倒です。ケーブル類も当然毎回接続し直しです。

でも今日の話はこんなことではありません。この後の話です。

三脚、赤道義、ウェイト、鏡筒がそろった段階からは共通で、
  1. 赤道儀についている水準器を使って水平をとる。
  2. SharpCapで極軸を合わせる。
  3. 鏡筒をホームポジションに合わせる。
  4. 赤道儀の電源を入れる。
  5. ワンスターアラインメントで初期導入をする。
  6. ガイドカメラの映像をSharpCap上で大まかにあっていることを確認する。
  7. メイン鏡筒のカメラをSharpCapで見て中心に持っていく。
この中から二つの大きなステップを省きます。この二つはペアなので、片方だけやるとまずいかもしれません。思いついた順で時系列で書きます。


省ける操作1

まず一つは、赤道儀の自動導入は私の場合ワンスターアラインメントなのですが、鏡筒の移動が終わった後に星が視野に入ったことを何も確認しません。その代わりにSharpCapのプレートソルブでズレを確認し、赤道義側にフィードバックすることで自動導入の精度を担保します。プレートソルブで、目的の天体をほぼ視野(例えば焦点距離1300mmでセンサーはフォーサーズサイズくらいの視野でも)の真ん中に入れてくれます。

その際気をつけることは、Celestronのコントローラーの場合、ワンスターアラインメントで導入して、星が入っていない段階で、「Enter」ボタンと「Alignment」ボタンを押して、アラインメントを終了させておくことです。これができてないと、プレートソルブで赤道儀を返そうとするとエラーになります。あと当然ですが、赤道儀に誤差を返すためSharpCap上であらかじめ赤道儀に接続しておく必要があります。

これだけで時間にしてうまくいくと5分程度時間が短縮できます。


省ける操作2

最近思いついたもう一つの省ける点ですが、水準器で赤道儀の水平をとることをしません。私は長らく「赤道儀の水平をとることはものすごく重要で、ここをサボると精度が出ない」と主張してきました。基本的な考えは変わってませんが、そもそもなぜ赤道儀の水平をとる必要があるか、よく考えてみると疑問が出てきました。

通常の場合、水平出しの一番の目的は、初期アラインメントの時にきちんとガイド鏡もしくは主鏡の視野に天体が入っていくることです。でもこの条件は、既に上のようにプレートソルブに任せてしまったので、必須条件になっていません。

あともう少し条件があります。極軸が十分な精度でとれていることです。SharpCapだと極軸を1分角以下の精度で余裕で合わせることができるので、これくらいきちんと合わせてあれば、水平が合っているかどうかに関わらず、十分な追尾ができます。極端なことを言うと、極軸さえあって入れば、自動導入でもマニュアル導入でも、水平がとってあってもなくても、追尾精度は同じでですよね。自動導入があると便利というだけです。

あと水平が出ていないと、初期導入時の誤差が大きくなるので、繰り返しになりますが、プレートソルブは必須(少なくとも合った方が楽でしょう)です。極軸の精度が出ていない場合、プレートソルブがない場合は、真面目に水平をとった方がいいのはこれまでとなんら変わりはありません。

この水平出しを止めることでも、うまくいくと5分程度時間を短縮することができます。


実際の感想

5月末のこの季節、21時近くに天文薄明が終了します。大体20時半近くに、玄関からCGX-Lをえっちらおっちら運び始めて準備を始めます。トラブルがなければ実質30分以内に準備が済んで、21時には撮影を開始できます。準備の30分のうち、5分とか10分とか時間を短縮できるのは無視できないくらいの効果があり、精神的にもかなり楽です。

プレートソルブを使った初期アラインメントの簡略化はかなり前からやっていましたが、水平出しを無視するのは最近始めました。既に3度ほど撮影していますが、今のところ精度が落ちたようなことはありません。といっても、いつも同じような場所に置くので、実際にはものすごく水平からズレるということはあまりないです。水平を確認しないだけで、そこそこの水平度は出ているので、極端に大きくずれているというのは検証していませんが、まあ原理的には大丈夫なはずです。

あ、あと私は(極軸の精度は十分出しているので)ワンスターアラインメントしかしませんが、ツースターとかスリースターアラインメントをすると追尾中に赤緯も動かす可能性があるので、もしかしたら上の話は成り立たないかもしれません。


まとめ

とまあ、今回はやってはいけないことシリーズとなります(笑)。もし試す場合はくれぐれも自己責任でお願いします。これで精度が出なくて写真がうまく撮れなかったとか言われても、私は何の責任も取ることができません。


SharpCap(有料版のみ)やASILiveには、リアルタイムでダーク補正をしてくれる機能がついています。これがどこまで有効なのか、常にオンにしておいた方がいいのか?色々やり方はあると思います。今回は私Samが普段どうしているかSharpCapを使って解説したいと思います。


ホットピクセルがはいずった痕

SharpCapでの電視観望中Live stackをしていると、よく赤、青、緑の単色のミミズみたいなノイズが入ることがあります。「ホットピクセル」とか言われているもので、長時間露光時やセンサー温度が高い時に出てくるダークノイズの言われるもの一種です(下の画像をクリックして拡大して見て下さい)。
hot

この画像は、自動追尾さえしてなくて、Livestackのみで星像を重ねています。なのでこんな短時間で長いミミズさんがでてますが、自動追尾している場合は同じ時間ならこれより遥かに短くなります。

いずれにせよ電視観望でも見栄えが良くないので、これを取り除きたくなるかと思います。こんな時はリアルタイムでダーク補正ができる機能があります。


ダーク補正機能の注意点1

SharpCapでのダーク補正は簡単で便利なのですが、いくつか注意があります。まず一つ目、これはSharpCapに限らず一般的なことなのですが、

撮影したダークフレームは、
同じ露光時間、同じゲインでしか
使用できない

ということです。見たいものが安定していて、露光時間とゲインが確定していれば問題ないのですが、電視観望みたいに露光時間やゲインをちょこちょこ変えて見ていると、ダークフレームをどの設定で撮影すればいいか決まりません。もちろん厳密に合わせなくてもダーク補正の効果はあります。ただし、設定がズレればずれるほど、その補正効果も小さくなっていくので、やはりできるだけ合わせておいた方がいいでしょう。

実際の電視観望では、導入時(移動する動きを見たいので、露光時間は例えば400ms程度)、観察時(止まっているので長い露光時間、例えば1.6秒とか、3.2秒、長くても12.8秒程度まで)の露光時間をあらかじめ決めておきます。ゲインは最大から一段階下げるくらいで、高い位置のままいじりません。このようにして、ダークフレームは観察時の設定に合わせるように一種類だけ撮影しておけば、基本的には事足りるはずです。何種類もとって切り替えてもいいですが、観望会でお客さんがいる時などは、時間のロスになってしまうかもしれません。


ダーク補正機能の使い方

SharpCapでの実際のダーク補正のやり方です。

1. まずはメニューの「キャプチャ」から「ダークフレームキャプチャ」を選びます。
2. 撮影前に、必ず鏡筒に蓋をするのを忘れないで下さい。
3. 枚数は多くなくていいです。8枚とか、16枚で十分でしょう。ただし、撮影のようなことをしたくて数十分以上とかの超長時間ライブスタックを掛ける場合はそれなりの枚数にして下さい。
darkcapture

4. ダークフレームの撮影を開始し、スタックし終わるのを待ちます。
darkcapturing

5. ダークファイルができたら、右の「前処理」タブの「ダーク補正」で「参照」を押し、ダークファイルを選択します。自動的にできたファイルのフォルダに移動さるはずなので、そこにあるファイルを選べばいいでしょう。

これでLive stackをしてみると、目立っていたミミズさんはすっかり消えているはずです。ただ、細かいたくさんの縞が残るかもしれません。それでもダーク補正しないよりはマシになるかと思います。

LS_80


ダーク補正機能の注意点2

さて、ここから少しテクニックです。この状態で鏡筒にカバーをしてヒストグラムを見てみましょう。
nohot

ここでの問題は、ヒストグラムの山の左端が切れてしまっていることです。SharpCapでは輝度が負の値になるようなことはなく、0以下は全て0になるようなので、ものすごくおかしなことは発生しません。でもこれは読み出しノイズがガウス分布に従わずに、不自然な状態になってしまっていることになります。言い換えると、
リードノイズの暗い部分はバッサリ斬られていて、
階調がとれなくなります
これが2つ目の注意点です。

階調がとれないとはどういうことでしょうか?例えば、先ほどの北アメリカ星雲を見ている時に輝度をあえて下げてやって、ヒストグラムの山の左端を欠いてやります。

LS_bad

ライブスタックのヒストグラムの左が欠けていますね。すると色バランスが損なわれ、どういじってもこの画像のように見た目にもおかしいものしか出てきません。

これは極端な場合なので、普通に電視観望している範囲では基本的にはこんなことは発生しません。でも、もし画像を見て階調が取れないような時は変にヒストグラムがカットされていないかを疑った方がいいこともあるので、心に留めておきましょう。


ヒストグラムの山を回復する

さて、リードノイズに関して、このような階調不足を避ける方法を考えます。まず、ダークフレームを撮影する前に、右の「画像情報」タブの「輝度」のところを、最初から少しあげておきます

withhot

私は最大値(ASI294MCの場合80)の半分くらい(40)にします。ポイントは右パネルのの「ヒストグラムストレッチ」で見て、まずはダークフレーム取得時点で山の左が欠けていないことを保証すること。山の左すそが、一番下まで言っていればいいです。山が左に行きすぎて左すそが途中で無くなっているような状況は避けてください。

ここまではいいのですが、この状態でダークフレームを撮影してダーク補正を適用すると、オフセットも消そうとするためヒストグラムの山の左が欠けた状態になります。
nohot

ここで、さらに「画像情報」タブの「輝度」の値を上げて、ヒストグラムに山の左側に欠けがないように再び設定します。

nohot_withoffset
山が回復したのがわかるかと思います。

ちなみに、電視観望をやっているだけなら、上記の補正は特にしなくても、特におかしいことはないと思います。補正の有無で以下のようになります。

LS_80
輝度補正なし(40のまま)。

LS_80real
輝度補正あり(80に増加)。

補正有無で比べても特にどちらかが悪いということはないと思います。ただこれを画像処理とかして、撮影画像とかして扱うときは補正なしだと少し気をつけた方がいいかもしれません。リードノイズに相当する部分が既に破綻しているので、もしかしたら何か影響があるかもしれません。


リアルタイムダーク補正は必要か?

ちなみに、私は電視観望の際は大原則としてリアルタイムダーク補正はしません。理由は、露光時間、ゲインを頻繁に変えることが多いからです。また、月や惑星などの明るい天体を見ていて、ライブスタックに入らないような場合には、ホットピクセルは点のままで線にはならないので、そこまで問題にならないはずです。

ホットピクセルが多い場合(カメラの機種に依りますし、気温にも依ります。)で、ライブスタックに入り、かつ露光時間とゲインの設定をあまりいじらなくていいくらいになると、リアルタイムダーク補正をすることがあります。特に、ライブスタックで数分以上の長さでしばらく放っておくような時です。

リアルタイムダーク補正を行う際は、上で説明したリードノイズの山の形の補正は必ずやるようにしています。といっても、炙り出しがキワキワになった時にもしかしたら効くかもしれないと思ってしまうからという程度です。

あとよく似たことで、リアルタイムフラット補正は使ったことがないです。これは鏡筒の方向を変えるとカブリなどの状況がガラッと変わるからです。かなり昔に一度だけリアルタイムフラット補正を試したことがありますが、あまりうまくいかなくてそれ以来使っていません。その頃から大分状況は変わっているので、もしかしたら今試してみたらもう少しいい方法があるのかもしれません。


まとめ

いつかこのリアルタイムダーク補正の話を書こうと思って、途中書きになっていたのですが、前回の記事のコメントでちょうどカトーさんからダーク補正についての質問がありました。これが答えになってくれるといいのですが。


sanpojinさんのSharpCapでの極軸測定がうまくいかないという記事を見て、どうもたわみが原因な気がしました。三脚の足を伸ばし切って極軸測定しているため、足元が弱くて、赤経体を90度回転させるとたわんで正確な測定ができていないのではと思ったのです。

逆に、もしたわみによって極軸調整の精度がずれするなら、そのSharpCapでのズレの値評価することでたわみ自身が定量的に測定できるのではと思い、今回考えてみました。

IMG_0829


たわみの測定原理

簡単なところから考えます。

まず、赤道儀が完全に天の北極を向いていて、極軸に誤差がない状態を考えます。もしこの状態でSharpCapで極軸調整をしたら、誤差は0と出ます。この誤差がなく、赤経体が最初上を向いている状態を初期状態としてはじめます。
  1. 最初極軸に誤差がない状態から、SharpCapの極軸測定中に90度赤経体を西側に回転させたときにたわみが発生したとします。簡単のために、鉛直方向に鏡筒が傾き、視野が1度角下を向いたとします。
  2. このときSharpCapは極軸が元々1度ずれていたのか、それともたわんだ結果1度角ずれて見えているのか分からないため、とにかく極軸が1度ずれていると表示してしまいます。
  3. そこで人間が赤道儀の仰角を1度(間違えて)上げることでSharpCapは正しく極軸が設定されたと勘違いをします。でも現実にはこの時点ではSharpCapも人間も本当は極軸が間違っていたのか、たわみでずれたのか知る由はありません。
さて、この90度回転している状態で、再度極軸調整を最初からやり直します。
  1. 鏡筒はまだ下に1度角ずれたところを見ていますが、SharpCapはそんなことは知りませんし、お構いなしです。
  2. 再び赤経体を90度戻す方向に回転させると、今度は鏡筒のたわみが解消され元の位置に戻ります。
  3. そのとき、西側に倒していたものを戻したので、鏡筒は東側にたわみが1度角戻る方向に動きます。
  4. SharpCapは最初の鏡筒の位置のズレなどお構いなしなので、最初から見て視野が1度東にずれたことのみを認識します。すなわち極軸が東1度ずれていると表示するわけです。
  5. と、同時に1回目の調整で勘違いして赤道儀を上に1度角ずらしてしまっているので、そのズレも検出されます。そのため、SharpCapは東と上方向に極軸が1度角ずれていると認識します。
2度目の測定で出た結果のズレは元々たわみから来ているので、たわみのずれの量そのものと比例しているというわけです。

最初極軸が理想的にあっている状態から考えましたが、もし1度目の極軸調整の前にもともと極軸がずれていたとしたらどうなるでしょうか?それでも1度目の調整を終えた後は「極軸があった状態+たわみでずれた位置」になるので、2度目の調整時のはじめには同じ状態になりますね。


イメージしにくい場合

上の説明を読んでもなかなかわかりにくいと思います。まずはSharpCapでの極軸調整(ちょっと古い記事ですがリンクを張っておきます。)を一度試してみて下さい。これをやらないと何を言っているのかよく分からないと思います。

その上で、90度赤経体を回転させたときに、たわみの代わりに赤緯体をコントローラーで例えば1度角落とす方向に回転させることを考えてみて下さい。その赤緯体の回転を補正するように、赤道儀全体の向きを変えるというようにイメージするとよくわかるかもしれません。

赤経体を90度戻すときも、先ほど赤緯体を1度角落としたのをコントローラーで戻してやると考えるとわかりやすいと思います。


他の方向のたわみの例

他のたわみの方向も同様に考えてみます。
  • もし最初に赤経体を90度西側に傾けたときに、たわみが西側(外側)に1度でるなら、それを補正するように東に赤道儀を1度間違って調整し、2度目の極軸調整で90度戻すときに上に1度角たわみが戻るのを下向きに補正するので、東の下向き方向に極軸がずれていると表示されるはずです。
  • 赤経体を西に回転させたときに、たわみが東側に起きることもあるでしょう。
  • 視野を考えているので、もしかしたらたわみ(見ている方向が)が上向きに動くことも可能性としてはあるでしょう。

全部の場合を書き出してみる

全部の場合をまとめて書いておきます。

赤経体を西に回転させたとき
  • たわみが下向き -> 東上向きのズレになる
  • たわみが西向き -> 東下向きのズレになる
  • たわみが東向き -> 西上向きのズレになる
  • たわみが上向き -> 西下向きのズレになる

赤経体を東に回転させたとき
  • たわみが下向き -> 西上向きのズレになる
  • たわみが西向き -> 東上向きのズレになる
  • たわみが東向き -> 西下向きのズレになる
  • たわみが上向き -> 東下向きのズレになる
となります。


一般化

簡単な数学で考えてみます。今、東のズレと西のズレをそれぞれ右のズレと左のズレと考えると、赤経体を西に回転させたときは、「たわみからSharpCapでのずれ」の変換が+135度の回転写像、赤経体を東に回転させたときは「たわみからSharpCapでのずれ」の変換が-135度の回転写像と考えることができます。

一般化すると、SharpCapで最初の極軸調整で90度赤経体を進めて、2度目に90度戻してたときの誤差を(x2, y2)とすると、たわみによってずれた角度(x1,y1)は

x1 = x2 cosθ - y2 sinθ
y1 = x2 sinθ + y2 cosθ

となる。θは赤経体を西に回転させたときは+135度、赤経体を東に回転させたときは-135度である。ただし、赤経体を元の位置に戻したらたわみは戻るものと仮定する。

ということが言えます。

ちなみにsin135°=1/√2、cos135°=-1/√2なので、

x1 = -1/√2 (x2 + y2)
y1 = 1/√2 (x2 - y2)

となります。


現実的には

でもこのままだとちょっと計算が面倒なので、簡単のためにもっと現実的な場合を考えましょう。基本的にたわみはほぼ垂直方向にのみ起こると考えってしまって差し支えないと思います。なので、x2とy2の絶対値はほぼ同じような値になると期待できます。SharpCapの2度目の極軸調整で出てきた誤差のx2かy2のどちらかの値を√2 = 1.4倍くらいしてやった値が実際のたわみと考えてほぼ差し支えないと思います。

もしx2とy2の絶対値に結構な差があるならば、たわみに横向きの成分があることになります。

まじめに計算してもいいのですが、もし更なる測定を厭わないならば、最初に西向きに赤経体を回転させて2度測定したならば、次は東向きに赤経体を回転させてさらに2度測定します。東向きの誤差の結果をx4、y4とすると、(もし横向きのたわみが西に回転させたら西に、東に回転させたら東に出るならば)
  • x2とx4は逆符号で、絶対値は似たような値
  • y2とy4はどう符号で絶対値は似たような値
になるはずです。なので、x2+x4は0で、
  • (x2-x4)/2が横方向のたわみを表し
  • (y2+y4)/2が縦方向のたわみを表します。
一番厄介なのが、もし横向きのたわみが西に回転させたら西に、東に回転させても西に出る(多分レアな)場合で、これはどうしようもないです。向きだけでなく、たわみの大きさも違う可能性があり、東向きと西向きを測定し、真面目に計算する方が早いです。まあ、そもそも横方向のたわみを相手にすること自身稀だと思うので、こんなのはホントにレアなケースだと思いますが。


任意の回転角のたわみ量

今回の結果は赤経体を90度傾けた時のたわみ量です。90度以下の場合はφにたわみを知りたい赤経体の角度を入れてcosφを上の結果にかけてやればいいいと思います。


赤緯体の場合

でも今回求めたのは、今回は赤経体の角度が変わった時のたわみ量だけなんですよね。赤緯体が回転した時のたわみ量はSharpCapを使う今回の方法では全く太刀打ちできません。赤緯体の方でまたいいアイデアがあったらブログに書きます。


まとめ

とりあえず頭の中でざっくり考えただけなので、もしかしたら何か勘違いしてるかもです。一度実際のSharpCapを使って、夜に赤緯体の回転をたわみとして試してみようと思います。

前回のASI290MMに続いて、


今回は、同システムを使ったEOS 6Dのクリーニングです。


これまでの6Dの経緯

でも6Dって4月初めにクリーニングしたんですよ。その時の結果が
IMG_3360_RGB_VNG_ABE
になります。 

でも、青い馬星雲を処理した時の途中の画像を見ると
masterLight_DBE
と、既にゴミが入ってしまっているのです。

その時のフラット画像(PixInsightでABEをかけてやっとこれだけ見えるようになりました)を見てみると
IMG_3474_RGB_VNG_ABE
ゴミがいくつか残ってますが、ほとんどのものはうまくフラット処理されています。ほんの数個、天体撮影中、もしくは天体撮影時とフラット撮影時で、動いてしまうゴミがあります。これを覗くことが目的と言えます。


新しいシステムとの比較

6Dでのセットアップはこのようになります。
IMG_2428
レンズが大きくて重いため、フルサイズカメラでも全くふらつくことがありません。光源が紫色に見えますが、これで天体改造した6Dだとちょうどホワイトバランスが取れています。

今回の新しいシステムで先と同じセンサーの汚れを見てみると、
Capture_00017 15_19_14_WithDisplayStretch
と、遥かに汚れていることがわかります。汚れ自体は特に変わっていないはずです。よく見えるようになっただけです。

フラット補正などもしていなくて、SharpCapのストレッチだけでこれだけ見えるのは、やはり周辺減光の少ない中判レンズを使ったからかと思います。


このシステムの課題も見えた

ただし、この画像をコンスタントに出すのは難しいことも分かりました。

まず、SharpCapに6DをASCOM経由で接続します。この機能自身がまだベータ版のみで使えるものです。


ところが、この時に静止モードでsnapshotなどどの撮影方法をとっても、ストレッチした見たままの画像で保存することができず、ストレッチ前のRAWのような状態でしか保存することができません。仕方ないので、見たまま保存するためにライブモードにしますが、シャッターを切り続けることになります。まあ、これは気にしないこととしましょう。

とことが、シャッターを切り続けると、どうもこのライブモード時のシャッター毎に明るさが一定にならないようなのです。6Dのセンサー性能を測定した時


同様に明るさが一定にならずに調整をひたすら繰り返し、1000回くらいシャッタを切ったことを思い出しました。どうもSharpCapでDSLRを接続した時のライブモードのバグのようです。そのため、今回は上の画像のとことまで炙り出さずに、少し見にくいですが、多少明るさがばたついてそこそこ見えるくらいになるように炙り出すことにします。


クリーニングスタート

上記画像をそのように調整すると

Capture_00003 15_23_11_WithDisplayStretch_start
と多少暗くなりますが、これがスタートになります。

まず、前回の記事のASI290MMでも使った、フルサイズ専用のスワブを使います。
センサークリーニングスワブ
 

一度だけ拭いたのが以下になります。
Capture_00001 15_28_34_WithDisplayStretch_swab1
少し左上に残っていますが、ここで止めればよかったんです。


泥沼の始まり

気に入らなくて、もう一度同じスワブで拭いたら下のようになりました。
Capture_00001 15_31_36_WithDisplayStretch_tool2
左上のゴミは少し少なくなりましたが、右の方に縦にゴミが見事に並びました。ここから迷走です。

次はスワブにエタノールをつけて拭いた場合です。
Capture_00001 15_33_17_WithDisplayStretch_ethanol
ゴミはかなり取れましたが、拭きムラが残っています。

拭きムラがさらにひどくなると以下のようになります。
Capture_00001 15_34_41_WithDisplayStretch
でもこれは、乾いたスワブで何度も拭き取ることできれいにすることができます。このときに新しいスワブを出しました。ASI290MMから合わせて4本目です。でもその代わりに下のようにいつのまにかゴミがついたりします。
Capture_00001 15_36_23_WithDisplayStretch_after_mura

もうこうなってくると泥沼ですね。

この後、拭きムラとゴミをひたすら繰り返し、一進一退。毎回のクリーニングのたびに保存した画像だけで20枚。そのうち嫌になって画像も残さなくなって30回以上色々試したので合計50回以上、拭いて、モニターして、というのを繰り返しました。その中で一番酷かったのがこれでしょうか。拭きムラは最悪、かつゴミもまたついてしまっています。
Capture_00001 15_51_10_WithDisplayStretch
でも重要なことは、傷さえつけなければ、ゴミも拭きムラもとることはできるということです。


最終結果

もう最後の結果だけ示します。上の画像から1時間半後の画像です。
Capture_00001 17_02_14_WithDisplayStretch_ok
まだ濃いのが一つ、細かいのはいくつも残っていますが、これが限界でした。この最後の一個を触る勇気が出ませんでした。

おそらくこのゴミもフラット補正さえすれば全く問題ないレベルになるかと思います。これで満足することにしました。


まとめと今後

とにかく、大きなサイズのセンサーはキリがないことがよくわかりました。スワブを使ってもかなり丁寧に吹かないと、すぐにムラになったりゴミが残ったりします。意外にスワブが何度か使い回しが効くこともわかりました。ゴミはそこそこコントロールできますが、全部いっぺんにというのはかなり運に任せるしかないです。

ゴミがある程度の数になったら、大体の位置はわかるので、PENTAX イメージセンサークリーニングキット O-ICK1 39357(通称ペンタ棒)を使った方がいいのかもしれません。



次はこれを仕入れてやってみることになりそうです。

とにかく今回は疲れました。毎回の吹でかなり気を使うのと、先が見えないことです。毎回見るシステムを組んでこれです。もしかしたらセンサークリーニングは素直にメーカーに出すのがいいのかもしれません。でも天体改造をしたカメラも受け付けてくれるのでしょうか?


以前、6Dのクリーニングの記事を書きました。



前回の反省から、今回もう少し楽に確実にクリーニングする方法を考えてみました。


クリーニングのセットアップ

タイトルには大袈裟なこと書いてますが、なんのことはないF値の高いレンズに一眼レフカメラやCMOSカメラを取り付けて、SharpCapで汚れをモニターするだけのセットアップです。センサーをクリーニングして、その都度状況が見えるように、センサー部を取り外し易くしています。


使ったもの:
  • 光源: iPad ProでColorScreenというアプリを使い、任意の明るさと色を出す。
  • レンズ: Pentax 6x7の200mm。中判レンズで、周辺減光が少ないのがメリット。収差がひどく撮影に使えなくて余ってた。大きくて重いので、カメラをつけてもふらつかない。
  • アダプター:  Pentax -> Canon EFマウントへの変換、さらにCMOSカメラ用にCanon EFマウント->アメリカンサイズへの変換
  • モニターソフト: SharpCap。オートストレッチをしないと、ほとんどゴミも何もわからないので、SharpCapか、それに相当する機能を持つソフトが必須。最初はリアルタイムのフラット補正を使い、きちんと炙り出そうと考えたのだが、6x7レンズにしたために周辺減光がほとんどなく、この点に関してはSharpCapを使うメリットはあまりなかった。

今回テストクリーニングしたカメラはASI290MM、EOS 6Dです。

まずはASI290MMです。こんな感じでセットしてます。

IMG_2427

まあ、みるも無残な酷い汚れですね。さてここからクリーニング開始です。もともとクリーニングをもう少しシステム化したくなった動機がこのASI290MMです。太陽を撮影していても、ゴミが酷すぎて画像処理に影響してしまったからです。

センサー面のクリーニング

まずはクリーニング前の初期画像。実際の撮影後の画像処理ではここまで汚れているは思いませんでした。この中の目立つ大きな汚れが影響しているのだと思います。

Capture_00003 14_14_57_WithDisplayStretch_start

設定を説明しておきます。レンズのF値ですが26くらいで始めています。SharpCapはわかりやすいようにGain100、露光時間100ミリ秒にしています。iPadのScreenColorはRGBともに256段階中の256になるように設定しています(上の写真を拡大すると実際の数値がわかります)。周辺減光も少しはありますが、汚れを確認する分にはフラット補正などなしでも十分なようです。

次にブロアーで拭きましたが、ほぼ全く変わらずの画面なので割愛します。あいからずブロアーはほとんど効果がありません。

次が重要で、センサーを保護する目的でついているフィルターガラスを外して見てみます。
Capture_00005 14_16_19_WithDisplayStretch_nofilter
前の画像と比べるとよくわかりますが、画面で見て大きくてぼやけた汚れがフィルターについていたもの、小さくてシャープな汚れがセンサー面についているものとわかります。

このように、何度も簡単に残りの汚れ具合が確認できるのが、今回のシステムのポイントです。

試しに綿棒で拭くとこんな風になります。ひどいですね。
Capture_00006 14_18_42_WithDisplayStretch_nofilter_menbo

ここで今回の新兵器、センサークリーニングスワブ

を投入します。パッケージ写真はAPS-Cと写っていて、フルサイズで頼んでも実物もこの箱でくるのですが、中身はちゃんとフルサイズように幅が広いものが入っていました。

これが結構凄くて
Capture_00007 14_19_28_WithDisplayStretch_tool1
のようにかなりきれいになります。スワブは10本しか入っていないので、ケチってもう一度拭きます。
Capture_00008 14_20_24_WithDisplayStretch_tool2
のように、完全に汚れが取れました。これはすごい!


フィルターガラスのクリーニング

次に、フィルターを戻します。
Capture_00009 14_21_10_WithDisplayStretch_withfiter
問題は、この汚れがフィルターの裏か面かわからないことです。気にせずまずはおもて面を新しいスワブを出してクリーニングします。

Capture_00010 14_22_10_WithDisplayStretch_withfilter_clean
いくつかのゴミが取れたのがわかります。残りが取りきれなかった表面のゴミなのか、それとも全部裏のゴミなのかは不明です。

ここでフィルターを表裏ひっくり返します。
Capture_00011 14_23_07_WithDisplayStretch_filterflip

これをクリーニングします。もったいないので2本目と同じスワブを使いました。
Capture_00012 14_24_40_WithDisplayStretch_scratch
ほとんどの汚れが取れましたね。でもよくみると縦向きに引っ掻き傷のようなものがあります。

この引っ掻き傷のようなものを取ろうとして、少し迷走しました。フィルターを再度ひっくり返すとか、その間にセンサーにまたゴミがついたとか、いろいろやって、かなりきれいになってもういいかと思ってレンズの絞りをF45にしたのですが、実はまだ汚れが取り切れていないことに気づきました。これが下の写真です。
Capture_00013 14_29_16_WithDisplayStretch_F45
センサー面の汚れではなく、ほぼ全てフィルター面の汚れと思われます。

これをクリーニングしたものが以下になります。
Capture_00016 14_48_52_WithDisplayStretch_OK_F45
まだすこし汚れとスクラッチが残ってますが、これ以上はもう取り切れなかったので、ここでOKとしました。

F45だと上のように目立ちますが、これを太陽観測時のF10にしてみると、
Capture_00017 14_49_13_WithDisplayStretch_OK_F10
のように、ほぼ何も目立たないので大丈夫でしょう。

ちなみに、一番最初に見せた画像のF26に合わせてみると
Capture_00018 15_02_38_WithDisplayStretch_OK_F26
のようになります。少しだけ線のようなものがありますが、最初の酷い状況と比べると遥かにマシです。一度これで撮影して、影響を確かめたいと思います。


とりあえずのまとめ

このブログ記事ではクリーニングの過程はかなりはしょってますが、実際にはもっと何度も掃除して、モニターしてを繰り返しています。クリーニングの効果を毎回確認できるので、今回はかなり楽になりました。実際にかなりきれいになったと思います。スクラッチがいつついたのか、もともとついていたのかわかりませんが、これが撮影に影響を及ぼすのかは注意して見たいと思います。もし撮影に影響があるなら、フィルターだけ購入できると助かるのですが、どうでしょうか?

とりあえず、楽な方法はある程度確立できてきました。すでにかなり長いので、6Dの清掃については次回の記事とします。

 

ラッキーイメージの過程で、M87を撮影して見ました。M87といえば...

目的はもちろんジェットを見ることです。

さてさて、うまく見えるのでしょうか?


SharpCapでのディザー

実際の撮影は前回のラッキーイメージNGC4216の後に続けて撮影しています。なので設定は全く同じで、10秒露光を30回LiveStackして、今画像を見たら10枚撮影していたので、合計50分でした。

前回書くのを忘れましたので、今回改めて書いておきます。SharpCapの最新ベータ版を使っていますが、ディザー対応がかなり改善されています。

一番大きいのがLiveStackパネルのguidingタブのところに「Reduce Exposure While Dithering 」とうオプションができたことです。これはPHD2などとの連携でディザーをしている間は露光時間を短くするという意味で、以前はDhitherの間も露光し続けていたので、例えば5分間の露光とすると、ディザーが終わっても最大5分近く待たなければならず、まるまる1枚は必ず無駄になっていました。撮影毎にディザーしていたら、撮影時間の最低半分はディザーに取られてしまっていたので、ほとんど使い物にならなかったのです。

そのため、SharpCapでディザーは実質やる気にならず、結果SharpCapは長時間露光は向いていない、もしくはできないという結論でした。今回のオプションで、SharpCapにも長時間露光での撮影に道が開いたことになります。

今回のLiveStack撮影でも、ディザーは使っています。ディザーを15分毎にするように設定しているために、(10秒x30ライブスタックを)3枚撮影するたびにディザーが適用されます。でもディザー量を試しに減らしたため、揺れ幅が不十分で、縞ノイズが少し出てしいました。


画像処理と結果

今回は鑑賞目的というよりは、少し科学写真に近くなりますので、画像処理はほとんど凝ったことはしてません。ダーク補正はLiveStack中にリアルタイムでしてます。WBPPではフラット補正のみで、バイアス補正もなし、ダーク補正もなしです。あとはストレッチと、一度トーンカーブで暗いところを持ち上げて暗いでしょうか。あ、恒星の色を出すために少しだけ彩度を上げています。


「M87」
masterLight_ABE_ABE_ABE_AS_HT2
  • 撮影日: 2021年4月11日0時49分-4月8日1時45分
  • 撮影場所: 富山県富山市
  • 鏡筒: Vixen VC200L
  • フィルター: なし
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro、-10℃
  • ガイド: f120mmガイド鏡 + ASI120MM mini、PHD2によるマルチスターガイドでディザリング
  • 撮影: SharpCap、gain420、露光時間10秒x30枚のライブスタック x10枚 = 50分、ダークは10秒x64枚をライブスタック中にリアルタイムで補正、フラット128枚(gain420、露光0.78ミリ秒)、フラットダーク128枚(gain420、露光0.78ミリ秒)
  • 画像処理: PixInsight、Photoshop CC


でも困ったことに、JPEGに落とす時点でM87の周りの淡いところの諧調が制限されてしまい、階段上になってしまいます。あと撮影中に少したわみで流れたみたいで、ディザーであまり散らしてなかったので明るくすると縦の縞ノイズが少し出ていました。

さてさて、ジェットは見えてますでしょうか?拡大してみます。

masterLight_ABE_ABE_ABE_AS_HT3_cut

おおー、右上にはっきり見えてますねー!上が北なので、方向から考えてもジェットで間違いなさそうです。不思議なのは、切り出すとJPEGでも諧調が飛ばないことです。そこそこきれいに見えてますね。自分で撮影したものだと、感動もひとしおです。

6000万光年先の銀河で、ジェットの長さは7-8000光年におよぶそうです。ご存知の通り、2019年に超長基線の電波干渉計によりM87の姿が映し出されました。リング形の中心にブラックホールが存在すると考えられています。このリング中の黒いところは直径1000億km程度なのですが、これがそのままブラックホールというわけではなく、事象の地平線は直径400億kmでもっと小さいと考えられているそうです。



ついでにアノテーションです。ここにもそこそこの数の銀河があります。

masterLight_ABE_ABE_ABE_AS_HT2_Annotated

少し斜めになってしまっています。これは前々回の記事の最後に書いた、鏡筒バンドに対してまだ鏡筒の回転方向を合わせ切らずに撮影してしまったからです。実際にはこのM87で回転が残っているのに気付いて、この撮影の直後に直しました。


M87といえば

M87といえば、M87JETさんを真っ先に思い出します。胎内星まつりで初めてお会いしたのですが、当時からほしぞloveログを読んでいてくれて、興奮気味に自分で撮影したM87のジェットを見せてくれした。ペンネームをそのままM87JETとしようと思っている」と、その時お聞きしました。その後は小海の星と自然のフェスタでも一緒に食事したりしてました。いつも面白い文体のブログ記事を書いていて、最近はISSの追尾でご活躍されています。



M87JETさーん、やっと私もジェットを取ることができましたよ!


 

前回までに5分露光のトータル7時間コースでNGC4216、4時間コースでM104ソンブレロ銀河を撮影しました。





ところが両方ともどうも星像がボテっとしていて、いまいち不満が残ります。光軸調整やピント精度、シンチレーションなどいろんな原因が考えられますが、やはり一回の露光が5分と長いので、シンチレーションでの揺れがそのまま積分された星像になり、ボヤっとなってしまっている可能性が高いです。今回は露光時間を10秒と短くして、シンチレーションの影響をみようと思います。


短時間露光の効果

この手のことは以前ラッキーイメージ撮影と、その後の考察で試していて、やはり短時間露光の方が解像度が出るという結果でした。http://hoshizolove.blog.jp/archives/37040131.html

 
 

これと同様なことを銀河で試してみたかったのです。ただし、撮影枚数が膨大になるので、今回はLivestackを使いリアルタイムでスタックすることで撮影枚数を減らそうと考えています。露光時間は銀河なので淡いため、とりあえず10秒で始めます。これは以前のラッキーイメージのテスト(オリオン大星雲で、かなり明るかった)での一番長い露光時間にあたります。それでも前回の撮影の5分(300秒)と比べたら30分の1と相当短くなります。

最近注目なのはgotodebuさん。30cmのドブソニアンとASI294MM Proで、かなりの分解能で成果を出しています。素晴らしいです。

 

MMいいなあ。カラーでの分解能の限界を感じたら、そろそろモノクロに移るかもしれません。


3通りで比較

ターゲットはVISAC復帰第一弾で撮影したNGC4216、NGC4206、NGC4222です。
  1. 前回の撮影で4月5日にgain120で5分露光したもの
  2. 今回4月10日に改めてgain120で5分露光で撮影したもの
  3. 今回4月10日にgain420で10秒露光を30回LiveStackしたもの
の3通りです。撮影時間はいずれも22時半前後です。2.から3.でgainを300 = 30dB = 20dB+10dB = 10倍x約3倍 = 約30倍増やしました。1回の露光時間を300秒から10秒にした30分の1をちょうど相殺するため、得られた画像はほぼ同じ明るさになります。これを30枚Livestackすることでトータル同じ露光時間(同じ光子量)とします。それぞれの画像はABEでフラット化して、STFとHTでオートストレッチしています。


短時間露光、LiveStackの問題点

でもこの3番目の方法、もう一つ大きな欠点があります。例えガイドをしていてもLivestack中に微妙に位置がずれてしまうと、例えばホットピクセルが動いてしまい、後でダーク補正をしても補正しきれなくなります。フラットも同じことで、画面にゴミなどの影があったりするとそれが動いてしまうので、補正しきれません。周辺減光は後でABEやDBEをかければなんとかなるでしょう。

この欠点をリアルタイムでダーク補正することで緩和します。SharpCapには露光ごとにダークとフラットを補正できる機能があります(ただし有料版のみだったはず)。フラットはこれまでうまくいったためしがないので、今回はダーク補正のみです。10秒で64枚撮ったものをダークフレームとして使いました。でもこれが吉と出るか、凶と出るか、長時間撮影して画像処理までしないとわからないです。高々640秒、10分程度の露光のマスターダークなので、まだそこに残っているノイズはライトフレームの後のスタック時にそのまま加算されるはずです。それが縞ノイズとかになるかも知れません。

このダークフレームに残ったノイズの緩和や、ゴミの影を除去しきれない問題は、ディザーである程度解決します。十分揺すってやれば多少のコヒーレントなノイズは散らされて目立たなくなるはずです。「ディザーは七難隠す」はこんな時でも有効です。


一枚画像での比較

まず、スタックをする前の一枚撮りでの比較をします。それぞれ撮影した画像からわかりやすいところを一部切り出しました。左から、1.、2.、3.となります。

comp
左1: 4月5日の300秒露光、真ん中2: 4月10日の300秒露光、右3: 4月10日の10秒露光の30枚LiveStack

まず1.と2.を比べます。基本的にセッティングは全く同じで、同じ時刻なのでほぼ同高度。VISACの補強が違うのみです。あ、縦横入れ替えました。それでも2.の方が圧倒的に解像しているので、4月5日より4月10日の方が明らかにシンチレーションがいいことがわかります。

次に2.と3.を比べます。2を写した直後に3を写しているので、時間的な差はほぼないはずです。ピントなども前後でいじってないので、直接比較ができるはずです。一見そこまで差がないように見えますが、じっくり見るとやはり3.の短時間露光方が明らかに解像しているように見えます。その代わりに大きなゲインで増えた読み出しノイズを、30回ぶん読み込んでいるので、その分ノイジーになっているのかと思います。

でも、果たして露光時間を30分の1にしたにしては、星像の違いが少なすぎる気もします。これ数学的にモデル立てられないでしょうか?理論と実測を比較してみたいです。


10秒x30枚露光画像を12枚スタックしてみる

この比較撮影後、3.の状態で12枚、合計1時間分の画像を撮影したのでそれをスタックしてみます。

スタックはPixInsightのWBPPで最初やったのですが、ちょっとてこずりました。ダーク補正はリアルタイムでしているので、バイアス、フラット、フラットダークをそれぞれ撮影して、それらをWBPPに放り込んで処理したのですが、どうもうまくいきません。カラーバランスが全然崩れた暗い画像になってしまいます。

問題点は3つありました。
  1. ライブスタック後のfitsファイルは既にDeBayerされているらしく、ライトフレームのCFAをオフにする必要がありました。
  2. もう一つはリアルタイムダーク補正の時にバイアスも一緒に補正していたので、WBPPでバイアスを補正してしまうと過剰補正になってしまう点でした。なので結局WBPPではフラット(とフラットダークも合わせて)のみ補正しています。
  3. フラットも問題でした。できたフラットファイルはBayer配列でモノクロです。でもライトフレームはカラーなので、補正できません。そのためできたマスターフラットフレームを手作業でDeBayerして、それをWBPPで使っています。

スタック直後、ABEだけかけてオートストレッチしたものです。

integration_ABE

前回5分露光で、トータル7時間撮影したものと比較してみます。左が前回、右が10秒x30を12枚です。

comp

分解能だけ見ると、今回の右の短時間露光が圧倒的ですね。銀河の模様もはっきりしてますし、星像も鋭いです。一方、微恒星に関してはさすがに左の7時間の方が出ています。というよりノイズの差でしょうか。トータル時間でも差が出ますし、10秒露光の30回ということはその都度リードノイズ入ってくるので、ノイズ的にはやはり右は不利なようです。

実際には分解能の差は、まずは第一に日の違いによるシンチレーションの差が大きいでしょう。その上で、1枚で比べたときの差からも分かるように、やはり露光時間の差も出ているのかと思います。


試しに仕上げてみる

さて、その1時間ぶんのスタックした画像ですが、試しに画像処理をして仕上げてみます。

integration_ABE_DBE_PCC_ABE_DBE2


どうでしょうか?前回の仕上げた画像(縦横ひっくり返っています)と比べてみましょう。一部を拡大して向きを合わせました。左が前回4月5日の300秒露光をトータル7時間、右が今回4月10日の10秒露光の30枚LiveStackを12枚でトータル1時間です。

comop

色の濃さの違いは置いておくとして、分解能は銀河の模様も恒星も右が圧勝ですね。でもこの違いはシンチレーションの違いが大きいので、短時間露光がそのまま効いているわけではないことに注意です。短時間露光の効果を比べたい場合は、先に出した1枚画像の真ん中と右を比べるべきです。

ただ、色を出そうとしたりして炙り出すことや、微恒星(背景のノイズと言い換えてもいい)に関しては、左の7時間の方がさすがに圧勝です。ここらへんはトータル露光時間が正義といったところでしょうか。


まとめ

シンチレーションか短時間露光かわかりませんが、少なくともVISACでここらへんまでの解像度を得られることが分かりました。星像の鋭さも含めて、これくらいがコンスタントに出るのなら、そこそこ満足です。シンチレーションが悪い日に短時間露光をしてみるとか、シンチレーションがいい日に長時間露光を試すとか、今後も検討していくことになるかと思います。

いまのところまだ、短時間露光の効果と画像処理の煩雑さなども含めると、どちらが有利か分かりません。LiveStackでの重ね合わせはそこまで問題ない気がしています。これで枚数が多くなりすぎるのを避けることができるなら、有効かと思います。例えば10秒をそのまま保存して7時間撮影したら、360 x 7 = 2520枚と流石にちょっと処理するのに大変な数になっていました。

とりあえず今後いくつかの天体を、この短時間露光の手法で撮影してみたいと思います。


前回の6Dのユニティーゲインの記事ですが、難しいという話を聞いたので、できるだけわかりやすく解説してみようと思います。




コンバージョンファクター


IMG_2032

何はともあれ、まず重要なのはコンバージョンファクター (conversion factor) とか、gain (ややこしいのですがISOに相当するgainとは全然の別の意味です。以下区別するために、コンバージョンファクターの意味ではgainやゲインという言葉は使わず、ISOの意味でのみgainもしくはゲインと書きます。)とか呼ばれている、センサーで発生する電子の数と出力信号のカウント数を変換する係数で、単位は[e/ADU]になります。eは電子1個の単位、ADUはADC (Analog to Digital Converter) でカウントする1カウントの単位です。発生する電子の数は後で書きますが、検出される光子の数と比例するので、ここではとりあえず光子の数と言ってしまうことにします。

このページの結果によるとEOS 6Dの場合、例えば、ISO100のとき、コンバージョンファクターは5.6413 [e/ADU]で、光子が6個近くセンサーの1素子に入ってやっとADCのカウントが1増えます。6Dの場合14bit = 16384なので、5.6413 x 16384 = 92427個の光子が1素子に入ると、その素子のカウントは一杯になり「飽和」状態になります。このブログでは「サチる」とか、「サチった」とかいう表現をしています。これは「飽和」の英語Saturationから来ています。

例えば、ISO400のとき、コンバージョンファクターは1.4178 [e/ADU]となり、光子が1.5個くらい入るとADCのカウントが1増えます。

この表から考えると、ISO575くらいが実現できるなら、コンバージョンファクターは1 [e/ADU]となり、光子が1個入るとADCのカウントが1増えます。このときのゲインをその名の通り、ユニティーゲイン(unity gain)と呼びます。ユニティーは1という意味ですね。ISOなので、ユニティーISOとか読んでもいいでしょう。呼び方はまあどうでも良くて、重要なのはセンサーで検出される光子1個がADCを1カウント増やすという、1対1の関係です。

CMOSセンサーの解析はこのコンバージョンファクターの値を求めるところから全てが始まります。


コンバージョンファクターの原理

ではコンバージョンファクターを求めるためにはどうしたらいいのでしょうか?まずは原理式を理解してみましょう。CMOSセンサーをある出力ゲインに固定して測定した信号\(S\mathrm{[ADU]}\)とそのときのノイズ\(N\mathrm{[ADU]}\)には以下の関係があります。

\[(N\mathrm{[ADU]})^2=\frac{S\mathrm{[ADU]}}{f_{\mathrm{c}}\mathrm{[e-/ADU]}}+\frac{(N_{\mathrm{read}}\mathrm{[e-]})^2}{(f_{\mathrm{c}}\mathrm{[e-/ADU}])^2}\]

このとき\(N_{\mathrm{read}}\mathrm{[e-]}\)は読み出しノイズ、\(f_{\mathrm{c}}\mathrm{[e-/ADU]}\)がコンバージョンファクターです。

右辺2項目の読み出しノイズは十分小さい仮定として、簡単に

\[(N\mathrm{[ADU]})^2=\frac{S\mathrm{[ADU]}}{f_{\mathrm{c}}\mathrm{[e-/ADU]}}\]
を考えます。

画像を撮影して、その1ピクセルの明るさ\(S\mathrm{[ADU]}\)を測り、その1ピクセルの明るさがどれくらいバラけているかを多数プロットしてやればいいのです。

この式自身の証明はこのページの最後のおまけの部分を見てください。ちょっととっつきにくいと思うかもしれませんが、ショットノイズの関係式だけから数学的に綺麗に出てくるので、話としては至極単純です。逆にこの関係式があるので、多数の点数をとってくれば統計的にコンバージョンファクターが確定するというわけです。多数の点をとってくるのは、画像ファイルが多数の点でできていることを考えると十分可能で、アイデア次第で多くのサンプルを取り出すことができるわけです。この関係式をものすごくうまく利用してますよね。

多くのサンプルを取り出すのはいろいろな方法があります。
  1. 一画面内に暗いところから明るいところまで写っている、同じ画角の景色などを多数枚撮影し、ある位置のピクセルに注目し、その平均値とバラけ具合を多数枚にわたって見る。多数のピクセルに対して同じことをする。
  2. フラットに近い画像を露光時間を変えて何枚か撮り、一枚のある100x100くらいのエリアの平均値とそのバラけ具合を見る。露光時間ごとにプロットする。
  3. 星などの適当な画像を2枚撮影し、その2枚の画像の差を取り(信号を消して、ノイズの2乗和のルートをとるということ)、その中の明るさが一定のエリアの平均値とバラけ具合を見る。明るさの違う領域で、同じことをしてプロットする。
などがあります。私が一番最初に学んだ方法は1.でした。SharpCapは2.の方法をとっています。最初に紹介したページ(大元はこのページです)やPixInsightでは3.を使っています。3.が撮影枚数が2枚と少なく、一番簡単でしょうか。工夫次第でまだ測定方法はいろいろ考えることができると思います。

PixInsightでの測定方法はNiwaさんが秀逸なタイトルをつけて詳しく解説してくれています。




実際の測定例

実際に信号とそのバラつきをプロットしたグラフを見てみましょう。まずは2.の例のSharpCapで測定した場合です。6Dの計測の時にグラフを写真に取り損なったので、ASI294MCの測定の時の写真を示します。

IMG_3262

一番右が、横軸明るさS、縦軸ノイズNの2乗でプロットしたものになります。測定点を結ぶと一本の線になり、その傾きの逆数がコンバージョンファクターになります。この場合、横軸が5000くらいの時に縦が1300くらいなので、傾きは0.26、その逆数は1/0.26=3.85[e/ADU]くらいになります。すなわち、光子3.85個入って、やっとADCのカウントが1進むということです。

次の例は自分で画像を撮影して測定した時の結果です。SharpCapがやる過程をマニュアルでやったような形になります。すなわち、同じゲインで露光時間を変えて何枚か撮影し、あるエリアの明るさとバラけ具合を測定すると言うものです。画像解析はMaltabを使ってやりました。Matlabを使ったのは、画像読み込みが楽なのと、平均や分散などの統計解析が揃っているからです。別に一枚一枚Photoshopとかで解析しても原理的にはできるはずです。センサーはASI290MMでモノクロのCMOSカメラです。モノクロはきちんとメーカー値とも合うのですが、いまだにカラーの場合でうまく計算できたことがないので、もうここ2年ほど悩み続けています。

Conversion_Factor_ASI290MM_std

同様に横軸が明るさで縦軸がノイズの2乗のN^2になります。測定点が一直線で近似できるのがわかると思います。そのグラフの傾き0.306の逆数1/0.306=3.26がコンバージョンファクターになります。

一眼レフカメラの例は、このページに出てますね。「Details of measurements at each ISO setting」のところからの一連のグラフになります。このようにISO(出力ゲイン)を変えて、順次ISOごとのコンバージョンファクターを測定していきます。コンバージョンファクターが1になるところが「ユニティーゲイン」「ユニティーISO」「ユニティーゲインの時のISO」(言葉だけを知っていても意味がないです、逆に意味をきちんと理解していれば、言葉が多少違っても通じますね)ということになります。

ところが上にも書きましたが、SharpCapではISO(ゲイン)を変えて各コンバージョンファクターを測定することをサボっています。どうせ、コンバージョンファクターはゲインに比例するので、一番低いISOのコンバージョンファクターだけを測って、あとは出力ゲインで割ってやることで、測定回数を劇的に減らしています。これは測定の自動化をするために考えた苦肉策(良く言えば簡単に測定できる方法)といえるでしょう。


読み出しノイズ

これまでのどのグラフでもそうですが、傾きの逆数がコンバージョンファクターになり、信号Sが0の時の切片がその時のISOの読み出しノイズになります。ただし、読み出しノイズに関してはこのページでも書いてあるように
but, for the readout noise it is preferable to measure directly the deviation on a bias image - the result is more precise
と書いてあるように、バイアスファイルから直接測定せよと書いてます。奇しくも、ノイズ会議の時に議論したバイアスと読み出しノイズは同じかというというに対する回答になっていて、やはりバイアス(オフセットとかいう概念と同じ)ファイルで測定されるノイズは読み出しノイズと考えて良さそうです。

読み出しノイズの測定は、カメラにキャップをして最小光量で、時間と共に大きくなるダークノイズを無視するために最小時間で撮影した画像を使います。やはりバイアスの撮影と同じですね。こうやって撮影された画像は読み出しノイズに支配されています。読み出しノイズの直接的な測定についてはこのページを参照してください。
 


測定からいろいろなことがわかる

一連の測定の結果から、非常に重要な幾つかの結論が出ます。例えば、このページで言っている主要なことは
  • Unity gainはISO575のところにある。
  • これは個々のISOについてコンバージョンファクターを測定した結果から来ている。
  • コンバージョンファクターの測定方法は、各ISOで2枚撮影して、その差分から明るさとノイズの関係を評価した。
  • 読み出しノイズはISO6400までは減ってきていて、それ以上のISOでは一定値。なので、暗い天体はISO6400を使うのがベスト
  • 飽和容量は13235ADUと考える(と書いてあが、根拠は不明。14bitだから16348ADUと思ったら、それより小さいので何かかから測定したのか?)。
  • ダイナミックレンジはISO400までは一定で、それ以降は減り始める。なので明るい天体はISO400以下で撮影するのがいい
  • 中間ISOは使うな!例えばISO1000はISO800と同じ読み出しノイズでかつダイナミックレンジは小さい。
ということです。


コンバージョンファクターやユニティーゲインは何の役に立つのか?

答えを一言で言うなら、コンバージョンファクターという(ゲイン依存の)変換係数があるおかげで、ADCの値を読むだけでありとあらゆるものを電子の数で考えることができるようになるので、「単位が揃って便利」だということです。

例えば飽和電子容量(full well)です。本来の飽和電子容量の測定の仕方は、十分にサチレーションを起こすくらい明るい光をカメラに入射し、その時のADCの値の平均値を読み取り、それをコンバージョンファクターで電子の数に変換してやります。コンバージョンファクターが分からなけれが飽和「電子」容量とは言えずに、飽和「ADC」容量とかになってしまいますね。

読み出しノイズの測定もそうです。バイアスファイルは読み出しノイズに支配されています。この時の各素子の明るさのばらつき具合が読み出しノイズになるのですが、当然のことながらこれらの測定は全てADCの出力を見ているので単位は [ADU] で出てきます。こんな時に先に測定したコンバージョンファクターがあると、あーら不思議!なんと電子の数 に変換することができ、普通の読み出しノイズの単位[e-]になります。

逆に言えば、どれだけ画像ファイルからADCでカントされた数を数えることができても、コンバージョンファクターがないと、電子、光子のところまで持っていくことができません。と言うわけでコンバージョンファクターがいかに大切かおわかりいただけましたでしょうか?

では、ユニティーゲインがどうして必要かと言うと、実はそこまで重要な値ではないんですよね。ADU1カウントと測定された電子1個が等しいと言うくらいです。まあ、目安ですね。


電子数と光子数の関係

さらに光子の数sと、センサーで数える電子の数nが、定数で変換できます。この定数をシステム効率ηなどと呼び
\[\eta=\frac{n}{S}\]
と表すことができます。通常はシステム効率は1以下の値をとりますが、ここでは簡単のため1としています。

ポイントはこのシステム効率が内部回路のゲインや積分時間などによらないということです。なので、出てきた電子の数を数えるということは、幾つ光子が入ってきたかが直接わかるため、重宝されるというわけです。

その一方、ADCのカウント数とセンサーで出てくる電子数の関係は内部回路のゲインに依存してしまうため、便利でないのです。

ISOと実ゲインの関係

前回測定していまだに腑に落ちないISOと実ゲインの測定ですが、同様の測定例がどこを探しても見つかりません。ISOとコンバージョンファクターのグラフはすぐに見つかります。これってもしかしたらISOの線形性がほとんどないから出回らないのでしょうか?だとしたら、前回示したグラフは何か失敗しているかと思ったのですが、逆に貴重なのかもしれません。

自分でも各ISOのコンバージョンファクターを測ってみるのが次の課題でしょうか?少なくとも3種類の測定の仕方は考えられるので、それぞれで違いが出るかとかも興味があります。そこで測られたコンバージョンファクターは、やはり実ゲインに比例しているはずなので、もし前回の測定結果のように実ゲインがISOに比例しないなら、どこに矛盾があるか突き止めていくのもまた面白そうです。


おまけ: Unity gainで撮影する意味

unity gainで撮影することには、ほとんど何の意味もないです。これは測定される電子数とADCのカウントの比を表している単なる係数に過ぎません。

たまにunity gainで撮影することが有利だとかいう話を聞くことがありますが、根拠が全くありません。その際によく話されるのが、ADCの1カウント以下で電子(光子でもいい)を測定できないからとかだとかが理由とされますが、そもそも光子を1個だけ数えるのは(量子力学で考えるとあたりまえですが)原理的に不可能です。多数の(単位時間あたりに数にばらつきのある)光子が測定され、統計的に平均値をとると何個の光子が来ていたと言えるだけです。

なので、unity gainに拘らずにISOを決めていいのですが、原理的に考えると最適なISOはDynamic Rangeを損なわない最大のISOということになります。もちろんこれは対象の明るさによってきちんと考えるべきで、明るいもの(昼間の景色や恒星など)がサチるのを避けたいならばISOを下げたほうがいいですし、暗いものを撮影するときはダイナミックレンジを犠牲にしてでもISOをあげた方がいい時があります。


まとめ

コンバージョンファクターについて、できうる限り簡単に書いてみました。みなさん理解できましたでしょうか?わかりにくいところとかありましたら、コメント欄にでもお書きください。

もう少し6D測定を続けてみたいと思います。他の結果と矛盾がないのか、それとも何か間違っているのか?どのような設定で撮影すればいいかの根拠になっていくので、これはこれでかなり楽しいです。



このページのトップヘ