ほしぞloveログ

天体観測始めました。

タグ:6D

今回はEOS 6Dのセンサーの掃除についてです。方法はテストも兼ねた自己流ですので、決して自らやることを勧めません。最悪、センサーに傷をつけてしまう可能性もあります。参考程度にしてください。もし自分でやる場合には、あくまで自己責任でお願いします。


そもそもなんで清掃か? 

まず、おとめ座銀河団を撮影した時のフラットフレーム。

masterFlat_RGB_VNG_clone_ABE

かなりひどいですね。実際には小さな点はフラット補正をするとほぼ問題なくなってしまうので、そのままでもいいのですが、一応比較してみます。以前も出した画像ですが、

フラット補正無し
masterLight_integration_DBE1

フラット補正あり
integration1_DBE

やはり、フラット補正をしないと壊滅的に細かいゴミの跡が出ます。フラット補正をすると小さいゴミはほとんどわからなくなりますが、それでも大きなゴミはどうしても目立ってしまいますし、おそらく撮影中や撮影後に微妙に動いてしまい、それが原因で補正しきれなかったり、過補正になったりしてしまいます。 

ただし、これはかなり炙り出した状態です。実際の仕上げでは背景をもう少し暗くするのでここまでは目立ちませんが、それでも何らかの補正は必要なレベルです。


現状確認

まずは現状の6Dの汚れを見てみました。方法はフラット画像を撮影する時と同じです。ただし、そのままだと何も見えないので、撮影したRAW画像をPixInsightで読み込み、DeBayerしてABEの4次でフラット化して、SFTでオートストレッチしてゴミを見やすくしています。オートストレッチでもまだ見にくい場合は適当にマニュアルでストレッチしています。

最初は光が直線に入ってくる方がいいと思い、適当なレンズを使い、(ズームで80mmにしてました)F値を50とかなり大きくして光を絞って見てみました。小さな点ですが、上と同じような位置にたくさんゴミがあるのが分かります。

IMG_3342_RGB_VNG_ABE
小さな多数のゴミがあるのが分かります。

IMG_3342_RGB_VNG_ABE_Preview01
左真ん中に見える2つの点の下側を拡大。


この画像で見ると、大きいものでも直径10ピクセルくらい、小さなものだと5ピクセル以下です。1ピクセルが6.3μmなので、たとえ10ピクセルあったとしても63μmの大きさなので、なかなか目で見える大きさではありません。実際、センサー面をじっと目を凝らして見ても全く何かあるようには見えませんでした。

また、大きなシミのような5-6個みえますが、これはおそらくセンサー面から遠いレンズ面などにある汚れかと思います。この時のレンズは中古の安いジャンク品なので、カビなどがあるのかもしれませんが、いずれにせよセンサー面とは関係がないので無視します。


せっかくなので試しにいろいろやってみる

さて、これらを取り除いていきます。清掃は、6Dのメニューで「センサークリーニング」を選びます。

7244D6A9-D03B-4579-A7D2-81A22BBCB180

FB8C48DB-C57B-4506-A08A-D5A1F6734B02

2A1F756F-4E75-4096-90C3-4EFAEC32542F

最後の画面で「OK」を選択すると、シャッターが上がって清掃できる状態になります。清掃後は画面に出ているように、電源を切ることでシャッターが閉じます。

清掃後はFS-60CBにEOS 6Dを取り付け、iPadのColorScreenというソフトで出した白い画面をフラット光源がわりにしてゴミを撮影しています。

まずはダメな例です。綿棒にエタノールを染み込ませ直接こするとどうなるか?
IMG_3347_RGB_VNG_ABE
問題外ですね。綿棒の繊維が飛び散ってしまっています。

次に、FUJIFILMのクリーニングペーパーを、(センサーが奥の方で指だと届かないので)綿棒の綿のところに蓋をするように巻き付け、清掃します。エタノールは渇きカスが残ることがわかったので、乾燥したままのクリーニングペーパーを使いました。

IMG_3348_RGB_VNG_ABE

綿棒の繊維は取れましたが、まだ大きなゴミが1個、小さなゴミがたくさんあります。ただ、最初と位置は変わったようです。

同様にクリーニングペーパーを綿棒につけ縁から順に、一方向に丁寧に清掃していきます。
IMG_3354_RGB_VNG_ABE
かなり良くなりましたが、右下縁にゴミが溜まっています。これは縦横に順に清掃して最後にゴミが行き着いたところです。

さらに、同様にクリーニングペーパーを綿棒につけ4角を重点的に清掃。
IMG_3355_RGB_VNG_ABE
4隅はきれいになったが、逆に真ん中は悪化しています。


非接触の清掃も試してみる

上の状態から、ここで一度缶のエアーダスターを試してみます。
IMG_3356_RGB_VNG_ABE
いくつか大きはものは取れましたが、いつくか新しいゴミも付きました。でも、細かいゴミの大勢はかわらず。

更に、カメラのセンサークリーニング機能を試してみました。合計5回やりました。
IMG_3357_RGB_VNG_ABE
エアダスターと同様に、目立つのがいくつか取れましたが、大勢はかわらずです。


清掃方針

これまでの経験から
  • 大きなゴミはエアダスターが効く。
  • 小さなゴミはエアダスターもカメラのクリーニング機能もほとんど役に立たない。
  • エタノールは乾きカスが出ることがあるので、必ずすぐに乾いたクリーニングペーパーで拭き取ること。
  • 乾いたクリーニングペーパーを綿棒に巻き付けてセンサー面を拭き取ると、小さなゴミを移動することはできる。
  • 拭くたびに毎回チェックすべし。 
というようなことがわかってきました。

このことを踏まえて、以下のような手法で清掃を改めて行います。
  1. 最初にエアダスターで大きなゴミを取る。
  2. 最初はエタノールを綿棒につけ、その上にクリーニングペーパーを巻き付け拭く。
  3. 乾いたクリーニングペーパーを綿棒に巻き付け、丁寧に一方向に拭き取り、最後に溜まった部分も丁寧に拭き取る。


結果

上記手順で清掃した結果が、以下のものです。
IMG_3360_RGB_VNG_ABE
真ん中はそこそこ綺麗になりましたが、左上角に大きなのがいます。でもここらへんで力尽きました。簡単そうに書いてますが、結構苦労しています。小さなゴミも残ってますが、下手に触ると悪化することもあり、ここら辺が妥協点かと思いました。というか、素人が適当にやるとこれくらいが限界なのかと実感しました。細かいゴミは、実際にはフラット補正してしまえばほとんど問題にならないと思います。左上が問題になるようなら、再び清掃します。


まとめ

今回はセンサーの実際の汚れを見て、それを清掃するとどうゴミが動くかとかの反応を知ることができました。市販のクリーニングセットがヘラみたいなの形になっている理由もよくわかりました。センサーの端の方にたまるゴミを撮るためですね。

市販のクリーニング用品も試してみたくて、アマゾンで安めのツールを注文しました。



届いたらまた試そうと思います。

センサーの清掃は本来はメーカーに依頼するべきなんだと思います。でも天体改造をしているので、なかなか頼む気になれず、今回我流で清掃してみました。結論を出すのは再度撮影してからだと思いますが、少なくとも傷がつくようなこともなく、汚れもコントロールできることがわかりました。角の方に溜まるゴミを取るのはまだ課題ですが、これは市販ツールで解決することを期待しています。


前回の6Dのユニティーゲインの記事ですが、難しいという話を聞いたので、できるだけわかりやすく解説してみようと思います。




コンバージョンファクター


IMG_2032

何はともあれ、まず重要なのはコンバージョンファクター (conversion factor) とか、gain (ややこしいのですがISOに相当するgainとは全然の別の意味です。以下区別するために、コンバージョンファクターの意味ではgainやゲインという言葉は使わず、ISOの意味でのみgainもしくはゲインと書きます。)とか呼ばれている、センサーで発生する電子の数と出力信号のカウント数を変換する係数で、単位は[e/ADU]になります。eは電子1個の単位、ADUはADC (Analog to Digital Converter) でカウントする1カウントの単位です。発生する電子の数は後で書きますが、検出される光子の数と比例するので、ここではとりあえず光子の数と言ってしまうことにします。

このページの結果によるとEOS 6Dの場合、例えば、ISO100のとき、コンバージョンファクターは5.6413 [e/ADU]で、光子が6個近くセンサーの1素子に入ってやっとADCのカウントが1増えます。6Dの場合14bit = 16384なので、5.6413 x 16384 = 92427個の光子が1素子に入ると、その素子のカウントは一杯になり「飽和」状態になります。このブログでは「サチる」とか、「サチった」とかいう表現をしています。これは「飽和」の英語Saturationから来ています。

例えば、ISO400のとき、コンバージョンファクターは1.4178 [e/ADU]となり、光子が1.5個くらい入るとADCのカウントが1増えます。

この表から考えると、ISO575くらいが実現できるなら、コンバージョンファクターは1 [e/ADU]となり、光子が1個入るとADCのカウントが1増えます。このときのゲインをその名の通り、ユニティーゲイン(unity gain)と呼びます。ユニティーは1という意味ですね。ISOなので、ユニティーISOとか読んでもいいでしょう。呼び方はまあどうでも良くて、重要なのはセンサーで検出される光子1個がADCを1カウント増やすという、1対1の関係です。

CMOSセンサーの解析はこのコンバージョンファクターの値を求めるところから全てが始まります。


コンバージョンファクターの原理

ではコンバージョンファクターを求めるためにはどうしたらいいのでしょうか?まずは原理式を理解してみましょう。CMOSセンサーをある出力ゲインに固定して測定した信号\(S\mathrm{[ADU]}\)とそのときのノイズ\(N\mathrm{[ADU]}\)には以下の関係があります。

\[(N\mathrm{[ADU]})^2=\frac{S\mathrm{[ADU]}}{f_{\mathrm{c}}\mathrm{[e-/ADU]}}+\frac{(N_{\mathrm{read}}\mathrm{[e-]})^2}{(f_{\mathrm{c}}\mathrm{[e-/ADU}])^2}\]

このとき\(N_{\mathrm{read}}\mathrm{[e-]}\)は読み出しノイズ、\(f_{\mathrm{c}}\mathrm{[e-/ADU]}\)がコンバージョンファクターです。

右辺2項目の読み出しノイズは十分小さい仮定として、簡単に

\[(N\mathrm{[ADU]})^2=\frac{S\mathrm{[ADU]}}{f_{\mathrm{c}}\mathrm{[e-/ADU]}}\]
を考えます。

画像を撮影して、その1ピクセルの明るさ\(S\mathrm{[ADU]}\)を測り、その1ピクセルの明るさがどれくらいバラけているかを多数プロットしてやればいいのです。

この式自身の証明はこのページの最後のおまけの部分を見てください。ちょっととっつきにくいと思うかもしれませんが、ショットノイズの関係式だけから数学的に綺麗に出てくるので、話としては至極単純です。逆にこの関係式があるので、多数の点数をとってくれば統計的にコンバージョンファクターが確定するというわけです。多数の点をとってくるのは、画像ファイルが多数の点でできていることを考えると十分可能で、アイデア次第で多くのサンプルを取り出すことができるわけです。この関係式をものすごくうまく利用してますよね。

多くのサンプルを取り出すのはいろいろな方法があります。
  1. 一画面内に暗いところから明るいところまで写っている、同じ画角の景色などを多数枚撮影し、ある位置のピクセルに注目し、その平均値とバラけ具合を多数枚にわたって見る。多数のピクセルに対して同じことをする。
  2. フラットに近い画像を露光時間を変えて何枚か撮り、一枚のある100x100くらいのエリアの平均値とそのバラけ具合を見る。露光時間ごとにプロットする。
  3. 星などの適当な画像を2枚撮影し、その2枚の画像の差を取り(信号を消して、ノイズの2乗和のルートをとるということ)、その中の明るさが一定のエリアの平均値とバラけ具合を見る。明るさの違う領域で、同じことをしてプロットする。
などがあります。私が一番最初に学んだ方法は1.でした。SharpCapは2.の方法をとっています。最初に紹介したページ(大元はこのページです)やPixInsightでは3.を使っています。3.が撮影枚数が2枚と少なく、一番簡単でしょうか。工夫次第でまだ測定方法はいろいろ考えることができると思います。

PixInsightでの測定方法はNiwaさんが秀逸なタイトルをつけて詳しく解説してくれています。




実際の測定例

実際に信号とそのバラつきをプロットしたグラフを見てみましょう。まずは2.の例のSharpCapで測定した場合です。6Dの計測の時にグラフを写真に取り損なったので、ASI294MCの測定の時の写真を示します。

IMG_3262

一番右が、横軸明るさS、縦軸ノイズNの2乗でプロットしたものになります。測定点を結ぶと一本の線になり、その傾きの逆数がコンバージョンファクターになります。この場合、横軸が5000くらいの時に縦が1300くらいなので、傾きは0.26、その逆数は1/0.26=3.85[e/ADU]くらいになります。すなわち、光子3.85個入って、やっとADCのカウントが1進むということです。

次の例は自分で画像を撮影して測定した時の結果です。SharpCapがやる過程をマニュアルでやったような形になります。すなわち、同じゲインで露光時間を変えて何枚か撮影し、あるエリアの明るさとバラけ具合を測定すると言うものです。画像解析はMaltabを使ってやりました。Matlabを使ったのは、画像読み込みが楽なのと、平均や分散などの統計解析が揃っているからです。別に一枚一枚Photoshopとかで解析しても原理的にはできるはずです。センサーはASI290MMでモノクロのCMOSカメラです。モノクロはきちんとメーカー値とも合うのですが、いまだにカラーの場合でうまく計算できたことがないので、もうここ2年ほど悩み続けています。

Conversion_Factor_ASI290MM_std

同様に横軸が明るさで縦軸がノイズの2乗のN^2になります。測定点が一直線で近似できるのがわかると思います。そのグラフの傾き0.306の逆数1/0.306=3.26がコンバージョンファクターになります。

一眼レフカメラの例は、このページに出てますね。「Details of measurements at each ISO setting」のところからの一連のグラフになります。このようにISO(出力ゲイン)を変えて、順次ISOごとのコンバージョンファクターを測定していきます。コンバージョンファクターが1になるところが「ユニティーゲイン」「ユニティーISO」「ユニティーゲインの時のISO」(言葉だけを知っていても意味がないです、逆に意味をきちんと理解していれば、言葉が多少違っても通じますね)ということになります。

ところが上にも書きましたが、SharpCapではISO(ゲイン)を変えて各コンバージョンファクターを測定することをサボっています。どうせ、コンバージョンファクターはゲインに比例するので、一番低いISOのコンバージョンファクターだけを測って、あとは出力ゲインで割ってやることで、測定回数を劇的に減らしています。これは測定の自動化をするために考えた苦肉策(良く言えば簡単に測定できる方法)といえるでしょう。


読み出しノイズ

これまでのどのグラフでもそうですが、傾きの逆数がコンバージョンファクターになり、信号Sが0の時の切片がその時のISOの読み出しノイズになります。ただし、読み出しノイズに関してはこのページでも書いてあるように
but, for the readout noise it is preferable to measure directly the deviation on a bias image - the result is more precise
と書いてあるように、バイアスファイルから直接測定せよと書いてます。奇しくも、ノイズ会議の時に議論したバイアスと読み出しノイズは同じかというというに対する回答になっていて、やはりバイアス(オフセットとかいう概念と同じ)ファイルで測定されるノイズは読み出しノイズと考えて良さそうです。

読み出しノイズの測定は、カメラにキャップをして最小光量で、時間と共に大きくなるダークノイズを無視するために最小時間で撮影した画像を使います。やはりバイアスの撮影と同じですね。こうやって撮影された画像は読み出しノイズに支配されています。読み出しノイズの直接的な測定についてはこのページを参照してください。
 


測定からいろいろなことがわかる

一連の測定の結果から、非常に重要な幾つかの結論が出ます。例えば、このページで言っている主要なことは
  • Unity gainはISO575のところにある。
  • これは個々のISOについてコンバージョンファクターを測定した結果から来ている。
  • コンバージョンファクターの測定方法は、各ISOで2枚撮影して、その差分から明るさとノイズの関係を評価した。
  • 読み出しノイズはISO6400までは減ってきていて、それ以上のISOでは一定値。なので、暗い天体はISO6400を使うのがベスト
  • 飽和容量は13235ADUと考える(と書いてあが、根拠は不明。14bitだから16348ADUと思ったら、それより小さいので何かかから測定したのか?)。
  • ダイナミックレンジはISO400までは一定で、それ以降は減り始める。なので明るい天体はISO400以下で撮影するのがいい
  • 中間ISOは使うな!例えばISO1000はISO800と同じ読み出しノイズでかつダイナミックレンジは小さい。
ということです。


コンバージョンファクターやユニティーゲインは何の役に立つのか?

答えを一言で言うなら、コンバージョンファクターという(ゲイン依存の)変換係数があるおかげで、ADCの値を読むだけでありとあらゆるものを電子の数で考えることができるようになるので、「単位が揃って便利」だということです。

例えば飽和電子容量(full well)です。本来の飽和電子容量の測定の仕方は、十分にサチレーションを起こすくらい明るい光をカメラに入射し、その時のADCの値の平均値を読み取り、それをコンバージョンファクターで電子の数に変換してやります。コンバージョンファクターが分からなけれが飽和「電子」容量とは言えずに、飽和「ADC」容量とかになってしまいますね。

読み出しノイズの測定もそうです。バイアスファイルは読み出しノイズに支配されています。この時の各素子の明るさのばらつき具合が読み出しノイズになるのですが、当然のことながらこれらの測定は全てADCの出力を見ているので単位は [ADU] で出てきます。こんな時に先に測定したコンバージョンファクターがあると、あーら不思議!なんと電子の数 に変換することができ、普通の読み出しノイズの単位[e-]になります。

逆に言えば、どれだけ画像ファイルからADCでカントされた数を数えることができても、コンバージョンファクターがないと、電子、光子のところまで持っていくことができません。と言うわけでコンバージョンファクターがいかに大切かおわかりいただけましたでしょうか?

では、ユニティーゲインがどうして必要かと言うと、実はそこまで重要な値ではないんですよね。ADU1カウントと測定された電子1個が等しいと言うくらいです。まあ、目安ですね。


電子数と光子数の関係

さらに光子の数sと、センサーで数える電子の数nが、定数で変換できます。この定数をシステム効率ηなどと呼び
\[\eta=\frac{n}{S}\]
と表すことができます。通常はシステム効率は1以下の値をとりますが、ここでは簡単のため1としています。

ポイントはこのシステム効率が内部回路のゲインや積分時間などによらないということです。なので、出てきた電子の数を数えるということは、幾つ光子が入ってきたかが直接わかるため、重宝されるというわけです。

その一方、ADCのカウント数とセンサーで出てくる電子数の関係は内部回路のゲインに依存してしまうため、便利でないのです。

ISOと実ゲインの関係

前回測定していまだに腑に落ちないISOと実ゲインの測定ですが、同様の測定例がどこを探しても見つかりません。ISOとコンバージョンファクターのグラフはすぐに見つかります。これってもしかしたらISOの線形性がほとんどないから出回らないのでしょうか?だとしたら、前回示したグラフは何か失敗しているかと思ったのですが、逆に貴重なのかもしれません。

自分でも各ISOのコンバージョンファクターを測ってみるのが次の課題でしょうか?少なくとも3種類の測定の仕方は考えられるので、それぞれで違いが出るかとかも興味があります。そこで測られたコンバージョンファクターは、やはり実ゲインに比例しているはずなので、もし前回の測定結果のように実ゲインがISOに比例しないなら、どこに矛盾があるか突き止めていくのもまた面白そうです。


おまけ: Unity gainで撮影する意味

unity gainで撮影することには、ほとんど何の意味もないです。これは測定される電子数とADCのカウントの比を表している単なる係数に過ぎません。

たまにunity gainで撮影することが有利だとかいう話を聞くことがありますが、根拠が全くありません。その際によく話されるのが、ADCの1カウント以下で電子(光子でもいい)を測定できないからとかだとかが理由とされますが、そもそも光子を1個だけ数えるのは(量子力学で考えるとあたりまえですが)原理的に不可能です。多数の(単位時間あたりに数にばらつきのある)光子が測定され、統計的に平均値をとると何個の光子が来ていたと言えるだけです。

なので、unity gainに拘らずにISOを決めていいのですが、原理的に考えると最適なISOはDynamic Rangeを損なわない最大のISOということになります。もちろんこれは対象の明るさによってきちんと考えるべきで、明るいもの(昼間の景色や恒星など)がサチるのを避けたいならばISOを下げたほうがいいですし、暗いものを撮影するときはダイナミックレンジを犠牲にしてでもISOをあげた方がいい時があります。


まとめ

コンバージョンファクターについて、できうる限り簡単に書いてみました。みなさん理解できましたでしょうか?わかりにくいところとかありましたら、コメント欄にでもお書きください。

もう少し6D測定を続けてみたいと思います。他の結果と矛盾がないのか、それとも何か間違っているのか?どのような設定で撮影すればいいかの根拠になっていくので、これはこれでかなり楽しいです。



3月3日の雛まつりの日の夜、月の出が22時18分なので、夕方から準備すればしばらくの間撮影できそうです。狙いは迷ってましたが、早い時間なので季節遅れのカリフォルニア星雲にすることに。結構大きいので、FC-60CBと6Dで視野角的にもちょうど良さそうです。今回も狙いは自宅でフィルターなしでどこまで写るのか? (2021/3/19 追記: 勘違いで、CBPが入ったままでした。)ISO800で、露光時間3分にして、6Dのヒストグラムで見て一番明るい青が1/3くらいでした。

前回Sh2-240を同じセットアップで撮っていて、まだ機材はそのままの状態でほとんど残っています。なので、準備も時間で済み、仕事から帰って、夕食後から用意しても20時過ぎくらいには撮影を開始できました。撮影時間はちょうど月が昇る22時半ころまで。実際には西に傾き屋根に隠されて終了となりました。その後すぐに空が霞んできて曇りのようになったのでここで撤収です。

後でチェックしてみると39枚撮影して使えるのは36枚。3枚は屋根が入っていました。星像が流れているようなものはありません。後半になるに従って西の空に傾くので明るくなってきてしまうのですが、今回はそれらも全部使うことにしました。


WBPP 2.0

次の日フラットとフラットダークを同ISO800、1/400秒で128枚撮影し、ダークは以前撮った同じ範囲の温度をものを使用してWBPP(WeightedBatchPreprocessing)で処理。最近WBPPがメジャーアップデートされて2.0になり、かなり変更がありました。以前のバージョンから使っている人はまあ普通に使えるかもしれませんが、1箇所だけ注意。全てのファイルを登録後、新しくできたControl PanelタブのFLATのところでファイルを選択すると右側にオプションが現れます。これまではライトフレームはカラーかどうか選択するためにCFAオプションがあったのですが、今回からFLATもCFAが選べるので、もしフラットフレームもカラーで撮影したなら必ずCFAオプションにチェックを入れます。

今回のバージョンから処理過程を図にしてくれるのですが、FLATのCFAがオフのままだと下の写真のようになって、フラットが適用されていないのが分かります。

IMG_1943

きちんとFLATのCFAをオンにすると
IMG_1942
のように、きちんとフラットが適用されていることがわかります。

さて、その下のSeparate CFA scalling factorはまだよく理解していないのですが、とりあえず今まで通りオフでやってみました。ただ、オンにするとRGBで別々の係数を使い、オフだとまとめて一つの係数を使うということです。今回のフラットフレームはカラーバランスが取れていないので、もしかしたらオンにした方がいいのかもしれません。


あとは画像処理

出来上がったライトフレームをいつも通りDBE、PCC、ArcsinehStrech、HT、StarNetなどで処理をして、Photoshopに渡してさらに炙り出し。とりあえずできたのがこれです。

Image53_2

恒星がいまいち鋭くないとかいくつか不満はありますが、これはこれで完成です。さあ、ブログと書こうと今に至っているわけですが...

あれ?ダークがおかしい

...と(既に画像処理も終えて、このブログを書くために改めてダークファイルの数を)チェックしていて変なことに気づきました。WBPPのControl PanelにmasterDarkが多数枚登録されているのです。

IMG_1947

そしてDarksタブを見てみると露光時間ごとに一枚づつ、多数のmasterDarkが登録されているのが分かります。

IMG_1946

ところが、試しに今回撮影したフラットフレームとかライトフレームを登録してもこんな変な状況にはなりません。ダークフレームのみこのような状況になります。

ファイル名からdarkというのを取り除いたり、ヘッダ情報を見たりいろいろしたのですが、原因はもっと単純なことでした。ダークファイルが存在する上流のフォルダ名に一つでも「master」という文字が含まれているとこのような状況になってしまうようです。例えば今回は以前撮ったダークフレームを使い回したために「master」というフォルダの下に、さらに露光時間やISO別に幾つかのフォルダに分散してためてあったものを使ったために起きた問題でした。例えば「master」を「mas」とか抵当に名前を変更してダークフレームを登録するだけで、masterDarkでない普通のダークフレームとして登録されます。

さてさて、間違った多数の1枚偽masterDarkファイルで処理したものときちんとダークを登録して処理した画像と、で画像の差はあったか興味がある方もいるかと思います。拡大すると正しいダークを登録した方が明らかに黒い小さな点がなくなる、もしくは緩和されていました。差がわかる部分を拡大して比較ものが下の画像です。左が間違ったもの、右が正しいものです。このような小さな点が画像全面に散らばっています。

comp

ただ、最終仕上げに影響があるかというと、ドット単位くらいの話ですし、間違ったダークと言っても多少の補正はできているので、拡大してじっくり見ない限りはわからないレベルでしょう。

ちなみにこの「master」というフォルダ名、ダークだけでなく、バイアスやフラットを登録する際にも全く同じことが起きて、いずれもマスターファイルとして認識されてしまいます。これだとあまりにも制限が多いので、そのうちもう少し良い方法で解決されると思いますが、PixInsightを使う際にはmasterというのは特別な意味を持つので、むやみやたらに、少なくとも読み込む画像ファイルに関するところには使わないほうがいいでしょう。


仕上げ

このあとまた一通りの炙り出し過程をすませ、不満だった恒星部をもう少し出します。ついでに赤いところももう少しだけ。

master_cut_rot_DBE_DBE_PCC_SCNR_ASx4_HTx2_CT2
  • 撮影日: 2021年3月3日20時26分-22時29分
  • 撮影場所: 富山県富山市
  • 鏡筒:Takahashi FS-60CB + マルチフラットナー
  • フィルター: 無し SIGHTRON CBP
  • 赤道儀: Celestron CGEM II
  • カメラ:  Canon EOS 6D(HKIR改造, ISO800, RAW)
  • ガイド: f120mmガイド鏡 + ASI120MM mini、PHD2によるマルチスターガイドでディザリング
  • 撮影: BackYard EOS、露光時間180秒x36枚 = 1時間48分、ダーク50枚(ISO800、露光180秒)、フラット128枚(ISO800、露光1/400秒)、フラットダーク128枚(ISO800、露光1/400秒)  
  • 画像処理: PixInsight、StarNet++、Photoshop CC、DeNoise AI
Dark補正の違いはほぼ何も影響がないですが、2回炙り出しをやったのでいい訓練となりました。自宅でフィルターなし、2時間弱でこれくらい出るのなら、気楽でいいのかもしれません。

それでもやはり背景はノイジーなのは否めません。分子雲がもう少しあるはずなのですが、もっとはっきり出す技術をまだ確立できていません。今回2時間弱と短かったので、まだまだ撮影時間を伸ばしてみるのもいいのかもしれません。もしくはISOをもう少し上げて恒星がサチるのには目をつぶり、背景を重点的に出すことを考えてやってみるのもいいのかもしれません。

あ、そうだ真ん中らへんの一番明るい星の左のなぜか明るく見える星。ここだけボワッとにじみが出ています。そもそもこんなに明るい星でもないですし、もっと明るい星でもこんな滲みは出てません。ここのファイルはそれほど目立つにじみでもなく、いまだになぜか理由がわかりません。とりぜず理由がわかていないのでそのままにしています。

いつものAnotationです。

master_cut_rot_DBE_DBE_PCC_SCNR_ASx4_HTx2_CT2_Annotated


過去画像との比較

2年ちょっと前の2018年11月に撮影したカリフォルニア星雲です。

NGC1499_CUT

これは直接比較していいものなのでしょうか?記録を見ると撮影時間30分となっています。露光時間も約4倍、画像処理も今と全く違うので、淡いところも全然見えるようになっています。さすがに今回の方が圧倒的に進歩していますね。


まとめ

PixInsightのWBPPですが、まだメジャーアップデート直後でこなれ切れていない気がします。自分の慣れのこともありますし、また不具合などもあると思ってしばらく付き合っていくべきでしょう。

実際にはこれまであやふやだったフラットのCFA処理とかもはっきりしたり、コントロールパネルも見やすくていいです。これからもWBPPの進化に注目していきたいです。



カリフォルニア星雲(2): 撮り増し」に続く
 

今回のターゲットはぎょしゃ座とおうし座の間にある、とーっても淡いSh2-240、通称スパゲッティ星雲です。しかも自宅からの挑戦。初の12時間越えの撮影になりました。


自宅から淡い天体を目指す

TSA-120を購入してから1年くらい、一部を除いてほとんどTSA-120ばかりで撮影していましたが、焦点距離900mmで撮れるのもだいぶ尽きてきたので、久しぶりに別鏡筒です。ターゲットは迷ったのですが、自宅からの撮影で淡いのがどこまで出るのかを知りたくて、Sh2-240にしました。前回のM78もそこそこ淡いのですが、今回のは無理ナントと言われるくらい淡いレムナント(超新星残骸)です。

淡くても大きい星雲なので、機材は焦点距離が370mmと短いFS-60CBに、マルチフラットナー + フルサイズのEOS 6Dです。新月期ですが、自宅周りで光害の影響は避けられないので今回はCBPを取り付けます。

淡くてもうまく全景が分かるくらい写るのか、あわよくば青いOIIIまで写るのか?どれくらいの時間をかけるべきなの?いろいろ楽しみです。


撮影


実際の撮影の状況です。撮影は3日に渡るので状況は色々変わります。

  • 1日目、2月6日(日): そこそこ晴れているので21時過ぎから撮影開始、雲が途中少し出たが、続行。西に傾くにつれ明るくなり、午前1時半頃で屋根に遮られおしまい。次の日仕事なのでここでキザを片付け中断。
  • 2日目、2月11日(木): 休日: 機材はそのままの継続撮影なので、すぐに準備もでき、天体薄明終了後すぐの19時過ぎから撮影開始。天気があまり良くなく、時折雲に邪魔されます。西に傾き明るくなってきた午前1時頃に、これまた次の日仕事なのでここで撤収。
  • 2月12日(金) 夜中くらいまで天気が悪そうだったので、この日の自宅での撮影は諦め真脇遺跡へ遠征(このことはまたブログにまとめます)。
  • 3日目、2月13日(土): この日も19時くらいに撮影開始。風が強くなってきた午後1時前に撮影中止。天気はまだ良かったのですが、あまりの風の強さに撮影は無理と思い撤収。

3日目の撮影開始時に、カメラのワイドアダプターのネジが緩んでいてガタガタになっているのに気づきました。カメラを一度外したので、カメラの回転角は合わせ直したのですが、ピントは一見大丈夫そうだったので合わせずじまい。おそらく3日目の分はごくわずかピントがずれています。でも仕上がりを見たらまあ気になるほどではなかったです。でもやはり少なくとも何かずれていたら、きちんと見直すべきかと反省しました。


電源トラブル

 長時間撮影なので、カメラをモバイルバッテリーで駆動させましたが、このバッテリーにAC出力がついていたので、機材簡略化のためにStickPCを試しに同じバッテリーから電源を取って動かしてみました。結果、ASCOMで赤道儀のCOMポートを認識しない(ごくたまに認識するが、すぐにまた認識しなくなってしまう)というトラブルが起き、その後StickPC自体が落ちてしまいました。

COMポートの認識が不安定だったり、まるまる認識できなくなるという事態は初めてでした。最初電源のせいだとは疑わなかったです。でもいつもはできていて、今日は調子が悪い。何か変わったところがあるはずだと考えると、やはり電源が最初に浮かびました。結局StickPC用にいつも使っている別の独立したモバイルバッテリーを用意したところ、ASCOMも安定し、落ちるようなことは無くなりました。

ということはやはり今後も
  1. 赤道儀用にCelestronのPower Tank(のバッテリーを入れ替えたもの
  2. Stick PC用のAC出力付きのバッテリー
  3. カメラ用にUSBが2系統取れるバッテリー
と計3つを使うことになります。


PHD2のマルチスターガイドのテスト

今回新しく試したのは、PHD2の開発者バージョンで実装されたマルチスターガイドです。下の写真は初日の様子です。

IMG_1752

縦軸のスケールは+/-8秒角ですが、ほぼ真ん中に維持されていてrmsで1秒角程度で、非常に調子がいいです。おそらくこれまでで一番きれいにガイドできています。一番右の大きなピークはディザリングです。

一方、下の写真は3日目にかなりの強風時の様子です。

IMG_1773

風のせいで揺れ幅が大きくなっているのが分かると思います。RMSで2秒近くなので、倍くらいの揺れです。右から2つ目の大きなピークはディザーですが、一番右のピークは部屋にいてビューという大きな風の音がした直後の揺れです。これで撮影中止を決めました。

PHD2の新機能のマルチスターですが、相当いい感触です。焦点距離が短いガイド鏡でピクセル以下の位置精度を求めようとしているので、そもそも感度限界に近いところを攻めているわけです。多数の恒星を測定することでそこのエラーが恒星の数のルート分の1で減るはずなので、かなり効くことが期待できます。今回試した限りでも、実際の場合で相当の効果があることが分かります。


画像処理

今回はlightフレームの数が多いので、手持ちのダークフレームの数が足りなくて、冷蔵庫を使って追加でダークを取り直しました。

結果今回は
light frame: 147枚 (ISO800、露光300秒)
dark frame: 100枚 (ISO800、露光300秒)
flat frame: 128枚 (ISO800、露光1/400秒)
flat dark frame: 128枚 (ISO800、露光1/400秒)

になります。flatは最近TSA-120でM87を撮ったときに試した、曇りの日の部屋の中で外光が当たっている壁を写しました。flat dark frameはflat frame直後に鏡筒に蓋をして撮影しました。

上記ファイルを全てPixInsightのWBPPで処理します。WBPP終了後の画像をオートストレッチしたもですが、これを見てちょっと引いてしまいました。

masterLight-BINNING_1-FILTER_NoFilter-EXPTIME_300.3

12時間撮影してこの淡さです。しかもゴミが多すぎ。一度センサーを徹底的に掃除する必要がありそうです。

これ以上撮影時間を増やすのも価値がないと思い、気を取り直して画像処理を始めます。普段の炙り出しが簡単に思えるほど、画像処理には相当苦労しました。PixInsightでストレッチまでした後、さらにPixInsight上で細部出しなどの処理を続けようと思いましたが、これだけ淡いのを出すのはPixInsightでは私はまだ経験不足。今回はStarNetで背景と恒星を分離してから、早々とPhotoshopに移り、背景と恒星を別々の状態で処理を進めました。ただし、恒星との境に不自然沙が生じないよう、背景のみの画像に恒星から作ったL画像をマスクとしてかけながら処理しました。

この淡い天体に対して、Photoshop上でDeNoiseも含め、持ってる技術を注ぎ込んで炙り出しました。そのため多少不自然なところも残ってしまっているのは否めません。かなり炙り出しているのでノイジーなのも否めません。それでも自宅から12時間でここまで出たのは喜ぶことなのかもしれません。

masterLight_cut_ABE_PCC_AS2_SFT_all6_bright
  • 撮影日: 2021年2月6日21時22分-2月7日1時30分、2月11日19時19分-2月12日0時25分、2月13日19時10分-2月14日0時47分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: Takahashi FS-60CB + マルチフラットナー
  • フィルター: SIGHTRON Comet Band Pass (CBP) filter 
  • 赤道儀: Celestron CGEM II
  • カメラ:  Canon EOS 6D(HKIR改造, ISO800, RAW)
  • ガイド: f120mmガイド鏡 + ASI120MM mini、PHD2によるマルチスターガイドでディザリング
  • 撮影: BackYard EOS、露光時間300秒x147枚 = 12時間15分  
  • 画像処理: PixInsight、StarNet++、Photoshop CC、DeNoise AI

そもそもHαの赤を出すだけでも相当苦労しましたが、OIIIの青は全くと言っていいほど出ませんでした。CBPはある程度青も通すはずですが、それでも全然無理なのか、それとも露光時間が絶対的に足りないのか?そのうちOIIIフィルターを使って単体で撮り増しするかもしれません。


まとめ

今回の撮影も自宅庭撮り祭りの一環で、私にとってはある意味挑戦の一つです。その結果、こんな淡い天体ですが、自宅から出す手段があることはわかりました。あとは青いところをどう出すかが次の課題です。

今回は大きな星雲を久しぶりに短焦点鏡筒で撮影しました。逆方向、長焦点での小さな銀河を分解能取る方向もまた再開したいと思っています。


ここしばらくシリーズ化しているメジャー天体撮り直しシリーズ、M31アンドロメダ銀河M45プレアデス星団に続き今回はM42オリオン座大星雲です。







これまでのオリオン大星雲

M42は初期の頃からのFS-60Qでの撮影も含めて、


QBPのテスト
の時や、


AZ-GTiの赤道儀化のとき


ラッキーイメージングなど細部出しに特化したもの、


また明るい天体のため、電視観望でもよく見ることができ、見ている画面を保存して簡易的に画像処理してもそこそこ見栄えのするものができてしいます。


電視観望の応用でAZ-GTiの経緯台モードでの撮影も試したりしました。


TSA-120を手に入れてからも、フラットナーがない状態でも解像度ベンチマークなどでトラペジウムの撮影を中心に何度も撮影してきました。分解能に関して言えば、この時が最高でしょう。


その後、昨シーズン終わりにやっとTSA-120用に35フラットナーを手に入れてから一度テストしていますが、四隅の星像の流れはもちろん改善していますが、中心像に関してはフラットナーなしの方が良かったというのが以前の結論でした。



でもテスト撮影も多く、なかなか満足のいく露光時間はかけていませんし、仕上がりに関してもまだまだ細部を出すことができるはずです。今回はそれを踏まえての、初めてのまともな長時間かけての撮影になります。


撮影開始

撮影日は平日でしたが冬シーズンにしてはたまたま晴れていた(次の日からはまたずっと天気が悪い予報)のと、月が出るの午前1時過ぎと、多少の撮影時間が確保できそうでした。平日なので自宅での庭撮りになります。夕食後準備を始めました。このシーズンオリオン座は夜の始めはまだ低い高度にいるので、焦らずに準備できます。

鏡筒はTSA-120。これに35フラットナーをつけて、前回M45の撮影の時に準備したCA-35とカメラワイドアダプターをつけます。カメラはEOS 6D。フィルターはここのところ光害地では定番のCBPです。青を少し出したいことと、赤外での星像肥大を避けることが目的です。赤道儀はいつものCGEM IIです。撮影環境はStick PCにBackYardEOSを入れて、PHD2で二軸ガイド。

一つ気をつけたことが、Stick PCの電源を最初から大容量バッテリーのAC電源出力からとったことです。これは、これまでSharpCapでの極軸合わせなど計算量が多くなった時に何度か落ちたことからの反省です。前回のM45の撮影時の画像連続チェックで落ちてからAC電源に交換して、それ以降落ちなかったので、その経験から今回は最初からAC電源です。効果はテキメンで、SharpCapでの極軸合わせの時も全く問題ありませんでした。ダメな時はネットワークが不安定になるところから始まるのですが、そんな兆候も全然なく、やはりネットワークがダメだったのも計算負荷にで電力がネットワークアダプターのほうに回っていなかった可能性が限りなく高かったと言う結論になりそうです。


オリオン大星雲の撮影目標

せっかくの明るい星雲なので、
  • 階調と分解能をできるだけ出すこと。
  • 長時間露光でノイズを抑えること。
  • 星雲周りの分子雲を出すこと。
  • トラペジウム周りで飛ばないこと。
などを目標とします。

露光時間は淡いところを出したいので300秒とします。自宅庭撮りでこれだけ長くできるのはCBPなどの光害カットフィルターがあるからです。長時間露光の代わりに、ダイナミックレンジを稼ぎたいのでISOは少し低めの800としました。これでヒストグラムのピークが1/5くらいのところになりました。それでもトラペジウム周りは完全にサチってしまうので、別途同じISOで1秒露光のものを20枚、最初に撮影しておきました。同じISOにしたのはバイアスとフラットが使いまわせると目論んだからです。でも、後で書きますが、この目論見は失敗に終わります。


露光時間とISO

ISO800にした理由ですが、このページを見るとISO100の時のダイナミックレンジが12bit=4096、ISO800で11.5bit=2896とそこまで落ちないからです。さらに300分の1の露光時間の1秒露光で20枚ほど撮影してあるので、うまくつなぐとさらに300倍のダイナミックレンジ(2896x300= ~869000)を稼ぐことができることになります。

でもまあ、画像に写っている中で一番明るいオリオン座のι(イオタ)星のHatysa(ハチサ)が2.75等級なので、それより例えば15等級下の17.75等級を見ようとすると100万のダイナミックレンジが必要になり、既に不足となります。300秒露光の画像は既に背景のヒストグラムで最大値の1/5位のところにあるので、ということは背景の5倍の明るさで既にサチることになってしまいます。こうやって考えると恒星に割り当てることのできるダイナミックレンジはものすごい小さいことになってしまいますが、これでいいのでしょうか?何十枚もスタックして背景のランダムなノイズを下げ、オフセットは引くことができるので、もちろん1枚の時よりダイナミックレンジは増えます。画像処理のストレッチ過程で暗い恒星を炙り出すので、RAW画像の見た目の5倍というよりは実際にはもっと広いダイナミックレンジを扱うことができます。それでもサチっているところはサチったままです。

逆に言うと、背景に近い暗黒帯などは(低い方の)ダイナミックレンジが十分にあるところで情報としてRAW画像の中に残しておかないと、きちんとした諧調で表現することができなくなります。例えばPhotoshopでRAW画像を見たときに背景ピーク位置が256段階の3くらいのところにあったとします。ピークの幅が3くらいで、この中に暗い部分の背景の情報が入っているとします(実際には欲しい部分は背景のピークより少し値が大きいところにありますが、幅は同程度と仮定しています)。16bit=65536で処理するとすると1段回で65536/256=16階調あることになるので、3段階だとわずか48階調で背景の暗黒帯や対象天体の淡い部分などを表現することになります。ところが、背景ピークが10倍の30あたりにあり、その幅が30程度あるとすると、16階調をかけて480階調で表現できるようになります。ADCの量子化ノイズなどと言われたりしますが、一番見たいところをADCのどこの位置に持ってくるかを露光時間はゲインで調整するというわけです。でも実際にはたとえ階調不足でも、今のソフトはよくできていて、飛び飛びになっている階調を自動で補完してくれるので、見かけ上は階段状に見えるようなことがあまりなかったりします。

とりあえず今回は明るすぎる恒星は主に画像処理で回復し、トラペジウム周りの白飛びのみを1秒露光の画像で補完することにします。

セットアップ後は自宅からぬくぬくリモートモニターです。月が出る午前1時過ぎまで仮眠でも取ろうと思いましたが、結局そのまま起きていて、片付けが終わって寝たのが2時過ぎだったので少し寝不足になってしまいました。


6Dのセンサー面の清掃とフラット画像

後日、画像処理のためにフラットなどを撮影します。まずはカメラを外せないフラットからです。本当は太陽が出ている明るい時に撮影したかったのですが、北陸はしばらく冬型の気圧配置で、今後天気は期待できそうにないので、曇りの日に撮影することに。そういえば今回はM42の撮影前にカメラのセンサー面の掃除をしたので、フラットフレーム最近いつもあるゴミの後はほぼ一掃されていました。清掃といってお、カメラの清掃モードを利用してセンサー面を露出し、エアーで吹き飛ばしただけです。これだけでかなりの効果がありました。

フラットダークとバイアスに関しては同じISOの以前使ったマスターファイルがあるので、それを再利用できます。

ダークは冷蔵庫と冷凍庫にカメラを入れて冷却状態で撮影します。温度がばらつくので、多少多めに撮影しておきます。それでも枚数が稼げないこともあるので、その場合はダーク補正なしでCosmetic Correctionのみにする時もありますが、今回はそこそこの枚数を稼げたので撮影時の温度に合わせて選択して使うことにしました。


画像処理

撮影したファイルをPIのWBPPで処理します。できたファイルをPCCにかけます。背景に分子雲が大量にあるのでカブリとの見分けがつかず、ABEやDBEは使わないことにしました。ノイズ処理とDecombolutionもPIで試しましたが、やはりまだDeNoiseの方が有利な気がして、今回も使いませんでした。いずれ移行したいですが、もう少し検討してからにしてみたいです。

恒星中心の回復はRepaired HSV Separation Scriptを使い、Masked Stretchで恒星を保ちながら炙り出しました。

問題はStarNetの適用のタイミングです。今回はPhotoshopでも炙り出す余地を残したために背景と恒星の分離を少し早い段階で済ませました。そのため、PSでの処理時に恒星をさ散らすことになってしまったので、あまりMasked Stretchの意味がなかったかもしれません。でもその一方、恒星を全くサチらせずに処理すると、恒星が野暮ったい感じになりインパクトに欠けることにもなります。今回はサチらせる方向を取りましたが、ここはもう少し検討したいところです。もしかしたら再処理するかもしれません。

1秒露光の画像の処理も同様にPIでやったのですが、WBPPが全くうまくいきませんでした。仕方ないので、マニュアルでCosmeticCorrectionから順番に確認していくと、ImageCaibrationのバイアスやフラット補正が全くうまくいきません。バイアスファイルやフラット補正ファイルは、ISOを合わせた300秒露光の補正で使ったものの使い回しなので問題ないはずです。ファイルが問題と言うよりは、補正すること自体がダメなようです。簡単に言うと暗かったライトフレームが補正で明るくなってしまうような状態です。どうやってもうまくいかなかったので、補正は諦め、撮影した21枚、21秒分を位置合わせしてスタックしただけにして、トラベジウム周りだけを使うことにしました。

300秒画像のトラペジウム周りはサチっているので、境目が滑らかになるように輝度を落とし、そこに1秒露光の画像をPhotoshop側で合成しました。

結果は以下のようになります。
masterLight_PCC_pink_MS_all5


2020/12/14追記: 次の日少し見直して1から処理し直しました。StarNetを使わずにマスク処理で恒星部を調整し不自然さと幸理をできるだけ無くしています。あと、まだ赤寄りだったのでもう少し青寄りにして色調豊かにしました。まだ不満はいくつか残っていいます。
  • 分子雲の中の微恒星周りが不自然です。これはマスクの領域を拡大しすぎたからかと思います。明るい領域の微恒星と暗い領域の微恒星では多分マスクの扱いが違うのかと思います。最後に気づいたので力尽きて諦めました。またそのうちに解決策を手段を考えます。
  • 分子雲と背景のノイズ処理が甘くてボコボコしているようなところがあります。DeNoiseの効果なのですが、他のノイズ除去フィルターでも同じようになってしまいます。Dfine2で大まかなノイズを除いてからDeNoiseで解決できる可能性もありますが、根本的には露光不足なのでさらに長い時間撮影するのが一番です。
  • かなり炙り出しているので、人工衛星の軌跡が目立ち始めています。軌跡が残っている画像は全て捨てるのが解決策なのですが、今回もかなりの枚数に軌跡が映り込んでいます。これだけ衛星が多いとオリオン座はもう難しいのかもしれません。
それ以外のところは、「今のところ」不満はありません。でも気づいてないことがまだたくさんあると思うので、あくまで今のところです。

masterLight_integration2_ABE1_PCC_SCNR_HSV_MS_all3_cut
  • 撮影日: 2020年12月9日20時57分-12月10日1時10分
  • 撮影場所: 富山県富山市
  • 鏡筒: タカハシ TSA-120 (口径120mm, 焦点距離900mm) + 35フラットナー + CBPフィルター
  • 赤道儀: Celestron CGEM II
  • センサー: Canon EOS 6D HKIR改造
  • ガイド: PHD2 + 120mmガイド鏡 + ASI178MCによるディザリング
  • 撮影: BackYard EOS, ISO1600,  露光時間: 300秒 x 50枚 = 4時間10分 + 1秒 x 21枚
  • 画像処理: PixInsight、Photoshop CC, DeNoise
分子雲については十分に出ていて、星雲本体の階調も分解能も満足できます。トラペジウム周りもそこそこ自然に出ています。

その一方、恒星部にはまだ少し不満もあります。露光時間が300秒と長いために星像がガイド揺れやシンチレーションでボテっとなるのは仕方ないです。でも1秒露光の方でトラペジウム部分を見てもあまり分離できていません。ピントがずれている可能性もありますが、おそらくこの日はシンチレーションが酷かった可能性が高そうです。

トラペジウムもピシッと見えていて、背景もきちんと出ているようなものを多露出露光合成なしで撮れるような、タイミングと機器とパラメーターが揃った時に、いつかまた気合を入れて撮影してみたいものです。でもまだ今の機材でももう少し攻めることができる(ラッキーイメージングでしょうか?)はずなので、今後も継続して挑戦していきたいと思います。オリオン大星雲は深いです。


まとめ

メジャー天体際撮影シリーズはこれで終わりかと思います。4年半前に星を始めて、最初の頃に挑戦したものでしたが、機器も技術も4年半の間に随分進歩したことがわかります。ソフト的な進歩も大きいです。

特にPixInsightでのDBEやストレッチの技術と種類の多さ、StarNetでの分離、Nik CollectionやDeNoiseなどの細部だしやノイズ除去など、自分の腕の不足を明らかに助けてくれます。今後はこういった便利なソフトから少し離れて、自分の腕で画像処理を極めたいと思っていますが、実際この楽な状況から本当に脱却できるのか?まあ、当分はそのままかもしれません。


おまけ

Annotationです。

masterLight_PCC_pink_MS_all5_Annotated


恒例の以前FS-60Qで撮影したものです。約4年前と

cut

1年半前です。

light_M42_PCC_maskstretched_ok_HDR_dark

今回の撮影もまだ不満はありますが、自己ベストは明らかに更新です。何年か経つととりあえず進歩の跡が見られるのはいいものです。オリオン大星雲は楽しいので、また条件を変えて挑戦します。



今回は小ネタです。以前コメントでTKさんが教えてくれたcr2ファイルの温度引き出し情報を、実際のやり方も踏まえて書いておきます。


一眼レフカメラの温度情報どうしてますか?

私は天体撮影にCanon製カメラをつかっていますが、みなさん撮影する時に、カメラのセンサーの温度はどうやって記録しておきますか?

ダーク補正をするためにはライトフレームの撮影時の温度と、ダークフレーム撮影時の温度を合わせる必要があります。一つの方法は、撮影終了後、気温が変わらないうちにダークフレームを撮影してしまえばいいのかもしれません。でもダークフレームの撮影はライトフレームの撮影と(枚数を合わせようと思うと)同じくらいの時間がかかります。せっかくの限られた撮影時間がもったいないですし、明るくなってきてからだと急激に温度が変わる可能性があります。

私は、Canonの一眼レフカメラでEOS 6Dを使っていますが、普通にカメラ単体で撮影して、例えばMacでファイル情報(Option+i)で見ても、いったい何度で撮影されたかの情報を得ることはできません。Canonの純正ソフトDPPでもわかりません。なので私は温度情報を得ることをほぼ主目的として、長い間BackYard EOSを使ってきました。


BackYard EOS

BackYard EOSは優秀で、どこからか温度情報を読み出して撮影した画像のファイル名に温度を書き込んでおいてくれます。有料ソフトで結構しっかりしているので、Ditherの対応など他にたくさんメリットもあるのですが、いまだに温度のためだけにこのソフトを手放すことができません。確かAPTも温度情報が得られると聞いたことがますが、私はまだ一眼レフカメラでは試したことがありません。

BackYard EOSですが、百歩譲って撮影中は温度も取れるし使っていても苦になりません。でもダークフレームを撮ろうとして、撮影時の外の温度と合わせるために6Dを冷蔵庫や冷凍庫に入れるとすると、PCと接続しながら撮影しなくてはなりません。細いケーブルを使って冷蔵庫の近くにPCを置いてもいいのですが、家族からは邪魔者扱いされるので大抵はStickPCをつなげて、リモートデスクトップで状況を確認してたりします。でもはっきり言ってStickPCもさらに電源が入ったりするので面倒なんですよね。カメラ、StickPC、電源が冷蔵庫の中に入っていると、扉を開けた時にインパクト特大で、たいてい家族に怒られます。


IrfanViewを使った温度情報の引き出し

ここまでが前置きです。今回は普通のファイルから温度情報を抜き出す便利な方法を紹介します。用意するのはIrfanViewというソフトです。もしかしたら古いWindowsユーザーは「懐かしい」と声を上げるかもしれません。その当時Susieと並んでよく使われた画像閲覧ソフトです。

まずは下記リンクから自分のWindows環境に合わせて32bit版、もしくは64bit版をダウンロードしてきて下さい。



cr2ファイルを読み込むことができるように、同ページからプラグインも入れておいて下さい。マニュアルを見るとCanonのDLLが必要と書いてあるので、EOS utilityも必要かもしれません(私の環境だと既にもう入っているのでどこで入ったかわかりません)。日本語化などもできるようです。


実際の手順

インストールが終わったらIrfanViewを立ち上げます。そこで、メニューから「ファイル」「一括変換/名前の変更」を選びます。

IMG_1226

次に、温度を読み取りたいcr2ファイルが入っているフォルダを選択し、cr2ファイルを選択し、真ん中少し下の「追加」を推します。左上の「一括ファイル名変更」を選択しておきます。

左の真ん中少し上の「ファイル名パターン」のところに例えば、

dark_date$E36867_tv$E33434_iso$E34855_tc$E47.cr2

と入力します(ブログのシステムの都合上$が大文字で表示されています。コピペする際は$を小文字に変換して下さい。)。tcの後の$47が温度になります。

IMG_1230

これは各自好みの設定にしてください。番号が何を表すかはヘルプの「Text/Pattern Option」を見るといろいろ書いてます。このページはヘルプの「検索」メニューのところで「temperature」などと打ってやると出てきます。ただしこのText/Pattern Optionのページ、日本語版のヘルプファイルには入っていないようです。もし日本化してしまった場合に情報を詳しく知りたければ、言語を一旦英語に戻してください。

最後に、左下の「一括処理開始」を押すと、名前がルール通りに付け替えられたファイルが、元のファイルからコピーされて保存されます。

IMG_1232

ファイル名を見ると、きちんと温度情報が(この場合24℃と)入っていますね。


注意

でも一つ注意です。この温度ですが、(これもTKさん情報ですが、)
  • この温度値が何なのかを公式には謳っていない。(現時点明確な文書は無くSDKに含まれてない)
  • この温度は画像センサー温度ではなくDIGICチップ内での温度の可能性があり、その動作由来を反映してしまっている可能性がある。
  • この温度センサーは、露出時間に伴う画像センサーの発熱変化を拾えていないように見える。
  • ゆえにDSLRでダークライブラリを使用することは、そもそも最適ではない可能性が高い。
  • 信頼性の低い情報を使用し近似を試みるより、その場でダークを生成することで最高の精度が達成される。
という情報が議論されているようです。なので、必ずしも正しいとは思わない方がいいかもしれません。


まとめ

とにかくこれで冷蔵庫もしくは冷凍庫でのダークフレーム撮影がカメラ単体でできるようになり、かなり楽になりました。温度は後からまとめてみることができます。

多少実際のセンサー温度とは違いがあるかもしれませんが、ダークフレーム撮影時はそれほど急激に温度が変わるわけでもないですし、どうせ温度制御はできないので何枚かの温度の違うフレームをスタックすることになります。なので(少なくとも私は)実用上は十分かと思って使うことにします。


このページのトップヘ