ほしぞloveログ

天体観測始めました。

キーワード:縞ノイズを含む記事

クリスマスイブ。連休の最終日です。昼間は雲が多かったのに、なぜか夜は全面晴れ。次の日仕事でしたが、今週から雪らしいのでもうチャンスもなかなかなくなると思い、家族とのクリスマスパーティー後、下の子の「トランプやって!」の声を振り切って、21時頃から庭に機材を出しはじめました。この日の目的は、前回からの引き続きでQBPのテストです。満月後わずか2日目、まだまだ空は明るいです。一昨日のQBPのテストは輝度の高いM42オリオン座大星雲でしたが、もう少し淡い星雲はQBPでどのくらいまで撮ることができるのか見極めるのが今回の目的です。 


ターゲット天体

あまり夜遅くなると次の日の仕事に響くので、ターゲットは一つとしました。画角に当てはまることと、そこそこ淡く、月にそこまで近くないという条件から、
  • IC405 勾玉星雲とIC410
としました。それでも月から40度角ないくらいなので、比較的明るい領域と言えます。


機材セットアップ

 前回と同じセットアップです。ほとんど組み直すことなく使えるのですぐにセットアップできて楽です。
  • 鏡筒: タカハシ FS-60Q (口径60mm, 焦点距離600mm)
  • 赤道儀: Celestron CGEM II
  • センサー: Canon EOS 6D(HKIR改造)、ISO3200、露光時間3分x10枚、2分x11枚の計52分
  • ガイド: ASI178MC + 50mm Cマウントレンズ、PHD2 + BackyardEOSでガイド+ディザー撮影
  • フィルターサイトロン Quad BP フィルター(クアッド バンドパス フィルター、 以下QBP)
  • 日時: 2018年12月24日、22時頃から
  • 月齢: 17.2

撮影

前回のM42はISO1600、露光時間1分くらいが限界でしたが、今回はISO3200、露光時間3分での撮影が可能でした。ISOで2倍、時間で3倍で、前回と比べて計6倍明るく撮れている計算になります。
  • 月が満月よりは少し暗くなったこと、
  • 以前より月からもう少し(10数度角くらい)離れていること、
  • 色温度を6000度にして、青を落としてRGBのバランスをとったため、サチルまでに余裕が出たこと
などが理由かと思います。

露光時間を取れたのはいいのですが、その代わりに星が流れてしまうのでガイドありでの撮影になりました。前回は600mm、1分でガイドなしで大丈夫でしたが、3分になると流石にCGEMIIでもガイドなしでは少し流れてしまいます。それと、以前縞ノイズで懲りたので、PHD2とBackyardEOSの連携でディザーもしています。

そういえば最近またAstroTotillaを使ったPlatSolvingで画角を決めています。これ、ものすごく楽なので、またそのうちに一度記事にまとめたいと思います。

実際の撮影は、ぬくぬく自宅の中からリモートでと、至って快適でしたが、カメラの電池が切れてしまった夜中の1時頃、風も少し出てきたのでその時点で撤収としました。


画像処理


前回のM42の時の画像処理と大きく違うのが、フラット補正をしたことです。鏡筒の先にスーパーの袋を2重にしたものをつけて、PCの画面を明くして白で埋め、そこを1/100秒の露光時間で撮影しました。ISOはライトフレーム撮影時と同じ3200としました。

今回は赤い領域が全体に広がっていたので、PixInsightのDBEでは周辺減光を取ることが困難だったからです。今回のフラット補正は結構効果が大きくて、変なムラみたいなのも一切出なくなりました。基本的なことをサボっていたのがそもそもの問題なのですが、QBPを使うときにはフラット補正は必須かと思いました。これは一度きちんと検証したいと思います。

その後の画像処理はこれまでとそう変わりません。PixInsightで処理して、DBEで最後のカブリを取り、PCCで色を合わせて、ArcsinhStretchでストレッチします。その後、Photoshop CCで仕上げます。


撮影結果

撮影結果を示します。

light_BINNING_1_integration1_AS_DBE_cut


撮影時間が52分と長くはないため、ノイズがまだ結構残っていますが、満月2日後の、自宅庭からのお気楽撮影でこれだけ出ればまあ満足です。恒星の青もそこそこ出ています。

もちろん、新月期に遠征をして光害の少ない場所で撮影するよりは、撮影した素材画像のクオリティーは絶対悪いです。そのため、色バランスやフラット補正など、多少画像処理で苦労はします。それでも、自宅で気楽に撮影ができ、数がこなせることは何物にも代え難く、私的にはこのQBPは買ってよかったものの一つと言えます。


APT(Astro Photography Tool)を試してみました。動機はCMOSカメラで長時間撮影をすると縞ノイズが発生してしまうので、それを防ぐためにデザリングをしたかったからです。

まずAPTのインストールでカメラを認識するまでにものすごく戸惑いました。いくつかのページで説明はされているのですが、とにかくはまった点を書いておきます。

今回使うカメラはZWO社のASIシリーズです。まず、ZWOのサイト

https://astronomy-imaging-camera.com/software-drivers

に行ってカメラ自身のドライバーをダウンロードしてインストールします。Native Driversと書いてあるものがそうです。これまでほかのソフトなどですでにCMOSカメラを使ってきたならば、ドライバーは既にインストールされているのでここのところはスキップできます。

ここから少し意識しておかなければならないことは、すべてのCCDカメラやCMOSカメラはAPT上ではASCOMのカメラとして認識されます。このことを意識せずにSharpCapやFireCaptureの感覚でカメラのドライバーだけインストールしてもダメです。そのためASCOMのサイトに行ってASCOM Platformをダウンロードしてインストールします。新しいカメラを持っている場合、例えばASI294MCは最新の6.4ではうまく動きましたが、一つ前の6.3では認識できませんでした。

これだけでもダメで、さらに再び上記のZWOのダウンロードサイトに行って「ASCOM Drivers (optional)」の中の「ASI Cameras」をダウンロードしてインストールします。これがASIカメラとASCOMを実質的につなぐドライバーに相当します。

これで準備はできましたが、カメラがASCOMでうまく認識されるかどうかは、ASCOM Platformをインストールすると出てくる「ASCOM Diagnostics」を使うといいでしょう。ASCOM Diagnosticsを立ち上げてメニューの「Choose Device」を選び「Choose and Connect to CDevice」で出てきた画面で「Select Device Type」で「Camera」を選んですぐ横の「Choose」を選びます。出てきた「ASCOM Camera Chooser」で少し文句を言われていますがとりあえず無視をして、ちょっと押しにくいですがカメラ選択の下矢印を押して「ASI Camera(1)」を選択します。

IMG_4827

次にすぐ横の「Properties」を押して、ZWOのロゴが入っている設定画面が出てくれば認識と接続はうまくいっています。出てこなければ何かがうまくいっていないということです。

IMG_4828


さて、ようやくAPTの出番です。APTをサイトからダウンロード、インストールします。インストール完了後早速立ち上げますが、カメラの接続でまたもや困りました。右の上の「Camera」タブを押して、そこで出てくる「Connect」を最初はShift+Controlキーを押しながらクリックしますが、そこで「CCD:ASCOM Camera」を選んでOKを押すと、APTの反応がなくなってしまいます。しかもAPTのどこかをクリックすると落ちてしまいます。てっきりバグか何か足りないのかと、ここでものすごく悩みました。答えは、先ほどの「ASCOM Camera Chooser」がAPTの画面の下に隠れて出てきていて、これが設定されるのを待っているのです。これはさすがにわかりにくいです。

IMG_4829


Alt+Tabキーなどで画面を切り替えて、先ほどと同じように「ASCOM Camera Chooser」で「ASI Camera(1)」を選択すればOKです。上記トラブルが絡み合い、実際ここまで来るのに数時間を要しました。


あとは普通に使うことができると思います。というか、雨でまだ実践では試せていないので今日はここまでで終わりです。

実は大昔にもAPTを使おうとして、同じところであきらめたことが2度ほどあります。今回やっと解決できました。知っていればどうってことないことなのですが、知らないと結構戸惑ってハマるとすごい時間を費やすことになります。

雨で何もできない時間があるのはこういったことが解決するのでいいですね。


light_BINNING_1_integration_DBE_min_color_stretch_ps_cut
富山県富山市伏木, 2018年5月15日22時28分-5月16日1時52分
FS-60CB + flattner + CGEM II赤道儀
EOS 6D(HKIR改造, ISO3200, RAW), 露出3分x60枚 総露出180分
PixInsight、Photoshop CCで画像処理


先週末に撮影したアンタレス付近ですが、強風と赤道儀のガタにより星像がぶれてしまって使い物になる枚数が限られてしまったため、今回は長時間露光でのリベンジです。今回は新月期最後の晴れということもあり、平日にもかかわらず珍しく夜中の出撃です。場所は前回と同じ、自宅から20分くらいの富山と岐阜の県境のあたりです。


前回問題だったAdvanced VX (AVX)ですが、やはり赤経方向にガタがありました。簡易分解しただけでは原因はわからなくて、どうやらウォームホールあたりでカタカタします。上下方向や前後方向にガタは全くなく、回転方向のみのようで、クランプを十分締め付けても存在するようなガタです。バックラッシュなどのギヤのところではないようで、これ以上の調査は全分解に近いものが必要になりそうで、一旦は保留としました。おそらく風が強くなければ十分実用かとは思いますが、やはり心配なので、今回は新導入したCGEM IIでの出撃です。

AVXは車で運べるように、いつもきっちりプラスチックケースに入れてトランクに効率よく入るようにしてあるのですが、CGEM IIは大きいこともありまだ運搬の用意ができていなくて、玄関に組み上げて置いてあったものを三脚と赤道儀部だけ外して、後部座席にそのままポンと置いて積むだけでした。でもこの手抜きの運搬方法が意外に便利だということがわかりました。AVXはきちんとケースに入れるために、ウェイトバー、水平移動押しネジ、コントローラー台、コントローラーと、かなりの部品を毎回取り付け、取り外さなくてはいけません。何だかんだで、取り付けも取り外しも10分くらいはかかっているので、合計20分くらい損しています。さらに今回は三脚も押上げプレートを緩めるだけで外さずに後部座席の床にポイと置いただけなので、それも合わせたら、きちんと計っていたわけではないですが30分くらい実質得している気がします。実際の手を動かす手間も圧倒的に少ないのでずいぶん楽です。今度から遠征も二人までならできるだけ手間を省いて後部座席を活用しようと思います。

さて、CGEM IIの初の撮影への実戦投入になったのですが、まず驚いたことが安定度がこれまでのAVXと別物のように違うことです。AVXも普通に使うぶんには十分に安定です。それでもまずAVXのときはピリオディックモーションが避けられないので3分以上の露光ではガイドが必須でしたが、今回はノータッチガイドで焦点距離370mmで3分間、全く余裕でもちます。星像も完全にまん丸です。なので今回はガイドなしで行くことにしました。実は今回も風が相当強く、前回と同じか少し弱いくらいだったのですが、こんな風で大丈夫なのかというくらい星像が乱れませんでした。最初の頃はまだ風が弱く、最後撤収時には相当な風になっていました。それでも星像の肥大や偏心など画像を拡大しても目で見る限り差は感じられませんでした。

結局この日は強風にもかかわらず、安定して3分60枚を撮影したところで終了しました。平日の出撃でしたが意外なことに、車の中で3時間くらい眠ることができたので、次の日の仕事にはほとんど支障がありませんでした。自宅から20分という便利さも効いていたのかと思います。

さて、ここから画像をチェックしていきますが、2つの問題があることがわかりました。まず一つは、透明度が5月11日の方が圧倒的に良かったこと。撮って出し画像を比べればすぐにわかります。

GOOD_ANT_LIGHT_6D_180s_3200_+15cc_20180321-23h55m31s178ms
5月11日、透明度が良かった時



ANT_LIGHT_6D_180s_3200_+25cc_20180515-23h59m58s810ms
5月15日、透明度はイマイチでした。

赤道儀が違うだけのほぼ同じ条件ですが、前回の5月11日の方は最初から色が出ている一方、今回の5月15日のは撮って出しレベルでは全然色が出ていないことがわかります。前回が特別良かったのか、今回がたまたま悪かったのかまだよくわかりませんが、確かに星の数も天の川の濃さも前回の方がすごかったので、今回は晴れてはいたけれども少し霞みがかったような状況だったのかと思います。ちなみに、昼間見る立山の見え具合も比例して5月11日がよく、5月15日はイマイチだったので、昼間である程度の夜の透明度の予測はできそうです。

もう一つの問題点は、3時間という長時間露光なのでまたもや縞ノイズが出てしまったことです。前回のASI294MCの結論としては、ホットピクセルが多いので縞ノイズが出たということでしたが、6Dもやはり3時間クラスになると縞ノイズは盛大に出るようです。前回のAVXの時はガイドもやっていたのでついでにDitherもしていたのですが、今回赤道儀の安定性に頼ってしまいガイドをしなかったことが裏目に出たようです。ガイドなしで、BackYardEOS(BYE)単体でDitherができるのならASCOM経由でBYEとCGEM IIをつないでしまえばいいのですが、ここら辺はまだよくわかっていないのでまた調べてみようと思います。

light_BINNING_1_integration_DBE_shima
縞ノイズが盛大に出ています。 

いずれにせよ縞ノイズが出た場合はPixInsightの魔法のオプションで多少軽減できますが、やはりそれでも結構残ってしまうようでが、最初よりはかなりマシです。その際、Cool pixelの跡が残ってしまう問題がありましたが、

integration_DBE_cooltrajectory
縞ノイズは軽減されましたが、Cool pixelの跡がいくつも残ってしまっています。

integration_DBE_cooltrajectory_up
上の拡大図です。黒い筋がいくつも見えます。


このような時には、ImageIntegration時のオプションで消すことができることがわかりました。

Pixel Rejection(1)
  • Min/Maxをチェック
  • No normalizationを選択

Pixel Rejection(2)
  • Min/Max lowを5に

IMG_4550

のようなオプションにしたら、下の画像のようにCool pixel跡も無くすことができました。ただしこれはバッチ処理ではできないので、別個最後にやり直す必要があります。

light_BINNING_1_integration_DBE_min_color_shima2
縞も軽減され、Cool pixesの傷跡も無くなっています。


この状態で最後まで仕上げたものが一番上の画像になります。PixInsight(PI)の操作もすっかり慣れてきてストレッチまではPIで簡単に済ますことができるようになりました。前回も今回も撮影時に余分な時間があまりなかったので、フラットを取ることができませんでした。仕方ないので自宅でPCの液晶画面に、撮影時のカラーバランスがそこそこ再現できるように適当に色を出して、ISO100、1/20秒で多数枚撮影してPixInsightに放り込みました。前回作ったbiasもそうですが今回のflatも一度作ると同じ機材で撮っている限りISO、露光時間に限らず使い回しができるので便利です。というのも、PixInsightのDBE (DynamicBackgroundExtraction)機能がものすごく秀逸で、多少のカブリは物ともせずに除去してくれます。ただし、フラット補正を何もせずにDBEだけでは4隅に少し暗いところが残ってしまうなど、不十分なところが残りますが、これとて少しトリミングしたら十分見られるくらいにはなってしまいます。

PIが終わったら、あとはPhotoShopの出番です。いつも通り星雲を少しづつ炙り出していきます。この際いつも悩むのが、背景のボツボツです。緑が目立ちますが、青や赤の成分もあります。カラーノイズ除去などをしても、ある程度は軽減されますが色の波のようなものが残ってしまいます。滑らかなホワイトバランスが取れた背景を目指しますが、星雲とかの色を炙り出そうとするとどうしてもこのぼつぼつが目立ってきます。撮影時にコントラストよく星雲など撮れてればいいのですが、よほど空が暗くないところ以外どうしても付いてまわる問題なのでしょう。やはり撮影時にフィルターを使うのが解決策の一つなんでしょうか。何かいい方法はないものなのか、いつも悩むところです。

さて、今回処理したものと、前回の5月11日の画像を比較評価してみます。機材などの条件はほぼ同じ、透明度は前回のほうがいい、撮影時間は今回の方が3倍強です。結果はそれほど変わらないか、かろうじて今回の方がいいくらいでしょうか。でも縞ノイズでの悪化を差っ引いたらまあ等価くらいかと。3倍強の時間をかけても同じくらいということは、透明度が思ったよりかなり効いているということです。次回は透明度の高い新月期で、CGEM IIでDitherまでやってのリベンジを目指すことになりそうですが、果たしていつのことになるのか、今年中にチャンスは訪れるのか。

週末晴れるかなと思っていたら結局雪みたいなので、諦めています。今週あったこととか、その他諸々を日記がわりに書いておきます。

縞ノイズ続報ですが、FlatAide Proを試させてもらいました。フリー版で制限なしで試せるのでありがたいです。結果としては、残念ながらカラー版COMSカメラではほとんど改善が見られませんでした。そもそもカラーでは難しいはずだと、オリジナルアイデアのあぷらなーとさんも言っているのと、あとASI294MCはクールピクセルよりホットピクセルの方が多いためかと思われます。

結局「縞ノイズ」の結論としては、
  1. ホットピクセルやクールピクセルの数が多いと、除去処理で同じことをする箇所が多くなってしまう。
  2. それが撮影した全枚数に同じ位置に同じ処理をしてしまうものだから、どうしてもコヒーレント(同相)の結果を残してしまう。
  3. それがガイドずれで、画面全体にどうしても残ってしまうコヒーレントな部分をずらしながら重ね合わせて縞や縮緬のようになってしまう
ということです。ならば、「なんとかして処理を枚数の途中で変えてやってコヒーレントにならないようにしてやればいいのでは」と思ったのですが、その具体的な手段を思いつくことができず、ここで断念です。とりあえず今回しし座トリプレットは縞ノイズが目立たないPixInsightのMinimumでIntegrateして、次はditherをかけて結局撮り直すのがリベンジといったところでしょうか。敗北感が拭い去れません。

ZWOのCMOSカメラだと今の手持ちのソフトではditherをするが大変そうなので、ditherをサポートしているというAPTを少し試そうと思っています。CMOSカメラの撮影の場合、ソフトは
  • 惑星: FireCapture
  • 電視: SharpCap
  • 短時間撮影: SharpCap+PHD2
  • 長時間撮影: APT+PHD2でdither
ということになりそうです。CMOSカメラではお気軽撮影を目指しているのに、だんだん複雑になってきてしまうので困りものです。


今週あったもう一つ大きなことは、Macbook Proに入れてあるBootCamp領域が壊れてしまったことです。起動不可になり、0xc0000225というコードを出します。調べていくとどうもSSDが原因のようで、Safe modeで立ち上げようとして失敗するみたいです。そういえばこの直前に、VMwareでWindowsを走らせながらPixInsightでMac側で処理していて、Mac側のSSDがいっぱいになってVMWareが停止するとかいうメッセージが出ているのを思い出しました。色々なページを見て直そうとしたのですが、BootCampでこれが起こると直すのは結構難しいみたいです。普通のWindowsだったら直るなずのことをしても全くダメでした。マスターブートレコードの書き直しとかしている最中に一旦Mac側も立ち上がらなくなって、さすがに焦ってきたので修復は諦めてBootCamp領域を消して、再インストールしました。幸いなことに、Mac側はなんとか立ち上がり、Windows側の領域を見ることはできているので、Windows側のバックアップを取り、無事に戻すことができました。それでもアプリなどはすべてインストールし直しです。


そういえばまた変なものが増殖しました。

IMG_3567


不思議です。増えることはあっても減ることはなかなかありません。

これで昼間も楽しめそうです。ジャンク格安品でしたが、エタロン部分は問題ないらしいので、格好の改造材料です。ファブリーペローキャビティーは比較的経験があるので、そこらへんがエタロンにどれくらい応用できるか楽しみです。でもとりあえず昼間に晴れてくれないとどうしようも無いのですが、残念ながら週末は土曜も日曜も雪の予報です。




 

縞ノイズの考察の続きです。と言ってもほとんど成果なしです。

せっかくのASI294MCを撮影にも使えるのかどうかを判断するためには、縞ノイズ問題を解消しなければどうしようもありません。解決する手段さえあれば、気軽な撮影にも使えると目論んでいます。何れにせよ電視観望には十分(その1その2)なのですでに当初の ASI294MCの目的は十分に達していて、さらにあわよくば撮影もという贅沢な目標です。

具体的には、せっかく長時間撮影をしたしし座の三つ子銀河の画像を有効活用するために「縞ノイズ(斜めノイズ、縮緬ノイズ)」をなくすことですが、今回は少し絞って、
ということを探ることにしたいと思います。

試したことは、
  1. ホットピクセルのみの除去とクールピクセルのみの除去の比較。
  2. ダークフレームの効果。
  3. フラットフレームの効果。
  4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。
  5. Maximum、Minimum、Medianの違いの確認。
などです。他にも色々試していますが、かろうじて意味があることがあることだけ挙げておきます。


1. ホットピクセルのみの除去とクールピクセルのみの除去の比較

1枚のRAW画像を、オートでホットピクセルのみ、もしくはクールピクセルのみ除去して、どちらが効いているかを試しました。結果は前回のあぷらなーとさんのコメントでの推測どおり、ホットピクセルの方が圧倒的に多くて、かなりの部分が除去されているのが確認できたので、一応除去ルーチンはそこそこうまく働いていることがわかりました。一方クールで除去が確認できたのはごく僅かでした。

問題はホットピクセル除去でもクールピクセル除去でも、いずれも除去できないものがまだ結構あることです。これが前回みたMaximumで残った起点に相当するものかと思われます。まずはこの除去を目指します。


2. ダークフレームの効果

1のPixInsightでオートでホット/クールピクセル除去に加えて、ダークフレームのみを使ってホット/クールピクセルがどれくらい変わるか見てみました。結果はほとんど効果なしです。理由はリアルタイム処理をしてみるとわかりました。オートで取れる数の方が多いからで、ダークフレームを使っても除去できる数はそれほど増えないからです。これはパラメータをいじって調整すればうまく残りのダメージピクセルも除去できるのではということを示唆しています。


3. フラットフレームの効果

2の処理に加えて、フラットフレームとフラットバイアスの処理を加えました。意外なことに残ってしまう起点の除去には、このフラットフレームの補正の効果が大でした。フラットバイアスの効果はほとんど関係ないです。残っていた色から判断して恐らくホットピクセルと思われているものですが、ほとんど除去できました。この状態で、もともとバッチ処理でやっていた処理とほぼ近いものになるはずです。ここでやっと最初の疑問の、フラットも含めた前回のバッチ処理で最後だけMaximumでintegrateした時に、輝点が出てこない理由がわかりました。


4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。

それでもまだ少し輝点が残っています。もう少しだけなんとかできないかと思い、2でやったダーク補正のパラメータをいじることにしました。

IMG_3565

下の白丸を押してリアルタイム表示で、オートで幾つ補正されるかを見ながら、それ以上に(今回やったのは3倍の数くらいで、ホットで0.1、クールで0.04くらいにしました)パラメータ調整で補正できる数を増やすことで、残っていた輝点もほぼ除去されることがわかりました。


5. Maximum、Minimum、Medianの違いの確認

上記の3、4ですでに一枚の画像で輝点をほぼほぼ除くことはできるようになったので、これで残った輝点が原因なのかどうかがやっと切り分けられそうです。この状態で撮影した枚数全てで重ね合わせてみました。その際、Integrationのパラメータをデフォルトの「Average」から「Maximum」「Minimum」「Median」にそれぞれ変えてみました。

Average: 最初にバッチ処理でやったものと基本的には同等です。

01_Average

ただ、バッチ処理の時と違い、撮影失敗に近い星像が崩れたものや、人工衛星が通った画像を省かずに全て処理したので、その影響で星像がとりあえず丸いのですがちょっと大きいのと、人工衛星の線が出てしまっています。縞ノイズはやはり盛大に現れます。この状態で画像処理を進めても背景の縞が残ってしまい、不自然に背景を暗くするしかなくなってしまうので、許容範囲を超えています。

でもこのことは意外でした。輝点が十分無くなれば、この状態でも縞ノイズは消えると思っていたのですが、見ている限り元の輝点がある状態とほとんど変わりません。これの示唆するとことは輝点そのものよりも、「輝点を処理する時に出た影響」が各画像にコヒーレントに残ってしまうということでしょうか。

ここで少し考えて、前回フラット補正なしの時に試したのですが、ホットもクールも全く処理をせずに輝点を全て残してIntegrateしたものを見てみました。

nocosmetic_calibration_integration

よくみると明るさの違うRGBの点がいっぱいあります。完全な輝点でなくても、コヒーレントに残る色々な明るさのノイズがあるということです。これらを処理した時の残りがコヒーレントに現れて縞ノイズとして残るということでしょうか。というと、これはホットピクセル除去に関係なく、明るさが違うというころからも、むしろDebayer処理のところに問題があるのではと考えられます。ここら辺もすでにあぷらなーとさんが指摘してくれています。さすがにこれは処理しきれなさそうなので、ここで今回の検証は成果なしという結論に至りました。


Maximum: これまでの検証と同じく、Averageよりも明らかに縞ノイズは少ないです。

02_Maximum_DBE

最大の明るさが出るので、星像がAverageの時よりもブレるのと、人工衛星の線が一本濃く走ってしまっています。残った輝点もはっきり出てしまっています。一つ疑問なのは、右側のアンプノイズがなぜかAverageよりも小さいことです。これはなぜだかよくわかりません。少しだけ残っている輝点は出ているのでMaximum自体の処理はされていると思うのですが。


Minimum: 今回これが一番良かったです。

03_Minimum_DBE

縞ノイズはMaximumと同程度に除去されていて、画像処理をしてもそこそこ耐えうるレベルです。変な星像の乱れもありませんし、星も変に大きくなったりしていません。。ただ一点気になったことが、不必要に暗い(おそらくクールピクセルの残り)があると、そこだけガイドのズレのぶんだけ別の縞ノイズのように目立ってしまいます。でもまあ許容範囲でしょうか。


Median: 最初Mediumと勘違いしていて、Averageと似ているけど何か違いが出るかと期待したのですが、実はMedianでした。

04_Median_DBE

Medianはより飛び抜けたところを省いて重ね合わせるものということなので、人工衛星の軌跡などは取り除かれました。その代わりにノイズを少し犠牲にするそうですが、見た目ではよくわかりませんでした。いずれにせよ、縞ノイズに関してはAverageとほとんど同じで、効果はありません。



うーん、厳しいです。このままMinimumでいっても、今回に限っては画像処理に影響ないくらいにはなっているのでもうこれでも十分な気もします。それでも次はFlatAide Proでカラーカメラでうまく縞ノイズが除去できるかもう少しだけ試してみたいと思います。(2018/2/17追記: 試しましたが、やはりほとんど効果はありませんでした。モノクロでいつか試すことにしたいと思います。)


それにしてもPixInsightの操作方法にもだいぶん慣れて来ました。今回はフラットの補正がステライメージに比べて操作できる箇所が何もないのが少し気になりました。そのためか、まだ右側上部の大きなアンプノイズがフラット補正で取りきれなくて残ってしまっています。それでも他に色々いじれるパラメータがあるのはさすがです。昨日からまた雪が降り続いています。しばらくは天気は期待できなさそうなのでまた画像処理と機器の整備くらいになりそうです。


長時間露光で問題になる縞ノイズの考察です。

  • ガイドのズレと同じ方向に縞が出る。
  • RGBと黒の4色。
  • 太さは一枚のコンポジットされた画像の中ではだいたい一定。でも画像によって細かったり太かったりします。太さは、ずれの長手方向に垂直な方向のずれの大きさに一致している?
  • クールピクセル説が強い。でも本当にこんなに前面にクールピクセルが広がっているのか?
  • カラーセンサーでクールピクセルが一つあると、上下左右のみでなく、斜め方向にも影響が出るので、ある程度の太さになる。
  • 不思議なのは、ガイドでずれたのを比較明合成した星像のずれの長さよりも、縞一本の長さの方が全然長く見えるのです。ずれの長さの3倍くらいは長く見えます。でもRGBと黒の4色しかないので、たまたま同じ色の線が繋がっているのが目立っているだけに見えなくもないです。ある色があった時2色繋がるのが4分の1で、3色繋がるのが16分の1。長いのは目立つのと、短いものも存在するので、長く見えるというのは説明できそうです。
  • 10分単位くらいに分けてコンポジットし、それをさらにコンポジットしてもダメだという報告あり(自分では未確認)。
と、ここら辺まで書いてあぷらなーとさんのコメントとブログを見て、やっとクールピクセルが原因というので納得してほぼ解決したのですが、せっかく自分でも途中まで考えてはいたので、そこまでだけでも書いておきます。


まず試したのは、簡単にするためにクール補正も、フラット補正もダーク補正もせず、三つ子銀河のIntegrationをすることでした。ImageCalibrationがなぜかうまくいかなかったのでStarAlignmentで代用。その結果がこれです。

nocosmetic


赤とか青とか緑とかのかすれた線が無数にあります。全部クールノイズだと思われます。前面に散らばっています。もっとわかりやすくするために、位置合わせをしないただの比較明合成をします。

nocosmetic_nocalibration_integration_a


クールノイズが点になって無数の輝点になって見えます。この時点で、やっとクールノイズの可能性が高そうだと思い始めました。

今度はクール補正をかけたものの比較明合成です。

cosmetic_nocalibration_integration_a


クールピクセルがなくなってかなりましに見えます。これなら変なノイズとかでなさそうなので、これで位置合わせを行います。

cosmetic_calibration_integration_a


でも結果はなぜか縞ノイズが出てしまいます。この理由が最初全くわかりませんでした。ところがIntegrartionの時にAverageを使わずにMaximumを使うと理由がかなりはっきりしました。

cosmetic_calibration_integration_Maximum_a


Maximumなので一番明るいものが残っています。形をよく見ると縞ノイズとかなり一致しているように見えます。Maxmumで見えるということは、このような明るい輝点はまだ存在していて、飛び抜けたもの含んで無理やりIntegrationの時にAverageで平均化したりすれば、さすがにそこにムラができるのは不思議ではありません。ImageIntegrationの時にPixel rejection(1)で「Rejection Algorithm」を「min/max」にすると多少は改善できることもわかりましたが、それでも縞は残ります。

あと、Maximumは星像が歪むという弊害があることもこの時気づきました。昨晩はここで終わって寝てしまいました。


その後、あぷらなーとさんからのコメントに答える形で前々回のページに書いたのですが、今日になってあぷらなーとさんのブログの過去記事を見るとここら辺のようなことがすでに見事に検証されていて、さらに輝点を加算するという解決法まで示してくれています!しかもぴんたんさんがすでにFlat Aide Proにその手法を実装してしまったとは!

カラー画像でもうまく輝点が出ないようにコンポジット前の画面を補正してしまえばいいと思いますが、あぷらなーとさんがやったようなモノクロならまだしも、やはりカラーだとちょっと難しそうです。


HUQさん、あぷらなーとさん、Scopioさんクールノイズにいつまででも納得できなくて色々説明してもらって申し訳ありませんでした。そして、こんな私に付き合っていただいてきちんと説明してくれて本当にありがとうございます。

自分で納得でないないと気が済まないのですが、今回の話は最初からアプラナートさんの2017年の9月くらいの記事を読んでおけば済む話でした。でも自分で試すという方向性はやめたくないので、また変なことを言うかもしれませんが、初心者のたわごとと思って温かい目で見ていただけるとありがたいです。


 


 

PixInsight(以下PI)の続きです。今日はLinear Stageについて書いておきます。

さて今日の材料は、しし座の三つ子銀河、通称トリプレットを3分露光で60枚、計3時間ぶん撮ったものです。FS-60QにASI294MCのセット、Advanced VXにPHD2でガイドなどは前回M33のときと同じです。これらをPIのバッチ処理でインテグレート(コンポジット)までしました。M33と同じく斜めの縞ノイズも、多少はマシですが見えてしまっています。比較合成したものを見ると、やはりガイドがずれていってしまっています。

light-BINNING_1_max

ズレは前回より小さくて、3時間で30秒程度でしょうか。縞ノイズは嫌なので、前回のように「Maximum」、「No normalization」でIntegrateしたものを使用します。

一応縞ノイズを比べます。デフォルトの「Average」、「Aditive with scaling」でIntegrationしたものと
light-BINNING_1_DBE_STF


「Maximum」、「No normalization」でIntegrateしたもの
light_BINNING_1_Maximum_No_normalization_DBE_STF3


です。やはり今回も縞ノイズに関してはあからさまに違いが見えていて、後者の方が圧倒的にいいです。それに加えて前者ではアンプノイズがまだ結構目立つくらいに残っています。このアンプノイズはASI294MC共通の欠点らしくて、どの個体もこの位置にアンプノイズが存在するようです。でもこの前者の画像を見ていると、ダーク補正が本当にうまくできているか疑問に思えてきました。違いはIntegrationのところだけのはずなので、ダークフレームによる補正の違いはないはずなのですが...。いずれにせよ、かなり差があるのでこれ以降は後者の方を使います。


Linear Stageでやるべき主なことは3つ、
  1. バックグラウンドを平らにする、カブリ補正のようなもの。
  2. ホワイトバランスを揃える。
  3. 色のキャリブレーションをする。
です。それぞれについてやりかたは何通りかあるみたいで、
  • 1と2は「Process」->「BackgraoundModelization」->「AutomaticBackgroundExtraction」もしくは「Process」->「BackgraoundModelization」->「DynamicBackgroundExtraction」
  • でまとめてできます。
  • 2として「Process」->「ColorCalibration」->「BackgraoundNeutralization」をする方法もあるみたいなのですが、うまくいく場合とうまくいかない場合があるので、今では使っていません。
  • 3は「Process」->「ColorCalibration」->「ColorCalibration」や「Process」->「ColorCalibration」->「PhotometricColorCalibration」などです。

DynamicBackgroundExtraction(DBE)が結構簡単で優秀みたいなので、今回はこれを使ってホワイトバランスまでを処理します。
  1. まずIntegrationした画像を開きます。次にメニューから「Process」->「BackgraoundModelization」->「DynamicBackgroundExtraction」と選んで、設定画面を出します。
  2. その状態で画像の星や星雲などがない暗い点を10から20個くらい選びます。設定画面の上の左右の矢印で選んだところのプレビューが出るので、あまりにおかしいところは赤いxじるしで選択から外します。
  3. DBEの設定画面の中の「Target Image Correction」で「Subtraction」を選びます。これを選ばないと出来上がった画面が出て来ません。
  4. DBEインスタンスを画像に放り込むか、下のチェックマークをクリックして実行します。
その時の画面が下になります。左がIntegration後すぐの画像、右の上の画面が適用後。右の下が補正分です。もともと青にかなり酔っていたので、青の補正がされているのがわかります。フラット補正はしてあったので被りや周辺減光に相当するのはほとんど目立っていません。出来上がった右上画面のバックグランドがホワイト化されているのもわかります。

IMG_3470


出来上がった画面をHistgramTransformation (HT)で見てやるとホワイトが揃っているのを確かめることができます。必要ならばこの後にBackgraoundNeutralizationをするのもいいみたいなのですが、今回は省きます。


上のDBEをするのに必要だと思われるPixInsightの特殊な操作方法について書いておきます。
  • 処理を実行するのに、下の丸ボタンを押してもいいのですが、Instanceを作る左下の三角じるしをドラッグして適用したい画像に放り込むと、その効果が適用されます。でもうまくいくときとうまくいかない時があります。xが出たり、何も出ないとうまくいかなくて、チェックマークが出るとうまくいきます。どうやったらうまくチェックマークになるのか未だによくわかりません。パッと入れるとうまくいくことが多いのはなぜでしょうか?
  • ScreenTransferFunction(STF)で簡易的にトーンカーブをいじって見やすくしてまずは把握する。この見やすくするというのは、SharpCapのヒストグラムの稲妻ボタンでトーンカーブをいじって電視観望で見やすくするのと同じ概念です。というより多分PixInsightからヒントを得てSharpCapに移植したみたいに思えます。試しに、HistgramTransformation (HT)画面とSTFバー画面を出しておいて、STF画面の放射能マークみたいな「Auto Stretch」ボタンを押してから、左下の三角じるしをドラッグして、インスタンスをHT画面の一番下の三角と四角と丸があるラインらへんにドロップすると(ものすごくわかりにくい操作方法です!)、トーンカーブの形がSharpCapのオートボタンを押してできるトンカーブとほとんど同じ形になることが確認できます。
  • STFは見かけ上の画像処理なので、Auto Stretchをした画像を保存しても、元の画像のままです。
  • ちなみにSTFの効果を効かせた状態で画像を保存するためには、上に書いたようにHistgramTransformation (HT)画面を出して、STFのインスタンスをHT画面の一番下の三角と四角と丸があるラインらへんにドロップして、さらにHTのインスタンスを画像にドロップして初めて実際の処理がなされます。それを保存すればやっとSTFを適用した画像を保存するということができます。
  • 各処理画面の下のところに白丸がある場合、Real-TIme Previewを見ることができます。プレビューで効果を確認して、パラメーターが決まったらプレビューを閉じて、オリジナルの画面にインスタンスを放り込むというやり方が主流のようです。

次が色のキャリブレーションです。今回はPIの最近のバージョンでの目玉機能と言われているPhotometricColorCalibration(PCC)を試してみます。これは複数の恒星をPlate Solvingでマッピングして、登録されている恒星の色情報から正しいと思われる色に合わせてくれるという、とても客観的な色合わせ機能です。早速試して見ましょう。

  1. 「Process」->「ColorCalibration」->「PhotometricColorCalibration」で操作画面を出してから、「Image Parameters」の「Search Coordinates」で写っている天体を探します。ここでは「M65」とかです。
  2. うまく座標が入ったら、「Observation date」に撮影した日にちくらいまで入れます。時間は適当でいいみたいです。あとは「Forcal length」に撮影時の焦点距離を、「Pixel size」に使っているカメラの素子のサイズをマイクロメーター単位で書き込みます。ここもかなり適当でいいみたいですが、5割違うとダメだと書いてありました。
  3. 「Background Neutralizatio」を選択します。「Regeon of interest」にチェックをつけて、Previewエリア(下に説明あり)を選んで、そのPreviewを「From Preview」から選択します。Upper limitはPreviewタブを押してPreview画面を開いてから暗い部分の値を、Readout modeで読んでやり、その付近の値を入れますが、デフォルトのままでも結構うまくいくみたいです。
  4. 三角じるしのインスタンスをDBE処理した画像に放り込むと処理が始まります。
  5. 結構進んだ最後の方で、実行した時に星が見つからないとか言われてうまくいかない時は、「Photometry Parameters」の「Limit magnitude」の「Automatic limit magnitude」のチェックを外し、「Limit magnitude」をデフォルトの12から15くらいまで暗くするとうまくいくことがあります。
IMG_3496


うまくいくと上の画像のように、グラフの表示とともに画像に今回の結果が適用されます。グラフはまだ何を言っているのかよくわかりませんが、検出された星をカタログ値の色にフィットしているのでしょうか?ここでCtrl+zやCommand+zでUndoすると、以前の画像と比較することができます。今回は少し赤みがかっていたのが補正されてよりホワイトになったことがわかりました。

PixInsightのとても特徴ある操作の説明です...。なんでこんな操作になるのか...、この記事が誰かの役に立ってくれると信じて書きます。
  • Previewという概念が特殊です。画像を開いている時に、上のアイコンの中の左から12番目くらいのフォルダのような形の「New Prview Mode」を選ぶと、画面の中の一部を選ぶことができます。プレビューもどの状態で画像の一部を選択すると、「Previwe01」とかいう領域が選ばれるとともに、左横のタグに同じ名前のものができます。この状態になって、初めて画像処理の画像の一部の選択、例えばバックグラウンドの領域選択などでこのプレビューを選ぶことができるようになります。
  • Readout modeは上のアイコン群の左から7番目にあり、デフォルトのモードになります。結構便利で、このReadout modeの時に画像の上で左クリックすると、拡大して画像を表示してくれて、マウスポインタが指している場所の色などを数値で出してくれます。Preview画面でもこのReadout modeは使えるので、Previewで暗い部分を選んで、さらに拡大して暗い部分の値を読み取ることができるわけです。
今回のところまでで、やっとPixInsightの全機能の1割くらいでしょうか。摩訶不思議な操作方法は、いろんな意味でもう「僕は嫌だ」状態です。とりあえずここまでで疲れ果てたので、Photoshopに持っていって簡単に仕上げてみました。

light_BINNING_1_Maximum_No_normalization_DBE_PCC
富山県富山市, 2018年1月20日0時19分
FS-60Q + ASI294MC+ Advanced VX赤道儀
f50mm + ASI178MC +PHD2による自動ガイド, 露出3分x60枚 総露出3時間0分
Pixinsight, Photoshop CCで画像処理


少し飛んでいるところもあったりしてまだ色々PIを使いこなすに至っていません。3秒露光の画像も撮ってあるので、HDR合成とか星マスクとかやって、もう少し時間をかけて仕上げてみたいですが、気合が続くかどうか。

次はNon-Linear Stageに挑戦ですが迷っています。Linear ProcessingまではあからさまにPixInsightは面白い機能が目白押しのはわかりました。Non-Linear Processingを含めて最終仕上げまで全てをPIでやることも可能みたいですが、Non-Linear ProcessingになったらPhotoshopなどに任せてしまってもいい気がします。PIの有利な点はマスクを簡単に作れるところでしょうか。これは結構魅力で、ここで作ったマスクをPhotoshopに持っていくのとかでもいいのかもしれません。

あ、あとPixInsightのライセンスを購入しました。まだ試用期間も残っていて、230ユーロと結構な値段ですが、その価値はありと判断してです。
 

さて今回M33を撮影したので、Pixinsightのバッチ処理に挑戦しました。ちょっとややこしいですが、多少癖がわかったのか、前回ほど戸惑うことはないです。

バッチ処理は「Script」メニューの「Batch Processing」->「BatchPreprocessing」を選ぶことから始まります。下のAddボタンを押してLightフレーム、Darkフレーム、Flatフレームなどを登録していきます。ここら辺まではいいのですが、最初はやはりなかなかうまくいきません。迷ったところをこれまた全部書いておきます。
  • Debeyerできない -> 右側のCFAimagesにチェックを入れるとできるようになる。
  • Cosmetic CorrectionのTemplate iconが選べない。-> これは特に分かりづらかったです。BatchPreprocessingに入る前に、あらかじめ「Preprocessing」の中から「CosmeticCorrection」を選び作っておく必要があります。前回の記事で説明したように、ファイルを選んで実行までしてから、(2018/3/22変更)CosmeticCorrectionでホットピクセル除去やクールピクセル除去のやり方を指定するだけでよく、ファイルまで選ぶ必要はありません。その後、CosmeticCorrection画面の左下の三角をクリック枠の外に出すと「Instance」が作成されます。これをBatchPreprocessingで指定するみたいです。「CosmeticCorrection」できたファイルを消したりしてしまうと、たとえインスタンスだけ残っていてそれを指定しても、エラーが出ます。
  • 「CosmeticCorrection」で一部の枚数だけ使って処理したインスタンスを使って、多数枚のLightフレームは処理できるのか? -> 問題なくできるみたい。でも、これで本当に全部のファイルのhot/coolピクセルが処理されているかは未検証です。念のため全Lightフレームを使って処理するようにしました。(2018/3/22変更)そもそもCosmeticCorrectionでホットピクセル除去やクールピクセル除去のやり方を指定するだけでよく、ファイルまで選ぶ必要はありません。
  • 一旦バッチファイルの画面を閉じてしまうと、選択したファイルも全てリセットされる。インスタンスを残しておいても、スクリプトファイルのソースみたいなのが出てくるだけで、元の画面が出てこない。 -> 仕様みたいです。何か回避策はあるのでしょうか?(2018/3/22追加)-> 左下の三角を枠外にドラッグ&ドロップしてインスタンスを作って置けば後から再度開くことができることがわかりました。ただ、開く時にインスタンスを右クリックして「Execute in the global context」を選ぶと物と画面に戻ることができて編集を再開できます。
  • ImageRegistrationのDrizzleの意味がわからない。 -> とにかくチェックしないとファイルが出力されない。最終画像も出ない。 (2018/3/22追加)->普通のDrizzleの意味で、解像度を上げるのですが、そのためのデータを出力するだけで、実際に出力ファイルの解像度が上がるわけではないみたいです。なので、チェックは外してもいいとのことですが、チェックしないとファイルが出力されないこともあったので、とりあえずチェックしてあります。
  • 星像が流れていないかなど、撮影後のfitsファイルの確認がしにくい。-> Canonカメラでの撮影の場合JPEGも残しているのと、RAWファイルのCR2形式はWindowsでもMacでも簡単にプレビューできるので便利。その一方、fits形式のプレビュー的なアプリはなかなかなく、今の所Pixinsightで全て開くしかない。 (2018/3/22追加) -> メニューの「Batch Processing」「SubframeSelector」というバッチ処理で星像の肥大度と偏心度などをみて自動判別するとても便利な機能があります。そのうちに解説します。
  • Lightフレームだけではダメみたいで、少なくともDarkかFlatかBiasが一枚はないとダメみたいです。
  • 右側の「Registration Reference Image」は必ず一枚Lightフレームを選ばなくてはならない。
  • Output Directoryも選ばないと怒られる。
  • Biasフレームは必要? ->  (2018/3/22変更) 冷却CCDとかでは必要みたいです。常温のCMOSカメラは?PixinsightではBiasは必ず取った方がいいみたいです。明らかに処理に差が出るようです。今回はとりあえず、よくわからないので撮ってません。調べてみるとBiasフレームとは、レンズにキャップをした状態にし、ライトフレームと同じISO感度かつ「最短シャッタースピード」で撮ったもののようです。簡単そうなので、次回撮影では撮ってみます。
  • Flatフレームもダークで補正されたほうがいいはずなのですが、実際に補正はされるのでしょうか?できたファイルからだけではよくわかりません。→ biasはFlatにもダークにも適用されます。FlatdarkはPixInsightでは必要ないそうです。
  • 実行前に「Diagnostics」ボタンを押すと、問題があるかどうかわかる。準備ができたら「Run」ボタン。
これで待っているとコンポジットされた画像が無事にできます。これ以降のバックグラウンドの処理などのLinear Stageの解説は次回に続きます。

今回も疲れてしまったので、ここからはいつも通りSteller Image8やPhotoShopなどで処理しています。

さて今回の処理はM33ですが、機材はFS-60QにASI294MCをつけて、Advanced VXをASI178MCと50mmのCマウントレンズを使い、PHD2でガイドしたものです。撮影はSharpCapで行いました。ASI294MCのゲイン270、各露光時間は5分間で合計25枚、計2時間5分になります。

そこそこの長時間露光になっているのですが、これを処理すると「縞ノイズ」が盛大に出てしまうことがわかりました。

light-BINNING_1


上の画像は、Pixinsightでバッチ処理でコンポジットした画像をSteller Image8に送り、「オートストレッチ」でホワイトバランスを整えてから、「チャンネルパレット」の「σ(1,3)」を押しただけの画像です。画像をクリックすると縦方向に少し斜めの線がたくさん見えると思います。実はこれまでも長時間撮影で何度か遭遇してボツにしてきた経緯があるのですが、そろそろ向き合わなければならない時期にきたみたいです。

この縞ノイズというのは、長時間露光の際に一般的に出てくる問題で、ガイドをしていても機材のたわみなどで少しづつ星像がずれていってしまうために起こるものです。実際、比較明合成で見てみると、縞ノイズの方向とずれの方向が一致しているのがわかると思います。

integration_maxtraced


ちなみに、Pixinsightで比較明合成をするには、原理的にはバッチ処理の中の「Image Registration」の過程を抜いてIntegrationすれはいいので、今回はバッチ処理でできたoutputファイルがあるディレクトリの中のcalibrated/light/debayeredの中のファイルを全て「Process」メニューの「Preprocessing」の「Image Integrartion」でコンポジットします。そうすると、上に示したような比較明合成画像が出来上がります。

さて、この縞ノイズをなくすには機材のたわみなどを極限までなくし、ガイドの精度を上げることなのですが、今回のズレも画像から計算すると2時間でわずか約40秒と決して悪いわけではありません。精度を上げる方向で攻めるのは普通は難しいので、ディザリングなどで撮影時にわざと規則的に画角を繰り返しずらしていくことで、縞ノイズの影響を少なくするような方法をとることができるようです。ここで一つ問題が出ます。今回の撮影でも使ったSharpCapだとディザリングは難しいみたいなのです。撮影の合間にずらして揺れが落ち着くまで少し待つということを繰り返すのですが、SharpCapの撮影は基本的に連続で、ずらしている間に露光を止めることができないようなのです。手持ちのEOSを使う場合はBackYard EOSとPHD2の組み合わせでディザリングももんだいなくできるようですが、CMOSカメラだとAPT(Astro Photography Tool ) などを使う必要があるみたいで、お気に入りのSharpCapが使えません。

ディザリングはおいおい考えるとして、Pixinsightで比較明合成の仕方を探る時に色々試していて面白いことに気づきました。Image Integrationのオプションの違いで明らかに縞ノイズの出方が違うのです。関係するオプションは2つで、「Combinarion」と「Normalization」です。全部のオプションを試したわけではないですが、Combinationでは「Average」と「Maximum」で明らかな違いがありました。またNormalizationではデフォルトの「Aditive with scaling」と「No normalization」でもCombinationと合わせると明らかな違いがありました。結果を画像で示しておきます。

まず、2つ上の画像と同じものですが、デフォルト設定でCombinationは「Average」、Normalizationは「Additive with scaling」となります。

light-BINNING_1
「Average」、「Additive with scaling」

次に、Combinationを「Maximum」に変えます。画像処理は上と同じでSteller Image8のオートストレッチとチャンネルパレットのσ(1,3)のみです。

integration_Maximum_Additive_with_scaling
Maximum」、「Additive with scaling」

明らかに縞ノイズが減っているのですが、少しわかりにくいかもしれません。

次にデフォルトの設定からNormalizationを「No normalization」にします。Combinationは「Average」のままです。に変えます。

integration_Average_No_normalization
「Average」、「No normalization

これは一見ほとんど同じに見えるかもしれません。

最後に両方ともデフォルトから変えて、Combinationを「Maximum」に、Normalizationを「No normalization」にします。

integration_Maximum_No_normalization
「Maximum」、「No normalization」

それでも縦縞はまだ残っていますが、こちらはパッと見ただけでわかるくらい縦縞が減っています。

比較した画面です。

comp

こうやってみると、元の画像に細かいノイズがのっかただけのように見えないこともないです。それでもその後の処理では大きく違うこともわかりました。実際に「Average」、「Additive with scaling」とMaximum」、「No normalization」を比較する意味で、真面目に画像処理してみました。画像をクリックして拡大してみると結果は一目瞭然です。(追記: 次の日見たら後者の方がぼかしてあり比較するのにあまり適していなかったので、処理を同じようなものに合わせました。)

light-BINNING_1_SI3
「Average」、「Aditive with scaling」


integration_Maximum_No_normalization3c

「Maximum」、「No normalization」

処理をしていても、デフォルト設定の「Average」、「Additive with scaling」方は縞を消さなくてはいけないと思い、かなり不自然な処理になってしまっています。それでもまだ全然消しきれていません。一方、Maximum」、「No normalization」の方は処理中も縞をほとんど気にすることなく、画像処理に集中できます。もちろん完全に縞ノイズが消えているわけではないです。また、他のパラメーターでさらに改善する可能性もあるかもしれません。


Pixinsightはまだ使い始めたばかりで右も左も分からないので、今回の試みがごくごく一般的なテクニックなのか、それともあまり知られていないものなのかもよくわかりません。洋書の「Inside PixInsight」は買ってあるので、該当する箇所を読んでみたのですが、大したことは何も書いていなくて、Combinationに関しては「Averageを使え」だけです。Nomalizatioinに関しては、ある章では「バイアスを履かすのを保つためにNo normalizatoinを選べ」とかいてあって、別の章では「Additiveは少なくとも使え、Scalingは露光時間が違う場合は使ったほうがいい」とあるくらいで、ほとんど中身の説明はありません。ヘルプのドキュメントをよく読めとも書いてあったので読んでみました。ヘルプの方が確かに少しマシですがそれでも「Averageは一番いいS/Nになる」くらいと、「NormarizationはバックグランドをScalingはばらつき具合を合わせる」というくらいのことしか書いてありません。「ScalingはS/Nを良くする」とも書いてあるので、もしかしたらS/Nを良くするというところの処理が悪さをして、縞ノイズが出る出ないに関わっているのかもしれません。何れにせよアルゴリズムは不明なので、どのような処理をやっているかがわかるようなレベルではないです。

それにしてもPixInsight奥が深すぎます。かなりブラックボックスです。まだしし座のトリプレットの未処理画像が残っているので、引き続きもう少し触ってみます。








2台目のCMOSカメラが必要になってきて、どうするか悩んでいたのですが、ついこの間の4月12日にZWOに直接頼んだものが、なんとわずか3日後の今日4月15日に到着してしまいました。US$300以上だとFree fast shippingが選べるのですが、それにしても速いです。支払いはPaypalですが、その場で決済ができるし、数日で届くならもう海外と言って躊躇する必要はないのかもしれません。初期不良とかの時はやはり面倒にはなりますが。

IMG_1683

結局選んだのは ASI178MC。いろいろ悩んだのですが、HUQさんが同じセンサーサイズのASI185MCでうまくいっているのは聞いているので、それよりも高解像度でだいぶん感度が低いASI178MCでどこまで電視ができるのか、どうしても確かめたかったからです。最悪もし電視で使えなくても電子ファインダーとしての使い道はあるはずなので、無駄にはならないはずです。ASI224MCでは付いてこなかったレンズキャップが新たに付属しています。Cマントアダプターなどは以前と同じものです。


早速ですが、今日は晴れていて、しかも22時くらいから月の出なので、写真撮影はあまり期待できないため、新カメラのテストとしました。 

まずはファーストライトでM42です。もたもたしていたら西の空の低いところにきてしまっていました。

IMG_1684


真ん中斜めの黒い太い影は電線で、下の三角の影は隣の家の屋根です。低いところということもあり、ASI224MCでよく見えていた構造とかまであまりよく見えていません。これはASI224MCに比べてRの感度が低いので、Hαが見にくいのかもしれません。時間がなくてあまり試せなかったので、星雲に関しては後日もう一度比較しようと思います。


さて、気づいたことですが、
  • ASI178MCとASI224MCをサンワサプライ製のUSBハブUSB-HAC402BKを使うことで、同時に2つのSharpCapを立ち上げそれぞれ表示できることが確認できた。
  • センサーサイズがASI224MCより大きいため、ASI224MCで入れていた0.5倍のレデューサーを外したらこれまでとほぼ同じ画角になる。レデューサを外せるので星像が流れない。これは結構なプラス。
  • 明るい時にASI178MCの出力画像を見ると、ASI224MCで必要だったIRカットフィルター無しでホワイトバランスが取れている。
  • Gainが510までしかない。(ASI224MCは600まで。)
  • Image ControlsのBrightnessが600まである。(ASI224MCは240まで。)
  • Stack中のDisplay ControlsやHistgramの反応速度が著しく遅い。一回、一回のスタックが終わるまで変更が適用されない。ここは大きなマイナス。
  • 左右下隅にかなり明るいノイズ、右上にも多少明るいノイズが見える。 これも結構なマイナス。 

次に、実際に時間をかけて撮った映像です。ターゲットはM100です。まずはASI178MCから。隅に明るいノイズがあるのが見えます。また横縞ノイズも見えるのと、全体的にノイジーです。星像は丸に近いです。露光時間が8秒、ゲインが450になっています。スタック時間は120秒程度です。M100を確認することはできます。右にNGC4312も見えます。

ASI178MC_M100_nobinning


次に同じ画角でASI224MC。0.5倍のレデューサーとIRカットフィルターが加わっています。そのため4隅が流れます。露光時間は8秒、ゲインは330です。スタック時間は同じく120秒です。上より明らかにノイズが少ないです。。M100の腕まで綺麗に見えています。

ASI224MC_M100_nobinning_120sec


ゲインが450と330なので、120違います。ヒストグラムを見るとピークの位置が大体位置が合っているので、これくらいのゲインの違いで、ほぼ同じ明るさになるということです。ゲインが60違うと2倍のゲイン差になるので、120違うというと4倍違うことになります。SONYの提唱するSNR1sでの検知できる最少光の差がIMX224が0.13ルクスとIMX178が0.46ルクスで3.5倍くらいの差なので、4倍違うというのはほぼ一致します。これが一番知りたかったことですが、電視に限って言えばSNR1sの値で性能が決まってしまうといってあまり間違いがなさそうな印象です。



さて、画面だけ見比べるとASI178の方でゲインさえ上げてしまえば、同じような明るさになりそこそこ映るので、あまり差がないように思えるかもしれませんが、実感としてはASI224MCの方が圧勝です。上の画像はスタックした画像なのでわかりにくいのですが、スタック一番最初の一発目に出てくる画像で認識できる天体に大きな差があります。電視ではリアルタイム性が重要になってくるので、一発目の画像の質が結構需要になってきます。そういった意味でASI224MCの方が圧勝という印象です。


また、同じ時間かけたとしてもASI178の方がゲインが高いので、そのぶんノイズも大きくなります。すごい単純計算(同じゲインの時に、同じノイズが出るとかいう適当な仮定をした場合ですが)で見積もると、ゲイン差が約4倍なので、同じ時間をかけて撮ると、ノイズはsqrt(4)=2倍の差になります。この2倍のノイズを同程度のS/Nまで持っていくためには4倍の時間をかけて初めて同程度のクオリティーとなります。至極真っ当な結論です。

同程度のクオリティーを出す場合、露出時間がゲインに比例するということは覚悟していて、まあその通りに近い結果なのですが、印象としては電視に限っていうと一発目が重要だということが実感できて、結局期待はずれでした。残念ですが、ASI178MCは主に電視ファインダーなど、広い画角で高解像度が生きる方向で使っていきます。



このページのトップヘ