ほしぞloveログ

天体観測始めました。

カテゴリ:software > Pixinsight

前回記事のゴースト星雲の処理の続きです。




前回はSPCCまでで、モノクロ撮影でBaaderフィルターを選んだらうまく補正ができたという話でした。今回は主にBlurXTerminatorについて試してみて、ゴースト星雲を仕上げています。


BlurXTerminator 

今回はBlurXTerminator (以下BXT)と呼ばれるdeconvolutionソフトを処理してみます。このソフトはRussell Croman氏が独自に書いているもので、氏が書いているいくつかのソフトの最新のものです。特に2021年から機械学習を取り入れたXTerminatorシリーズはノイズ除去のためのNoiseXTerminator (NXT)、スターレス画像を作るStarXTerminator (SXT)といずれも大きな話題となっています。

ノイズ除去ソフトは他にも実用レベルのものがいくつもあるのと、スターレス画像についてはStarNet V2が無料でかなり性能がいいので、私はこれまで氏のソフトは使ってきませんでした。それでも今回のBXTは分解能が信じられないほどに向上するようです。

私自身がdeconvolutionが苦手で、これまでも実際に作例にまで適用したのは数例。大抵は試してもあまり効果がなかったり、リンギングが出たりで、よほどうまくいった場合でないと適用してきませんでした。deconvolutionはどうしても時間を費やしてしまうので、画像処理の中でも大きな鬼門の一つでした。

BXTは、マニュアルとかに書いてあるわけではないようなのですが、基本的にはリニア画像のL画像のみに使うべきだという噂です。とりあえずまずはスタック直後のL画像で検証してみます。パラメータは基本的に2つだけで、
  1. 星像をどこまで小さくするかと、
  2. 分解能をどこまで出すか
だけです。

星像の補正

パラメータは上記の2つだけですが、BXTで「Correct」と呼ばれている、あまり注目されていな星像補正の効果があります。これだけでもかなりすごいので、まずはそこに注目してみたいと思います。

この機能はBXTを走らせるとデフォルトで適用される機能です。ですがこの機能の凄さを確かめるために「Correct Only」オプションをオンにして、この機能だけを試してみます。星像を小さくしたりとか、星雲の分解能を上げるといいった効果を適用「しない」、ある意味BXTのベースとなるような機能です。

マニュアルを読むと以下のものを補正できるそうです。
  • limited amounts of motion blur (guiding errors)
  • astigmatism
  • primary and secondary coma
  • unequal FWHM in color channels
  • slight chromatic aberration
  • asymmetric star halos.
とあります。日本語に意訳すると、
  • ある程度のブレ(ガイドエラー)
  • 非点収差
  • 1、2次のコマ収差
  • 各色のFWHM (星像の大きさ) の違い
  • 多少の色収差
  • 非対称なハロ
となります。どうやらものすごい威力のようです。マニュアルにはさらに「画像位置によってそれぞれローカルなPSFを適用する」ということで、たとえば四隅ごとに星像の流れが違っていてもそれぞれの流れに応じて補正してくれるようです。こんなソフトは私の知る限りこれまでなかったはずで、もし本当ならすごいことです。

試しにスタック後のL画像でオリジナルの画像とCorrect onlyだけで試した結果を比較して、四隅をGIFアニメにしてみました。
masterLight_BIN_2_4144x2822_EXPOSURE_300_00s_FILTER_L

自分的には四隅とも十分真円に見えていたので、全然問題ないと思っていました。でもBXTは躊躇することなくおかしいと認識しているようで、正しく直してくれているようです。左下は星像の大きさが少し小さくなるくらいでままだましですが、左上の画像は少し下方向に、右上の画像は大きく左下方向に、右下の画像は大きく左方向にずれていたことがわかります。本当に正しく直しているかどうかは今の段階では不明ですが、少なくとも見た目は正しい方向に直しくれているようです。効果が分かりにくいという方は、できるだけ画面を拡大して見てみてください。

この結果はすごいです。実際の撮影が完璧にできることはほとんど無理で、何らかの不具合がある方がごくごく普通です。これらのことが画像処理で補正できるなら、安価な機材が高価な機材に迫ることができるかもしれませんし、なにより撮影時のミスなどで無駄にしたと思われる時間を救い出せるかもしれません。はっきり言って、この機能だけでも購入する価値があると思います。

また、BXTはL画像のみに適用した方がいいとも言われていますが、マニュアルによると各色の星像の大きさの違いも補正できるということなので、BXTをカラー画像に適用することも可能かと思われます。


恒星の縮小

上記補正はBXTでデフォルトで適用される機能。さらにすごい機能が続きます。BXTの適用例を見ていると、普通は星雲部の構造を出すのに期待すると思うのですが、私はdeconvolutionの原理といってもいい星像を小さくする効果にとんでもなく驚かされました。まずは背景の効果をオフにして、星像改善のみSharpen Starsが0.25、Adust Star Halosが-0.25として、適用してみます。

Original:
orignal

BXT (恒星の縮小のみ):
staronly

まだ小さくすることもでき不自然になることもほとんどないですが、とりあえず今回はほどほどにしておきます。特に左下の明るい星に注目してもらえるとよくわかるかと思いますが、近づいていていあまり分離できていない2つの星がはっきりと分離されます。パラメータによってはハロの処理が少し不自然に見えたりもしますが、自分で頑張ってやった場合より遥かにましなハロになっているので、全然許容範囲です。

これもすごい効果ですね。星像を小さくするのはいつも相当苦労するのですが、リンギングなどもほとんど出ることがなく、このソフトが決定版の気がしています。ぜひともM57の分解能ベンチマークに使ってみたいです。


背景の分解能出し

やっとBXTの一番の目玉の背景の構造を出す機能です。今回はゴースト星雲のバンザイしている手のところなどを見ながらパラメータを攻めていきました。結局のところ、構造を出すSharpen Nonstellerはかなり大きな値にしないとほとんど効果は見えなかったのでデフォルトの0.9のまま、それよりもPSFをマニュアルで設定することで効果が大きく変わることがわかりました。興味があるところをpreviewで表示して効果を見ながら値を決めればいいと思いますが、今回は最終的にPSF Diameterを0.75、Sharpen Nonstellerを0.90にしました。

結果としては以下のような違いとなりました。

Original:
orignal

BTX(恒星の縮小と背景の分解能出し):
BXT_all

あまり効果があるように見えていませんが、これ以上分解能を出すと、ゴースト君が崩れてきてしまいました。かなり拡大して見ているのですが、ここまで拡大してみることをしないなら、もっと大きな構造を見ながら細部を調整するという手もあるかと思います。


その後の画像処理

でもですね、結局L画像にBXTを適用するのは止めました。じゃあどうしたかというと、スタック後RGB合成した後、そのままL画像とLRGB合成をして、その後にSPCC、CTで色出し、その後にやっとBXTを適用しました。

理由は、L画像のみに適用するよりもLRGB画像に適用する方が、特に細部出しのところでノイズに負けずにゴースト部分が出たというのが大きいです。

カラー画像に適用した場合でも、懸念していた恒星の色ズレもなかったです。今回は色々やって最後この順序になりましたが、この順序が正しいかどうかもまだよく分かっていません。BXTはパラメータこそ少ないですが、他のプロセスとの組み合わせで、順序なども考えたら無限の組み合わせがあり、ものすごく奥の深いソフトなのかと思います。

その際、BXTのついでに、NoiseXTerminator(NXT)も使ってみました。もちろんノイズ除去の効果があったのはいうまでもないのですが、その結果大きく変わったことがありました。PixInsightの使用する割合が多くなり、これまでストレッチ後のほとんどの処理を担っていたPhotoshopの割合が相当減って、処理の大方針が大きく変わったのです。具体的にはdeconvolutionが楽になったこと、そのため恒星の処理が楽になったこと、ノイズ処理もPixInsightでNXTで動くことが大きいです。不確定要素を少なくするという意味でも、PIの処理を増やすのは多分真っ当な方向で、以前から考えていてできる限りの処理をPIのみで済ませたいという思いがやっと実現できつつある気がします。

あともう一つ、PIのWBPPでいつものようにLocal Normarizationをオンにしおいたのですが、どうやらこれが悪さをしていたようでした。RGBでそれぞれの背景の大構造でズレが起きてしまったようで、背景に大きな色むらができてしまいました。ABEのせいかとも思い色々探っていって、やっと最後にLNが原因だと突き止めるに至りました。明るい光害地で、かなり無理して淡いところを出していて、スカイノイズの影響は大きいはずです。もしかしたらそこら辺も関連しているのかもしれません。暗いところに行くか、さらに撮影時間を伸ばす必要がありそうです。ここら辺が今後の課題でしょうか。


仕上げ

今回Photoshopでやったことは、最後の好みの色付けくらいです。恒星も背景もPIできちんと出してからPhotoshopに渡したので、かなり楽でした。

「sh2-136ゴースト星雲」
Image13_ABE_ABE_ABE_cut
  • 撮影日: 2022年10月25日20時2分-26日0時27分、10月26日19時17分-21日0時0分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB
  • 赤道儀: Celestron CGX-L
  • カメラ: ZWO ASI294MM Pro (初日分は-10℃、2日目は+9℃から11℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 120、露光時間5分、L: 54枚、R: 18枚、G: 15枚、B: 12枚の計99枚で総露光時間9時間55分
  • Dark: Gain 120、露光時間5分、温度-10℃、32枚
  • Flat, Darkflat: Gain120、露光時間 L: 0.001秒、128枚、RGB: 0.01秒、128枚
  • 画像処理: PixInsight、Photoshop CC


おまけ

恒例のAnnotatonです。
Image13_ABE_ABE_ABE_cut_Annotated

あと、前以前飛騨コスモス天文台でTSA120で撮影したゴースト星雲と比較してみます。

まずは以前のもの:
TSA120

今回の画像を同じ画角で比べると、
Image13_ABE_ABE_ABE_cut_comp
自宅といえど、さすが大口径で露光時間も長いだけあります。分解能、恒星、ノイズ、いずれも大きく進歩しています。バンザイしているところもきれいに出ていますね。


まとめ

画像処理をサボっている間に、SPCCやBXTとかなり状況が進んでいました。新しいツールも躊躇せずに、どんどん取り込んでいければと思います。BXTも迷走したりしていますが、使い方によって明らかに良くなったりするので、最適な方法を探っていくほかないと思います。


今回はケフェウス座のSh2-136: ゴースト星雲です。撮影したのはもう結構前で、10月終わり頃になります。

前後関係で言うと、自宅でSCA260で撮影したアイリス星雲とセットで撮影したもので、その意味ではもっと早く処理していても良かったものです。


現実的には撮影後に、小海の星フェスや皆既月食など、他にも色々忙しくてなかなか取り掛かることができなかったという理由もあります。最近のBlurXTerminatorが結構凄そうなので、少し試してみたくなり、時間の取れる年末年始に画像処理を進めてみました。


R画像?

撮影は10月25日の夜と、26日の夜の二日に渡っています。アイリス星雲を撮影していたセットアップのままなので、特に何か変更するでもなかったです。

画像処理を進めていくと、なぜかR画像のみ右上に変なスジが残りました。
masterLight_BIN-2_4144x2822_EXPOSURE-300.00s_FILTER-R_mono

最初は単にアンプグローの残りかと思ったのですが、そうだとすると2つ奇妙なことがあります。一つはGとBにこんなスジは全く出ていないこと、もう一つはダークフレームで見たアンプグローとスジの方向がずれていることです。R画像のスジは全部下向きですが、ダークフレームの筋は放射状に広がっていて、上剥き成分もあります。重ねて比べてみると、上向き成分のあるエリアでもR画像では下向き成分になってしまっているので、アンプグロー起因でない可能性が高い気がします。多数スタックで画角がずれてスジもずれたことも考えましたが、明らかに画角ずれ以上にスジがずれています。

こうなるとRフィルターが何か悪さをしているのかと思ったのですが、この前に撮影しているアイリス星雲のR画像にも、この後の同じ日に撮影している燃える木のR画像にも、そんなへんなスジは見当たりません。そうすると本当に存在するスジかとも思ってしまいますが、他の方の、かなり炙り出してある画像を見てもそれらしいものは見当たりません。釈然としませんが、今回は画像処理で誤魔化すことにしました。


USBケーブル

もう一つトラブルを思い出しました。ゴースト星雲と燃える木の撮影ターゲット切り替えの時に一つやらかしたことです。USBケーブルが引っかかってしまいました。

6B15B0B8-118F-499E-89DD-2B5595D700F1
子午線反転のところは必ずその場にいるようにしているのですが、ターゲット切り替えは部屋の中からリモートでやっています。中途半端に垂れ下がっているケーブルが赤道儀の出っ張りに引っかかったようです。ターゲット移動のときにカメラの映像を見ていたのですが、突然変な感じで映像が止まり、接続が切れたみたいだったのでもしやと思って外に出たら、案の定でした。幸いケーブルの方が破損しただけで、肝心なカメラの端子は無事で、USBケーブルを交換して接続し直したらきちんと認識され、撮影も可能でした。ケーブルの方を弱く作ってくれているのかと思いますが、こういったところはありがたいです。

反省点としては、
  • ケーブルの設置はきちんと弛まずに、かつ回転を妨げないようにすること
  • ターゲット移動の時もきちんと現場にいること
などしょうか。


SPCCの意義

新たにPixInsightで実装されたSPCC(SpectrophotometricColorCalibration )は、かなりすごいですね!懸案だったフィルター補正の機能をうまく実装したと思います。かなり原理的に正しい色に近づく可能性が高くなったと思います。

「PCCは科学的に正しいことをしているので、出来上がった色はおかしいはずがない」とかいう意見もちらほら聞きましたが、実際には全然そんなことはなかったということです。以前からPCCでは基準となるカメラと、個人が撮影するカメラの波長に対する応答が違うので、その分の色ズレが原理的に起きてしまうという主張をしていましたが、その機能が見事に実装されています。


個々のカメラの応答をデータとして持ち、参照カメラとの差を補正しない限り、正しい色にならないということです。今回のSPCCでは、実際に個々のフィルターやセンサー特性をデータベース化して持とうとしているため、原理的にも正しい方向に大きく進んだわけです。

さて、どれくらいの機能が実装されたのか、SPCCを使って実際に色合わせをしてみました。SPCCのインストール方法や、巨大なガイアのデータを落として使えるようになるまでは、マニュアルを見ればすぐにわかりますし、日本語の解説ページもいくつかありますのでそちらに任せるとして、使ってみてのポイントだけ少し書いておきたいと思います。

まず、プレートソルブがScriptのImageAnalysisにImageSolverに集約されたことです。これまではPCCは専用のプレートソルブ機能を持っていたのでですが、SPCCはもちろん、PCCもあらかじめ別途ImageSolverを走らせておかなければ、使うことができないようになってしまっています。このことを知らなければ、これまでのユーザはとまどうかもしれませんが、これは正常進化の一環で、一度わかってしまえばこれ以降特に問題にはなることはないはずです。

一番戸惑うところは、フィルターの選択でしょう。デフォルトはソニーセンサーのUV/IRカットフィルターになっています。今回の撮影ではASI294MM Proを使っているので、最初はここら辺から選ぶのだろう考えました。UV/IRフィルターは使っていないので、フィルターなしのソニーセンサーのRGBで試しました。フィッティンググラフは以下のようになります。
SPCC_Sony_RGB
ですが、これを見ると、明らかにフィッティング直線にかなりの星が載っていないことがわかります。

フィルターの選択肢をよく見ているとBaaderというのがありました。よく考えたら今回使っているカメラはモノクロで、応答の違いは主にRGBフィルターで起きていると思うと、使っているフィルターに応じて選ぶ方が良さそうです。実際に今回使ったはBaaderのRGBフィルターだったので、RGBそれぞれにBaaderを選んでみることにしました。すると以下のように、ほぼ全ての恒星がフィッティング直線に載るようになり、少なくともこちらのBaaderを選んだ方が正しそうなことがわかります。
SPCC_Baader
でもこれ、よく考えるとモノクロセンサーの特性は考慮していないんですよね。量子効率はソニーセンサーの選択肢がないので、理想的な場合を選びました。この場合量子効率は全波長で100%とのことなので、やはりセンサーの応答は実際には考慮されていません。

一眼レフカメラは、ある程度専用フィルターファイルが用意されているようです。でもCMOSカメラに関しては、一部のソニーセンサーの型番は専用フィルターを用意されているようですが、基本的には代表的な設定で代用しているので、まだまだ今後発展していくものと思われます。もしくはフィルターファイルは自分で用意できるようなので、実際に使っている環境に応じて自分でフィルターを書くことがいまの段階では正しい使い方と言えるでしょう。

重要なことは、考え方自体は真っ当な方向に進んでいて素晴らしいのですが、まだSPCCは今の段階では色合わせについては完璧はないということです。今後少なくともフィルターファイルが充実して、例えば複数選択できるなど、柔軟に対応することなどは必須でしょう。その上で多くのユーザーレベルで実際の色合わせの検証が進むことが重要かと思います。今後の発展にものすごく期待しています。

さて、PCCとも比較してみましょう。PCCでのフィッティングのグラフを示します。
PCC
SPCCに比べて一見ばらけていて誤差が多いように見えますが、縦軸、横軸のスケールに注意です。SPCCはかなり広い範囲をみているので、直線に載っているように見えるだけで、スケールを合わせるとばらつき具合はほとんど変わりません。実際に色合わせした画像を比べても、少なくとも私の目では大きな違いは見えません。

SPCC:
Image05_crop_ABE_ABE_SPCC_HT

PCC:
Image05_crop_ABE_ABE_PCC_HT

PCCは各恒星の点が2つのグループに分かれたりとフィッティング直線に乗らないケースもよくあります。そんな時はどうしようもなかったのですが、SPCCではそれらを解決する手段が手に入ることになります。SPCCは手持ちセンサーのデータを持つことで、色を正しい方向へ持っていこうとしています。科学的に正しい方向に進むのはいい方向で、少なくともそういった方向が選択肢として選べることは素晴らしいことだと考えています。

SPCCだけでもうかなり長くなってしまいました。続きもまだまだ長くなりそうなので、今回の記事はここまでにします。次は主にBlurXTerminatorについてですが、こちらもなかなか面白いです。

昨日のM8干潟星雲とM20三裂星雲の画像処理の最中に、おかしなことが起きました。結構一般的な話なので、ここでまとめておきます。

下は、SV405CCで撮影した3分露光、34枚をPixInsightのWBPPでインテグレーションした直後の画像をオートストレッチしたものですが、見て分りますように階調が全く無くなってしまうということがありました。

masterLight_BIN-1_4144x2820_EXPOSURE-180.00s_FILTER-NoFilter_RGB

何が問題だったかと言うと、Pedestalの設定をするのを忘れてしまっていたからです。WBPPのCalibrationタブでLightsを選択した時に、右隣のパネルの2段目に出てくる「Output Pedestal Settings」のところで設定できます。
pedestal
私は普段毎回ここを「Automatic」にしています。ただこの設定、WBPPのパネルを開けるたびに度々リセットされてAutomaticでなくなることがあります。今回は「Literal Value」に勝手になってしまっていました。改めて「Automatic」に設定して、WBPPの処理をし直すと下のようにきちんと淡い部分の階調が戻ってきました。

masterLight_BIN-1_4144x2820_EXPOSURE-180.00s_FILTER-NoFilter_RGB

多分これはSV405CCに限ることではなく、オフセットが小さくてダーク補正などで0以下のピクセルが多数出たときに一般的起きる現象です。特に今回はSV405CCのオフセット量が最大255のうち、40という低い値で撮影したことも原因の一つなのかと思います。

このような場合に、画像処理時に上記のようにPedestal設定で回避できるので、もし同様の階調がなぜか出ない現象で困っている方がいたら、是非試してみてください。


  1. SV405CCの評価(その1): センサー編 
  2. SV405CCの評価(その2): 撮影編 
  3. SV405CCの評価(その3): 画像比較
  4. SV405CCの評価(その4): 新ドライバーでの画像比較
  5. SV405CCの評価(その5): 青ズレの調査と作例
  6. 番外編1: 階調が出ない時のPedestalの効果
  7. 番外編2: ASI294MC Proでの結露

前回、SCA260で撮影した馬頭星雲のことを記事にしましたが、3月のオリオン座は早くに西の空に傾くため、後半は別の天体を撮影することにしました。撮影が複数日にまたがっていたので、フラットやダークが使いまわせるよう、基本何も変えない同じ露光時間、同じゲイン、同じカメラ回転角が条件です。

少し迷ったのですが、M100に決めました。理由は
  1. 春の銀河まつりに参戦するのは今年の目標の一つであること
  2. M33などの大きな銀河はすでに試したので、少し小さめの銀河を試したかったこと
  3. 以前おとめ座銀河団を広角で撮影した時にM99やM100が小さいながらもかっこよかったから
などです。

 


まだ赤道儀はCGEM IIで撮影したときのものです。撮影は3分露光です。M100は小さいので真ん中らへんに小さく写っているだけです。これで分解能が出るのかが今回の勝負です。

でも結論だけ言うと、撮影した画像を見て早々と勝負に負けました。やはりこれくらい小さい天体を撮ろうとすると、揺れが大きすぎるのです。


撮影のことはもう忘却の彼方に

撮影は3月3日と3月9日の二日に渡りました。最初の3月3日の方はまだ使えたのが
  • R:18/20枚、G:20/20枚、B:20/20枚
とマシでしたが(それでもかなり甘い判断です)、3月9日の方は(もう忘れてしまいましたが、風が多少拭いていたのかと思いますが)使えたのがわずか、
  • R:4/12枚、G:2/10枚、B:4/35枚
と散々でした。画像を見ていると、大きく揺れて2つの点になってしまっているのが多かったです。これを見て、さすがにCGEM IIで系外銀河の分解能に挑戦するのは辛いことが実感できました。まあ、頭では何となくわかっていたのですが、信じたくないバイアスがかかっていたのかも...。

本当は3月3日の撮影でBがまだまだノイジーだなと思い、3月9日はBを重点的に撮り増ししたのですが、使えたBはわずか1割と、この揺れのおかげであまりやる気が起きずに、実際の撮影からかなり日にちが経ってしまいました。とりあえず見えるだけでいいやと重い腰を上げ、やっと画像処理を進めることにしました。


WBPPの変化

PixInsightのWBPPですが、最近いくつか気づいたことがあります。まずBiasファイルですが、これはDarkファイルがBaisを含んでいるために、もう処理には使われていません。CalibrationタブのDark設定のところであえてBiasを含まないというオプションを使うと、「検証の結果、biasを引いたダークは今後はお勧めしない」と怒られてしまいます。かといって、Biasファイルを全く指定しないとエラーで止まったりするので、Master Biasをおまじないで登録しておくことにしています。ちょっとまだ整合性が取れていないようです。

あと、Pedestalというのを入れてみることにしました。これは画像処理の過程で0以下の輝度になることを防ぐようです。
WBPP
最近のWBPPでの設定。

Reference画像をオートで選ぶと、たいていRとかの明るく画質がいいのを選んでくれるのですが、これを基準にしてしまうと例えば暗いBがIntegration時に大量に弾かれてしまうことがわかりました。実際にIntegrationされたのはわずか
  • R:21/22枚、G:16/22枚、B:11/24枚
でした。これは前回の馬頭星雲でも同じことが起きていて、原因がわからなかったのですが、Reference画像をマニュアルであえて暗めのものを選ぶことで回避できることがわかりました。その結果、
  • R:22/22枚、G:22/22枚、B:24/24枚
と全てIntegrationに回りました

RGB合成した画像を見てみると、揺れが平均化されているせいか、かなり真円に近くなりました。
Image27_ABE_PCC_crop_DBE_mosaic01

これだといいと思ってしまうかもしれませんが、一枚一枚は揺れていることと、大きく揺れることもあるので採択率は悪いし、何より銀河の解像度は出ていないはずなのでやはりダメです。


EZ Deonを(少しだけ)使ったdeconvolution

今回の画像処理のポイントは、PixInsightでDecomvolutionを試してみたことです。実はこれまで何回も試していたのですが、一度もうまく行ったことがなく、今回ScriptsにあるEZ Deconを使うことではじめておかしくない結果が得られました。

そもそもDeconvolutionはPSFをあらかじめ作るとか、StarNETであらかじめマスクを作っておくとか、R Range maskが必要とか結構面倒です。しかもマスクをの微調整で結果が劇的に変わったりします。参考にしたのはniwaさんのページ


相変わらずものすごく親切な説明で、素晴らしいです。とても感謝しています。さらにはリンギングを無くすために皆さんでいろいろ議論されたことも、最後の方のリンク先から辿ることができ、かなり実用的です。

それでもこのDeconvolution、なかなかうまくいかないんですよね。なので今回EZ Deconという簡単にdeconvolutionを試すことができるスクリプトを使いました。EZ DeconはEZ Processing Suiteの中の一つで、インストール方法はこちらを見るとわかります。


上のページは英語ですが、niwaさんが日本語でも解説してくれています。


EZ Deconを走らせると、こんな画面になります。
decom1

最初はよく分からないのでおもむろに「How to use EZ Decon」というヘルプボタンを押します。読んでいくと以下のようなことが書いてあります。

1. まずは処理したい画像(リニアステージのもの)を選択し、Star Maskを作れと言います。このスクリプトはまだStarNETのV2には対応していないようなので、今回は別途StarNet  V2で星マスクと作っておいて、スクリプト中で選択しました。

2. 次のレンジマスクはこのスクリプトでおまかせして作ってもらいました。

3. 最後「Deconvolution」タブをに移って、PSFを作れとのこと。なんとこのスクリプト、PSFが「Generate PSF」ボタン一発でできてしまいます。これはかなり楽です。

4. ここからがすごいです。deconvolutionを試すのですが、「Evaluate EZ Decon Run」ボタンを押すたびにタブが増えていき、右の方の「Change Tab to Original」ボタンと「Change Tab to Decon Run XX」ボタンを交互に繰り返し押すと、オリジナルとの違いを簡単に切り替えて比較することができます。基本的に変更できるパラメータはスターマスクをどう扱うかのみ。ヘルプに書いてますが、スターマスクを強調したりソフトにしたりすることで結果の違いを見ます。
  • もし画像がノイジーになるなら、Wavletの強さ(strength)を増やす。
  • もし画像がシャープになりすぎるなら、繰り返し(iteration)の数を減らす。
  • もし恒星にリンギングが出るなら、Star Maskの半径を増やして、恒星をよりカバーする。
とのことです。

5. うまくいきそうなら、最後に下の「Run EZ Decon」を押して実際の画像に反映させます。

でも結局このEZ deconでは、どうしても最後までリンギングが残ってしまい、結果は使わなかたんですよね。その代わり、EZ deconで生成されたPSF画像を使い、niwaさんが解説してくれていた、このページ

のもりのせいかつkさんのGlobal dark 0方法でやることで、リンギングを抑えてうまく細部を出すことができたようです。

decon_comp

左がDeconvolution前、右がDeconvolution後です。EZ Star Reductionもかけてしまったので、恒星の大きさは無視してください。銀河の細部は多少出てるようになったと思います。

というわけで、このEZ Decon、結局は簡単PSF生成ツールとしてしか使いませんでしたが、スターマスクの効き具合の感覚とかを気軽に試して、振る舞いを理解するのにはすごく役に立ちました。deconvolutionで困っている人は、一度同じように試すといいのかもしれません。

ところで、DeconvolutionのLocal supportというのがいまいち何をしているのかわかりません。スターマスクをリンギング防止に使っているのなら、恒星自身のdeconvolutionができていない気もするのです。実際、恒星がスリムになったような効果は見えませんでした。そういうものなのか、それとも撮影条件が悪くあまり効かないのか、もう少し理解する必要がありそうです。

その後、ものはついでにEZ star reductionも適用しました。以前、トール兜星雲の時にも試しましたが、その時はそこまで有用性は見出せませんでしたが、今回はかなりの効果があったようです。


いつものPhotohopでの仕上げ

あとは普通にPhotoshopに持っていっての処理でしょうか。今回少し違ったのは、Photoshopで細部があまり出せなかったことです。すでにdeconvolutionである程度の細部出しができているためでしょうか。試しにdeconvolutionなしの画像をPhotoshopに引き渡し、いつも通り加工するのですが、こちらは細部が出てきます。ですが、出来上がった画像の細部はほぼ同等でした。細部をどこで出すかだけの問題で、その画像が持っている限界があり、ポテンシャル以上のものは出ないということがよくわかりました。まだまだDeconvolutionをたいして試していないので、少し甘い気もしますが、むしろ自然な処理具合な気がしています。今後は(やっとですが)Deconvolutionの方に移行していくことになると思います。

結果です。

「M100」
Image27_ABE_PCC_crop_DBE_decom_stredu_ABE_PCC6
  • 撮影日: 2022年3月3日23時51分-3月4日4時37分、3月10日2時54分-5時1分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 120、露光時間3分、R: 22枚、G: 22枚、B: 24枚の計68枚で総露光時間3時間24分
  • Dark: Gain 120、露光時間3分、128枚
  • Flat, Darkflat: Gain 120、露光時間 RGB: 0.08秒、RGBそれぞれ128枚
  • 画像処理: PixInsight、Photoshop CC

実は赤ポチとか青ポチとか期待してHαとOIIIも撮影したのですが、枚数が少なすぎで諦めました。M100の周りの淡いところがもう少し出るかと期待していたのですが、少し露光時間が足りないのかもしれません。もしくはゲインを例えばもう3倍とか上げた方がよかったかもしれません。

恒例のAnnotationです。M100の他にもNGC4312を始めいくつか銀河があるのがわかります。

Image27_ABE_PCC_crop_DBE_decom_stredu_ABE_PCC6_Annotated

最後に、FS-60CBで撮影した時画像
up_DBE_DBE_PCC_AS_HT_all_disks_back2_rot_denoise_larage_cut
からM100の同じ領域を抜き出して拡大してみます。
FS-60

回転して向きをあわせてますが、左端は映ってない領域でした。恒星はまだいいとして、FS-60CBで撮ったM100の解像度が良すぎてなんか怖いです。


まとめ

撮影途中で揺れているのがわかってしまい、あまりやる気の出なかった画像処理ですが、やってみると意外に実のあるものでした。これまで何度も試してことごとく諦めていたDeconvolutionですが、今回のこのEZ Deconでできなかったらもう2度とやらないかもしれないと思いながらやりました。まだ満足とはいきませんが、今後続けていく気にはなりました。それでもFS-60CBで撮ったのが今思うとすごすぎます。SCA260の口径が大きくてもまだ揺れが大きくて性能出しきれていないのでしょう。

まだCGEM IIで撮影した、M101が残っています。サクッと終わらせたいのですが、とにかく忙しくてなかなか時間が取れません。某天文雑誌の原稿もやっと目処がついてきました。その後、晴れてやっとCGX-Lで三つ子銀河と、M51の画像処理ができます。


3月3日の雛まつりの日の夜、月の出が22時18分なので、夕方から準備すればしばらくの間撮影できそうです。狙いは迷ってましたが、早い時間なので季節遅れのカリフォルニア星雲にすることに。結構大きいので、FC-60CBと6Dで視野角的にもちょうど良さそうです。今回も狙いは自宅でフィルターなしでどこまで写るのか? (2021/3/19 追記: 勘違いで、CBPが入ったままでした。)ISO800で、露光時間3分にして、6Dのヒストグラムで見て一番明るい青が1/3くらいでした。

前回Sh2-240を同じセットアップで撮っていて、まだ機材はそのままの状態でほとんど残っています。なので、準備も時間で済み、仕事から帰って、夕食後から用意しても20時過ぎくらいには撮影を開始できました。撮影時間はちょうど月が昇る22時半ころまで。実際には西に傾き屋根に隠されて終了となりました。その後すぐに空が霞んできて曇りのようになったのでここで撤収です。

後でチェックしてみると39枚撮影して使えるのは36枚。3枚は屋根が入っていました。星像が流れているようなものはありません。後半になるに従って西の空に傾くので明るくなってきてしまうのですが、今回はそれらも全部使うことにしました。


WBPP 2.0

次の日フラットとフラットダークを同ISO800、1/400秒で128枚撮影し、ダークは以前撮った同じ範囲の温度をものを使用してWBPP(WeightedBatchPreprocessing)で処理。最近WBPPがメジャーアップデートされて2.0になり、かなり変更がありました。以前のバージョンから使っている人はまあ普通に使えるかもしれませんが、1箇所だけ注意。全てのファイルを登録後、新しくできたControl PanelタブのFLATのところでファイルを選択すると右側にオプションが現れます。これまではライトフレームはカラーかどうか選択するためにCFAオプションがあったのですが、今回からFLATもCFAが選べるので、もしフラットフレームもカラーで撮影したなら必ずCFAオプションにチェックを入れます。

今回のバージョンから処理過程を図にしてくれるのですが、FLATのCFAがオフのままだと下の写真のようになって、フラットが適用されていないのが分かります。

IMG_1943

きちんとFLATのCFAをオンにすると
IMG_1942
のように、きちんとフラットが適用されていることがわかります。

さて、その下のSeparate CFA scalling factorはまだよく理解していないのですが、とりあえず今まで通りオフでやってみました。ただ、オンにするとRGBで別々の係数を使い、オフだとまとめて一つの係数を使うということです。今回のフラットフレームはカラーバランスが取れていないので、もしかしたらオンにした方がいいのかもしれません。


あとは画像処理

出来上がったライトフレームをいつも通りDBE、PCC、ArcsinehStrech、HT、StarNetなどで処理をして、Photoshopに渡してさらに炙り出し。とりあえずできたのがこれです。

Image53_2

恒星がいまいち鋭くないとかいくつか不満はありますが、これはこれで完成です。さあ、ブログと書こうと今に至っているわけですが...

あれ?ダークがおかしい

...と(既に画像処理も終えて、このブログを書くために改めてダークファイルの数を)チェックしていて変なことに気づきました。WBPPのControl PanelにmasterDarkが多数枚登録されているのです。

IMG_1947

そしてDarksタブを見てみると露光時間ごとに一枚づつ、多数のmasterDarkが登録されているのが分かります。

IMG_1946

ところが、試しに今回撮影したフラットフレームとかライトフレームを登録してもこんな変な状況にはなりません。ダークフレームのみこのような状況になります。

ファイル名からdarkというのを取り除いたり、ヘッダ情報を見たりいろいろしたのですが、原因はもっと単純なことでした。ダークファイルが存在する上流のフォルダ名に一つでも「master」という文字が含まれているとこのような状況になってしまうようです。例えば今回は以前撮ったダークフレームを使い回したために「master」というフォルダの下に、さらに露光時間やISO別に幾つかのフォルダに分散してためてあったものを使ったために起きた問題でした。例えば「master」を「mas」とか抵当に名前を変更してダークフレームを登録するだけで、masterDarkでない普通のダークフレームとして登録されます。

さてさて、間違った多数の1枚偽masterDarkファイルで処理したものときちんとダークを登録して処理した画像と、で画像の差はあったか興味がある方もいるかと思います。拡大すると正しいダークを登録した方が明らかに黒い小さな点がなくなる、もしくは緩和されていました。差がわかる部分を拡大して比較ものが下の画像です。左が間違ったもの、右が正しいものです。このような小さな点が画像全面に散らばっています。

comp

ただ、最終仕上げに影響があるかというと、ドット単位くらいの話ですし、間違ったダークと言っても多少の補正はできているので、拡大してじっくり見ない限りはわからないレベルでしょう。

ちなみにこの「master」というフォルダ名、ダークだけでなく、バイアスやフラットを登録する際にも全く同じことが起きて、いずれもマスターファイルとして認識されてしまいます。これだとあまりにも制限が多いので、そのうちもう少し良い方法で解決されると思いますが、PixInsightを使う際にはmasterというのは特別な意味を持つので、むやみやたらに、少なくとも読み込む画像ファイルに関するところには使わないほうがいいでしょう。


仕上げ

このあとまた一通りの炙り出し過程をすませ、不満だった恒星部をもう少し出します。ついでに赤いところももう少しだけ。

master_cut_rot_DBE_DBE_PCC_SCNR_ASx4_HTx2_CT2
  • 撮影日: 2021年3月3日20時26分-22時29分
  • 撮影場所: 富山県富山市
  • 鏡筒:Takahashi FS-60CB + マルチフラットナー
  • フィルター: 無し SIGHTRON CBP
  • 赤道儀: Celestron CGEM II
  • カメラ:  Canon EOS 6D(HKIR改造, ISO800, RAW)
  • ガイド: f120mmガイド鏡 + ASI120MM mini、PHD2によるマルチスターガイドでディザリング
  • 撮影: BackYard EOS、露光時間180秒x36枚 = 1時間48分、ダーク50枚(ISO800、露光180秒)、フラット128枚(ISO800、露光1/400秒)、フラットダーク128枚(ISO800、露光1/400秒)  
  • 画像処理: PixInsight、StarNet++、Photoshop CC、DeNoise AI
Dark補正の違いはほぼ何も影響がないですが、2回炙り出しをやったのでいい訓練となりました。自宅でフィルターなし、2時間弱でこれくらい出るのなら、気楽でいいのかもしれません。

それでもやはり背景はノイジーなのは否めません。分子雲がもう少しあるはずなのですが、もっとはっきり出す技術をまだ確立できていません。今回2時間弱と短かったので、まだまだ撮影時間を伸ばしてみるのもいいのかもしれません。もしくはISOをもう少し上げて恒星がサチるのには目をつぶり、背景を重点的に出すことを考えてやってみるのもいいのかもしれません。

あ、そうだ真ん中らへんの一番明るい星の左のなぜか明るく見える星。ここだけボワッとにじみが出ています。そもそもこんなに明るい星でもないですし、もっと明るい星でもこんな滲みは出てません。ここのファイルはそれほど目立つにじみでもなく、いまだになぜか理由がわかりません。とりぜず理由がわかていないのでそのままにしています。

いつものAnotationです。

master_cut_rot_DBE_DBE_PCC_SCNR_ASx4_HTx2_CT2_Annotated


過去画像との比較

2年ちょっと前の2018年11月に撮影したカリフォルニア星雲です。

NGC1499_CUT

これは直接比較していいものなのでしょうか?記録を見ると撮影時間30分となっています。露光時間も約4倍、画像処理も今と全く違うので、淡いところも全然見えるようになっています。さすがに今回の方が圧倒的に進歩していますね。


まとめ

PixInsightのWBPPですが、まだメジャーアップデート直後でこなれ切れていない気がします。自分の慣れのこともありますし、また不具合などもあると思ってしばらく付き合っていくべきでしょう。

実際にはこれまであやふやだったフラットのCFA処理とかもはっきりしたり、コントロールパネルも見やすくていいです。これからもWBPPの進化に注目していきたいです。



カリフォルニア星雲(2): 撮り増し」に続く
 


PixInsightのPCCが動かない!

先週撮影したM78の画像処理を進めているのですが、何日か前からPixInsightのPhotometricColorCalibration (PCC)が使えなくなるという現象が起きていました。Plate solveを使った位置決めまではうまくいくのに、色合わせのところで3回エラーが起こって止まるという問題です。エラーは

PCC

のようなものです。エラーを吐き出すhttps以下のところをブラウザにコピペして呼び出すと

No catalogue or table was specified or found.

というエラーが出ます。通常はフランスのサーバーがデフォルトなのですが、他のいくつかあるサーバーを全部試しても同じ状況でした。また、PIのMac版、Windows版で試しても同じでした。


しびれをきらしてTwitterにヘルプを

しばらくしたら直るかと思って放って置いたのですが、何日か経ってもダメ。ここでTwitterに同じ症状がいないか投げてみると、次々と同じ症状の人が。PCC事故調査委員会の再招集です。



するとすかさずnabeさんが、Gaiaデータをローカルに落とす方法があると示唆してくれました。

少し調べてみると、ここにやり方が載っていました。



そうこうする間にも、誰すのちさんから世界中で同じ状況が起こっているという情報が。




その後も、うまくいったとか、やっぱりガセだったとか、DR3だったらいいかもとか、情報が乱れ飛びます。とりあえず私もDR3で試そうとしていたので、ダウンロード完了後試してみますが、やはりダメ。そもそもローカルに落としたファイルを使えているかどうかの確証がありませんでした。

その後、まず適当なファイルをデータベースとして選択してやると、位置合わせからエラーで全く動かないことが確認できたので、少なくとも位置合わせが動くときはローカルのデータベースは使っていたことが判明。ということは、GaiaファイルはローカルなものもDR2でもDR3でもダメなことが分かりました。

ここで一旦進展が止まって悩みます。

しばらくPCCの設定画面を見ていたら、どうも位置合わせはGaiaとか使っているのですが、色合わせはAPASSというのを使っているのではと思い始めました。

結論だけ言うとこれがビンゴでした。

ラッキーなことに、APASSもDR2、DR3とアップロードされています。あとはどうローカルで使うか。手順を書いておきます。


解決法

まずはここからAPASS DR9かDR10をダウンロードしてどこかに置いておきます。ダウンロードにはユーザーアカウントとパスワードが必要になります。



その後、PixInsightに移り以下の手順でローカルに落としたAPAPPを使うようにします。
  1. Process Explorerの画面を左のタブのところにカーソルを持っていって出します。タブがない場合は「View」メニューの「Explore Windows」から「Process Explorer」を押してください。
  2. かなり下の方の「Start Catalogs」の中の「APASS」をダブルクリック。
  3. 出てきた画面の右下のスパナマーク (Preferences) を押します。
  4. 「Data release」でDR9かDR10かを選びます。先にダウンロードしたファイルに合わせてください。
  5. 「Select」を押し、ダウンロードしたファイルを選択します。
  6. 「ok」を押せば準備完了。
  7. PCCの設定画面に移り、「Photometry Parameters」の「Automatic catalog」のチェックを外し、APASSDR9_XPSDかAPASSDR10_XPSDをダウンロードしたファイルに合わせて選択します。
  8. あとは普通にPCCを走らせてください。エラーが出ることなく、最後までいき、グラフが表示されると思います。


Twitterすごい

Twitterに投稿してわずか1時間くらいで解決でした。確かに最後のAPASSまでたどり着いたのは私でマッチポンプ状態(笑)ですが、nabeさんのローカルでGaiaデータが使えると言う助言がなければ、自分だけでやっていた限り絶対こんな短時間では解決策まで辿り着けなかったと思います。誰すのちさんのフォーラムの情報にも助けられました。

nabeさん、誰すのちさん、Cooさん、だいこもんさん、あんとんシュガーさん、智さん

コメント、助言、テストなどありがとうございました。みなさん事故調査委員会のメンバーですね。私も前回のPCCの色違いの時は委員に入れなかったので、今回は委員の一員になれたのかと思うと光栄です。


(追記: 2021/1/29 復帰したみたいです。サーバー上のAPASSでうまくPCC最後まで行きます。PIをアップデートしたわけではないので、Vizierの方で対応したのかと思います。)

週末土曜日に飛騨コスモス天文台に行って、M57とM27を撮影しました。それぞれの撮影枚数は、露光時間が20秒と短いこともあり、かなりの枚数になります。具体的にはM57が282枚、M27が244枚をなり、処理の前に簡単に閲覧するだけでも大変になります。しかもSharpCapで撮影したRAWファイルなので、拡張子が.fitsファイルとなり、開けるソフトも限られています。

最初の頃はfitsファイルもステライメージで確認していたのですが、これだけ数が多いと大変になります。PixInsightでも開くことができますが、一枚一枚が結構重いので、全部を気楽に開くわけにいかなくて、選別するのが結構大変です。

そんなときはPixInsightの「ImageInspection」->「Blink」が便利です。

IMG_5690

  1. 下のフォルダマーク「Add Image Files」から複数ファイルを選択して読み込みます。
  2. 読み込みは数百枚だど数分かかるので、50枚くらいずつにしたほうがいいと思います。
  3. RAW画像でも、Debayerした画像などでも読み込むことができます。
  4. 画像が暗くて見にくい場合でもSTFがかけられた状態で表示されるので、見やすくなっているはずです。これは真ん中に3つ縦に並んでいるアイコンの、真ん中を押すと確認することができます。
  5. 読み込んだ後は、左右の矢印を押すか、画像のファイル名を一つ選択してあとはカーソルの上下で、すごい勢いで画像を連続で切り替えることができます。
  6. 左の三角ボタンを押せばアニメーション表示することもできます。
  7. ただし、ソート順はファイル名のみのようなのがちょっと残念なところです。
  8. 弾きたい画像は、マウスでファイル名を選択(複数も可能)してから、下のアイコン群の左から5つ目の小さい矢印がついているアイコンを押すと、移動したいフォルダが選択できるので、そこに移動されます。
  9. 終わった後は、下の左から3番目のアイコンを押して、すべてのファイルを閉じます。
  10. これを次の50枚とか繰り返すと、かなり効率よく見た目で明らかに悪い画像ファイルを弾くことができます。


もう一つ便利なのが、「Script」->「Batch Processing」->「SubframeSelector」になります。各画像の星像のFWHM(半値全幅)やEccentricity(偏心度)を測定してくれます。自動でだめな画像を別ディレクトリに移動することなどもできます。

詳しいことはマニュアルを読むといいのですが、英語で結構大変なので簡単な説明を書いておきます。

IMG_5688

  1. いつものようにAdd Filesで解析したいファイルを複数選択します。
  2. 最低限解析するだけなら、そのまま一番下の「Measure」を押します。
  3. CPUや解像度にも依りますが、一枚解析するのに7-8秒程度なので、数百枚でもなんとか耐えられる時間の範囲です。結構かかりますが、それでも一枚一枚やるよりははるかに楽です。最初は少数枚でテストするといいでしょう。
  4. 「Plots」を開くと結果が出ています。「FWHM」や「Eccentricity」で飛び抜けている画像を判断することができます。
  5. 飛び抜けているところをクリックするとx印がつくので、Outputで弾きたいファイルをMoveなどする設定をすると、移動してくれます。
  6. 式で評価して、自動で弾くこともできますが、そのためには下に示すようなパラメータを入れたほうがいいですし、式の入力にはいろいろやり方があるようなので、詳しくはマニュアルなどを参照してください。「星見庵日記」さんのこのページが日本語で比較的詳しく説明しています。
IMG_5689


もう少しきちんとしようとすると、最低限入力する値は、「System Parameters」の中の「Subframe scale」になります。ざっくりした見積もりの「1ピクセルあたりの画角は焦点距離600mm、ピクセルサイズ4umで約1.5秒」とかから考えてもいいですし、こんなサイトから焦点距離と自分の持っているセンサーのサイズを選択して、センサーのピクセル数で割ってやっても簡単に求めることができます。

「Camera gain」も入れるべきでしょう。でもこれは結構難しいです。メーカーのページに行ってもいいですが、例えばASI294MC場合ここの「GAIN」というグラフの横軸「Gain」の実際に撮影した時の値のところを見ればいいのですが、グラフから読み取ろうと思っても0近くになり正確な値は読み取れません。SharpCapがあれば自分で測定することもできます。結果の表からある程度の値は読み取ることができます。それでも誤差があるので、ある程度の値でかまわないでしょう。

ここまで入れると、結果もある程度(絶対値に近いという意味で)正しい値になってくるので、センサーやカメラが変わっても比較することができるようになりますし、式を使った評価でも正確性が出てきます。が、とりあえず面倒なら何も考えずに「Measure」ボタンを押してしまったほうが幸せかもしれません。


少し前のことになりますが、2018/3/13の平日、天気も良かったので久しぶりに撮影をしました。今回のターゲットはバラ星雲。

撮影機材はFS-60Qと6D。6Dは馬頭星雲に引き続き2例目になります。場所は平日なので自宅の庭です。撮影時は結構風が吹いていて、42枚撮影して使えたのは25枚でした。使えるか使えないかのセレクションはPixInsightの「SubframeSelector」を使いました。今まではデジカメの場合は一緒に撮ったjpgファイルを目で見て判別していましたが、CMOSカメラで撮ったものはfitsファイルしか出力されなくて、読み込みに時間がかかるなど判断するのが大変だったので、この機能は非常に便利です。後日別記事で使い方を書こうと思います。


とりあえず結果を示します。

light_BINNING_1_integration_DBE_PCC_AS1acut
富山県富山市, 2018年3月13日20時53分-23時55分
FS-60Q + Advanced VX赤道儀
EOS 6D(HKIR改造, ISO3200, RAW), 露出3分x25枚 総露出1時間15分
f50mm+ASI178MC +PHD2による自動ガイド
PixInsight、Photoshop CCで画像処理


実はバラ星雲は昨年1月と、3月に撮影しています。3月のものはさらに再加工したりもしましたが、その当時でも結構ボロボロと思っていたので、是非ともリベンジしたいものの一つでした。今回はカメラが6Dになったこと、PixInsightgをやっとある程度一通り通しで使ってみたこともあり、かなりマシになったと思います。それでも今改めてみるとまだ少し暗いでしょうか。


今回のバラ星雲の画像処理で新しい機能も試してみたので、メモがわりに書いておきます。以前の記事でPixinsightでかなり苦労したこと(その1その2)を書いたのですが、あれからだいぶん慣れたのと、やはり最初のころに書いた記事に間違いが見つかっているので、訂正しておきました。

実際のPixInsightでの作業ですが、今回はBatchPreProcessingの後、Linearステージの処理と、一部のNon Linearステージを試しました。方法については蒼月城さんのImage Processing Tipsを参考にさせていただきました。特に、Post Processingの動画の前編、星マスクについては後編がすごく参考になりました。

GOOD_LIGHT_6D_180s_1600_+17cc_20180313-21h15m37s174ms
撮って出しの画像です。ほとんど全く何も写っていません。


BatchPreProcessingの後に今回やったことは
  • 最初に「BackgraoundNeutralization」を使っての背景のカラーバランス。今回は初めてbiasフレームを使いました。PixInsightでは必須とのことです。
  • 次に「DynamicBackgroundExtraction」を使ってカブリ補正。
  • 「PhotometricColorCalibration」を使ってのカラーバランスを合わせます。
ここまでは前回の記事で書きました。今回新たに試したのは
  • 「ArcsinhStretch」を使ってのStretch。 (ステライメージやPhotoshopでいうレベル補正に相当)
  • 星マスクの作成として「MaskGeneration」→「RangeSelection」を使います。星マスクは星雲を含むバックグラウンドマスクと、微光星用と輝星用を合わせた星マスクの2種類です。星マスクを星の大きさ別に作って合わせるのはPhotoShopでやった時と同じですが、PixInsightだともっと楽に作ることができる印象でした。
  • 今回はここまでやって、後はPhotoShopに引き継ぎました。ストレッチまで終わった画像と、星マスクをPhotoShopに引き継いで、後は仕上げに入ります。星マスクはPhotoShopのアルファチャンネルに登録して使いますが、詳しくは以前星マスクを作ったページに書いています。

light_BINNING_1_integration_DBE_PCC_AS
PixInsightからPhotoshopに引き渡す時の画像です。


こうやってみると、PixInsightの凄いのは個々の機能が秀逸なのと、それらが互いに有機的につながって仕上げに向けた画像を作り出せるところでしょうか。(これが一番大変なのですが)やり方さえ理解して、丁寧に作業すれば客観的にポテンシャルを引き出した画像ができるのかと思います。また、(方法さえ分かって入れば)星マスクを作ることが簡単なので、それを使うと仕上げも楽になることです。また、それぞれのオプションがすごく細かいので、きちんと色々試したい人にはものすごくいいのかもしれませんが、逆にこのことがとっつきにく印象を与えていることも否めません。

今回も自宅での撮影ですが、さすがに淡い天体になればなるほど光害が無視できず、無理があることもわかってきました。そろそろ暖かくもなってきましたので、また遠征撮影も再開したいと思います。



PixInsight Tips

最後はPixInsightで気づいたことなどです。
  • Canon 6Dを使っているのですが、デフォルトだと拡張子.cr2のRAWファイルを開いた時点でモノクロでなくカラーになってしまうようです。勝手にDebayerされているようでした。BatchPreprocessingのbiasファイルを処理するところでエラーが出てやっと気付きました。Pixinsightの画面の左のピンクの丸の「Format Explorler」か、メニューの「View」「Explorler」の「Format Explorler」で出てきた「DSLR_RAW」というアイコンをダブルクリック(これもわかりにくかったです)して出てきた画面で一番下の「Pure RAW」を押すと、RAWファイルを開いた時にBayer状態で開きます。BatchPreprocessingもうまく行くはずです。
  • Pixinsightではbiasフレームは必須。biasフレームはカメラにキャップなどをして暗い状態にして、最小露出時間で、lightフレームを取った時と同じゲインもしくはisoで、多数枚(50枚ほどは)撮影する。
  • バッチ処理のBatchPreprocessingですが、処理画面を開いてからCosmetic Correctionを忘れていると、再度一からやり直しになると思っていたのですが、左下の三角を枠外にドラッグ&ドロップしてインスタンスを作って置けば後から再度開くことができることがわかりました。ただ、開く時にインスタンスを右クリックして「Execute in the global context」を選ぶと物と画面に戻ることができて編集を再開できます。
  • BatchPreprocessingのためのCosmetic Correctionにはファイルなどを登録する必要はないようです。ファイルのところは空欄のまま、やりたいこと例えばホットやクールピクセル処理だけをどうするかを選んでインスタンスを作り、それをBatchPreprocessinsgの時に選べばいいです。
  • HistgramTransferFunctioでヒストグラムがほとんど真っ平らに表示されてしまってよく見えない。→ サチってしまっているピクセルを表示するとこうなります。HistgramTransferFunctioパネルの下から3分の1くらいのところの右に5つ並んでいるアイコンの、一番左のボタンを押して「サチっているピクセルを除去する」をオンにします。
  • CurveTransformationでヒストグラムの線が出ない場合 → 一番下の右の4つのアイコンの右から2番目のチェックマークをオンにする。
以前の記事もこれに合わせて幾つか訂正してあります。


縞ノイズの考察の続きです。と言ってもほとんど成果なしです。

せっかくのASI294MCを撮影にも使えるのかどうかを判断するためには、縞ノイズ問題を解消しなければどうしようもありません。解決する手段さえあれば、気軽な撮影にも使えると目論んでいます。何れにせよ電視観望には十分(その1その2)なのですでに当初の ASI294MCの目的は十分に達していて、さらにあわよくば撮影もという贅沢な目標です。

具体的には、せっかく長時間撮影をしたしし座の三つ子銀河の画像を有効活用するために「縞ノイズ(斜めノイズ、縮緬ノイズ)」をなくすことですが、今回は少し絞って、
ということを探ることにしたいと思います。

試したことは、
  1. ホットピクセルのみの除去とクールピクセルのみの除去の比較。
  2. ダークフレームの効果。
  3. フラットフレームの効果。
  4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。
  5. Maximum、Minimum、Medianの違いの確認。
などです。他にも色々試していますが、かろうじて意味があることがあることだけ挙げておきます。


1. ホットピクセルのみの除去とクールピクセルのみの除去の比較

1枚のRAW画像を、オートでホットピクセルのみ、もしくはクールピクセルのみ除去して、どちらが効いているかを試しました。結果は前回のあぷらなーとさんのコメントでの推測どおり、ホットピクセルの方が圧倒的に多くて、かなりの部分が除去されているのが確認できたので、一応除去ルーチンはそこそこうまく働いていることがわかりました。一方クールで除去が確認できたのはごく僅かでした。

問題はホットピクセル除去でもクールピクセル除去でも、いずれも除去できないものがまだ結構あることです。これが前回みたMaximumで残った起点に相当するものかと思われます。まずはこの除去を目指します。


2. ダークフレームの効果

1のPixInsightでオートでホット/クールピクセル除去に加えて、ダークフレームのみを使ってホット/クールピクセルがどれくらい変わるか見てみました。結果はほとんど効果なしです。理由はリアルタイム処理をしてみるとわかりました。オートで取れる数の方が多いからで、ダークフレームを使っても除去できる数はそれほど増えないからです。これはパラメータをいじって調整すればうまく残りのダメージピクセルも除去できるのではということを示唆しています。


3. フラットフレームの効果

2の処理に加えて、フラットフレームとフラットバイアスの処理を加えました。意外なことに残ってしまう起点の除去には、このフラットフレームの補正の効果が大でした。フラットバイアスの効果はほとんど関係ないです。残っていた色から判断して恐らくホットピクセルと思われているものですが、ほとんど除去できました。この状態で、もともとバッチ処理でやっていた処理とほぼ近いものになるはずです。ここでやっと最初の疑問の、フラットも含めた前回のバッチ処理で最後だけMaximumでintegrateした時に、輝点が出てこない理由がわかりました。


4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。

それでもまだ少し輝点が残っています。もう少しだけなんとかできないかと思い、2でやったダーク補正のパラメータをいじることにしました。

IMG_3565

下の白丸を押してリアルタイム表示で、オートで幾つ補正されるかを見ながら、それ以上に(今回やったのは3倍の数くらいで、ホットで0.1、クールで0.04くらいにしました)パラメータ調整で補正できる数を増やすことで、残っていた輝点もほぼ除去されることがわかりました。


5. Maximum、Minimum、Medianの違いの確認

上記の3、4ですでに一枚の画像で輝点をほぼほぼ除くことはできるようになったので、これで残った輝点が原因なのかどうかがやっと切り分けられそうです。この状態で撮影した枚数全てで重ね合わせてみました。その際、Integrationのパラメータをデフォルトの「Average」から「Maximum」「Minimum」「Median」にそれぞれ変えてみました。

Average: 最初にバッチ処理でやったものと基本的には同等です。

01_Average

ただ、バッチ処理の時と違い、撮影失敗に近い星像が崩れたものや、人工衛星が通った画像を省かずに全て処理したので、その影響で星像がとりあえず丸いのですがちょっと大きいのと、人工衛星の線が出てしまっています。縞ノイズはやはり盛大に現れます。この状態で画像処理を進めても背景の縞が残ってしまい、不自然に背景を暗くするしかなくなってしまうので、許容範囲を超えています。

でもこのことは意外でした。輝点が十分無くなれば、この状態でも縞ノイズは消えると思っていたのですが、見ている限り元の輝点がある状態とほとんど変わりません。これの示唆するとことは輝点そのものよりも、「輝点を処理する時に出た影響」が各画像にコヒーレントに残ってしまうということでしょうか。

ここで少し考えて、前回フラット補正なしの時に試したのですが、ホットもクールも全く処理をせずに輝点を全て残してIntegrateしたものを見てみました。

nocosmetic_calibration_integration

よくみると明るさの違うRGBの点がいっぱいあります。完全な輝点でなくても、コヒーレントに残る色々な明るさのノイズがあるということです。これらを処理した時の残りがコヒーレントに現れて縞ノイズとして残るということでしょうか。というと、これはホットピクセル除去に関係なく、明るさが違うというころからも、むしろDebayer処理のところに問題があるのではと考えられます。ここら辺もすでにあぷらなーとさんが指摘してくれています。さすがにこれは処理しきれなさそうなので、ここで今回の検証は成果なしという結論に至りました。


Maximum: これまでの検証と同じく、Averageよりも明らかに縞ノイズは少ないです。

02_Maximum_DBE

最大の明るさが出るので、星像がAverageの時よりもブレるのと、人工衛星の線が一本濃く走ってしまっています。残った輝点もはっきり出てしまっています。一つ疑問なのは、右側のアンプノイズがなぜかAverageよりも小さいことです。これはなぜだかよくわかりません。少しだけ残っている輝点は出ているのでMaximum自体の処理はされていると思うのですが。


Minimum: 今回これが一番良かったです。

03_Minimum_DBE

縞ノイズはMaximumと同程度に除去されていて、画像処理をしてもそこそこ耐えうるレベルです。変な星像の乱れもありませんし、星も変に大きくなったりしていません。。ただ一点気になったことが、不必要に暗い(おそらくクールピクセルの残り)があると、そこだけガイドのズレのぶんだけ別の縞ノイズのように目立ってしまいます。でもまあ許容範囲でしょうか。


Median: 最初Mediumと勘違いしていて、Averageと似ているけど何か違いが出るかと期待したのですが、実はMedianでした。

04_Median_DBE

Medianはより飛び抜けたところを省いて重ね合わせるものということなので、人工衛星の軌跡などは取り除かれました。その代わりにノイズを少し犠牲にするそうですが、見た目ではよくわかりませんでした。いずれにせよ、縞ノイズに関してはAverageとほとんど同じで、効果はありません。



うーん、厳しいです。このままMinimumでいっても、今回に限っては画像処理に影響ないくらいにはなっているのでもうこれでも十分な気もします。それでも次はFlatAide Proでカラーカメラでうまく縞ノイズが除去できるかもう少しだけ試してみたいと思います。(2018/2/17追記: 試しましたが、やはりほとんど効果はありませんでした。モノクロでいつか試すことにしたいと思います。)


それにしてもPixInsightの操作方法にもだいぶん慣れて来ました。今回はフラットの補正がステライメージに比べて操作できる箇所が何もないのが少し気になりました。そのためか、まだ右側上部の大きなアンプノイズがフラット補正で取りきれなくて残ってしまっています。それでも他に色々いじれるパラメータがあるのはさすがです。昨日からまた雪が降り続いています。しばらくは天気は期待できなさそうなのでまた画像処理と機器の整備くらいになりそうです。


長時間露光で問題になる縞ノイズの考察です。

  • ガイドのズレと同じ方向に縞が出る。
  • RGBと黒の4色。
  • 太さは一枚のコンポジットされた画像の中ではだいたい一定。でも画像によって細かったり太かったりします。太さは、ずれの長手方向に垂直な方向のずれの大きさに一致している?
  • クールピクセル説が強い。でも本当にこんなに前面にクールピクセルが広がっているのか?
  • カラーセンサーでクールピクセルが一つあると、上下左右のみでなく、斜め方向にも影響が出るので、ある程度の太さになる。
  • 不思議なのは、ガイドでずれたのを比較明合成した星像のずれの長さよりも、縞一本の長さの方が全然長く見えるのです。ずれの長さの3倍くらいは長く見えます。でもRGBと黒の4色しかないので、たまたま同じ色の線が繋がっているのが目立っているだけに見えなくもないです。ある色があった時2色繋がるのが4分の1で、3色繋がるのが16分の1。長いのは目立つのと、短いものも存在するので、長く見えるというのは説明できそうです。
  • 10分単位くらいに分けてコンポジットし、それをさらにコンポジットしてもダメだという報告あり(自分では未確認)。
と、ここら辺まで書いてあぷらなーとさんのコメントとブログを見て、やっとクールピクセルが原因というので納得してほぼ解決したのですが、せっかく自分でも途中まで考えてはいたので、そこまでだけでも書いておきます。


まず試したのは、簡単にするためにクール補正も、フラット補正もダーク補正もせず、三つ子銀河のIntegrationをすることでした。ImageCalibrationがなぜかうまくいかなかったのでStarAlignmentで代用。その結果がこれです。

nocosmetic


赤とか青とか緑とかのかすれた線が無数にあります。全部クールノイズだと思われます。前面に散らばっています。もっとわかりやすくするために、位置合わせをしないただの比較明合成をします。

nocosmetic_nocalibration_integration_a


クールノイズが点になって無数の輝点になって見えます。この時点で、やっとクールノイズの可能性が高そうだと思い始めました。

今度はクール補正をかけたものの比較明合成です。

cosmetic_nocalibration_integration_a


クールピクセルがなくなってかなりましに見えます。これなら変なノイズとかでなさそうなので、これで位置合わせを行います。

cosmetic_calibration_integration_a


でも結果はなぜか縞ノイズが出てしまいます。この理由が最初全くわかりませんでした。ところがIntegrartionの時にAverageを使わずにMaximumを使うと理由がかなりはっきりしました。

cosmetic_calibration_integration_Maximum_a


Maximumなので一番明るいものが残っています。形をよく見ると縞ノイズとかなり一致しているように見えます。Maxmumで見えるということは、このような明るい輝点はまだ存在していて、飛び抜けたもの含んで無理やりIntegrationの時にAverageで平均化したりすれば、さすがにそこにムラができるのは不思議ではありません。ImageIntegrationの時にPixel rejection(1)で「Rejection Algorithm」を「min/max」にすると多少は改善できることもわかりましたが、それでも縞は残ります。

あと、Maximumは星像が歪むという弊害があることもこの時気づきました。昨晩はここで終わって寝てしまいました。


その後、あぷらなーとさんからのコメントに答える形で前々回のページに書いたのですが、今日になってあぷらなーとさんのブログの過去記事を見るとここら辺のようなことがすでに見事に検証されていて、さらに輝点を加算するという解決法まで示してくれています!しかもぴんたんさんがすでにFlat Aide Proにその手法を実装してしまったとは!

カラー画像でもうまく輝点が出ないようにコンポジット前の画面を補正してしまえばいいと思いますが、あぷらなーとさんがやったようなモノクロならまだしも、やはりカラーだとちょっと難しそうです。


HUQさん、あぷらなーとさん、SCORPIOさんクールノイズにいつまででも納得できなくて色々説明してもらって申し訳ありませんでした。そして、こんな私に付き合っていただいてきちんと説明してくれて本当にありがとうございます。

自分で納得でないないと気が済まないのですが、今回の話は最初からアプラナートさんの2017年の9月くらいの記事を読んでおけば済む話でした。でも自分で試すという方向性はやめたくないので、また変なことを言うかもしれませんが、初心者のたわごとと思って温かい目で見ていただけるとありがたいです。


 


 

このページのトップヘ