ほしぞloveログ

天体観測始めました。

タグ:BXT

年末の12月初めくらいから撮り続けていたSh2-308 ミルクポット星雲がやっと仕上がりました。

海外ではDolphin Head Nebulaと呼ばれているようで、日本でも「イルカ星雲」とか「イルカの頭星雲」とも呼ばれているようです。その一方、Milk Pot Nebulaとかで検索しても全く引っかからないので、どうもミルクポットと言っているのは日本だけのようです。

本当にイルカの口に似たような特徴的な形と、OIIIで写すと青く目立ってとても綺麗で、星を始めた当初からいつか詳細な形と共に撮影したいと思っていた星雲の一つです。最高高度が31度程度と比較的低い空なので、撮影可能期間もあまり長くなく、やっと実現できたというわけです。


撮影

実際の撮影開始は結構前で、12月4日の夜中過ぎからです。自宅なので平日も撮影可能で、同じ日の前半に北西方向のダイオウイカ星雲、後半に東から昇ってきているイルカ星雲を撮影しています。

一般に淡いと言われているイルカさんですが、同日に撮影していたダイオウイカ星雲がとんでもない淡さなので、イルカ星雲はずいぶん濃く感じました。下の写真の左は6時間40分のOIIIのダイオウイカで、ABEにDBEもかけて強あぶり出ししてやっとこれくらい。一方右は3時間10分でABEをかけただけでこんなにはっきり出ます。
comp

今回のイルカ星雲は、5分露光でOIIIが59枚、Hαが39枚でAOO合成の予定です。さらに恒星用にR、G、Bでそれぞれ8枚ほど撮影しています。OIIIとHαは比較的早くに撮り終えていたのですが、RGBが曇っている日が多くてなかなか撮り溜めできず、撮影は最終的に1月14日まで食い込んでしまいました。

R、G、B画像もそれぞれ同じ5分露光なのですが、明るい星はサチってしまっています。今後はRGBの各フィルターでの撮影は露光時間を短くするか、ゲインを落とした方がいいようです。

blue_BXT_Image36_DBE_DBE_Preview02_3dplot
RGB合成した画像の左側真ん中に写っている一番明るい星を、
PIの3Dプロットで表示。


画像処理

画像処理を進めていてすぐに、今回はイルカ星雲本体の青よりも、背景の赤がポイントではないかと思うようになりました。
  1. まず、イルカさんの中にも赤い部分が存在しているようで、今回程度のHαの露光時間では全然分解して表現できていないように思います。
  2. 背景の左側の赤い部分は、周辺減光か分子雲かの見分けがつきにくかったのです。特に左下の暗くなっている部分は暗くなっていますが、これは周辺減光なのか迷いました。他の方の画像を見ると確かに暗くなっているので正しいようです。
  3. 右側と上部には、かなり濃い波のような分子雲があり、こちらはHαだけでなくOIII成分も持っているようで、左下の赤とは明らかに違った色合いになり面白いです。
  4. 画面真ん中の星雲本体の周りに、下から右上方向に進むかなり淡い筋のような模様が見えますが、これも迷光などではなく本当に存在するもののようです。この筋はHαだけでなくOIIIにも存在するので、ここでも色の変化が見られとても興味深いです。

背景の淡い部分を出すには、フラット化がどこまでできるかがとても重要です。通常のフラットフレームを撮影してのフラット補正は当然として、それだけでは取りきれない
  • 輝度勾配
  • 周辺減光の差の残り
  • ライトフレーム撮影時とフラットフレーム撮影時の迷光の入り具合の差
など、大局的な低周波成分の輝度差が、淡い部分のあぶり出しを阻害してしまいます。

私はフラットフレームは晴れた昼間の部屋の中の白い壁を写しているので、どうしても窓側と部屋中心側で輝度差が出てしまいます。これはABEの1次で簡単に補正できるので、まずはHαもOIIIもインテグレーション後にすぐにABEの1次をかけます。ABE1次の後は出てきた画像を見て、毎回それぞれ方針を考えます。


GraXpert

実は今回、フラット化のために最近人気のフリーのフラット化ツールGraXpertを使ってみました。以前からインストールはしていたのですが、ほとんど使ったことはありませんでした。

今回GraXpertをPixInsightから呼び出せるようにしようと思って、この動画にあるように

https://www.ideviceapps.de/PixInsight/Utilities/

をレポジトリに登録して、ScriptのToolboxの中のメニューにも出てきたのですが、いざPixInsightからGraXpertを呼び出すと「GraXpertの最新版が必要」と言われました。アップデートしようとして最新版をインストールしたわけですが、アップデート後PIから呼び出しても、どうも動いている様子が全くありません。確認のために、まずは単独でGraXpertを立ち上げてみましたが、セキュリティーの問題を回避した後もうまく起動しません。ちなみにMacのM1です。

それでどうしたかというと、アプリケーションフォルダのGraXpertをフォルダから右クリックして「パッケージの内容を表示」でコンテンツの中身を見てみます。ContentsのMacOSの中にあるGraXpertがターミナルから起動できる実行ファイルで、これをダブルクリックすることでエラーメッセージを確認することができます。今回はいくつかpyhthonのライブラリが足りないとか出ていたので、手動でインストールしたのですが、結局解決せず。

そもそもメインPCのpython関連はそんなに変なことをしていないので、おかしいと思い調べたら、最新版はMac OS 13.6以上が必要とのこと。私はアップデート後のトラブルが嫌であまり最新のOSには手を出していなかったのですが、自分のバージョンを見たら12.4とか2世代も古いです。仕方ないので久しぶりにOSをアップデートし、一気に14.2.1のSonomaになって、無事にGraXoertが立ち上がりました。

ちょっと蛇足になってしまいましたが、
  • うまくいかないときはターミナルから立ち上げてエラーメッセージが確認できること
  • OSのアップデートが必要なこともある
というのが教訓でしょうか。

さてGraXpertの結果ですが、背景の星雲の形が大きく変わってしまい、残念ながら撃沈でした。比較してみます。最初がABEのみでフラット化したもの、
Image19_ABE4

次がGraXpertで今回は見送ったものになります。AIとKrigingで試しましたが、大きな傾向は変わりませんでした。画像はKrigingのものです。
Image13_SPCC_GX_K

違いは左下の濃い赤の部分で、GraXpertではムラと判断され、取り除かれてしまっています。また、イルカ星雲本体があるあたりの背景のHαも同様に取り除かれてしまっています。

このように、背景全体に分子雲が広がっているような場合は非常に難しく、DBEでもあまりいい結果にならないことがわかっているので、今回は再びHαとOIIIに戻って、今一度注意深くABEのみで処理することにしました。 GraXpertの方が良い結果を出す場合もあると報告されているので、実際のフラット化処理の際には一意の決まり手は存在せず、毎回臨機応変に対応すべきなのでしょう。


ABEのみでのフラット化

さて、今回最終的に使ったABEの具体的な手順を書いておきます。これも今回限りそこそこ上手くいったと思われる、あくまで一例です。
  • Hα: ABE1次、ABE2次
  • OIII: ABE1次、ABE2次、ABE3次、ABE3次 
として、ここでAOO合成。その後さらに
  • AOO: ABE4次
として、やっと落ち着きました。繰り返しになりますが、どれも決まった手順とかはなく、その場その場で画像を見ての判断です。

ポイントは
  1. 過去に他の人が撮影した画像などを参考にして、自分の背景がおかしすぎることがないこと
  2. オートストレッチで十分に炙り出せる範囲にフラット化を進めること
の2点でしょうか。それでも特に2にあるように、あぶり出しやすくするためにというのを主目的でフラット化しているので、正しい背景からずれてしまう可能性は否定できません。さらに1も、淡いところをどんどん出していくと、参考にできる他の画像自体も数が限られてしまうようになるという問題もあります。

こうやって考えると、PixInsightのMARSプロジェクトにかなり期待したいです。何が正しい背景で、何がカブリなどのフェイクかの指標を示してもらえるのは、とてもありがたいです。もちろん、誰も到達していないような淡さなどは当然データベースに登録されないと思うので、限界はあるはずです。でも私みたいな庭撮りでやっている範囲では、十分な助けとなってくれると思います。


とりあえずの画像処理

1月19日の金曜の夜、SLIMの月面着陸の様子をネットで追いながら、画像処理をしていました。着陸後、結果発表までかなり時間があったので、寝るのは諦めてのんびり進めます。その時に一旦仕上げて、Xに投稿したのが以下の画像です。

Image19_ABE4_SPCC_BXT_back3_cut

イルカ星雲本体はかなりはっきり出ています。イルカなのでOIIIの青がよく似合っています。また、背景の赤もかなり出ているのではないでしょうか。ナローバンドと言えど、自宅で背景がここまで出るのなら、結構満足です。周りの赤いところまで出してある画像はそこまでないのでしょう、結構な反響がありました。

イルカ星雲本体に含まれる赤はもっと解像度が欲しいところですし、全体に霞みがかったようになってしまっています。淡いOIIIを無理して強調した弊害です。OIIIフィルターにバーダーの眼視用のものを使っていることが原因かと思われます。IR/UVカットができないために、青ハロが目立ち、その弊害で霞みがかったようになってしまっています。


Drizzle+BXTが流行!?

土曜の朝起きて、いつものコメダ珈琲に行き、画像処理の続きです。改めて昨晩処理したものを見てみると、ノイズ処理がのっぺりしていて、恒星の色も含めて全然ダメだと反省しました。特に、拡大するとアラが目立ちます。

そもそもε130Dの焦点距離が430mmとあまり長いものではないので、画角的にイルカ星雲本体が少し小さくなってしまいます。後から拡大しても耐え得るように、WBPP時にDrizzleの2倍をかけておいて、Drizzle+BXT法で、イルカさん本体の解像度を上げてみます。



下の画像は、左がDrizzle x1で右がDrizzle x2、上段がBXT無しで下段がBXTありです。差が分かりにくい場合は画面をクリックして、拡大するなどして比べてみてください。

comp2
  1. まず上段で左右を比べると、Drizzleを2倍にすることで、恒星の分解能が上がっていることがわかります。
  2. 次に左側で上下を比べると、(Drizzleは1倍のままで) BXTの有無で、恒星が小さくなり、背景の細かい模様もより出るのがわかります。ただし、画像の解像度そのもので分解能は制限されていて、1ピクセル単位のガタガタも見えてしまっています。
  3. さらに下段のみ注目して左右を比べると、右のDrizzle2倍にさらにBXTをかけたものでは、恒星のガタガタも解消され、かつ背景もピクセル単位のガタガタが解消されさらに細かい模様が見えています。
このように、Drizzle+BXTで、恒星も背景も分解能が上がるため、圧倒的に効果ありです。

ところでこのDrizzle+BXT法ですが、2023年5月に検証して、その後何度がこのブログ内でも実際に適用してきたのですが (1, 2, 3) 、最近のXでの天リフ編集長の「効果があるのかないのか実はよくわからなかった」という発言にあるように、当時は余り信用されなかったようです(笑)。


ところが上のリンク先にもあるように、ここ最近だいこもんさんや他の何人かの方が同様の方法を試してくださっていて、いずれも劇的な効果を上げているようです。とうとう流行期がきたようです!

この手法を科学的な画像としてそのまま使うことはさすがにできませんが、鑑賞目的ならば、本物のさらに細かい構造が見えてきている可能性があると思うと、夢が大きく膨らむのかと思います。多少の手間と、(一から揃えるとPixInsightとBXTでそこそこの値段になるので) あまり多少ではないコストになりますが、それでも対する効果としては十分なものがあるのかと思います。

土曜日はこんなことをやっていて、力尽きました。


ここに文章を入力

日曜日もほぼ丸一日かけて、Drizzle x2の画像の処理を進めます。なかなか上手くいかなくて、バージョン10まで進めてやっとそこそこ納得しました。あとから10段階を連続で見てみると、徐々に問題点が改善されていく過程がわかります。

金曜夜中に処理したDrizzle x1と、日曜夜遅くにDrizzle x2で最終的に仕上げた後の画像の比較してみます。ともにBXTをかけたものです。

まずはDrizzle x1
x1

次にDrizzle x2です。
x2

画像処理にかけた気合と時間が大きく違うこともありますが、それにしても結果が全然違います。では一体何をしたかというと、大きくはノイズ処理の見直しと、恒星の処理の見直しです。


Drizzle後のノイズ処理

特にノイズ処理は結構大変で、少し油断するとすぐにモワモワしてしまったり、分解能が悪くなったりで、全然上手くいかなかったです。でも筋道立てて丁寧にやっていくと、なんとか解は存在するといった感じでしょうか。

まず、ノイズ処理で気づいたことが一つあります。Drizzleで解像度2倍にした画像にはノイズ処理が効かないことがあるようです。興味があったので少し調べてみました。

今回試してみたノイズ処理ソフトは
  • Nik CollectionのDfine 2
  • PhotoshopのCamera RAWフィルターのディテールのノイズ軽減
  • DeNoise AI
  • NoiseXterminator
です。この中で効果があったのはDfine 2とNoiseXterminatorでした。他の2つは元々大きな構造のノイズが苦手な傾向があることは気になっていましたが、今回Drizzleで2倍の画素数にしたため、同じノイズでもより細かい画素数で表現されるようになり、相対的に大きな構造のノイズを扱っているような状態になったのかと推測します。まだ少し試しただけなので検証というレベルではなく、他のノイズ処理ソフト、例えばTGVDenoiseなどのPIのノイズ処理関連なども含めて、もう少し調べる必要があると思います。それぞれ得意な空間周波数があるような気がしています。

結局今回使ったのは、PI上でNXT、Photoshop上でDfine 2でした。これでモコモコしたノイズが残るとかを避けることができました。またNXTはカラーノイズ対策はできないので、カラーノイズはDfine2に任せました。


結果

結果です。拡大しないと一見、金曜夜中の画像とそこまで変わらないと思えるかもしれません。でも、少し細部を見ると全く違います。

Image17_ABE4_SPCC_BXTx3_HT_HT_back7_cut_low
  • 撮影日: 2023年12月5日0時3分-3時9分、12月9日0時2分-1時5分、12月29日22時3分-30日4時20分、2024年1月4日20時50分-22時43分、その他2夜
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: TAKAHASHI製 ε130D(f430mm、F3.3)
  • フィルター: Baader:Hα 6.5nm、OIII 10nm、R、G、B
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI6200MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、bin2、Gain 100、露光時間5分、Hα: 39枚、OIII: 59枚、R: 8枚、G: 9枚、B: 8枚、の計123枚で総露光時間10時間15分
  • Dark: Gain 100、露光時間5分、温度-10℃、117枚
  • Flat, Darkflat: Gain100、露光時間 Hα: 0.2秒、OIII: 0.2秒、R: 0.01秒、G: 0.01秒、B: 0.01秒で全て64枚
  • 画像処理: PixInsight、Photoshop CC

私的にはかなり満足なのですが、子供に上の画像を見せたら「霞んで見えるのが惜しい」と言われました。ナローバンドフィルターは星まつりで安いB級品をちょくちょく集めてきたのですが、パッと手に入れることができた眼視用OIIIフィルターだと多分もう厳しいので、新品で購入してしまった方がいいのかもしれません。でも新品でも在庫がないみたいです。いっそのことUV/IRカットフィルターを重ねてしまうのも手かもしれません。

上の画像は拡大すると真価を発揮します。イルカに見えるように画像を90度左回転し、左に明るい赤の壁を置くような構図にしてみました。

Image17_ABE4_SPCC_BXTx3_HT_HT_back7_rot_half2_wall
恒星の色もでているかと思います。大きくクロップしたとは思えないくらいです。

さらにイルカ星雲本体のみにしてみますが、ここまで拡大してもまだ大丈夫かと思います。
up2

この画像も子供に見せたら、「イルカの中の赤いところがまだ出ていない。頭のところにある脳みそみたいなところはまだマシだが、下の心臓の形はもっと出るはずだ」とか言われて、どこからか検索してきたもっと細部が出ている画像を見せられました。でもその画像の説明を見たらそもそも大口径の350mmでf/3、撮影時間がなんと45時間...、さすがに太刀打ちできるはずもないです。

超辛口な息子の意見に少したじろぎましたが、ナローバンドだとしても自宅撮影でここまで出るなら、もうかなり満足です。あとは毎回コンスタントにこれくらいまで出すことができるかでしょうか。もう少し練習が必要な気がしています。


まとめ

金曜夜から土日のほとんどを画像処理にかけてしまいました。やり直しを含めて、今回は丁寧な処理の画大切さを実感しました。淡いところを出すときは、特に慎重に手順を考えて処理しないとすぐに破綻してしまいます。

結局これ1枚に32時間くらい画像処理にかけたので、ちょっとスキルが上がったはずです。1枚に集中してできる限りのめり込むことは、かなり効果があるのかと思います。

でも次のダイオウイカとまともに戦えるとはまだ思えません。今のところ全然ノイジーです。ダイオウイカ星雲はそれくらい手強いです。


今回は1ヶ月ほど前に書いたビニングの話の続きです。


ソフトウェアビニングが役に立つのかどうか...、そんな検証です。


ダイオウイカさんが釣れない...

最近ずっと自宅でダイオウイカ釣りをしています。いつまで経ってもダイオウイカさんは出てきてくれません。もうかれこれOIIIだけで10時間になりますが、全部インテグレートして、普通にオートストレッチしただけだとこんなもんで、かなり淡いです。これでもABEの4次をかけてかなり平坦化してるんですよ。

OIII_stacked_normal

今回の画像は、ε130DにASI6200MM Proでbin2で撮影しています。ゲインはHCGが作動する100、露光時間は1枚あたり5分で125枚、トータル10時間25分です。

これだけ時間をかけても高々上に出てくるくらいです。やはり自宅でのダイオウイカ釣りは難しいのでしょうか?


ビニングの効果

これ以上露光時間を伸ばすのはだんだん現実的ではなくなってきました。遠征してもっと暗いところに行けばいいのかもしれませんが、自宅でどこまで淡いところを出せるかの検証なので、限界近くを責めるのはかなり楽しいものです。

さて、こんな淡い時にはビニングです!

そもそもCMOSカメラのビニングはASI294MMなど特殊な機種でない限り、一般的にソフトウェアビニングと同等で、
  • ハードウェアビニングでは信号は4倍になる一方読み出しノイズのを一回だけ受け取ればよく、S/Nで4倍得する。
  • ソフトウェアビニングでは信号が4倍になっても読み出しノイズを4回受け取らなければならないので、4のルートの2倍ソフトウェアビニングが不利になり、S/Nとしては2倍しか得しない。逆に言えば2倍は得をする。
というものです。それでも前回議論したように、スカイノイズなど、読み出しノイズが支配的でない状況ではハードウェアビニングの有利さは活きないので、
  • 実効的には ハードウェアビニングでもソフトウェアビニングでも効果は同等で、両方ともS/Nが2倍得するだけ。
というのが重要な結論になります。

と、ここで天リフ編集長から重要な指摘がありました。
  • 「もしソフトウェアビニングで同等の効果というなら、撮影後にPC上で本当にソフトでビニングしてもいいのでは?」
というものです。理屈の上ではその通りです。でも本当にそんなに都合がいいのか?というのが疑問に残るところでしょうか。


DrizzleとBXTの組み合わせ効果

もう一つ、Drizzleをかけて分解能を2倍にして、それだけだと解像度はそこまで大きくは上がらないのですが、さらにBXTをかけると本来の2倍の解像度程度まで戻すことができるという検証を以前しました。




ここまでのことを合わせます。
  1. 2倍のビニング
  2. Drizzleのx2
  3. BXT
を使うことで、
  • S/Nを2倍得して
  • かつ分解能の犠牲を戻す
ということができるのではというのが今回考えてみたいことです。


検証

さて、上で述べたことは本当なのか?実際に検証してみましょう。ダイオウイカ星雲はものすごく淡いので、格好の検証材料です。

まずはPC上でのソフトウェアビンングの準備です。今回は、PixInsightのIntegerResampleを使います。「Resample factor」を2として、「Downsample」を選び、「Average」を選びます。Dimemsionsはいじる必要はないです。左下の三角マークをPIの画面上に落として、このインスタンスを作っておきます。あとはImageContainerで、ビニングしたい画像を全て選び、出力ディレクトリを選択したら、これも同様にインスタンスを作成します。IntegerResampleのインスタンスをImageContainerに放り込むと処理が始まり、しばらく待つとさらにbin2相当、元から見るとbin4相当の画像が出来上がります。

と、最初は結構簡単に考えていたのですが、ここから実際にWBPPで処理を進めようとすると、ダークフレーム、フラットフレーム、フラットダークフレーム全てを同様にbin2相当にしておかないとダメだということに気づきました。

さらに注意は、WBPPのReferene frameです。bin2処理をしたOIIIと何もしないHαを最後に合わせようとする場合、Referene frameに同じライトフレームを選んでおく方が楽です。その際に、bin2処理をする場合のReferene frameのみ、あらかじめbin2でダウンサンプリングしておかないと、結果が変になってしまいます。考えてみればあたりまえなのですが、気づくまでなぜか結果がおかしいと悩んでしまいました。

さて、結果を比較します。左が普通にOIIIをWBPPで処理した結果、右がダウンサンプリングでbin2(元からだとbin4)相当でさらにWBPPでDrizzle x2を適用した結果です。両方ともABEの4次をかけ、強度のオートストレッチをかけています。イカの明るい所を拡大しています

preview_s

違いがわかりますでしょうか?
  • まず恒星ですが、やはり右のビニング画像した方が大きく見えます。
  • 背景のノイズの散らばり具合は、左はトゲトゲしいですが右は丸くなっています。でもこれは単純にダウンサンプリングのせいでしょう。S/Nが良くなったかというと、うーん、見た目だけだとどうでしょうか?心持ち右が良くなったように見えなくもないですが、あまりわからないです。

背景についてはっきりさせるために、S/Nを数値で定量的に評価しましょう。比較すべきは、
  1. ノイズN: 背景と思われる何も天体が写っていない暗い部分と、
  2. 信号S: 天体と思われる、ダイオウイカの明るい部分
です。具体的には上の画像のプレビューのところを比較しました。元々の画像で位置合わせがきちんとできていることと、プレビューの位置もタグを放り込んできちんと合わせているので、公平な評価になっている思います。

測定ですが、ノイズNはPixInsightのImageInspectionのStatistics結果は「Standard deviation」で直接比較できます。問題は天体の信号Sです。同じくStatisticsの「Mean」を使いますが、そのままだと値が大きすぎてよくわかりません。ここでは、ノイズ解析でS/Nを求めた時と同じように、天体部分の輝度から背景部分の輝度を引いたものをSとします。

結果は
  • 元画像: 天体部分の輝度 411.3、背景部分の輝度: 404.6、背景部分のノイズ:1.21
  • ビニング画像: 天体部分の輝度 308.1、背景部分の輝度: 301.3、背景部分のノイズ:0.73
でした。この結果からS/Nを計算すると
  • 元画像のS/N: (411.3-404.6) / 1.21 = 5.54
  • ビニング画像のS/N: (308.1-301.3) / 0.73 = 9.32
となり、S見事に予想通り、2倍のソフトウェアビニングで2倍程度のS/Nの改善になっています。このことは、PC上のソフトウェアビニングが実際に十分な効果があるということを示しています。もちろんその分、分解能は犠牲になっています。

さて、S/Nは向上しましたが、実際に画像処理で本当に効いてくるのかどうかは興味深いところで、次の課題と言えるでしょう。


さらにBXT

ソフトウェアビニングが理屈通りに効果があることがわかってきたので、次にBXTでの分解能が改善するかを見てみましょう。これまでの議論から、Drizzle x2を欠けていることが前提です。パラメータはデフォルトの、
  • Sharpen Stars: 0.5, Adjust Star Halos: 0.0, Automatic PSF: on, Sharpen Nonsteller: 0.50
としています。左が元の画像、右がソフトウェアビンニングしたものです。
BXT_s

恒星については、どちらも小さくなっていて、結構近い大きさになっています。微恒星に関しても、ビニングした方もほとんど取りこぼしなどもなさそうです。これはすごいですね。

その一方、背景の細部出しについては、元画像もビニング画像も、BXTの効果は共にほとんど見られず、差は縮まったりしなくて、依然としてビニングした方は細部が出ていないように見えます。BXT2はBXT1に比べて背景が出にくくなっているので、そのせいかとも思い、この後両方ともにBXT2を背景のみに複数回かけましたが、はっきり言ってほとんど変化が見られませんでした。さらに、AI4からAI2に戻してBXT1相当にしてかけてみても、効果がほぼ何もみられませんでした。

どうも天体部分がまだ淡すぎる、もしくは天体と背景のS/Nが低すぎるのかと思っています。ブログで示した画像は目で見えるようにストレッチしたものを掲載していますが、ストレッチ処理前の画像は真っ暗です。S/Nを見ても最も明るいところでわずかわずか5とか10で、背景との輝度差にするとわずが7 [ADU]程度で暗すぎるのです。少しストレッチしてコントラストを上げて、背景との輝度差を付けてからBXTをかけるとかの対策が必要かもしれません。

とりあえずOIIIに加えて、Hα、恒星のためのRGBの撮影も完了しているので、次は画像処理です。BXTの効果についても、仕上げまで持っていく際にもう少し検証できればと思います。


まとめ

今回の検証で2倍のソフトウェアビニングで実際にS/Nが2倍得することはわかりました。これは撮影時間にしたら4倍長くしたことに相当し、今回10時間撮影しているので、実行的に40時間撮影していることと同等です。もしCMOSカメラのbin2をそのままのbin1で撮影した時と比べるとさらに4倍で、160時間撮影したことと同等になります。分解能は当然犠牲になります。

さらにDrizzle2倍 x BXTで、恒星に関しては分解能をかなりのレベルで回復できることは分かりましたが、背景に関してはほとんど効果がないことが判明しました。ある程度広域で見た天体であること、かなり淡いので詳細はあまり見えないことなどもあり、分解能はそこまで必要ないと考えることもできますが
少し悔しいところです。淡すぎて背景との輝度差がほとんどないことが原因かと思われます。


日記

正月に能登半島で最大震度7という大きな地震がありました。その時私は実家の名古屋にいたのですが、名古屋でも大きく揺れました。すぐに富山に残っていた家族に電話をしたのですが、これまでに体験したことがないような揺れだったそうで、立っていることもできなかったそうです。

元々、元日夜に車で富山に戻ろうとしていたのですが、安全を考えて2日の明るいうちの移動としました。自宅に着いて部屋とかを見てみましたが、自宅は富山市内でも山川に近い比較的南の方で、幸いなことに何かが倒れるとかいう被害もほとんどありませんでした。天体機材もほぼ無事で、棚の上の方に置いてあった空箱が一つ落ちたくらいでした。

自宅周りは地盤的にも比較的頑丈なのか、近所の人に聞いてもほとんど大きな被害を聞くことはなかったです。その一方、少し離れた川に近いところや、富山の少し中心街に近いところは、自宅から大した距離でなくても、そこそこ被害があったと聞いています。さらに富山駅より北側、富山県の西部、金沢などはかなりひどいところもあったのことで大変だったようです。震源地に近い能登半島は、日が経つにつれ被害の状況が伝わってきて、想像をはるかに超える被害でとても心が痛みます。石川の星仲間もいるので、無事を祈るばかりです。

今週末は気温が下がり、場所によっては雪も降るとのことです。被害のひどいところでは平時の生活に戻るまではまだかかるかと思いますが、一刻も早い復旧を願って止みません。

BlurXTerminator version 2.0 and AI version 4がリリースされました。



以下BXT2とかAI4とか呼ぶことにします。以前のものはBXT1とか単にBXTでしょうか。BXTというのはバージョンに限らずBlurXTerminatorの略語の場合もあるので、ここでは文脈によって使い分けたいと思います。


Correct only

まず、恒星についてはこれまでのBXT1に比べて明らかに大きな改善です。以前もこの恒星の収差を改善するCorrect onlyがかなりすごいと思って評価しましたが、その当時は星雲の細かい模様出しが第一の話題の中心で、恒星を小さくすることが次くらいの話題でした。収差などを直すCorrect onlyはあまり話題になっていなかったのが残念でした。でも今回はむしろ、この収差補正の方が話題の中心になっていて、しかもその精度が格段に上がっているようなので、より精度の高いツールとして使うことができそうです。

今回のBXT2で修正できるものは:
  • First- and second-order coma and astigmatism: 1次と2次のコマと非点収差
  • Trefoil (common with pinched optics and in image corners with some camera lenses): トレフォイル(矢状収差?) (歪んだ光学系や、いくつかのカメラレンズで出る画面四隅において一般的)
  • Defocus (poor focus and/or field curvature): デフォーカス:  (焦点ズレや、もしくは像面歪曲)
  • Longitudinal and lateral chromatic aberration: (縦方向、横方向の色収差)
  • Motion blur (guiding errors): 動きのブレ(ガイドエラー)
  • Seeing/scatter variation per color channel: 各色ごとのシーイング/散乱の違い
  • Drizzle upsampling artifacts (2x only): ドリズルのアップサンプリング時の偽模様(2倍時のみ)
とのことです。

ちなみに、BXT1の時に修正できたのは以下のようなものなので、BXT2では圧倒的に進化しています。
  • limited amounts of motion blur (guiding errors): ある一定量までの動きのブレ(ガイドエラー)
  • astigmatism: 非点収差
  • primary and secondary coma: 1、2次のコマ収差
  • unequal FWHM in color channels: 各色のFWHM (星像の大きさ) の違い
  • slight chromatic aberration: 多少の色収差
  • asymmetric star halos: 非対称なハロ

なので、まずは星雲部分を補正する前に、一度Correct Olnyをチェックして収差などによって歪んで写った恒星がどれだけ改善されるのかを、十分に味わうべきでしょう!星雲部の模様出しとかは他のツールでも似たようなことはできますが、上に挙げたような収差補正をここまでやってくれるツールはBXTだけです。画面全体を見ている限りは一見このありがたさに気づかないかもしれませんが、拡大すればするほど、こんなに違うのか!というのを実感することと思います。

では実際に比較してみましょう。全て前回のクワガタ星雲の処理途中のリニアな段階での比較です。

1. オリジナル画像
まずはオリジナルの画像です。
Image13_mosaic_original
ε130Dは、スポットダイアグラムを見る限り非常に優秀な光学系です。同系列のε160EDやTOA-130N+TOA-645フラットナーといったスーパーな鏡筒には流石に負けますが、FSQ-130EDとコンパラくらいでしょうか。反射型なので光軸調整さえ安定してできれば、間違いなく最強の部類の鏡筒と言えると思います。上の画像は四隅でもかなり星像は小さくなっていますが、まだ少し流れが残っています。

2. BXT1相当 (BXT AI2)
ここにまずは、BXT1相当の、BXT2に従来のAI Ver.2を適用します。ここではCorrect onlyでの比較です。
Image13_mosaic01_BXT

四隅の星の流れは明らかに改善されていることがわかりますが、星の大きさなどは大きく変わることがなく、これだけ見てもε130Dの光学性能の優秀さが伺えるかと思います。

3. BXT2 AI4
では上の画像で十分で、高性能鏡筒に今回のAI4をかけても意味がないかというと、そんなことはありません。BXT1では微恒星を救いきれていない場合が多々ありました。このページの「もう少しL画像を評価」の2のところ以降に、

「BXTはかなり暗い最微恒星については恒星と認識するのは困難で、deconvolutionも適用できないようです。そうすると逆転現象が起きてしまうことも考えられ、より暗い星の方がそれより明るい星よりも(暗いけれど)大きくなってしまうなどの弊害も考えられます。」

と当時書いていました。そして暫定的な結論として

「この逆転現象とかはかなり拡大してみないとわからないこと、収差の補正や星雲部の分解能出しや明るい恒星のシャープ化など、現段階ではBXTを使う方のメリットがかなり大きいことから、今のところは私はこの問題を許容してBXTを使う方向で進めたいと思います。シンチレーションの良い日を選ぶなどでもっとシャープに撮影できるならこの問題は緩和されるはずであること、将来はこういった問題もソフト的に解決される可能性があることなども含んでの判断です。」 

と書いていますが、今回は実際にソフト的に改善されたと考えて良さそうです。

実際に見てみましょう。BXT2 AI4を適用したものです。
Image13_mosaic02_BXT2_4
一見BXT1との違いがわからないと思うかもしれませんが、少しぼやけて写っているような最微恒星に注目してみてください。BXT1では取りこぼしてぼやけたままに写っているものがBXT2ではきちんと取りこぼされずに星像が改善されています。

このことはリリース次のアナウンスの「Direct linear image processing」に詳しく書いてあります。

One of the most significant “under the hood” features of AI4 is that it processes linear images directly. Earlier versions performed an intermediate stretch prior to neural network processing, then precisely reversed this stretch afterwards to restore the image to a linear state. This was done because neural networks tend to perform best when their input values lie within a well-controlled statistical distribution.

While this worked well for most images, it introduced distortions that compromised performance. Flux was not well conserved, particularly for faint stars, and the network could not handle certain very high dynamic range objects (e.g., M42, Cat Eye nebula). These compromises have been eliminated with AI4, resulting in much more accurate flux conservation and extreme dynamic range handling.

要約すると、

BXT2では直にリニアデータを処理することができるようになった。BXT1ではニューラルネットワークの処理過程の制限から、一旦ストレッチした上で処理し、その後リニアデータに戻していた。そのため恒星の光量が変わってしまったり、特に淡い恒星では広いダイナミックレンジを扱うことが難しかった。BXT2ではこのような妥協を排除し、その結果より正確に光量を保つことができ、大きなダイナミックレンジを扱うことができるようになった。

というようなことが書かれています。これは大きな進化で、実際に自分の画像でも微恒星に関しては違いが確認できたことになります。


Nonsteller

Niwaさんが恒星の締まり具合から判断して、PSFを測定してその値を入れた方がいいという動画を配信していました。その後訂正され、PSFの設定はオートでいいとなりましたが、一方、私はこのPSFの設定は星雲部分の解像度をどれだけ出すかの自由度くらいにしか思っていないので、測定なんていう手間のかかることをしたことがなかったです。

BXTのパネルは上が「Steller Adjustments」となっていて、「Sharpen Stars」とか「Adjust Star Halos」とかあるので、こちらは恒星のためのパラメータで、恒星の評価はこちらを変えて判断すべきかと思います。とすると真ん中の「Nonsteller Adjustments」は恒星でない星雲部などのパラメータで、星雲部を見て判断すべきかと思われます。このPSFが星雲部にどう働くかはユーザーにとっては結構なブラックボックスですが、必ずしも測定値を入れなくても、星雲部の出具合を見て好きな値を入れればいいのかと思っていました(BXT2ではここが大きく変わっています)。

というわけで、いくつかのパラメータを入れてどう変わるかを見てみましたが、これまた興味深い結果になりました。

1. まずはオリジナルのBXTをかける前の画像です。こちらも前回のクワガタ星雲の画像の中のバブル星雲部分拡大していて、リニア処理時の画像になります。まだ、バブル星雲もかなりボケてますね。
Image13_ABE1_RGB_ABE4_SPCC_SCNR1_Preview01

2. 次は右下のリセットボタンを押して、すべてデフォルトの状態でどうなるかです。
Image13_ABE1_RGB_ABE4_SPCC_SCNR_BXTdefault_Preview01
恒星は上で書いた収差補正などが入り、さらに星を小さくする効果(0.5)で実際に星が小さくなっているのがわかります。そして確かに星雲部の分解能が上がっているのがわかります。今回の画像は全てBin2で撮影しDrizzle x2をかけてあることに注意で、これにBXTをかけたことになるので、相当な解像度になっています。

3. さてここで、PSFの効果を見てみます。パラメータはSharpen Stars: 0.70, Adjust Star Halos: 0.00, Sharpen Nonsteller: 1.00で、PSF Diameterだけ変えてみます。極端な場合のみ比べます。まずはPSFが最小の0の場合です。
Image13_ABE1_RGB_ABE4_SPCC_SCNR_BXTSS07PD0_Preview01

次にPSFが最大の8の場合です。
Image13_ABE1_RGB_ABE4_SPCC_SCNR_BXTSS07PD8_Preview01

あれ?恒星は確かに少し変わっていますが、星雲部が全く同じに見えます。このことは、PSFを1から7まで変えて比較しても確認しました。


4. BXT1時代にはPSFを変えたら星雲部が大きく変わっていたはずです。念のためAI2にして確認しました。

PSFが4.0の場合。
Image13_ABE1_RGB_ABE4_SPCC_SCNR_BXTSS05PD4_Preview01

PSFが8.0の場合です。
Image13_ABE1_RGB_ABE4_SPCC_SCNR_BXTSS05PD8_Preview01

他のパラメータは全て同じなので、やっぱり明らかにPSF Diameterだけで星雲部が大きく変わっています。

5. ここで、再びAI4に戻りもうひとつのパラメータ「Sharpen Nonsteller」をいじってみました。1.0からから0.5に変えています。
Image13_ABE1_RGB_ABE4_SPCC_SCNR_BXTSS07PD8N05_Preview01
これまでのSharpen Nonstellerが1.0の時と比べて、明らかに星雲部の分解能は出にくくなっています。

今回のリリースノートでは星雲部の記述がほとんどありません。ということはPSFに関しては大きな仕様変更?それともバグ?なのでしょうか。ちょっと不思議な振る舞いです。でもBXT1の時のように星雲部の解像度を出すパラメータがPSF DiameterとSharpen Nonstellerの2つあるのもおかしな気もするので、BXT2の方がまともな設計の気もします。いずれにせよ、今回のAI4ではすでに星雲部に関しては最初から最大限で分解能を出してしまっていて、これ以上の分解能は出せないようです。BXT1の時には星雲部の解像度出しが大きく扱われていたので、これを期待して購入すると、もしかしたら期待はずれになってしまうかもしれません。

でもちょっと待った、もう少しリリースノートを読んでみると、BXTの2度掛けについての記述が最後の方にあることに気づきます。

The “Correct First” convenience option is disabled for AI4 due to the new way it processes image data. It is also generally no longer necessary. If desired, the same effect can still be accomplished by applying BlurXTerminator twice: once in the Correct Only mode, and then again with the desired sharpening settings. The same is true for the “nonstellar then stellar” option: it is generally not needed anymore with AI4, but can be accomplished manually if desired.

Correct Firstとnonstellar then stellarはAI4では使えなくしたとのことで、その代わりに一度Correct Onlyをかけて、その後にCorrect Onlyを外して好きな効果をかければいいとのことです。

実際に試してみましたが、いくつか注意点が必要そうです。下の画像は、上で使ったオリジナルの画像から
  1. Correct Only
  2. Sharpen Stars: 0.70, Adjust Star Halos: 0.00, Automatic PSF: on, Sharpen Nonsteller: 1.00
  3. Sharpen Stars: 0.00, Adjust Star Halos: 0.00, Automatic PSF: on, Sharpen Nonsteller: 1.00
  4. Sharpen Stars: 0.00, Adjust Star Halos: 0.00, Automatic PSF: on, Sharpen Nonsteller: 1.00
4回かけています

Image13_ABE1_RGB_ABE4_SPCC_SCNR1_BXTCO_SS07auto_SS0auto_SS0auto

まず、星雲部の解像度出しを後ろ3回でかけていることになりますが、その効果は回数分きちんと出ていて、複数掛けで効果を増すことができるのがわかります。その一方、Sharpen Starsは2回目のみにかけ、それ以降はかけていません。これは繰り返しかけると恒星がどんどん小さくなっていき、すぐに破綻するからです。3回目のみにかけるとか、4回目のみにかける、もしくは小さい値で複数回かけてもいいかと思いますが、恒星が破綻しないように注意してチェックする必要があると思います。

最も重要なのが、PSFの設定です。BXT1時代にはここをマニュアルで数値を入れてやることで、星雲部の解像度が調整できましたが、ここまでの検証でBXT2ではその効果は無くなってしまっています。しかも、ここで試しているようなBXT2の複数回掛けで固定PSFにすると、小さくなっていく恒星に対して間違った値のPSFが適用されてしまい明らかに恒星が破綻していくので、Automatic PSFを必ずオンにしておく必要がありそうです。

というわけで、ここまでの検証でまとめておくと、
  • BXT2は星雲部の解像度出しの効果が弱いので、複数回がけで効果を強くすることができる。
  • 複数掛けは作者がOKを出している。
  • Sharpen Stars(と、今回は検証してませんが多分Adjust Star Halosも)は無理をしない。
  • PSFはオートにしておいた方が楽で変なことが起きないのでいい。
と言うことがわかりました。PSFはNiwaさんの言うようにBXT2をかけるたびに毎回きちんと測定してからその値を入れるのでもいいかもしれませんが、私の方では今回は検証していません。


BXTの中身について推測

BXTですが、まだまだブラックボックスなところはたくさんあります。ここからはあくまで個人的にですが、どんなことが行われているのか色々推測してみようと思います。

最初に、AIと言っていますがどこに使っているのか?です。自分だったらここに使うとだろうという意味も込めて推測しています。

まずは「恒星とその他の天体の区別」にAIを使っているのではないかと思います。これはStarXterminatorで既に実装されているのでおそらく確実でしょう。画像の中にはものすごい数の星があります。全てまともな形をしていればいいのですが、収差などで崩れた形の(元)恒星もきちんと恒星と認識しなければいけません。ここはAIの得意とする分野だと思います。でも、恒星の認識率も100%にするのはかなり難しいと思います。リリースノートで示されているような種類の収差を膨大な画像から学習しているものと思われ、逆にそうでないものは恒星でないと判断すると思います。ハッブルの画像などから学習したと書いていますが、ハッブルの画像は逆に収差は比較的小さいと思いますので、これと収差があるアマチュアクラスの画像を比べたりしたのでしょうか。それでも現段階でのAIなので、学習も判別も当然完璧では中々ないはずなのですが、例えば銀河などはかなりの精度で見分けているのかと思います。

個別に恒星が認識できたら、恒星にのみdeconvoutionを適用することが可能になるはずです。上での検討のように、BXT1では超微恒星は星像改善がなかったものが、BXT2では無事に恒星として認識できて星像改善されているので、このことは認識できた恒星にのみdeconvoutionを適用していることを示唆しているのかと思います。従来のdeconvolutionは効果を画面全体に一度に適用せざるを得ないので、恒星部と星雲部に同様にかかってしまいます。恒星が星雲を含む背景から分離でき、そこにのみdeconvolutionをかけられるなら、個別に効果を調整できるので、従来に比べてかなり有利になるでしょう。

ただし、恒星が小さくなった後に残る空白の部分は、従来のdeconvolutionでは黒いリング状になりがちなのですが、BXTはかなりうまく処理しているようです。説明を読んでも「リンギングなしでうまく持ち上げる」くらいしか書いていないのでわからないのですが、ここでもAIを使っているのかもしれません。例えば、簡単には周りの模様に合わせるとかですが、もう少し考えて、恒星の周りの中心よりは暗くなっているところの「背景天体の形による輝度差」をうまく使うとかも考えられます。輝度を周りに合わせるようにオフセット値を除いてやり、模様を出しやすくしてから、それを恒星が小さくなったところの背景にするなどです。S/Nは当然不利なのですが、そこをAIをつかってうまくノイズ処理するとかです。本当にこんな処理がされているかどうかは別にして、アイデアはいろいろ出てくるのかと思います。

あとBXTの優れているところが、画像を分割して処理しているところでしょう。512x512ピクセルを1つのタイルと処理しているとのことで、その1タイルごとにPSFを決めているとのことです。収差処理もおそらく1タイルごとにしているのでしょう。現在のAI処理はそれほど大きなピクセル数の画像を扱っていないので、どうしても一回の処理のための画像の大きさに制限が出るはずです。でもこのことは画像の各部分の個々の収差を、それぞれ別々のパラメータで扱うことにつながります。四隅の全然別の収差がどれも改善され、恒星が真円になっていくのは、見事というしかありません。これをマニュアルでやろうとしたら、もしくは何かスクリプトを書いて個々のタイルにdeconvolutionをかけようとしたら、それこそものすごい手間になります。画面全体に同じ処理をする従来のdeconvolutionなどとは、原理が同じだけで、もう全く違う処理といってもいいかもしれません。


微恒星の補正について

もう一つ、極々小さい微恒星がさらにdeconvolutionされたらどうなるか考えてみましょう。

もともと時間で変動する1次元の波形の周波数解析によく用いられるFFTでは、サンプリング周波数の半分の周波数以下でしか解析できません。この半分の周波数をナイキスト周波数と言います。要するに2サンプル以上ないと波として認識できず、周波数が決まらないということです。ではこの2サンプルのみに存在するインパルス的な波を、無理矢理時間軸で縮めるような処理をしてみたらどうなるでしょうか?元々あった2サンプルで表現されていた波が2サンプル以下で表現され、より高周波成分が存在するようになります。

これと同じことを2次元の画像で考えます。上のFFTの時間が、画像のドットに置き換わり、縦と横で2次元になったと考えます。周波数と言っているのは画面の細かさになり、「空間周波数」という言葉に置き換わります。細かい模様ほど空間周波数が高く、荒い模様ほど空間周波数が低いと言ったりします。

1ドットのみの恒星は、本当に恒星なのか単なるノイズなのか区別のしようがありません。少なくとも各辺2ドット、すなわち4ドットあって初めて広がりのある恒星だと認識できます。この各辺2ドットがナイキスト周波数に相当します。超微恒星に対するdeconvolution処理はこの4ドットで表されている恒星を、4ドット以下で表現しようとすることになります。その結果、この画像はナイキスト周波数以上の高周波成分を含むことになります。

deconvotionはもともと点像であった恒星と、その点像が光学機器によって広がりを持った場合の差を測定し、その広がりを戻すような処理です。その広がり方がPSFという関数で表されます。広がりは理想的には口径で決まるような回折限界で表されますが、現実的にはさら収差などの影響があり広がります。BXTはあくまでdeconvolutionと言っているので、ここに変なAIでの処理はしていないのかもしれませんし、もしくはAIを利用したdeconvolution「相当」なのかもしれません。

BXT1からBXT2へのバージョンアップで、処理できる収差の種類が増えていて明確に何ができるのか言っているのは注目すべきことかと思います。単なるdeconvolutionなら、どの収差を補正できるのか明確には言えないはずです。でもAIで収差の補正の学習の際、どの収差か区別して学習したとしたら、deconvolution相当でどのような収差に対応したかが言えるのかと思います。そういった意味では、やはりBXTのdeconvolutionは後者の「相当」で、AIで置き換えられたものかと思った方が自然かもしれません。


BXTの利用目的

ここまで書いたことは多分に私自身の推測も入っているので、全く間違っているかもしれません。BXTの中身の実際はユーザーには全部はわからないでしょう。でも中身はどうあれ、実際の効果はもう革命的と言っていいほどのものです。

個人的には「個々のタイルでバラバラな収差をそれぞれのPSFで補正をして、画像の全面に渡って同等な真円に近い星像を結果として出しているところ」が、マニュアルでは絶対にやれそうもないところなのでイチオシです。もちろん今のBXTでは完璧な処理は難しいと思いますが、現在でも相当の精度で処理されていて、BXT1からBXT2のように、今後もさらなる進化で精度が上がることも期待できそうです。

では、このBXTが完璧ではないからと言って、科学的な目的では使えないというような批判は野暮というものでしょう。そもそもBXTは科学的に使うことは目的とはしていないはずです。

それでもBXTを科学的な側面で絶対使えないかというと、使い方次第だと思います。例えば、新星を探すという目的で、BXTでより分解能を増した上で何か見つかったとしましょう。それが本物かフェイクかの「判断」は他のツールも使うなどして今の段階では「人間が」すべきでしょう。判断した上で、偽物ということもあるでしょうし、もし本物だったとしたら、例え判断はBXTだけでできなかったとしても、そのきっかけにBXTが使われたいうことだけで、BXTの相当大きな科学的な貢献になるかと思います。

要するに「ツールをどう使うか」ということだと思います。今の天文研究でもAIが盛んに使われようとしていますが、主流は人間がやるにはあまりに手間がかかる大量のデータを大まかに振り分けるのを得意としているようです。ある程度振り分けたら、最終的な判断はAIに任せるようなことはせず、やはり人の目を入れているのが現実なのかと思います。AIは完璧ではないことはよくわかっているのだと思います。


まとめ

BXTはどんどんすごいことになっていますね。今後はBXT以外にもさらに優れたツールも出てくるでしょう。将来が楽しみでなりません。

何年か前にDenoise AIが出た時も否定する意見はありましたし、今回のBXT2も推測含みで否定するケースも少なからずあったようです。デジカメが出た時も否定した人が当時一定数いたことも聞いていますし、おそらく惑星撮影でWavelet変換を利用した時も同じように否定した人はいたのかと思います。新しいものが出た時の人の反応としてはごく自然なのかもしれませんが、私は個人的にはこのような新しいツールは大歓迎です。新しいものが出たときに否定だけするような人から、新しい革新的なツール作られるようなことなどほぼあり得ないでしょう。新しいツールはその時点では未熟でも、将来に発展する可能性が大きく、その可能性にかけるのが正しい方向かなと思っています。

実際私も、電視観望をしていて頭ごなしに否定されたことが何度がありました。でも今では電視観望は、眼視と撮影の間の手法として確立してきているはずです。当時否定された方達に、改めて今電視観望についてどう思っているのかお聞きしてみたかったりします(笑)。

BXT素晴らしいです!!!

連休中にε130Dのテスト撮影をしているのですが、その画像処理の過程で面白いことがわかりました。このネタだけで長くなりそうなので、先に記事にしておきます。


最初に出てきたε130Dの分解能にビックリ!

今回ε130Dで初の撮影を進めています。満月直前で明るいので、ナローバンド撮影です。初めての機材なので色々トラブルもありますが、それらのことはまた次の記事以降で書くつもりです。とりあえず2日かけてなんとか約2時間半分のHα画像を撮影しました。細かく言うと、ASI6200MM Proのbin1で1時間ぶん、かなり暗かったのでその後bin2で2時間半分撮影しました。

その後、まだ仮処理段階のbin2のHα画像を見てびっくりしました。bin2撮影の2時間半ぶんをインテグレートして、BlurXTerminator(BXT)をかけて、オートストレッチしただけですが、なぜかわからないレベルのすごい分解能が出ています。下の画像はペリカン星雲の頭の部分を拡大して切り出しています。

BIN_2_4784x3194_EXPOSURE_300_00s_FILTER_A_ABE_Preview01

昔FS-60CBとEOS 6Dで撮ったものとは雲泥の差です。
283e6bd1_cut

分解能の理由の一つ

ちょっとビックリしたのでTwitterに速報で流してみたのですが、かなりの反響でした。分解能がいいと言われているε130DにモノクロCMOSカメラなので、ある程度分解能は出ると予想していましたが、予想以上のちょっとした魔法クラスです。

その後、画像処理がてらいろいろ検証を進めていたのですが、魔法の原因の一つは少なくとも判明しました。ちょっと面白いので検証過程を紹介しつつ、謎を解いていきます。


意図せずして高解像度に...

まず、今回大きなミスをやらかしたことです。テスト撮影ではbin1とbin2の2種類を撮ったのですが、それらの画像をPixInsightで同時に処理していました。2種類のマスターライト画像が出来上がるわけですが、ここで問題が起きていたことに後に気づきました。

reference画像をオートで選択していたのですが、そこにbin1のものが自動で選択されてしまっていた
のです。その結果、bin2の低解像度のものもregistration時に強制的にbin1のものに合わせられてしまい、高解像度になってしまっていました。その状態に気づかずにBXTをかけてしまい、予期せずして恐ろしい分解能の画像になっていたというわけです。

その後、気を取り直し再度普通のbin2画像を処理して比較してみると、いろいろ面白いことに気づきました。メモがわりに書いておきます。


1. BXTのPFSの値と解像度の関係

まず、BXTのパラメータですが、恒星の縮小とハロの処理は共に0としてしないようにしました。背景の青雲部の詳細を出すために、PSFを7.0にしてSharpen Nonstellerを9.0にします。

これをbin1画像に適用してみます。この中の一部をカットしたのが以下です。最初の画像と同じものです。少し出しすぎなくらいのパラメーターですが、まあ許容範囲かと思います。

BIN_2_4784x3194_EXPOSURE_300_00s_FILTER_A_ABE_Preview01

これをそのまま同じBXTのパラメーターでbin2画像に適用してみます。明らかに処理しすぎでおかしなことになっています。許容範囲外です。
bi2_bad_BXT_BIN_2_4784x3194_300_00s_FILTER_A_Preview01

次に、bin2画像は解像度が半分になっていることを考慮し、PSFを7.0から3.5にします。するとbin1でPSF7.0で処理した程度になります。これをbin2画像に適用します。

bin2_good_BXT_BIN_2_4784x3194_300_00s_FILTER_A_Preview011

bin1にPSF7.0で適用したのと同じくらいの効果になりました。これでbin1とbin2に対するBXTの効果が直接比較ができるようになったと考えることができます。

このことはまあ、当たり前と言えば当たり前なのですが、BXTのPSFは解像度に応じて適時調整すべきという教訓です。もちろんオートでPSFを決めてしまってもいいのですが、オートPSFはいまいち効きが悪いのも事実で、背景の出具合を調整したい場合はマニュアルで数値を入れた方が効果がよく出たりします。


2. referenceで解像度が倍になったのと、drizzleで2倍したものの比較

referenceで解像度が倍になったのと、drizzleで2倍したものの比較をしてみました。これはほとんど違いが分かりませんでした。下の画像の左がreferenceで解像度が倍になったもの、右がdrizzleで2倍にしたものです。かなり拡大してますが、顕著な差はないように見えます。
comp1

これにBXTをかけた場合も、ほとんど違いが分かりませんでした。同じく、左がreferenceで解像度が倍になったもの、右がdrizzleで2倍にしたものです。
comp2

この結果から、わざわざbin1を撮影してフィットとかしなくても、bin2でdrizzleしてしまえば同様の分解能が得られることがわかります。


drizzleで2倍にしてBXTをかけた場合

次に、bin2で撮影したものと、bin2で撮影したものをdrizzleで2倍にした場合を比べてみます。左がbin2で撮影したもので、右がbin2をdrizzleで解像度を2倍にしたものになります。左のbin2の拡大はPhotoshopで細部を残しすようにして2倍にしましたが、やはり一部再現できてないところもあるので、もと画像を左上に残しておきました。
comp1b

それでもちょっとわかりにくいので、PCの画面に出したものをスマホで撮影しました。こちらの方がわかりやすいと思います。左がbin2で撮影したもので、右がbin2をdrizzleで2倍にしたものです。(わかりにくい場合はクリックして拡大してみてください。はっきりわかるはずです。)
658E3BF1-9F61-4E65-BAE0-340184B9DC67

ぱっと見でわかる効果が微恒星が滑らかになることです。ですが、背景に関してはそこまで目に見えた改善はなさそうに見えます。

ところが、これにBXTをかけた場合、結果は一変します。明らかに2倍drizzleの方が背景も含めて分解能が上がっているように見えます。(と書きたかったのですが、どうも画像を2倍に大きくするときにやはり補正が入ってよく見えすぎてしまい、右とあまり変わらなく見えます。ここら辺がブログでお伝えできる限界でしょうか。実際には左上の小さな画像と、右の画像を比べるのが一番よくわかります。)
comp2b

同じくわかりにくいので、これもPCの画面に出したものをスマホで撮影しました。左がbin2で撮影したもので、右がbin2をdrizzleで2倍にしたものに、それぞれBXTかけています。
27718827-C94A-4A1D-B101-0A9F619FC62F

この右のものは、最初に示したbin1画像を参照してしまって予期せずして解像度が倍になった場合の結果とほぼ等しいです。

どうやら「BXTは画像の解像度を上げてから適用すると、背景の分解能を目に見えてあげることができる」ということがわかります。解像度を上げたことで情報をストックする余裕が増えるため、BXTで処理した結果をいかんなく適用保存できると言ったところでしょうか。言い換えると、BXTが普通に出す結果はまだ表現しきれない情報が残っているのかもしれません。これが本当なら、ちょっと面白いです。


分解能が増したように見える画像を、解像度2分の1にしたらどうなるか

では、解像度増しでBXTで分解能が増したように見える画像を、再度解像度を半分にして元のように戻した場合どうなるのでしょうか?比較してみます。左が1で得た「bin2にBXTをPSF3.5で適用した画像」、右が「一旦解像度を増してBXTをかけ再度解像度を落とした画像」です。

comp2c

結果を見ると、そこまで変化ないように見えます。ということは、解像度自身でBXTが出せる分解能は制限されてしまっているということです。

ここまでのことが本当なら、BXTの能力を引き出すには、drizzleで画像自身の解像度を上げてからかけたほうがより効果的ということが言えそうです。


まとめ

以上の結果をまとめると、
  • drizzleは適用した方が少なくとも微恒星に関しては得をする。
  • BXTと合わせると背景でも明らかに得をする。
  • drizzleして分解能を上げるとBXTの効果をより引き出すことができる。

ただしこのdrizzle-BXT、拡大しないとわからないような効果なことも確かで、そもそもこんな広角の画像で無駄な分解能を出して意味があるのかというツッコミも多々あるかと思います。それでも系外銀河など小さな天体にはdrizzle-BXTは恩恵がある気がします。まあ取らぬ狸の皮算用なので、小さな天体で実際に検証してから評価するべきかと思います。

今回の効果はおそらく意図したものではないと思いますが、BXT ある意味すごいポテンシャルかと思います。ここまで明らかに効果があると思うと、過去画像もdrizzleしてもう少しいじりたくなります。

一連のBXTによる再画像処理の4例目です。これまで以下のように3つの再処理例を記事にしてきました。





元々BXTで言われていた星雲部分の分解能、あまり話題になってなくて遥かに期待以上だった恒星の収差補正など、劇的な効果があります。

その一方、最近のM106の画像処理で分かったのは

  • BXTで銀河中心部の飽和が起きることがある。
  • BXTの恒星認識に引っかからない微恒星が小さくならなくて、恒星の明るさ位に対する大きさの逆転現象が起きる。
  • 光軸調整が不十分なことから起きる恒星の歪みはBXTで補正できなくてむしろ変な形を強調してしまうことがある。
  • BXTはリニア段階(ストレッチする前)で処理すべき(とBXTのマニュアルにも書いてあります)だが、LRGB合成はノンリニア(ストレッチしてから)処理すべきなので、リニアでできるRGB合成した後の段階ではBXTを使うことができるが、(額面通りに理解すると)LRGB合成した段階でBXTを使うことはできないということになる。
など、弊害や制限も少なからずあるということです。

M106も2度処理しているのである意味再処理なのですが、BXTを使っての「過去画像の」再処理という意味では、銀河を扱うのは今回初めてになります。これまで手をつけなかったことには実は明確な理由がありますが、そこらへんも記事に書いておきました。

そう言ったことも踏まえて、今回のBXTを使った処理では何が分かったのでしょうか?


子持ち銀河

ターゲットのM51: 子持ち銀河ですが、昨年4月に自宅でSCA260を使い、ASI294MM ProのRGB撮影で総露光時間4時間半で撮影したものです。

実はM51の再処理、かなり初期の頃に手掛けています。時期的は最初のBXTでの再処理の最初の記事の三日月星雲よりも前に試しています。銀河はBXTで分解能が上がることをかなり期待していました。でも改善がほとんど見られなかったのです。

BTX導入直後くらいに一度M51の再処理を試み、その後三日月星雲とかを処理してある程度技術的にも確立してきた後に、さらに再処理してみたM51です。
Image199_ABE_ABE_ABE_DBE_NTX_HT_CT_CT_NXT_CT2_cut1

同じ画角の元の画像を下に載せます。
64da897b_cut

再処理ではHαを載せていないので、派手さはないのは無視してください。2つを比較してみると、確かに少し分解能は上がったかもしれません。でも思ったほどの改善ではありませんし、むしろノイジーになるなど、悪くなっているところも見受けられます。なんでか色々考えたのですが、恐らくですが以前の処理はDeNoise AIを利用するなどかなり頑張っていて、すでにそこそこの解像度が出ていたということです。言い換えると、(今のところの結論ですが)いくらAIと言えど、画像に含まれていない情報を引き出すことは(例え処理エンジンは違っても)できないのではということです。逆に情報として含まれていないものを飛び抜けて出したとしたら、それは流石にフェイクということになります。

BTXとDeNoise AIを比べてみると、DeNoise AIの方が(天体に特化していないせいか)大きくパラメータを変えることができるので、おかしくなるように見えると思われがちですが、おかしくならない程度に適用する分には、BXTもDeNoise AIもそこまで差がないように思いました。DeNoise AIはノイズ除去と共にSharpen効果もあるのですが、BXTはノイズについてはいじることはないので、DeNoise AI = NoiseXTerminator + BlurXTerminatorという感じです。

それでは、DeNoise AIではなくBlurXTerminatorを使う利点はどこにあるのでしょうか?最も違うところは、恒星の扱いでしょう。DeNoise AIは恒星ありの画像は確実に恒星を劣化させるので、背景のみにしか適用できないと思っていいでしょう。その一方、BlurXTerminatorはAIと言っても流石にdeconvolutioinがベースなだけあります。星像を小さくする効果、歪みをかなりのレベルで補正してくれる効果は、BlurXTerminatorの独壇場です。恒星を分離した背景のみ、もしくは恒星をマスクした背景のみの構造出しならDeNosie AIでもよく、むしろノイズも同時に除去してくれるので時には便利ですが、やはり恒星をそのままに背景の処理をできるBXTとNXTの方が手間が少なく恒星のダメージも全然少ないため、天体写真の処理に関して言えばもうDeNoise AIを使うことはほとんどなくなるのかと思います。


L画像を追加してLRGBに

さて、上の結果を見るとこのままの状態でBXTを使ってもあまり旨味がありません。根本的なところでは、そもそもの元画像の解像度がをなんとかしない限り何をやってもそれほど結果は変わらないでしょう。

というわけで、RGBでの撮影だったものに、L画像を新たに撮影して、LRGB合成にしてみたいと思います。当時はまだ5枚用のフィルターホイールを使っていて、Lで撮影する準備もできていくてLRGBに挑戦する前でした。この後のまゆ星雲ではじめて8枚用のフィルターホイールを導入し、LRGB合成に挑戦しています。

撮影日はM106の撮影が終わった3月29日。この日は前半に月が出ているのでその間はナローでHα撮影です。月が沈む0時半頃からL画像の撮影に入ります。L画像だけで合計47枚、約4時間分を撮影することができました。

ポイントはASI294MM Proで普段とは違うbin1で撮影したことでしょうか。RGBの時もbin1で撮影していますが、これはM51本体が小さいために高解像度で撮影したいからです。bin2で2倍バローを用いた時と、bin1でバローなど無しで用いた時の比較は以前M104を撮影した時に議論しています。


解像度としてはどちらも差はあまりなかったが、バローをつける時にカメラを外すことで埃が入る可能性があるので、それならばbin1の方がマシというような結論でした。

以前RGBを撮影した時は1枚あたり10分露光でしたが、今回は5分露光なので、ダーク、フラット、フラットダークは全て撮り直しになります。


画像処理

画像処理は結構時間がかかってしまいました。問題はやはりLとRGBの合成です。前回のM106の撮影とその後の議論で、理屈上は何が正しいかはわかってきましたが、実際上は何が一番いいかはまだわかっていないので、今回も試行錯誤です。今回下記の6つの手順を試しました。Niwaさん蒼月城さんが指摘されているように、LinearでのLRGB合成で恒星の色がおかしくなる可能性があるのですが、今回は際立って明るい恒星がなかったので、LinearでのLRGB合成がダメかどうかきちんと判断することができなかったのが心残りです。
  1. RGBもL画像もLinear状態で、LRGB合成してからBXT
  2. RGBもL画像もLinear状態で、BXTをしてからLRGB合成
  3. RGBもL画像もLinear状態で、だいこもんさんがみつけたLinLRGBを使い、HSI変換のうちIとL画像を交換
  4. RGBとL画像とLinear状態でBXTまでしてから、フルストレッチしてNon Linear状態にしてからLRGB合成。
  5. RGBとL画像とLinear状態でBXTまでしてから、フルストレッチしてNon Linear状態にしてからLab変換して、aとbをconvolutionでStdDev=5でぼかしてからLab合成。
  6. RGBとL画像とLinear状態でBXTまでしてから、少しだけストレッチしてLinearに近いNon Linear状態にしてからLab変換して、aとbをconvolutionでStdDev=5でぼかしてからLab合成。
と試しました。赤は間違ったやり方、紫はまだ検証しきれていないやり方です。

ちなみに
  • BXTはリニアで使うべし。
  • LRGBはノンリニアで使うべし。
というルールがあるので、最も正しいと思われる順番は
  • WBPP -> ABE or DBE -> RGB合成 -> RGB画像にSPCC -> RGB画像、L画像それぞれにBXT -> ストレッチ -> LRGB合成
かと思われます。この手順は4番に相当します。RGBがノイジーな場合には5番もありでしょうか。

それぞれの場合にどうなったか、結果だけ書きます。赤はダメだったこと、青は良かったことです。
  1. 星雲の明るい部分に青飛びが見られた。(極端に明るい恒星はなかったので)恒星などの飛びは見られなかった。LRGB合成した後でBXTをかけるので、本来恒星が小さくなると期待したが、うまく小さくならず、変な形のものが残った
  2. 星雲の明るい部分に青飛びが見られた。(極端に明るい恒星はなかったので)恒星などの飛びは見られなかった。1に比べて恒星が明らかに小さくなった。
  3. 星雲の明るい部分に青飛びが見られた。(極端に明るい恒星はなかったので)恒星などの飛びは見られなかった。1に比べて恒星が明らかに小さくなった。ちなみに、LinLRGBはPixInsightに標準で組み込まれているものではなく、Hartmut Bornemann氏が作ったもので、ここにインストールの仕方の説明があります。
  4. 青飛びが少し改善した。1に比べて恒星が明らかに小さくなった。ただし最初にストレッチしすぎたせいか、解像度があまり出なかった。
  5. 青飛びが無くなった。1に比べて恒星が明らかに小さくなった。ただし最初にストレッチしすぎたせいか、解像度があまり出なかった。
  6. 青飛びが無くなった。1に比べて恒星が明らかに小さくなった。ストレッチしすぎてなかったせいか、一番解像度が出た

というわけで、正しいと思われる4番は悪くないですが、青飛びを完全に解決できなかったことと、ストレッチの度合いがRGBとLが別だとどこまでやっていいかの判断がつきにくく、結局6番を採用しました。でもストレッチをあまりかけずにLを合成することが正しい方法なのかどうか、いまだによくわかっていません。その一方、Lab変換でabをボカしたことが青飛びを完全に回避しているので、手段としては持っておいてもいいのかもしれません。


仕上げ

その後、Photoshopに渡して仕上げます。分解能を出すのにものすごく苦労しました。AstrtoBinでM51を検索するとわかりますが、形の豪華さの割に、大きさとしては小さい部類のM51の分解能を出すのはなかなか大変そうなのがわかります。物凄く分解能が出ている画像が何枚かあったので「おっ!」と思ったのですが、実際にはほとんどがHubble画像の再処理でした。1枚だけHubble以外でものすごい解像度のものがありましたが、望遠鏡の情報を見たら口径1メートルのものだったのでさすがに納得です。それよりもタカsiさんが最近出したM51の解像度が尋常でないです。口径17インチなので約43cm、これでAstroBinにあった口径1メートルの画像に勝るとも劣りません。43cmでここまででるのなら、自分の口径26cmでももう少し出てもおかしくないのかと思ってしまいます。今回私の拙い技術で出せたのはこれくらいです。クロップしてあります。

「M51:子持ち銀河」
masterLight_ABE_crop_BXT_BXT_Lab_conv5_Lab_CT_bg2_cut_tw

  • 撮影日: RGB: 2022年4月2日20時32分-4月3日3時50分、LとHa: 2023年3月29日20時17分-3月30日4時34分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB、Hα
  • 赤道儀: Celestron CGX-L
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 240で露光時間10分がR: 7枚、G: 7枚、B: 10枚、Gain 240で露光時間5分がL: 47枚、Hα: 21枚の計27枚で総露光時間240+340 =580分 =9時間40分
  • Dark: Gain 240で露光時間10分が64枚、Gain 240で露光時間5分が128枚
  • Flat, Darkflat: Gain 240で露光時間 RGB: 0.03秒、L: 0.01秒、Hα: 0.2秒、 RGBがそれぞれ64枚、LとHαがそれぞれ128枚
  • 画像処理: PixInsight、Photoshop CC

元の大きさではこうなります。ただしbin1のままだと画素数が多すぎてブログにアップロードできないので、解像度を縦横半分のbin2相当にしてあります。

masterLight_ABE_crop_BXT_BXT_Lab_conv5_Lab_CT_bg2_lowreso

中心部を比較してみます。左が昨年のRGBだけのもの、右がL画像とHα画像を撮り増ししたものです。
comp

見比べると、明らかに今回のL画像が入った方が分解能が増していることがわかります。ただすでに画像処理がキツすぎる気もしています。今の機材でこれ以上の分解能を求めるにはどうしたらいいのでしょうか?

考えられる改良点は、
  • シーイングのいい時に撮影する。
  • Lがフィルター無しなので、UV/IRカットフィルターを入れて赤外のハロなどをなくす。
  • 振動が問題になる可能性があるので、三脚の足に防震シートなどを入れる。
  • 読み出しノイズに制限されているわけではなさそうなので、揺れ対策で1枚あたりの露光時間を3分ほどにしてみる。
  • Lの総露光時間をもっと増やす。
  • 暗い空で撮影する。
  • バローを入れて焦点距離を伸ばし、かつbin1で撮影する。
などでしょうか。小さな天体を撮影する際の今後の課題としたいと思います。


まとめ

BXTという観点からはあまり大したことは言えていません。分解能という観点からはDeNoise AIとそこまで能力は差がなさそうなことがわかりますが、恒星の収差補正などに利点があり、今後DeNoise AIを使うことはほぼなくなるでしょう。リニアなステージで使うことが正しそうで、RGBとLで別々に処理して合成しても問題なさそうなことがわかりました。BXTなしとありでは分解能に圧倒的に差が出て、今回もM51としてはそこそこの分解能になっていますが、まだ鏡筒の性能を引き出し切っているとは言い難いのかと思います。

RGBだけの場合と、Lがある場合では分解能にあからさまに差が出ることが改めてわかりました。でもなぜそこまで差が出るのか、自分自身本質的にはあまりよくわかっていません。単にLの露光時間が長いからなのか? R、G、Bとフィルターで光量が減るので、それに比べて全部の光子を拾うLが得なのか? それとも他に何か理由があるのか? 一度、R、G、B、Lを全て同じ時間撮影して、RGB合成したものからLを引き出して比較してみるのがいいのかもしれません。

とまあ色々議論したいことはありますが、庭撮りで着実に進歩はしてきていて、M51がここまで出たこと自身はある程度満足しています。でももう少し出るかと淡い期待を抱いていたことも事実です(笑)。


自宅でのDSO撮影はいつ以来でしょうか?と思ってブログ記事を確認すると、10月25日とあるのでなんと5ヶ月ぶりです。その間に開田高原で撮影したり、月食で大量に撮影したりとかはしてましたし、富山の冬場は天気が悪いとか色々言い訳はあるのですが、これはいかんですね。しかももう春で、銀河の季節です。西の空の冬の星雲を撮るか迷いましたが、長時間露光はもう無理と諦め、今回はりょうけん座にあるM106です。


M106

M106は渦巻銀河の分類で、中心に明るい核を持つセイファート銀河にも分類されます。ハッブル分類では渦巻銀河はSb型と言われているようですが、Wikipediaを見るとSAB(s)bcという型だそうです。日本のWikipediaのハッブル分類のページではここまで説明がなかったので、英語版のWikipediaまで見てみるともう少し詳しい説明が載っていました。


SABは渦巻銀河と棒状銀河の中間、(s)はリングがないこと、最後のabcで巻き込み具合を表しaが最も強く巻き込み、b、cとなるにつれ弱くなっていきます。

まとめると、M106は渦巻きと棒状銀河の真ん中くらいで、巻き込みは少なく、リングもない銀河となるので、確かに撮影した形を見るとその通りになります。


撮影準備

3月19日の日曜、月齢27日の新月期で快晴です。その前の数日も結構晴れていたのですが、実際には風がかなり吹いていて望遠鏡を出すのを躊躇していました。この日はほぼ無風に近くて、久しぶりに望遠鏡を出します。ターゲットはSCA260で写しやすいもの。本当はすばるとかでモザイク撮影をねらってたりもしていたのですが、ちょっと季節的に遅くなってしまったので、春ということで銀河。しかもSCA260の焦点距離1300mmでも見栄えのする、そこそこ大きいM106です。

最近のM106の撮影ポイントは、いかに中心部から噴き出るジェットが見えるかということみたいです。このジェット、X線領域がメインで、Hαでも写るのですがかなり淡くなるようです。自宅の明るい北の空でも銀河本体はそこそこ写ることはわかってきましたが、M81で味わったようにまだまだ淡いところは厳しいことがわかっています。ただ、今回のジェットはナローバンドになるので、そこまで光害の影響は受けないはずです。光害地でのナローバンドの淡いところがうまく出てくれるかどうか、ここが勝負どころでしょうか。

夜少し用事が残っていたので、撮影準備は19時半頃からでした。撮影を開始できたのが20時半くらいです。この季節天文薄明終了が19時半頃なので、1時間遅れでの撮影開始です。


トラブル

久しぶりのセッティングですが、実は冬の間にも何度か撮影しようとしてセッティングはしている(天気はすぐに悪くなるのでフル撮影は毎回諦めました)ので大きなトラブルないと思っていたのですが、4日に渡って撮影を続けると細かいことがいくつかありました。

まず初日、Ankerのリン酸鉄バッテリーの残量が0になっていたことです。いつも使ったあとは必ず満充電するので、本来はまだ残量が十分残っているはずです。開田高原でも極低温だといち早く動かなくなるとか、保護回路がしっかりしているのか、その分待機電力が大きいのか、他に使っているほぼノーブランドのバッテリーに比べて使い勝手がイマイチな印象です。さらに撮影3日目、撮影中かなり早くに残量が0%になってしまったのですが、充電を開始するとすぐに70%くらいに復帰しました。そこまで低音ではなかったので電圧降下のようなことはあまりないと思うのですが、電圧読み取り回路がイマイチなのかもしれません。少なくとも他に同時に使ったバッテリーではこんな症状は出なかったですし、これまでも出たことがありません。Ankerはちょっと割高で期待していたのですが、自分の中で少しづつ評価が下がってきています。今はまだ印象だけの状態ですが、一度自分でバッテリーテストベンチをやるべきかもしれません。

撮影2日目になぜか突然カメラが撮影用のStick PCで認識されなくなりました。USBケーブルを抜き差ししても、交換しても、PCの電源を入れ直してもダメでした。USB端子は2つあり、一つはUSB3でカメラなど、もう一つの端子はUSB2で赤道儀のハンドコントローラに繋がっています。結局どうやって解決したかというと、このUSB3とUSB2を入れ替えたところでやっと全て認識されました。初めてのことで、原因も解決策がこれで正しいのかもよくわかりませんが、いつか再発するかもしれないのでメモがわりにここに書いておきます。

撮影3日目、赤道儀反転時にウェイトがガクンとバーの端まで落ちてしまいました。ウェイトのネジをきちんと固く閉めていなかったことが原因です。もともとバーの端近くで止まっていたので、移動距離は5cmほどですがそこそこのショックがあり、カメラなどずれていないか心配でチェックに時間がかかってしまいました。実は同様のトラブルは過去も含めると2度目なので、ネジ止めは毎回再チェックするくらいきちんと止めるべきだと反省しました。


撮影1日目

撮影自身は極めて順調。RGBを5分x10枚づつ撮影し、あとはLとHαに全てをかけます。0時半頃に天頂越えで赤道儀を反転します。これまでの何度かの自動反転でのケーブル引っ張り事件の経験から、反転はその場で見ながらやることにしています。次の日は月曜で平日なので、このまま放っておいて朝まで寝ることにしました。

あ、もう一つトラブルを思い出しました。朝まだ寝ているときに、妻から「車のドア開きっぱなしだよ!」と叩き起こされました。どうやらウェイトを取り出しすときにドアを開けた後、閉め忘れてしまったようです。車には大したものは入っていないのでそんなに心配はないのですが、虫が住みつくとかは避けたいので今後は注意です。

月曜も晴れそうなので、セットアップはそのまま残して夜に備えることにしました。


撮影2日目

7C68544F-1F66-406D-9A56-F56D5A8010D2

3月20日、2日目の月曜夜は前日のセットアップが残っていて時間的にも余裕があり、薄明終了を待って19時25分に撮影開始したのですが、雲が少し残っていてガイドもすぐに見失ってしまうくらいでした。一旦撮影は諦めて仮眠を取ることにします。23時頃に起きてもまだ少し雲は残ってましたが、SCWによると0時頃から晴れる予報。少し待っていると予報から少し遅れて0時半頃から完全に晴れてきました。

実は待っている間に1日目の撮影画像を少し処理していました。RGBは各50分程度ですが、色はまあまあ出そうです。Lは1時間半ですが、そこそこの分解能も出ます。問題はHαで、5分露光gain120だとかなり暗くてノイジーです。そのためでしょうか、PixInsightのregistrationで3分の1くらいはねられてしまいました。sensitivity設定を0.5から0.25にすることで3枚以外は救うことができましたが、やはり横シマのバンディングノイズのようなものが見えるので、もう少し明るくしたいです。gainを増やしてもいいのですが、ゲインを変えてしまうとフラット画像を使いまわせなくなります。フラット画像は同じゲインが大原則で、フラット撮影時の露光時間を変えて明るさ調整をするので、ライトフレームはゲインさえあっていれば同じフラット画像を使うことができます。一方ダークは露光時間10分のものは以前撮影しているのでそれを使うことができるはずです。

というわけで、Hαのみ10分露光にすることにしました。リードノイズ的には得しますが、ダークノイズ的には時間と比例のはずなので損も得もしないはずです。この決断が正しかったかどうかは処理してからの判断でしょう。


5分露光?10分露光?

2日目の撮影を終えた時点で再度画像処理をします。Hαの比較ですが、10分露光の方が5分露光よりも明らかに解像度が悪いことがわかりました。露光時間が長いために揺れをより積分してしまったか、そもそもシーイングが良くなかったかだと思います。そのため、2日目の画像は、何枚か撮ったB画像以外全て使わないことにしました。


撮影3日目

3月22日の3日目は45枚x5分=3時間45分撮ったのですが、途中で雲が出て中断したりしながら朝まで撮影を続けました。でも結局、他の日に比べてあまりに透明度が悪く、S/Nが悪そうだったので、全て使わないことにしました。


撮影4日目

少し空いて3月28日、月齢6.7日で上弦の月近くなってしまっているので、この日はかなり遅くまで月が出ています。月が出ている間はHα画像を、月が沈んでからはL画像を撮影します。でも平日であまり遅くまで続けると次の日に影響があるので、月が沈む少し前に早めの0時前に赤道儀を反転し、その後はL画像撮影にしました。


画像処理

4日間の撮影でしたが、中二日の画像はほぼ全滅なので、実質は2日間の撮影です。全部で約22時間5分撮影して、そのうち15時間10分を画像処理に回すことができました。

画像処理はいつもの通りPiInsightでWBPPです。LRGBAとマスターライト画像がそろうので、まずは重みを全てのチャンネルで0.25にしてLRGB合成をします。その後も基本通り、ABE、DBE、SPCCなどを施し、BXTの後にMaskedStretchをかけました。

RGBは枚数はそれぞれ10枚程度とたいしたことないですが、色は出そうです。処理の途中で思ったのですが、周辺部の淡いところの解像度が全然足りません。

Hα画像もLRGBと同様にストレッチまで終えます。Hα画像は恒星と分離して背景のみ使います。Hαは5時間45分ぶんあるので、そこそこの長さです。でもこの露光時間の長さが本当に最終画像にどこまで効いてくるかはちょっと疑問です。そもそもHαをLRGBにどう加算すればいいのか、まだ自分の中でうまく確立できていません。今回はHαから恒星を取り除き、もしかしたら今回は撮影したHαの情報を全然使い切れていないかもしれません。

あとはLRGB画像とHα画像をPhotoshopに渡して仕上げです。合成方法はHα画像をRGBモードに変換して、レベル補正で緑成分と青成分を少なくなるようにします。赤成分のみになったものをLRGB画像に比較(明)で合成しています。こうすることでHαの度合いを、様子を見ながら自由に調整することができるようになります。


結果

結果は以下のようになりました。まずは中心部がよく見えるように、クロップしたものです。ジェット狙いだと考えると、ある意味これが完成画像でしょうか。

Image05_ABE_DBE_SPCC_DBE_BXT_MS4_cut_crop_small

    クロップしていない全体像です。下にNGC4248も入っているので、こちらも見応えがあります。
    Image05_ABE_DBE_SPCC_DBE_BXT_MS4_cut
    • 撮影日: 2023年3月19日20時48分-20日4時46分、20日19時25分-23時19分、28日19時51分-29日4時38分、
    • 撮影場所: 富山県富山市自宅
    • 鏡筒: SHARP STAR製 SCA260(f1300mm)
    • フィルター: Baader RGBHα
    • 赤道儀: Celestron CGX-L
    • カメラ: ZWO ASI294MM Pro (-10℃)
    • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
    • 撮影: NINA、Gain 120、露光時間5分、L:80枚、R:10枚、G:10枚、B:14枚、Hα:69枚の計183枚で総露光時間15時間15分
    • Dark: Gain 120、露光時間5分、温度-10℃、32枚
    • Flat, Darkflat: Gain120、露光時間 L:0.001秒、128枚、RGB:0.01秒、128枚、Hα:20秒、17枚(dark flatは32枚)
    • 画像処理: PixInsight、Photoshop CC

    反省です。
    • 狙いのジェットは一応は出たのかと思います。
    • BXTの威力もあり、中心部の解像度はそこそこ満足です。
    • 周辺部のディスクの淡いところがノイジーで、解像度がイマイチです。
    • Lをもっと撮った方がいいかもしれませんが、ここらへんが明るい庭撮りの限界なのかもしれません。
    • 光条線が全然キリッとしていません。これまで光条線が出た方が珍しいくらいで、まだ全然方法を確立できていません。もしかしたら、微妙な画像の回転が影響しているのでしょうか?

    追記: 昨晩このブログの記事をほぼ書き終えてから、改めて完成画像とマスターL画像と比べてみると、完成画像では淡いところが相当欠落していることが判明しました。明るい恒星もひしゃげていることに気づきました。さらには銀河中心が飛んでしまっていることも気づいてしまいました。原因がわかってきたので、再度画像処理をやり直すことにします。


    まとめ

    おそらく自宅撮影で、ジェットも含めてこのレベルまで見えるなら十分なのかと思います。一旦画像処理まで完成と思っても、細かくみていくと全然満足できなくなります。しかもやっと記事を書き終えたと思って、落ち着いて見てみるとアラがどんどん見え始めます。キリがないです。

    というわけで、再度画像処理を一に近いところからやり直しています。今回の記事と合わせると長すぎてまとめ切れないので、一旦ここで止めて再処理については次の記事で書きたいと思います。



    このページのトップヘ