ほしぞloveログ

天体観測始めました。

タグ:RGB

つい先日仕上げた勾玉星雲ですが、赤が強いのが気に入らなかったので再処理しました。


RGB画像の見直し

WBPPまでは同じですが、そこからはかなり方針を変えています。元々はAOOにRGBの恒星を加えたようなものでした。Hαはよく撮影できているので、この階調の豊かさを残したかったのです。問題はOIIIで、星雲本体の際中心部以外にはほとんど構造を持っていなくて、結局は背景を含むほとんどの場所が赤一色になってしまい、もうどうしようもないです。

そこで改めてRGB画像を見てみました。自宅撮影で背景光が明るくて、スカイノイズが支配的なためにノイジーなのですが、強炙り出ししてみるとそこそこ階調が残っていることがわかります。例えばHαとR画像を比較すると、

Hα画像:
MGC2048_5_10_better_BXT_HT_NXT_back_LHE_A_s

R画像:
Image22_R_s
と、Hα画像に比べてR画像はノイジーですが、同じような形の模様が見えています。

ところがOIIIとB画像を比べてみると

OIII画像:
integration_O_ABE2_SPFC_BXT_back_LHE_OIII_s

B画像:
Image22_B_s
B画像の方が当然ノイジーなのですが、より広い領域にわたり青成分が広がっているのがわかります。

ちなみにG画像は以下のようになり、これもOIII画像より構造を含んでいます。
Image22_G_s

というわけで、方針としてはRGB画像のRをHαと入れ替え、GとBは少しきつめのノイズ軽減をしてきちんと使い、OIIIは最初から使わないという方向でいきます。


比較

結果は
Image26_HT4_cut_s

となり、赤の諧調をそこそこ残しつつ、星雲本体の中心以外はほぼ赤一辺倒だったものから脱却し、多少なりともBとかGを生かすことができました。前回はMGCで頑張って調整したRGBをほぼ全く生かせてなかったのですが、これでMGCの結果も生かせたことになります。

ちなみにAOOベースのものはこれだったので、やはりかなり赤だけが相当強いのがわかります。
Image03_AOO2_s_brighter_cut

ただ、こうやってAOOベースと比べるとRGBベースはどうしてもノイジー感が出てしまいます。これは痛し痒しで、まあ彩度とノイズレスのどちらを取るかなので、仕方ないですね。


MARSデータベースのアップデート

3月21日にこの記事を書いているのですが、画像処理は昨日のうちに終えています。ちょうど今朝、新しいMARSデータベースがリリースされたとアナウンスされました。なんとOIIIデータが含まれたらしいです。これでAOOは可能になり、SAOもRをSに適用することで簡易的に可能となったとのことです。あと、オリオンのデータの露光時間が68分から11時間と約10倍になったとのことですが、もうオリオンも季節終わりなので、実際に使えるのは来シーズンでしょうか。

今回のRGB+Aでの画像処理ですが、せっかくのMARSアップデートなので、今一度OIIIを復活させて再再処理してみてもいいかもしれません。

手持ちの未処理画像のうち、最後のもの取り掛かりました。昨年9-10月に撮影した勾玉星雲です。


撮影 (記録によると)

撮影日は2024年の9月30日。もうだいぶ前のことなので、ほぼ記憶はゼロです。記録から書き起こします。

この日の前半は、ε130Dで (これも少し前にやっと画像処理を終えた) 網状星雲の撮り増しをしていました。でもこの日、カメラの凍結防止ヒーターを入れ忘れて、途中から画面中心が結露してしまいました。しかもずっと気づかなかったので、かなりの範囲で結露してしまったみたいで、カメラの温度を0度より上に上げるだけでは全然解消しません。一旦常温まで戻して、30分程度放っておいたのですが、まだ結露は完全に取れず。次に、凍結防止ヒーターを入れて、温度をとりあえず5度くらいまで下げて、さらにしばらく待つと、やっと結露が無くなりました。

その間に網状星雲の撮影可能時間も過ぎてしまい、後半になって何を取るか迷ったのですが、カメラを回転させることなくちょうど画角的に入りそうな、勾玉星雲を撮影することに決めました。勾玉星雲は2018年12月に撮影しているので、6年ぶりになります。


前回の撮影は6年前のことなので、機材は鏡筒、カメラ共に進化しました。フィルターは少し迷いましたが、時間も限られているので、まずはRGBとHαにしてみました。以前カモメ星雲でHα領域と、BとかGで色調がうまく出たので、RGBで恒星、RGB背景のRをHαの背景で置き換えるという、同じ手を使う予定でした。ところが、途中から雲が出てしまったようで、R画像とG画像はほとんど使いものになりませんでした。

この日は、ヒータ以外にももう一つ大きなミスをしていて、bin2で撮るつもりがNINA上で設定するのを忘れていてbin1で撮ってしまいました。bin1でファイルサイズが大きくなってしまったこと、ピクセルサイズが小さいということなのでS/Nで考えると露光時間が実質短くなったのと同等なこと、bin1のダーク、フラットファイルが必要になることなどがデメリットです。メリットは分解能が出ることですが、そこまで細かい模様を見たいわけではないので、あまりbin1のメリットは効かないでしょう。

その後、10月11日の夜の後半にチャンスがあったので、初日の撮影と同じく泣く泣くbin1にして、RとGの撮り増しと、あとOIIIも追加で撮影しました。

その後、秋は紫金山アトラス彗星とSWAgTiでの撮影がしばらく続いたので、ε130Dでの撮影はしばらくお蔵入りになっていて、今に至ります。彗星は新鮮度が大事なこと、SWAgTi画像の処理は楽なので先に済ませてしまい、最後に残ったのが今回の勾玉彗星というわけです。残ったというか、残しておいたというか、とにかく北陸の冬場の天気は全く期待できないので、未処理のものを手持ちで置いておきたかったのですが、CP+も終わり落ち着いたのと、どうも今週末くらいからやっと冬場の天気を脱却しそうな予報になっているからです。年が明けて体力も戻ってきたので、また撮影を再開していきたいと思います。


RGB画像へのMGCの適用

さて画像処理ですが、今回はMGCのパラメータを少し探ってみました。その結果、RGBはある程度一意のパラメータに落ち着きました。RGBでやったことの順序と結果を書いておきます。


Gradient scale:
まずは大きな影響のあるGradient scaleを変えてみます。Gradient scaleが小さくなるほど、細かい構造で補正します。
  1. Gradient scale: 1024、Structure separation: 3、Model smoothness: 1
  2. Gradient scale: 512、Structure separation: 3、Model smoothness: 1
  3. Gradient scale: 256、Structure separation: 3、Model smoothness: 1
  4. Gradient scale: 128、Structure separation: 3、Model smoothness: 1
01_RGB
01_grad
画像は1枚目がMGC補正後のRGB画像をBoosted Auto Streatchしたもの、2枚目がMGCでどれだけ補正したかの画像をBoosted Auto Streatchしたものになります。2枚とも、左上からZ字順に比較の1、2、3、4になります。

このパラメータを決定するには2つの要因があります。まずはε130Dを使っていて、迷光の影響 (網状星雲ダイオウイカ星雲スパゲティ星雲おとめ座銀河団)がある (ε130Dだけでなく、強度に炙り出していくと、おそらく反射型一般に同様の迷光があっておかしくないと考えています) こと。この画像の右下の円弧の部分がわかりやすいです。これをきちんと取り除くためには1024と512では不足で、256以下にする必要があるとわかりました。128にすると、補正画像を見ると渦上の構造が出てしまうようで、これは不自然だとして却下しました。これでGradient scaleは256で決定とします。

というか、これでε130Dで散々悩んでいた欠点がとうとう解決するに至ったというわけです。ただし、今のところRGB画像だけ有効で、しかもMARSのデータがある領域が限られているという問題もあります。でもかなり大きな一歩です。


Structure separation:
次に、Structure separationの比較をします。小さい数だと独立した大きな構造内での相対輝度差が小さくなり、大きな数だと構造の相対輝度差を強調するとのことです。直訳ですが、いまいち意味がわかりませんでした。結果を見てパッと理解できたのは、小さな数の方が細かい補正をしていることくらいでしょうか。デフォルトは3です。
  1. Gradient scale: 256、Structure separation: 1、Model smoothness: 1
  2. Gradient scale: 256、Structure separation: 3、Model smoothness: 1
  3. Gradient scale: 256、Structure separation: 5、Model smoothness: 1
11_RGB
11_grad
画像は左上から1、右上が2、左下が3です。

まず、Structure separationが5の場合は、補正画像で渦上の構造が出てしまい却下です。1と3はあまり差はないですが、本来大きな構造で処理するはずの1の方がよく見ると細かいところも補正できていたりします。とりあえず1を採用しましたが、3でもよかったかもしれません。


Model smoothness:
最後、Model smoothnessを変えてみます。数を大きくするとよりスムーズなモデルを使って補正し、小さくするとエッジや不連続なジャンプを描くようです。デフォルトは1です。
  1. Gradient scale: 256、Structure separation: 1、Model smoothness: 1
  2. Gradient scale: 256、Structure separation: 1、Model smoothness: 5
  3. Gradient scale: 256、Structure separation: 1、Model smoothness: 10
21_RGB
21_grad
画像は左上から1、右上が2、左下が3です。

5と10は粗くなって、再び迷光の影響で右下の円弧が出てきたので、却下としました。

結論としては、RGB画像では
  • Gradient scale: 256、Structure separation: 1、Model smoothness: 1
を採用し、理由は必要な細かさの補正をしつつ、やり過ぎないというものです。ただし、必要な細かさは撮影画像によって違うと思いますし、補正のかけ過ぎは避けたいものです。


Hα画像へのMGCの適用

次にアンドロメダ銀河の時にはできないと思っていた、Hα画像でもMGCを試してみました。

まず、Hα単体の画像もMGCで処理できることはわかりました。でもパラメータ設定はRGBに比べてはるかに難しいです。理由ですが、かなりの推測も含みますが、おそらく基準となる画像が基本的にRGBで撮影されていることかと思います。ようするに、Hαで見えるような輝線成分の明るさやコントラストがデータの中に含まれれていないので、下手をするとのっぺりしたり、過分に処理し過ぎて、RWA画像にあった豊かな構造やコントラストが崩されてしまう可能性があります。そのため、適用するとしてもかなり緩やかに適用する必要がありそうです。

元画像はこれです。
integration_A_ABE1_SPFC_f

PIのWBPPでの処理をした直後で、標準的な処理かと思います。表示だけは強度のブーストオートストレッチをかけてますが、まだストレッチ前です。見ている限り、かなり淡いところまで出ていることがわかります。面白いのは、HαやOIIIには明光の影響があまり出ないことでしょうか。これまでもそうだったのですが、RGBではあからさまに見えるリングなどがナローではほとんど目立つことがありません。理由は今のところ不明です。

まずはSPFCを適用しますが、narrow band filter modeを選びます。Gray filterだけHαの656.30nmとし、RGBは効いてない考え、適当にそれぞれ656.30nm、500.70nm、500.70nmとしました。RGBの設定がこれでいいのかはよくわかってません。とりあえずモノクロのHα画像にこれを適用し、次にMGCとします。

まずRGBでいいと結論づけた
  • Gradient scale: 256、Structure separation: 1、Model smoothness: 1
01_integration_A_ABE1_SPFC_MGC256_1_1
としましたが、全くダメです。細かすぎで、あからさまに変になっています。細かく補正し過ぎていると思われますが、これは参照データがRGBなのでHαの情報を含んでいないためだと思われます。


Model smoothness:
細かすぎるので、まずはよりスムーズな補正になるように、Model smoothnessを増やしてみます。
  • Gradient scale: 256、Structure separation: 1、Model smoothness: 10
02_integration_A_ABE1_SPFC_MGC256_1_10

としました。これでもまだ細か過ぎで全然ダメです。


Gradient scale:
埒が開かないので、Gradient scaleを増やします。
  1. Gradient scale: 256、Structure separation: 1、Model smoothness: 10
  2. Gradient scale: 1024、Structure separation: 1、Model smoothness: 10
  3. Gradient scale: 2048、Structure separation: 1、Model smoothness: 10
01_RGB
11_grad
1024だとかなりまともになりますがまだ落ち込みが見え、2048でやっと許容範囲くらいになりました。256でどれくらい補正しているかを改めて見てみると、Hαでうまく出ているところをことごとく打ち消してしまっています。これは元データがHαベースのものではないことを示唆していますが、まだパラメータを探り切ったわけではないので、もしかしたら上手い回避方法があるのかもしれません。


Structure separation
ここで、Structure separationを変えてみます。
  1. Gradient scale: 2048、Structure separation: 1、Model smoothness: 10
  2. Gradient scale: 2048、Structure separation: 5、Model smoothness: 10
12
画像の上2つがRGB、下2つが補正量です。左が1で右が2です。

補正量を見るとStructure separationが5の方がより細かいというか、滑らかというか、スムーズな階調で補正しています。補正された画像を見ると、Structure separationが1の方が少し落ち込みが見え、5の方がその落ち込みが少ないようなので、ここでは5を採用します。


Model smoothness:
念の為、再びModel smoothnessを変えてみます。
  • Gradient scale: 2048、Structure separation: 5、Model smoothness: 1
21_integration_A_ABE1_SPFC_MGC2048_5_1_bad

としましたが、星雲本体の形を補正してしまっていて、落ち込みがひどく、即却下です。

さらに、念の為
  • Gradient scale: 1024、Structure separation: 5、Model smoothness: 10
integration_A_ABE1_SPFC_MGC1024_5_10_bad

も見ますが、こちらも同様に落ち込みがひどく、却下です。


Hαの結論

Hα画像の結論としては
  • Gradient scale: 2048、Structure separation: 5、Model smoothness: 1
を採用したのですが、果たしてMGCを適用した方が良かったのか、元のままでも良かったのかの検証を最後にしてみます。

元画像の方がのっぺりしているのですが、MGC補正後の方は少し落ち込みがあるようにも感じます。でもその落ち込みは、星雲本体をより際出させているとも言える範囲なので、今回はMGCで補正したものを採用とします。


OIII画像へのMGCの適用

OIII画像も試しましたが、Hαと同じ
  • Gradient scale: 2048、Structure separation: 5、Model smoothness: 1
が一番まともでした。Gradient scaleを1024にすると、星雲本体の暗い部分が落ち込んでしまいます。Hαと大きく違ったのは、Model smoothnessを10にするとMGC補正前も補正後もしほぼ変化は見られず、同様にStructure separationを5にしてもほぼ変化は見られなかったことです。これはOIIIの背景には元々構造がほぼなくて、同様に参照データの青成分の背景にも構造がほぼないため、補正しても効果がそもそも出ないためだと思われます。Hαの背景には複雑な構造があり、参照データの赤成分の背景は軽い構造があり、その差が変な補正を生みやすくなっていたことが、OIIIとの違いなのかと推測しています。

でも結論としては、OIIIにはMGCを適用しないものを採用しました。理由は、MGCによって星雲本体の特に淡い部分の一部が薄くなってしまうからです。これはOIIIで見える部分が、参照データに入っていないためで、OIIIでせっかく出た星雲本体の淡い部分を余分なものと捉えてしまい、消そうとする方向に働くからだと思われます。


MGCのまとめと所感

と、ここまでRGBとHαとOIIIについてMGCを議論しましたが、2つの画像で適したパラメータが全く違っていることから分かるように、どのパラメータがいいとすぐに言える状況ではないようです。どのような方針で探っていけばいいかを、ざっくりとだけまとめておきます。
  1. Gradient scaleは違いがわかりやすいので、まずはこれを変えてみるのがいいのでしょう。
  2. Structure separationは結果を見てもそこまで大きな差はないので、デフォルトの3でもいいのかと思います。
  3. あとは、Model smoothnessを1と10で変えてみて大きな差が出ないか、問題ないならデフォルトの1で、違いがあるのなら5も試してみて、いい値を探るとかするのがいいのかと思います。

さて、MGCについて少し個人的な所感を書いておきます。

1. 元々個人的にもかなり期待していた期待していたMARSデータを使った補正で、MGCという名前でやっと実用化されたわけですが、チュートリアルと、最初に使って、「あれ、これ結構まずいのでは?」とも思いました。MGCはMRASの参照画像と自分で撮影した画像の差を見て、その差がないように撮影画像を補正します。端的に言うと、例えば超短時間撮影などで星雲情報をがほとんど得られなかった画像に、同じ領域の星雲情報が入っているMARSデータを使ったら、撮影画像に入っていなかった星雲が浮かび上がるのではないかと思ったのです。

BXTが出た当初、AIの元データにハッブルなどのものを使っているなら、それを適用してしまうのは問題ではないかと言う意見がありました。これは補正した画像がハッブルのものになってしまうのではという杞憂だったと思うのですが、AIは直接それらのデータを利用するのではなく、ある意味普遍的な補正法則を学んでいると考えると、特に問題ではないと考えることができ、最近ではBXTの効果に大きな疑問を呈する意見はあまり聞きません。でもMGCの場合はMARSデータを直接参照して、比較、補正しています。

でも実際にはこの考えは、今の段階では杞憂でしょう。MGCでの補正はあくまで背景に相当する空間波長の低い(粗い)補正のみです。今回の検証でも細かすぎる補正は、逆に見た目でも(今回は渦模様でしたが)変な補正になるようなので、極端なパラメータを使う方がおかしくなるのかと思います。でも原理的には差を見てそれがなくなるよううに補正することはできるはずで、極端な方向に進むと、まずいところは全て補正してしまって、理想とする画像にどれも近づいてしまうという危険は含んでいるのかと思います。

2. MGCがあるから、これで背景補正は完璧だと思ってしまうことは危険です。所詮元データとの比較だけなので、当然ですが補正後の結果は元データに依ります。元データのMARSデータベースが理想的かどうかは誰にもわからず、今わかっているのは35mmと135mmレンズで撮影された、全天とはいかないまでもかなり広い範囲の背景データであるということです。ただしアマチュアレベルではないので、ある程度の基準になっていると思ってもいいはずで、それを共通の財産として広く使えるようにしようとする方向性は相当な評価ができるのかと思います。

特に、ε130Dで突き当たった迷光は、どうやっても解決できなかったもので、それを解決できる手段の一つとして使えるというのは、個人的にはとても助かっています。そもそもこのε130Dの迷光問題、以前検証したページにも書いていますが、
  1. フルサイズセンサーくらいの面積で初めて出てくること
  2. さらに一眼レフカメラなどでは上下の蹴られの影響の方がはるかに大きく、それを回避したフルサイズのCMOSカメラなどを使い
  3. その上でかなり積極的な炙り出しをして初めて出てくること
です。なのでε130Dを使って撮影しても、実際に問題なるケースはそこまで多くはないでしょう。でも突き詰めていくと必ず出てくる問題なので、これを解決できる方法が提唱されたことは、とても嬉しいことです。

3. MGCは、分子雲に満たされた背景を、広い範囲と矛盾なく強力に補正してくれます。これは特にモザイク合成の接続に強力な威力を発揮するでしょう。他人の撮影画像とのモザイク合成も可能にすると思われます。

4. RGBだけでなく、Hα、OIII、SIIなどのメジャーなナローバンドでの参照データベースでの補正もいつか可能にして欲しいです。現段階ではナローバンドはまだ実用的とは全然言い難いという印象です。


その後の画像処理

ここまでMGCについてかいてきましたが、でも結局はRGB画像のMGCはほとんど活かすことはありませんでした。Hαに比べて背景の構造が出ていないので、結局Hαで上書きされてしまうからです。なので一番検証できたRGB画像なのですが、本当にMGCの検証というだけの意味合いになってしまいました。

というのも最初はRGB画像とHαとOIII画像をPhotoshopに送り、RGB画像のRとBに混ぜたりしたのですが、どうもHαの階調がうまく出ずに赤でのっぺりしてしまいました。そこで方針を変えて、PixInsightの段階でAOO画像を作り、それをベースにRGBの恒星と、一部星雲中心のRGBでしか出てこないような構造をくわえることにしました。

bin1のままだとファイルサイズが大きくなりすぎるので、全ての処理が終了して一旦JPEGで出力してか、そのJPG画像の解像度を変えてbin2相当にしています。

「IC405 勾玉星雲とIC41」
Image03_AOO2_s_brighter_cut
  • 撮影日: 2024年10月1日1時1分-3時36分、10月12日1時11分-4時42分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: TAKAHASHI製 ε130D(f430mm、F3.3)
  • フィルター: Baader:Hα 6.5nm、OIII 6.5nm、R、G、B
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI6200MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、bin1、Gain 100、露光時間5分、Hα: 17枚、OIII: 8枚、R: 10枚、G: 13枚、B: 12枚の計60枚で総露光時間5時間0分
  • Dark: Gain 100、露光時間5分、温度-10℃、37枚
  • Flat, Darkflat: Gain100、露光時間 Hα: 1秒、OIII: 1秒、R: 0.05秒、G: 0.05秒、B: 0.05秒で全て128枚
  • 画像処理: PixInsight、Photoshop CC
Hαの階調をできるだけ残すことと、赤一色にならないように、GやBを活かしつつ、OIIIも混ぜています。それでもやはり全体に赤っぽくなってしまうのは、まだまだ今後の課題でしょう。でもこの構造がHαにしか含まれれていないことを考えると仕方ないです。最近はHαをRだけに適用するのではなく、GやBに入れ込んでもいいのかと思うようになってきました。

恒例のアノテート画像です。
Image03_AOO2_s_brighter_annotted


過去画像の再撮影です。
light_BINNING_1_integration1_AS_DBE_cut
違いですが、
  • 鏡筒が口径6cmから13cm。
  • カメラがEOS 6DからASI6200MM Proなので、カラーからモノクロになっていて、フルサイズなのは同じですが、解像度は倍近くになっていて、ピクセルサイズも半分近くになっています。
  • フィルターはQBPだったのが、今回は実質AOO合成です。
  • 露光時間は52分から5時間と伸びています。
今回はナローバンドフィルターを使っているので、さらにコントラストは良くなるはずなので、露光時間を含めて、QBPとの直接の比較は意味がないかもしれませんが、ハード的な進化は大きいでしょう。それに加えて、StarNetやBXTなどのソフト的な進化もあります。あ、今回NXTの新バージョンも使いましたが、これはまたそのうちに検証したいと思います。


まとめ

やっと未処理画像が無くなりました。天気が良くなるまでにまだ時間があるなら、過去画像の再処理やボツにした画像の処理、特にボツにしたモザイク撮影の処理などをやってもいいかと思います。

今回はMGCを特にいじってみましたが、なかなか一意の方針を示すことは難しそうなので、このようなやり方で攻めていけばいいという指標くらいでしょうか。

もう少し赤っぽい印象を押さえつつ、階調を確保する方法が欲しいです。多分暗い空に行ってRGBで撮影するのが正解なのかと思います。結局前回の網状星雲と同じような悩みかと思うので、自宅でこれを解消しようとすると、またものすごく苦労しそうなので、もう少し何かいい方法がないか考えてみます。

今後の撮影ですが、少しSCA260を復活させてみたいと思います。SCA260用の、少し面白そうなアイテムを手に入れたので試してみることを考えています。

一連のBXTによる再画像処理の4例目です。これまで以下のように3つの再処理例を記事にしてきました。





元々BXTで言われていた星雲部分の分解能、あまり話題になってなくて遥かに期待以上だった恒星の収差補正など、劇的な効果があります。

その一方、最近のM106の画像処理で分かったのは

  • BXTで銀河中心部の飽和が起きることがある。
  • BXTの恒星認識に引っかからない微恒星が小さくならなくて、恒星の明るさ位に対する大きさの逆転現象が起きる。
  • 光軸調整が不十分なことから起きる恒星の歪みはBXTで補正できなくてむしろ変な形を強調してしまうことがある。
  • BXTはリニア段階(ストレッチする前)で処理すべき(とBXTのマニュアルにも書いてあります)だが、LRGB合成はノンリニア(ストレッチしてから)処理すべきなので、リニアでできるRGB合成した後の段階ではBXTを使うことができるが、(額面通りに理解すると)LRGB合成した段階でBXTを使うことはできないということになる。
など、弊害や制限も少なからずあるということです。

M106も2度処理しているのである意味再処理なのですが、BXTを使っての「過去画像の」再処理という意味では、銀河を扱うのは今回初めてになります。これまで手をつけなかったことには実は明確な理由がありますが、そこらへんも記事に書いておきました。

そう言ったことも踏まえて、今回のBXTを使った処理では何が分かったのでしょうか?


子持ち銀河

ターゲットのM51: 子持ち銀河ですが、昨年4月に自宅でSCA260を使い、ASI294MM ProのRGB撮影で総露光時間4時間半で撮影したものです。

実はM51の再処理、かなり初期の頃に手掛けています。時期的は最初のBXTでの再処理の最初の記事の三日月星雲よりも前に試しています。銀河はBXTで分解能が上がることをかなり期待していました。でも改善がほとんど見られなかったのです。

BTX導入直後くらいに一度M51の再処理を試み、その後三日月星雲とかを処理してある程度技術的にも確立してきた後に、さらに再処理してみたM51です。
Image199_ABE_ABE_ABE_DBE_NTX_HT_CT_CT_NXT_CT2_cut1

同じ画角の元の画像を下に載せます。
64da897b_cut

再処理ではHαを載せていないので、派手さはないのは無視してください。2つを比較してみると、確かに少し分解能は上がったかもしれません。でも思ったほどの改善ではありませんし、むしろノイジーになるなど、悪くなっているところも見受けられます。なんでか色々考えたのですが、恐らくですが以前の処理はDeNoise AIを利用するなどかなり頑張っていて、すでにそこそこの解像度が出ていたということです。言い換えると、(今のところの結論ですが)いくらAIと言えど、画像に含まれていない情報を引き出すことは(例え処理エンジンは違っても)できないのではということです。逆に情報として含まれていないものを飛び抜けて出したとしたら、それは流石にフェイクということになります。

BTXとDeNoise AIを比べてみると、DeNoise AIの方が(天体に特化していないせいか)大きくパラメータを変えることができるので、おかしくなるように見えると思われがちですが、おかしくならない程度に適用する分には、BXTもDeNoise AIもそこまで差がないように思いました。DeNoise AIはノイズ除去と共にSharpen効果もあるのですが、BXTはノイズについてはいじることはないので、DeNoise AI = NoiseXTerminator + BlurXTerminatorという感じです。

それでは、DeNoise AIではなくBlurXTerminatorを使う利点はどこにあるのでしょうか?最も違うところは、恒星の扱いでしょう。DeNoise AIは恒星ありの画像は確実に恒星を劣化させるので、背景のみにしか適用できないと思っていいでしょう。その一方、BlurXTerminatorはAIと言っても流石にdeconvolutioinがベースなだけあります。星像を小さくする効果、歪みをかなりのレベルで補正してくれる効果は、BlurXTerminatorの独壇場です。恒星を分離した背景のみ、もしくは恒星をマスクした背景のみの構造出しならDeNosie AIでもよく、むしろノイズも同時に除去してくれるので時には便利ですが、やはり恒星をそのままに背景の処理をできるBXTとNXTの方が手間が少なく恒星のダメージも全然少ないため、天体写真の処理に関して言えばもうDeNoise AIを使うことはほとんどなくなるのかと思います。


L画像を追加してLRGBに

さて、上の結果を見るとこのままの状態でBXTを使ってもあまり旨味がありません。根本的なところでは、そもそもの元画像の解像度がをなんとかしない限り何をやってもそれほど結果は変わらないでしょう。

というわけで、RGBでの撮影だったものに、L画像を新たに撮影して、LRGB合成にしてみたいと思います。当時はまだ5枚用のフィルターホイールを使っていて、Lで撮影する準備もできていくてLRGBに挑戦する前でした。この後のまゆ星雲ではじめて8枚用のフィルターホイールを導入し、LRGB合成に挑戦しています。

撮影日はM106の撮影が終わった3月29日。この日は前半に月が出ているのでその間はナローでHα撮影です。月が沈む0時半頃からL画像の撮影に入ります。L画像だけで合計47枚、約4時間分を撮影することができました。

ポイントはASI294MM Proで普段とは違うbin1で撮影したことでしょうか。RGBの時もbin1で撮影していますが、これはM51本体が小さいために高解像度で撮影したいからです。bin2で2倍バローを用いた時と、bin1でバローなど無しで用いた時の比較は以前M104を撮影した時に議論しています。


解像度としてはどちらも差はあまりなかったが、バローをつける時にカメラを外すことで埃が入る可能性があるので、それならばbin1の方がマシというような結論でした。

以前RGBを撮影した時は1枚あたり10分露光でしたが、今回は5分露光なので、ダーク、フラット、フラットダークは全て撮り直しになります。


画像処理

画像処理は結構時間がかかってしまいました。問題はやはりLとRGBの合成です。前回のM106の撮影とその後の議論で、理屈上は何が正しいかはわかってきましたが、実際上は何が一番いいかはまだわかっていないので、今回も試行錯誤です。今回下記の6つの手順を試しました。Niwaさん蒼月城さんが指摘されているように、LinearでのLRGB合成で恒星の色がおかしくなる可能性があるのですが、今回は際立って明るい恒星がなかったので、LinearでのLRGB合成がダメかどうかきちんと判断することができなかったのが心残りです。
  1. RGBもL画像もLinear状態で、LRGB合成してからBXT
  2. RGBもL画像もLinear状態で、BXTをしてからLRGB合成
  3. RGBもL画像もLinear状態で、だいこもんさんがみつけたLinLRGBを使い、HSI変換のうちIとL画像を交換
  4. RGBとL画像とLinear状態でBXTまでしてから、フルストレッチしてNon Linear状態にしてからLRGB合成。
  5. RGBとL画像とLinear状態でBXTまでしてから、フルストレッチしてNon Linear状態にしてからLab変換して、aとbをconvolutionでStdDev=5でぼかしてからLab合成。
  6. RGBとL画像とLinear状態でBXTまでしてから、少しだけストレッチしてLinearに近いNon Linear状態にしてからLab変換して、aとbをconvolutionでStdDev=5でぼかしてからLab合成。
と試しました。赤は間違ったやり方、紫はまだ検証しきれていないやり方です。

ちなみに
  • BXTはリニアで使うべし。
  • LRGBはノンリニアで使うべし。
というルールがあるので、最も正しいと思われる順番は
  • WBPP -> ABE or DBE -> RGB合成 -> RGB画像にSPCC -> RGB画像、L画像それぞれにBXT -> ストレッチ -> LRGB合成
かと思われます。この手順は4番に相当します。RGBがノイジーな場合には5番もありでしょうか。

それぞれの場合にどうなったか、結果だけ書きます。赤はダメだったこと、青は良かったことです。
  1. 星雲の明るい部分に青飛びが見られた。(極端に明るい恒星はなかったので)恒星などの飛びは見られなかった。LRGB合成した後でBXTをかけるので、本来恒星が小さくなると期待したが、うまく小さくならず、変な形のものが残った
  2. 星雲の明るい部分に青飛びが見られた。(極端に明るい恒星はなかったので)恒星などの飛びは見られなかった。1に比べて恒星が明らかに小さくなった。
  3. 星雲の明るい部分に青飛びが見られた。(極端に明るい恒星はなかったので)恒星などの飛びは見られなかった。1に比べて恒星が明らかに小さくなった。ちなみに、LinLRGBはPixInsightに標準で組み込まれているものではなく、Hartmut Bornemann氏が作ったもので、ここにインストールの仕方の説明があります。
  4. 青飛びが少し改善した。1に比べて恒星が明らかに小さくなった。ただし最初にストレッチしすぎたせいか、解像度があまり出なかった。
  5. 青飛びが無くなった。1に比べて恒星が明らかに小さくなった。ただし最初にストレッチしすぎたせいか、解像度があまり出なかった。
  6. 青飛びが無くなった。1に比べて恒星が明らかに小さくなった。ストレッチしすぎてなかったせいか、一番解像度が出た

というわけで、正しいと思われる4番は悪くないですが、青飛びを完全に解決できなかったことと、ストレッチの度合いがRGBとLが別だとどこまでやっていいかの判断がつきにくく、結局6番を採用しました。でもストレッチをあまりかけずにLを合成することが正しい方法なのかどうか、いまだによくわかっていません。その一方、Lab変換でabをボカしたことが青飛びを完全に回避しているので、手段としては持っておいてもいいのかもしれません。


仕上げ

その後、Photoshopに渡して仕上げます。分解能を出すのにものすごく苦労しました。AstrtoBinでM51を検索するとわかりますが、形の豪華さの割に、大きさとしては小さい部類のM51の分解能を出すのはなかなか大変そうなのがわかります。物凄く分解能が出ている画像が何枚かあったので「おっ!」と思ったのですが、実際にはほとんどがHubble画像の再処理でした。1枚だけHubble以外でものすごい解像度のものがありましたが、望遠鏡の情報を見たら口径1メートルのものだったのでさすがに納得です。それよりもタカsiさんが最近出したM51の解像度が尋常でないです。口径17インチなので約43cm、これでAstroBinにあった口径1メートルの画像に勝るとも劣りません。43cmでここまででるのなら、自分の口径26cmでももう少し出てもおかしくないのかと思ってしまいます。今回私の拙い技術で出せたのはこれくらいです。クロップしてあります。

「M51:子持ち銀河」
masterLight_ABE_crop_BXT_BXT_Lab_conv5_Lab_CT_bg2_cut_tw

  • 撮影日: RGB: 2022年4月2日20時32分-4月3日3時50分、LとHa: 2023年3月29日20時17分-3月30日4時34分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB、Hα
  • 赤道儀: Celestron CGX-L
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 240で露光時間10分がR: 7枚、G: 7枚、B: 10枚、Gain 240で露光時間5分がL: 47枚、Hα: 21枚の計27枚で総露光時間240+340 =580分 =9時間40分
  • Dark: Gain 240で露光時間10分が64枚、Gain 240で露光時間5分が128枚
  • Flat, Darkflat: Gain 240で露光時間 RGB: 0.03秒、L: 0.01秒、Hα: 0.2秒、 RGBがそれぞれ64枚、LとHαがそれぞれ128枚
  • 画像処理: PixInsight、Photoshop CC

元の大きさではこうなります。ただしbin1のままだと画素数が多すぎてブログにアップロードできないので、解像度を縦横半分のbin2相当にしてあります。

masterLight_ABE_crop_BXT_BXT_Lab_conv5_Lab_CT_bg2_lowreso

中心部を比較してみます。左が昨年のRGBだけのもの、右がL画像とHα画像を撮り増ししたものです。
comp

見比べると、明らかに今回のL画像が入った方が分解能が増していることがわかります。ただすでに画像処理がキツすぎる気もしています。今の機材でこれ以上の分解能を求めるにはどうしたらいいのでしょうか?

考えられる改良点は、
  • シーイングのいい時に撮影する。
  • Lがフィルター無しなので、UV/IRカットフィルターを入れて赤外のハロなどをなくす。
  • 振動が問題になる可能性があるので、三脚の足に防震シートなどを入れる。
  • 読み出しノイズに制限されているわけではなさそうなので、揺れ対策で1枚あたりの露光時間を3分ほどにしてみる。
  • Lの総露光時間をもっと増やす。
  • 暗い空で撮影する。
  • バローを入れて焦点距離を伸ばし、かつbin1で撮影する。
などでしょうか。小さな天体を撮影する際の今後の課題としたいと思います。


まとめ

BXTという観点からはあまり大したことは言えていません。分解能という観点からはDeNoise AIとそこまで能力は差がなさそうなことがわかりますが、恒星の収差補正などに利点があり、今後DeNoise AIを使うことはほぼなくなるでしょう。リニアなステージで使うことが正しそうで、RGBとLで別々に処理して合成しても問題なさそうなことがわかりました。BXTなしとありでは分解能に圧倒的に差が出て、今回もM51としてはそこそこの分解能になっていますが、まだ鏡筒の性能を引き出し切っているとは言い難いのかと思います。

RGBだけの場合と、Lがある場合では分解能にあからさまに差が出ることが改めてわかりました。でもなぜそこまで差が出るのか、自分自身本質的にはあまりよくわかっていません。単にLの露光時間が長いからなのか? R、G、Bとフィルターで光量が減るので、それに比べて全部の光子を拾うLが得なのか? それとも他に何か理由があるのか? 一度、R、G、B、Lを全て同じ時間撮影して、RGB合成したものからLを引き出して比較してみるのがいいのかもしれません。

とまあ色々議論したいことはありますが、庭撮りで着実に進歩はしてきていて、M51がここまで出たこと自身はある程度満足しています。でももう少し出るかと淡い期待を抱いていたことも事実です(笑)。


前回のM45に引き続き、SCA260でのお気楽拡大撮影の第2弾、今回はC49: ばら星雲の中心部です。

 


2度目の拡大撮影

2022/10/20の木曜、実は前日の水曜から天気が良かったのですが水曜は疲れ果てていて泣く泣く寝てしまいました。反省して、この日は早めにセッティングです。今回のターゲットのバラ星雲中心部ですが、前回の拡大撮影同様に、通常撮影の後の余り時間で撮影しています。今回は月が出るまでメインでアイリス星雲を撮影していて、その後に撮影を開始しています。

実際の撮影を始めたのは午前1時過ぎ。5分露光で月の影響があまり無いうちにBGRの順で、その後ナローでOASの順で撮影します。撮影枚数は各フィルターにつき4-6枚、6種類なので合計約3時間です。天文薄明開始前の午前4時過ぎ頃に撮影終了予定ですが、平日ということもあり、撮影が始まると1枚だけ確認しあとはベッドに入って寝てしまったので、結果がどうなったかはわかりません。

画像処理のために確認すると、風のせいでしょうか何枚かはぶれたりしていますが、ほとんどはよく撮れています。20日ほど前に撮影したフラット画像にホコリの跡があり使えないことがわかったので、休日の土曜日にフラットとフラットダークを撮り直します。今回は外が雨になりそうだったので、部屋の中の白い壁を使って、外の光と蛍光灯の光を壁に当てて撮影しました。


画像処理

土日を使って画像処理です。RGBの他にAOOを試したのですが、OIIIが暗くてイマイチでした。SAOも試しましたが、こちらもOIIIとSIIが暗いせいで採用する気になれませんでした。結局、RGBのLをHαで置き換えて細部を出すことにしました。もう月が出ている時間でしたが、Hαは流石にコントラスよく撮れています。

今回少し工夫した(インチキした?)のはRGB合成をした時点でStarNetで背景と恒星を分離し、Hαも同様に単独でStarNetで背景と恒星を分離し、背景だけでRGBのLをHαで置き換え、恒星はRGBのみのものを使い、後で背景と恒星を合成しました。理由はHαの恒星が小さすぎて、恒星込みでLを置き換えると恒星の形も色も全然バランスが取れないからです。まあお気楽撮影なので、画像処理もあまりこだわらずに好きなようにやってみるかという方針です。

結果は以下のようになります。

「C49: ばら星雲中心部」
Image97_RGB_ABE_ABE_PCC_bg_ARGB3 _cut
  • 撮影日: 2022年10月21日1時26分-4時00分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB、Hα
  • 赤道儀: Celestron CGX-L
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 120、露光時間5分、RGBHαそれぞれ4枚の計16枚で総露光時間1時間20分
  • Dark: Gain 120、露光時間5分、温度-10℃、32枚
  • Flat, Darkflat: Gain120、露光時間 RGB:0.05秒、Hα:1秒で、それぞれ128枚
  • 画像処理: PixInsight、Photoshop CC
Hαが効いているせいもあり、ものすごい構造が出ています。恒星に関してはまだシャープさが十分でないと思います。鏡筒の性能なのか、シンチレーションなのか、画像処理が不十分なのか、

月が出ている自宅での撮影で、各色20分
、合計露光時間わずか1時間20分。口径26cmの大口径ということもあるかとは思いますが、メイン撮影の後のお気楽撮影でここまででるわけです。明るい天体ならもうこれで十分いい気がしてきました。

ちなみに下が画像処理5分で仕上げたSAOです。SIIがどうしようもなく、ノイズ処理をかなりきつめにしてもこれくらいです。Sの淡いところはほとんど階調が飛んでしまっています。
Image07



まとめ

お気楽拡大撮影、あくまでついでの撮影なので労力に対するパフォーマンスがめっちゃいいです。メインの撮影画像より気軽に処理できるので、仕上がるまでも速いです。

次は燃える木を狙おうと思ってます。アルニタクが画面内に入ってくるので、新しくしたBaaderのSIIフィルターでゴーストが出なくなるかどうか検証する予定です。


ゴールデンウィーク中に遠征(30-40分くらいなので近征?)してSCA260とASI294MM Proで撮影したカラス座にあるアンテナ銀河の画像処理についてです。CGX-Lを持ち出したのでかなり大変でしたが、ここで大型赤道儀で外でも撮影できる目処が立ちました。

撮影時の詳しいことはすでに記事にしていて、近場のいつもの場所、


それと、牛岳で2日分です。




画像処理

撮影は計3日間ですが、初日の撮影分は風が強すぎて使い物にならなく、結局牛岳の2日分だけを画像処理に回しました。

露光時間は10分でBaaderフィルターでのRGB撮影です。確かこの撮影の頃にフィルターホイールを1.25インチの8枚のものにしたはずなのですが、まだLは撮ってないです。処理に使った枚数はRGBそれぞれ15枚、9枚、9枚の計5時間30分です。

フラットは撮影から帰った日の5月6日に、夕方の自宅の外で鏡筒に白い袋を被せて撮影したのですが、これは結局うまく合わずに、以前馬頭星雲の時に撮影したフラットを使い回しました。袋を被せたフラット撮影はFS-60CBの頃にやっていて、うまくいってたのですが、大口径ではまだうまくいったことがありません。普段フラットは晴れ、もしくは曇りの日の部屋の中の白い壁で撮影しています。これまで撮影のたびに毎回撮影していましたが、今回の結果を見るとどうも使い回しができそうな雰囲気です。使いまわすためには大きなホコリが入るとおそらくダメになるので、接眼部に着いているカメラなどの機器の取り外しは出来る限り避けたいです。

画像処理はWBPPまでは5月のうちに終わっていて、3ヶ月も放っておいたことになります。その間何度か仕上までトライしたのですがいまいち気に入らなくて、結局前回のM104の決着がつくまで落ち着いて進めることができませんでした。昨日からやっと仕上げにはいりました。

これまでに何度かに分けてPixInsightでストレッチやマスク作りまで終わっていたので、昨日からの作業はほとんどPhotoshopです。何度かやり直してもアンテナ部分がかなり淡く、マスク処理は多少複雑になりました。そのためマスクを作り直すなどの作業は少しありましたが、なんとか炙り出すことはできたかと思います。

「NGC4038: アンテナ銀河」
Image196_pink_deconv4
  • 撮影日: 2022年5月4日21時14分-5日0時5分、5月5日21時14分-6日0時51分
  • 撮影場所: 富山県富山市牛岳
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB
  • 赤道儀: Celestron CGX-L
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 120、露光時間10分、R: 15枚、G: 9枚、B: 9枚の計33枚で総露光時間5時間30分
  • Dark: Gain 120、露光時間10分、29枚
  • Flat, Darkflat: Gain120、露光時間 RGB: 0.07秒、RGBそれぞれ64枚
  • 画像処理: PixInsight、Photoshop CC

出来上がった画像を見ると、まだ恒星サイズが大きいのではと思いました。露光時間が長くて揺れが出たのかと。やはり10分露光でなく、5分露光位に抑えておいた方がいいかもしれません。

下のアンテナ部は先っぽの巻き巻きも含めてそこそこ出たと思います。それでも上のアンテナの先端の広がりがあるはずなのですが、そこまでははっきりとは写りませんでした。

あと銀河の細部がもう少し出てくれてもよかったかと思います。銀河の下部にアンテナ部との境があるように見えて、最初画像処理のせいかと思いましたが、どうもリアルにあるようです。

いつものAnnotationです。

Image196_pink_deconv4_Annotated

少し斜めになってしまっています。もうなにも記憶はありませんが、あまり真面目に回転角を合わせていなかったようです。


まとめ

牛岳という、少なくとも普段撮影する自宅よりは十分暗い場所で、結局2日にわたって5時間半のアンテナ銀河の撮影でしたが、それでもアンテナ部分はかなり淡かったです。マスクを駆使してやっと出ましたが、結構大変でした。特に銀河もう少し解像度が出るかと期待していましたが、シンチレーションと露光時間によるのかと思います。またいつか機会を見て撮影してみたいと思います。

さて、さらに溜まっている画像処理を進めることにします。

3月3日にSCA260で撮影した馬頭星雲。



作例として仕上げるために、合計6晩も撮影を続けました。 


目的

今回の目的は、
  1. ある程度振動対策を施したSCA260で、3分露光で多数枚スタックしてどこまで恒星が点像に迫れるか見る。
  2. 馬頭星雲の、特に本体の暗黒帯部分で、細部がどこまで出るか見る。
  3. 近くのアルニタクのゴーストを抑えることができるか?
  4. 馬頭星雲のすぐ下のNGC2023の青がどこまで出るのか見る。
などです。


長期間撮影

さて6日に渡って撮影を続けた理由ですが、この時期のオリオン座は早い時間に西の低い空に傾き、高い位置で撮るには時間が限られてしまうからです。実際、6晩のうち前半3晩は、曇っていたりでセットアップに時間がかかり、撮影開始時刻が21時とか22時以降になってしまい、かなり低空での撮影からになってしまいました。後から見返すと低空の霞や雲のせいか、背景が明るすぎて星雲本体が淡くしか出ていなかったり、画面にムラがあったりしたため、3晩分の画像はほぼ全て処理には使えませんでした。


アルニタクとの攻防

特に不思議だったのが、最初の2晩にだけアルニタクのゴーストが顕著に出てしまったことです。というより、最初にゴーストを見たときに、これをどうやって除去したらいいのか真剣に悩んだのですが、フィルターなど設定を全く変えることなく後半の撮影ではゴーストが消えていました。やはりかすみのせいなのでしょうか?これはいまだに理由がわかっていません。

Image101
上部に大きな輪っかのようなゴーストが出てしまっています。

さらに、アルニタクの周りに青い光芒が見えますが、これは高度が高い場合には出ることがなくなりました。こちらは低空の霞で散乱されて出てきていたのかと推測します。

光条線は最後まで残ってしまいました。だいこもんさんが光条線を短くする方法を提案してくれてましたが、これくらい輝度差がある恒星が画角近くに入ってくる場合は試す価値がありそうです。




振動について

今の赤道儀CGEM IIに重いSCA260を載せると振動はどうしても残ってしまいます。これまで鏡筒の軽量化を中心にいろいろ振動対策はしてきましたが、やはり露光時間1分程度が実用範囲、今回のように3分露光だと採用率がかなり下がってしまいます。風がほとんどない場合でも揺れは残るので、風が強い日はほぼ全滅です。ただ、揺れの方向はある程度ランダムになっているので、多少星像が歪んでしまっても多数枚のスタックで平均化され、仕上がりはマシになると思います。


画像処理処理に使った枚数

撮影枚数は、使わなかったものを含めると
  • R: 48枚、G: 66枚、B: 61枚、Hα: 58枚
となります。3分露光なので、
  • R: 144分、G: 198分、B: 183分、Hα: 174分で、合計11時間39分
とかなりの長時間になります。そのうち、ある程度まともで使おうとしたものが
  • R: 22枚、G: 31枚、B: 31枚、Hα: 35枚
となります。落とした画像のほとんどは6晩のうちの前半3晩のもので、撮影開始時間が遅くて低空の霞などのためです。前半3晩は撮影枚数、採択率も散々で、わずか
  • R: 0/12枚、G: 3/10枚、B: 3/10枚、Hα: 4/22枚
というものでした。後半の3晩は、前半の反省から早い時間に準備したため、一気に撮影枚数と採択率があがり、
  • R: 22/36枚、G: 28/56枚、B: 28/51枚、Hα: 31/36枚
となりました。後半使わなかった画像の多くは、やはり時間が遅くなり低空になってしまったものです。それとは別に、揺れてしまって使えないものがありましたが、それらの率はそこまで多くありません。

さらにですが、使おうとした枚数とPixInsightで実際に使われた枚数は少し違って、
  • R: 22枚、G: 30枚、B: 22枚、Hα: 23枚
枚でした。registeredフォルダを見ると実際にスタックされた枚数が判明します。BとHαがかなり落とされてしまいました。今まで気づいたことがなかったのですが、スタック時など特に位置合わせがうまくいかない時に弾かれるようです。なので今回は合計時間は思ったより少なくて、合計291分で4時間51分でした。パラメータをいじることでもう救い上げることができそうなのですが、もしかしたらこれまでの作例でもPIに登録した枚数より実際にスタックされた枚数のほうが少なかったケースがあるのかもしれません。


西の低空の影響

少し西の低空の影響がどれくらいあるのか見てみます。

1. まず、3月9日の19時13分と22時41分をB画像で比べてみます。19時のをオートストレッチにかけて、同じパラメータを22時のものに適用しました。

19時13分のB画像。
2022-03-09_19-13-08_IC 432_LIGHT_B_-10.00C_180.00s_G120_0005

22時41分のB画像
2022-03-09_22-41-21_IC 432_LIGHT_B_-10.00C_180.00s_G120_0004
明らかに22時台のほうが明るくなり、馬頭星雲が薄くなります。一番のポイントはNGC2023の写る範囲がせまくなっていること。

2. 続いて、3月10日のRを20時16分と22時53分で比較します。

20時16分のR。Bより馬頭星雲がクリアに出ているのはわかりますが、星の数が全然増えています。
2022-03-10_20-16-58_IC 432_LIGHT_R_-10.00C_180.00s_G120_0000

22時53分のR。この日は西が相当明るかったようです。
2022-03-10_22-53-37_IC 432_LIGHT_R_-10.00C_180.00s_G120_0009

これをオートストレッチしただけだと同じような明るさで比べることができます。
2022-03-10_22-53-37_IC 432_LIGHT_R_-10.00C_180.00s_G120_0009_STF
明らかに淡いのとともに、画面にムラがあるのが分かります。薄い雲のせいでしょうか?

3. その一方、同じ3月10日のHαだと背景に差があまり出ません。

19時45分と
2022-03-10_19-45-11_IC 432_LIGHT_A_-10.00C_180.00s_G120_0000

22時21分です。
2022-03-10_19-45-11_IC 432_LIGHT_A_-10.00C_180.00s_G120_0000

あまりに背景の明るさが変わらないので、最初ミスかと思って再確認しましたが、やはりきちんと19時のパラメータで22時のもストレッチされてました。背景光の影響があまり出ないのはやはりナローバンドの威力と言っていいのでしょうか。背景光の明るさに差はなくても、細部ので方はきっちりと差が出ていて、やはり高度のある19時台の方が細かいです。あと、恒星の数がRに比べてかなり少なく、GやBと同程度です。波長から考えたらRに近い数が出ると思ったのですが、Hα以外の赤い領域でも多く光っているためRと差が出たということなのかと思います。

赤に比べて波長の短い青は低空でより散乱しやすいので、やはり青を出したいときはできるだけ高度が高いところで撮影するのが良さそうです。また、RでもHαでも細部の出方は結構違うので、こうやってみるといずれにせよ高度のあるところで撮るのが有利なのがわかります。


7nm Hαフィルターの効果

実はナローバンドフィルターをRGBと混ぜたのはまだほとんど経験がなくて、M33の赤ポチで混ぜたくらいです。そこで、ちょっと蛇足ですが今回使った7nmのHαフィルターを使うとどれくらい得するか、簡単に見積もってみたいと思います。

可視光が400-750nmと仮定して、光量が波長によらずに平均的に広がっていると仮定します。Hαが7nmなので、波長だけで単純にフィルターなしの場合と比較すると7/350 = 1/50と背景光は50分の1程度になるわけです。フィルターなしで撮影する場合に同程度のクオリティーにしようと思うと、50倍の時間をかける必要があります。

これは次のように考えることができます。シグナルに当たるHαはフィルター有り無しで変わらないとして、背景光が50倍だとしたらスカイノイズはルート50~7倍程度増えます。Hαフィルターをつけた場合に比べて、フィルターなしの時は、背景光ノイズに関してはルート50倍ノイジーだと言うことです。ルート50倍ノイジーなものを、同程度にするためには50倍の露光時間にする必要があり、そうすると信号は50倍ノイズはルート50倍になるので、S/N(Signal to Noise ratio)では50/ルート50 となり、ルート50倍得するというわけです。

Redフィルターの透過範囲が600nmから700nm程度なので、それとHαと比べても100/7で15倍程度となり、背景光に関してはRフィルターで15倍程度の時間をかけて、今回のHαと同程度となります。うーん、これはかなり大きな差ですね。この明らかにS/NのいいHα画像をどうやって混ぜ込んでいくかがキーになるのかと思います。


画像処理

RGBの画像処理はこれまでと特に変わりはありません。PixInsightのWBPPです。

初日の画像だけで処理した低い空のものはこのページの一番上の画像なんですが、強度のすとれっちをかけてあるので、普通のオートストレッチで見てみます。
Image101_STF
赤が弱く、アルニタクのゴーストと青い光芒が目立ちます。その一方、NGC2023の青が不十分です。

次はここまで使ったRGBをほぼ捨てて、オリオン座が高い空の時にRGBをほぼ全部を撮り直した場合です。NGC2023がかなりはっきりしてきました。アルニタクのゴーストが(なぜか)消え、青の光芒もなくなりました。赤もはっきりしてきました。結構いい感じですが、左下辺りにどうも緑のムラがあります。

Image17_PCC

ちょうどこの時期にPixInsightの1.8.9へのアップデートがあり、WeightedBatchPreprocessing Scriptにlocal normalizationが加えられたとのこと。local normalizationはこれまで使ったことはありませんでしたが、薄雲越しのムラができやすい撮影や、複数の日にまたがり条件が変わる撮影などの場合に、状態を合わせてくれる処理のようです。WBPPの中で自動で行われるとのことなので、実際にオプションをオンにして試してみました。

アップデート前(上)と後(下)でG画像を比較してみます。
masterLight_BIN-2_EXPOSURE-180.00s_FILTER-G_Mono

masterLight_BIN-2_EXPOSURE-180.00s_FILTER-G_Mono_1
他は特に何もしていませんが、明らかに違いますね。ムラがかなりきちんと撮れてストレッチに伴い細部がかなり出ています。このG画像を使ってRGB合成した結果は以下のようになり、かなりまともになってきました。

Image34_PCC

まだBに少しムラがある気がしますが、B画像はアップデート前後でほとんど違いが出ませんでした。とりあえずまだ不明な点も多いのですが、今後理解していきたいと思います。

RGB画像はPixInsightでストレッチまでして、Starnet++ Ver.2で恒星と背景を分離して、Photoshopに引き渡します。Hα画像もストレッチまでして、同様に恒星と背景を分離します。

恒星に関してはPCCを施したRGBの色が正しいと仮定して、Hαの恒星は捨てることにしました。Photoshop上でHαg像をレベル補正を使いRに変換し、それを「比較(明)」でレイヤーとして重ねます。元のRをを調整することで重なり具合を調整できますが、Hαの細部の暗い部分が鈍ってしまう可能性があるので、もう少しいい方法を見つける必要がありそうです。もちろんPixInsightの段階で重ねてもいいのですが、後に微調整をしたくなることを考えると、現段階ではPhotoshop上で処理してしまった方が楽そうです。


結果

最終的にできた画像が以下になります。

「IC434: 馬頭星雲」
Image34_PCC_AS_HT5a_cut
  • 撮影日: 2022年3月3日22時46分-23時7分、3月4日22時4分-22時14分、3月8日21時58分-23時06分、3月9日19時13分-22時25分、3月10日19時45分-22時2分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB, Hα:7nm
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 120、露光時間3分、R: 22枚、G: 30枚、B: 22枚、Hα: 23枚の計97枚で総露光時間4時間51分
  • Dark: Gain 120、露光時間3分、128枚
  • Flat, Darkflat: Gain 120、露光時間 RGB: 0.08秒、Hα: 1秒、それぞれ128枚
  • 画像処理: PixInsight、Photoshop CC

まだHαからの赤が強い気がします。もう少し落としてもいいかも。馬の頭の中を含めて、細かい模様はそこそこ出たと思います。NGC2023は青色は出ましたが、もう少し細部が出てもいい気がします。画像処理の腕がまだまだなのかと思います。恒星の星像はスタックするとかなり真円に近くなりますが、少し同一方向に延びています。これは赤道儀特有の揺れが残ってしまった部分かと思います。

それでもそこそこ撮れたので、まあ満足かと思います。


まとめ

かなり長い期間かかって、やっと画像処理までたどり着けました。最初に撮影した分だけで処理したときは、ゴーストもあれば、色は全然出ないで、どうしようかと思いました。低空での撮影が問題だとわかってやっと目処が立ってきました。

SCA260での撮影は、今の赤道儀ではどうしても振動が取り切れません。同じ日の夜半過ぎからM100とM101を撮影してあり、まだその処理が残っています。今回のような画面全体で見るような星雲とかはまだいいのですが、小さい系外銀河などでは揺れによる星像の悪化がどうしても目立ってしまうことがわかってきました。撮影した銀河の処理を見てからの判断ですが、赤道儀をもっと頑丈なものにしていく必要がありそうです。

あ、今回の馬頭星雲、暗黒帯の中の模様も出てきたので結構満足して妻に見せました。でも中の模様のせいか馬の頭とは全く認識できないみたいで、首のない進撃の巨人にしか見えないとのことです。あーぁ、画像処理は奥が深いです...。


このページのトップヘ