ほしぞloveログ

天体観測始めました。

カテゴリ:画像処理 > 再処理

M104の画像処理も終わり、補足も含めてブログ記事も書き終えたと思って安心していました。


次に撮影したヘルクレス座銀河団の画像をチェックしていたら、なんとM104をさらにもう1日ぶん追加で撮影していたことに気づきました。その日のシンチレーションが悪ければ無視していいのですが、こういう時に限ってなぜか有意にいいのが撮れてしまっているんですよね。


まずは画像のチェック

SubframeSelectorで個々の画像のFWHMを見てみます。L画像を3日間撮影しているので、それぞれL1、L2、L3とします。前回までで、L1がFWHM = 13pixelくらい、L2は20pixelくらいで、L1にL2から特に悪いものを除いたものを画像処理に回しました。L2の内、特に悪いものは20pixelよりもさらに悪く、残ったいいものでも20pixel程度だったので、L1とは明らかに差があるものを混ぜて処理してしまいました。それでも、実際インテグレートした画像のFWHMを測っても、そこまで有意な落ちがなかったので良しと判断しました。

FWHMを順に見ていきます。まずはL1です。133枚あって、前回までの画像処理では全て使いました。ここでは後に見たL3の基準に合わせた判断をしてみていて、FWHMが12以上、もしくは星の数が35以下なら弾くと判断しています。赤のx印はダメだという判断で、撮影したL1の133枚のうち40枚が残るという判断です。この判断は後で使います。_
SS_L1

L2は酷いもので、上の判断に従えば全滅です。これでも前回はBlinkで見た目判断でダメなものはすでに捨てていて、その残りの56枚でこの結果です。
SS_L2

最後はL3です。新たに発掘された4月12日に撮影したものですが、FWHMだけ見ても9以下のものもあり、L1と比べても全然いいのがわかります。途中時間が経つと悪くなってしまっているので、FWHMが12以上、もしくは、星の数が35以下は使わないという判断をここでしました。FWHMが12という理由は、前回の主にL1のFWHMが13程度だったので、それよりもいいものを使おうということ、星の数は、飛び抜けて数が少ないものを捨てようという意図です。L1にも同様の判断をしたものが、上の図の結果というわけです。L3は全部で139枚撮影して、そのうち24枚除いた115枚を採用しています。
SS


L1とL3の画像で比較

L2は論外なので使わないとして、まずはL1を全て(赤のxは無視して)使った場合と、L3を基準内で使った場合を比較します。それぞれWBPPでインテグレートしてできたL画像に、ABEの4次とDBEをかけて、BXTのCorrect onlyをかけ、その後BXTの星の縮小を0.5、ハロは0、PSFはオートで、背景は1.0をかけます。2枚ともインテグレート後も全て同じ条件で処理しています。

できた2枚の画像を前回締めしたハッブルの画像とほぼ同じ位置で切り取り、重ねてGIF画像で切り替えて見えるようにしてみました。
L1

違いがわかりますでしょうか?ぱっと見どこが違うかわかりにくいかもしれませんが、じっと見てるとモヤっとしてるか、星になっているかなど、違いが見えてくると思います。恒星が大きく見えるのがL1、小さく見えるのがL3です。BXTを同様にかけても、出来上がりの恒星の大きさは元の恒星の大きさに依るということがまずわかります。

上の画像だとちょっとわかりにくかもしれないので、L1でBXTに拾われなくて、L3でBXTに拾われたと思われる恒星を拾ってみました。
L3_marked
もしかしたら取りこぼしているものもあるかもしれませんし、判断が難しいものもありましたが、とりあえず24個と少なくとも無視できないくらいの数の違いがあります。

これらは最終処理で見える星として生き残るものです。一方、モヤモヤしていてまだBXTで取りこぼしてしまっているものも多数あることもわかります。これらは最終処理では背景に埋もれてしまい、星として見えることはないですし、モヤモヤも背景をある程度明るくしないとわからないので、実質的には表には出てこないでしょう。それでも、どれだけシンチレーションがいい日に撮影したとしても、BXTを使う限り、その閾値の上下で星として生き残るか無視されてしまうかが決まってしまうのかという問題は、今のところ避けることはできないようです。かといって、BXTを使わなければ、さらに多くの星が星として成り立たずに背景に埋もれてしまうので、今の所BXTを使う方向でいくほうが有利なのかと思います。

いずれにせよシンチレーションでBXTの有効範囲が大きく変わり、シンチレーションがいいほどより多くの恒星を救えることがわかりました。

一方、銀河本体はというと、あまり目に見えては改善しているように見えませんが、それでも細かいところを見てみると少なくとも何か改善はあるように見えます。


L3画像に同基準のL1画像を加えてみる

次に興味があるのが、L1にL3と同じ採用基準でいいと判断した画像を、L3画像に加えてインテグレートしたものを考えてみます。せっかく撮影した画像をできるだけ使いたいというもったいない精神です。

枚数は元のL3が115枚で、同条件で採用されたL1が40枚です。枚数が(115 + 40) /  115 = 1.38倍に増えたので、S/Nは√1.38 = 1.16倍くらいよくなるはずです。

インテグレーション直後の画像でPIのScript -> Image Analysis -> SNRView (PI上にロードしてある画像のS/Nを一度に評価してくれる)比較してみると、L3のみのS/Nが41.24dB、L3+L1のS/Nが42.65dBでその差は1.41dB = 1.176倍になり、ほぼ枚数増加で期待されるS/Nの増加となっていることがわかります。

これで気を良くしたので、恒星の数も増えると期待して、改めてL3だけの画像と、L3+L1の画像を同様にGIFで比較してみます。
L3_vs_L1L3

こちらはさらに変化がわかりにくいですね。なのでこれも同様に、変化のあった恒星を丸で囲みました。非常に面白い結果です。まず、青丸がL3+L1でBXTに恒星として認識されずL3のみのときにBXTで認識されたと思われる恒星です。数を数えると12個もあります。黄色の丸は逆にL3+L1の方がBXTで救い取られている恒星ですが、こちらの方が数が圧倒的に少ないです。撮影枚数の少ないL3だけの方が、恒星に関してはより分解能が出ているということで、S/Nとは逆転現象が起きてしまっています。
L3_vs_L1L3_marked

ちなみに紫色の丸はL3とL3+L1で位置がずれてしまっているものです。BXTで何らかの認識はされたのですが、補正が必ずしもうまくいっていないということでしょうか。どちらの位置があっているかはわからないですが、そもそもたまたま両画像で星の一致しているからといって、必ずしもその位置が正しいかどうかはわかりません。元々相当暗くて淡くて広がってしまっている星です。シンチレーションで星の位置がぶれていたり、インテグレートする時に画像を歪ませていることもありするので、この結果だけでBXTに問題があるというのは早計でしょう。これらのことについては、別途きちんと定量的な評価をすべきかと思います。


S/Nと分解能の関係は?

さて、このS/Nと恒星の分解能について少し考えてみます。私は最初単純に枚数が多いL3+L1の方がS/Nもよくなり、分解能も良くなると思い込んでいました。S/Nは数値的にもほぼ理論に従いましたが、分解能に関してはL1を加えた枚数が多い方が悪くなってしまっているようです。

このことについては、ラッキーイメージ的な解釈である程度納得することができました。L3に加えたL1画像は、基準が同じといってもL3と比べたら、L3の中でもかなり悪い画像に相当するものなのかと思います。ここでいう悪いというのは、FWHMが12に近い大きなもので、星の数も少ない方という意味です。たとえ枚数が少なくても、いい画像のみを集めて使うラッキーイメージと似たことが起こったと思うと、S/N(明るい信号部分と暗いノイズ部分の比)は悪くても、明るいところの分解能は得をするということでしょうか。

こう考えると、S/Nと分解能は結構独立で、別個のパラメータと考えた方が良さそうです。今回はL3をFWHMが12以下で区切って使っていますが、銀河部分をメインに考えるとS/Nは十分取れているので、もっと枚数を減らしても良いのではと考えることもできます。FWHMの基準を厳しくしたほうが、元々の目的のM104の内部の構造を出すという目的からは、正しいのではないかと推測できるわけです。

でもこれをどこまで攻めてもいいのか?S/Nをどこまで落としてもいいのかの基準がよくわからないので、判断が難しいです。例えばL3画像でFWHMを10以下として、枚数は半分程度に減ってしまうかもしれませんが、実際に試して画像処理までしてみるのは価値があるかもしれません。

と、ここまで記事を書いて疑問に思ったので、焦らずに疑問はできるだけ解決するということで、実際に試してみました。条件はSubframeSelectorでL3画像のうちをFWHM10以下、かつ星の数が50以上のものを採用するとしました。枚数的にはFWHM12以下、かつ星の数が35以上だったときに115/139枚だったのが、44/139枚と、3分の1強くらいになりました。これで全く同じ条件でWBPPをかけインテグレーション直後でまずはS/Nを測定してみると、115枚だった時が上でも示しましたが41.24dBで、さらに条件を厳しくした44枚の方が37.57dBでした。115枚と44枚から計算したS/Nの改善比はsqrt(115/44) = 1.62です。一方インテグレーションした画像の実測値での比は41.24 - 37.57 [dB] = 3.67 [dB] = 10 ^ (3.67 / 20) = 1.53となるので、1.62から少しだけずれますが、まあ誤差の範囲内で一致してるといっていいでしょう。

では同様にL3で115枚使った時と、44枚使った時を、GIFアニメで比較してみます。
L3_115_L3_44
S/Nで高々1.5倍程度の違いなのに、大きく違って見えます。違いを挙げてみると、
  1. 115枚の方が、恒星が大きく見えて、44枚の方は恒星が小さく見える。
  2. 44枚の方が背景がノイジーで荒れている。
  3. 44枚の方はBXTで救いきれていない、取りこぼしている恒星が多い。
  4. 銀河本体の評価は難しく、一見44枚の方が細かいところまで出ている気もするが、ノイジーなだけの気もする。
1. 恒星の肥大に関しては、FWHMが小さい44枚の方が(同じパラメータの)BXTをかけた後でも小さくでるので、FWHMだけで判断してしまっていいでしょう。やはりラッキーイメージ的なFWHMが小さいものを選ぶのは、恒星の鋭さでは結果的にも有利です。

2. 見かけの背景の荒れ具合はどこまで炙り出したかだけの問題なので、背景が荒れ荒れに見えるのは気にしないでください。同じS/Nの画像でも強炙り出しすれば荒れて「見えて」しまいます。

3. それよりもここで重要なのは、暗くて淡い恒星の出具合が全く違ってしまっていることです。明るい恒星は元々S/Nが高いので、2枚の画像であまり差はないですが、暗い恒星はS/Nが低いのでNの影響をより大きく受けます。

例えば、115枚インテグレーションした画像の中で、BXTでギリギリ生き残った星のS/Nをインテグレーション直後の画像で測定すると (実際は淡い星の範囲を決めるのが難しいので測定もなかなか難しいのですが)、少なくとも2から3くらいはあります。一方、115枚画像で生き残った同じ星と同じ位置の、44枚の画像で生き残らなかった星のS/Nを測定すると1から1.5程度で、有意に差があります。115枚の時に2とか3あったS/Nが、枚数が44枚と少なくなりノイズが1.5倍ほど上がり、S/Nも1.5分の1ほどになり、恒星として認識されなくなったということかと思います。

このように、高々1.5倍程度のわずかなノイズの増加が、淡い部分には決定的に効いてしまうわけです。

4. 恒星のFWHMが小さいと背景の分解能もより出ているはずですが、いかんせんノイズのNが悪くて判断がつきにくく、全体としては44枚の方が不利と言っていいでしょう。


こうなるともう、ラッキーイメージで枚数を制限するか、S/Nを稼ぐために多少FWMHは悪くても枚数を増やすかは、完全にトレードオフですね。恒星の鋭さを取るか、淡い恒星が残るのを取るかです。銀河本体も同様にトレードオフかと思います。要するにその場その場に置いて、どちらを取る方が有利か判断して決めるべきなのかと思います。しかもインテグレーションまでしての判断なので、手間も時間もかかり、きちんとやろうとするとかなり大変になりそうです。

それよりも、これ以上の劇的な改善を考えるとすると、
  • 同等のシンチレーションのいい日に、より多くの枚数を撮影するか
  • 同等のシンチレーションのいい日に、より暗い空で撮影するか
だと思います。今のノイズは光害によるスカイノイズが支配的なので、このスカイノイズを改善する方法を考えるべきだということです。言い換えると、ここまで来てやっと自宅の光害が問題になるレベルに辿り着き、やっと暗い場所で撮影するべきかどうかの議論する価値が出てきたということなのかと思います。これまでは基本自宅撮影が多くて、今回のM104は系外銀河で背景を気にしなければ銀河本体はそこそこ明るいので、自宅でも十分だと思っていました。今のところ自宅だと厳しいと思ったのが、
  • M81を撮影した時のIFN
  • Sh2-240やダイオウイカなどのものすごく淡い天体を撮影した時
ですが、今回の
  • 系外銀河周りの恒星を出したい時
が新たに加わり、3つになりました。

まだ暗黒帯とかにあまり手を出していないので、ここら辺もいずれ暗いところを求めることになるかと思いますが、徐々に自宅撮影の限界が見えてきたということだと思います。今のところ頻繁に遠征に行くのは時間的に厳しいので、貴重な遠征の機会を逃さないように、あらかじめ遠征時のターゲットをはっきり決めて置くことがこれからの課題でしょうか。


画像処理

FWHMを12ピクセルで切ったL3のみ44枚でインテグレートしたL画像と、前回までの画像処理で使ったRGB画像を使って、画像処理をしてみます。

比較しやすくするため、ハッブル、今回、前回の順で並べます。
STScI-01EVT8YHAGM2WGQTV3DGKRFZ7Q

Image07_rot_Hubble_mod_cut

Image07_rot5_Hubble

恒星のシャープさは上がりました。救い上げた星の数は増えましたが、一部以前残っていた星が新たに消えてしまっているものもあります。でも、ハッブルの画像みたいに微恒星が一面に星が散らばっている様子からは程遠いので、ここら辺が次の課題でしょうか。

銀河本体は一部前回のほうが良かったところもあるように見えますが、基本的には今回の方が細部も出ていて、明らかに良くなっています。ハッブルの画像に多少なりとも近づいているのかと思います。どうやら改めて全画像処理工程をほぼやり直した甲斐はあったようです。

全体像も更新です。
Image07_middle

Image07_ABE1_crop_ABE4_DBE_BXTc_SPCC_BXT_LRGB_BXT_back_GHSx3_low
  • 撮影日: 2024年4月10日20時27分-4月11日3時18分、4月12日21時49分-4月13日0時46分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: 無し
  • 赤道儀: Celestron CGX-L
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 120で露光時間1分でL: 115枚、R: 59枚、G: 51枚、B: 64枚、総露光時間289分 =4時間49分
  • Dark: Gain 120で露光時間1分が204枚
  • Flat, Darkflat: Gain 120で露光時間 LRGB: 0.01秒でそれぞれ128枚
  • 画像処理: PixInsight、Photoshop


まとめ

今回いろいろ試したことで、FWHMで分解能を評価できる手法はある程度確立できたのかと思います。やはりシンチレーションの影響は大きく、まずはいい日を選ぶことかと思います。その一方、淡い部分はS/Nの、特にノイズが大きく関係するので、全体の仕上がりとしてはFWFMだけでなく、枚数をある程度確保するか、スカイノイズを回避する必要があるのかと思います。

長かったですが、M104はとりあえずこれで完了とします。次回M104に挑戦するときは、暗い場所に行って撮影し、恒星がどこまで出るのか挑戦してみたいと思います。



一連のBXTによる再画像処理の4例目です。これまで以下のように3つの再処理例を記事にしてきました。





元々BXTで言われていた星雲部分の分解能、あまり話題になってなくて遥かに期待以上だった恒星の収差補正など、劇的な効果があります。

その一方、最近のM106の画像処理で分かったのは

  • BXTで銀河中心部の飽和が起きることがある。
  • BXTの恒星認識に引っかからない微恒星が小さくならなくて、恒星の明るさ位に対する大きさの逆転現象が起きる。
  • 光軸調整が不十分なことから起きる恒星の歪みはBXTで補正できなくてむしろ変な形を強調してしまうことがある。
  • BXTはリニア段階(ストレッチする前)で処理すべき(とBXTのマニュアルにも書いてあります)だが、LRGB合成はノンリニア(ストレッチしてから)処理すべきなので、リニアでできるRGB合成した後の段階ではBXTを使うことができるが、(額面通りに理解すると)LRGB合成した段階でBXTを使うことはできないということになる。
など、弊害や制限も少なからずあるということです。

M106も2度処理しているのである意味再処理なのですが、BXTを使っての「過去画像の」再処理という意味では、銀河を扱うのは今回初めてになります。これまで手をつけなかったことには実は明確な理由がありますが、そこらへんも記事に書いておきました。

そう言ったことも踏まえて、今回のBXTを使った処理では何が分かったのでしょうか?


子持ち銀河

ターゲットのM51: 子持ち銀河ですが、昨年4月に自宅でSCA260を使い、ASI294MM ProのRGB撮影で総露光時間4時間半で撮影したものです。

実はM51の再処理、かなり初期の頃に手掛けています。時期的は最初のBXTでの再処理の最初の記事の三日月星雲よりも前に試しています。銀河はBXTで分解能が上がることをかなり期待していました。でも改善がほとんど見られなかったのです。

BTX導入直後くらいに一度M51の再処理を試み、その後三日月星雲とかを処理してある程度技術的にも確立してきた後に、さらに再処理してみたM51です。
Image199_ABE_ABE_ABE_DBE_NTX_HT_CT_CT_NXT_CT2_cut1

同じ画角の元の画像を下に載せます。
64da897b_cut

再処理ではHαを載せていないので、派手さはないのは無視してください。2つを比較してみると、確かに少し分解能は上がったかもしれません。でも思ったほどの改善ではありませんし、むしろノイジーになるなど、悪くなっているところも見受けられます。なんでか色々考えたのですが、恐らくですが以前の処理はDeNoise AIを利用するなどかなり頑張っていて、すでにそこそこの解像度が出ていたということです。言い換えると、(今のところの結論ですが)いくらAIと言えど、画像に含まれていない情報を引き出すことは(例え処理エンジンは違っても)できないのではということです。逆に情報として含まれていないものを飛び抜けて出したとしたら、それは流石にフェイクということになります。

BTXとDeNoise AIを比べてみると、DeNoise AIの方が(天体に特化していないせいか)大きくパラメータを変えることができるので、おかしくなるように見えると思われがちですが、おかしくならない程度に適用する分には、BXTもDeNoise AIもそこまで差がないように思いました。DeNoise AIはノイズ除去と共にSharpen効果もあるのですが、BXTはノイズについてはいじることはないので、DeNoise AI = NoiseXTerminator + BlurXTerminatorという感じです。

それでは、DeNoise AIではなくBlurXTerminatorを使う利点はどこにあるのでしょうか?最も違うところは、恒星の扱いでしょう。DeNoise AIは恒星ありの画像は確実に恒星を劣化させるので、背景のみにしか適用できないと思っていいでしょう。その一方、BlurXTerminatorはAIと言っても流石にdeconvolutioinがベースなだけあります。星像を小さくする効果、歪みをかなりのレベルで補正してくれる効果は、BlurXTerminatorの独壇場です。恒星を分離した背景のみ、もしくは恒星をマスクした背景のみの構造出しならDeNosie AIでもよく、むしろノイズも同時に除去してくれるので時には便利ですが、やはり恒星をそのままに背景の処理をできるBXTとNXTの方が手間が少なく恒星のダメージも全然少ないため、天体写真の処理に関して言えばもうDeNoise AIを使うことはほとんどなくなるのかと思います。


L画像を追加してLRGBに

さて、上の結果を見るとこのままの状態でBXTを使ってもあまり旨味がありません。根本的なところでは、そもそもの元画像の解像度がをなんとかしない限り何をやってもそれほど結果は変わらないでしょう。

というわけで、RGBでの撮影だったものに、L画像を新たに撮影して、LRGB合成にしてみたいと思います。当時はまだ5枚用のフィルターホイールを使っていて、Lで撮影する準備もできていくてLRGBに挑戦する前でした。この後のまゆ星雲ではじめて8枚用のフィルターホイールを導入し、LRGB合成に挑戦しています。

撮影日はM106の撮影が終わった3月29日。この日は前半に月が出ているのでその間はナローでHα撮影です。月が沈む0時半頃からL画像の撮影に入ります。L画像だけで合計47枚、約4時間分を撮影することができました。

ポイントはASI294MM Proで普段とは違うbin1で撮影したことでしょうか。RGBの時もbin1で撮影していますが、これはM51本体が小さいために高解像度で撮影したいからです。bin2で2倍バローを用いた時と、bin1でバローなど無しで用いた時の比較は以前M104を撮影した時に議論しています。


解像度としてはどちらも差はあまりなかったが、バローをつける時にカメラを外すことで埃が入る可能性があるので、それならばbin1の方がマシというような結論でした。

以前RGBを撮影した時は1枚あたり10分露光でしたが、今回は5分露光なので、ダーク、フラット、フラットダークは全て撮り直しになります。


画像処理

画像処理は結構時間がかかってしまいました。問題はやはりLとRGBの合成です。前回のM106の撮影とその後の議論で、理屈上は何が正しいかはわかってきましたが、実際上は何が一番いいかはまだわかっていないので、今回も試行錯誤です。今回下記の6つの手順を試しました。Niwaさん蒼月城さんが指摘されているように、LinearでのLRGB合成で恒星の色がおかしくなる可能性があるのですが、今回は際立って明るい恒星がなかったので、LinearでのLRGB合成がダメかどうかきちんと判断することができなかったのが心残りです。
  1. RGBもL画像もLinear状態で、LRGB合成してからBXT
  2. RGBもL画像もLinear状態で、BXTをしてからLRGB合成
  3. RGBもL画像もLinear状態で、だいこもんさんがみつけたLinLRGBを使い、HSI変換のうちIとL画像を交換
  4. RGBとL画像とLinear状態でBXTまでしてから、フルストレッチしてNon Linear状態にしてからLRGB合成。
  5. RGBとL画像とLinear状態でBXTまでしてから、フルストレッチしてNon Linear状態にしてからLab変換して、aとbをconvolutionでStdDev=5でぼかしてからLab合成。
  6. RGBとL画像とLinear状態でBXTまでしてから、少しだけストレッチしてLinearに近いNon Linear状態にしてからLab変換して、aとbをconvolutionでStdDev=5でぼかしてからLab合成。
と試しました。赤は間違ったやり方、紫はまだ検証しきれていないやり方です。

ちなみに
  • BXTはリニアで使うべし。
  • LRGBはノンリニアで使うべし。
というルールがあるので、最も正しいと思われる順番は
  • WBPP -> ABE or DBE -> RGB合成 -> RGB画像にSPCC -> RGB画像、L画像それぞれにBXT -> ストレッチ -> LRGB合成
かと思われます。この手順は4番に相当します。RGBがノイジーな場合には5番もありでしょうか。

それぞれの場合にどうなったか、結果だけ書きます。赤はダメだったこと、青は良かったことです。
  1. 星雲の明るい部分に青飛びが見られた。(極端に明るい恒星はなかったので)恒星などの飛びは見られなかった。LRGB合成した後でBXTをかけるので、本来恒星が小さくなると期待したが、うまく小さくならず、変な形のものが残った
  2. 星雲の明るい部分に青飛びが見られた。(極端に明るい恒星はなかったので)恒星などの飛びは見られなかった。1に比べて恒星が明らかに小さくなった。
  3. 星雲の明るい部分に青飛びが見られた。(極端に明るい恒星はなかったので)恒星などの飛びは見られなかった。1に比べて恒星が明らかに小さくなった。ちなみに、LinLRGBはPixInsightに標準で組み込まれているものではなく、Hartmut Bornemann氏が作ったもので、ここにインストールの仕方の説明があります。
  4. 青飛びが少し改善した。1に比べて恒星が明らかに小さくなった。ただし最初にストレッチしすぎたせいか、解像度があまり出なかった。
  5. 青飛びが無くなった。1に比べて恒星が明らかに小さくなった。ただし最初にストレッチしすぎたせいか、解像度があまり出なかった。
  6. 青飛びが無くなった。1に比べて恒星が明らかに小さくなった。ストレッチしすぎてなかったせいか、一番解像度が出た

というわけで、正しいと思われる4番は悪くないですが、青飛びを完全に解決できなかったことと、ストレッチの度合いがRGBとLが別だとどこまでやっていいかの判断がつきにくく、結局6番を採用しました。でもストレッチをあまりかけずにLを合成することが正しい方法なのかどうか、いまだによくわかっていません。その一方、Lab変換でabをボカしたことが青飛びを完全に回避しているので、手段としては持っておいてもいいのかもしれません。


仕上げ

その後、Photoshopに渡して仕上げます。分解能を出すのにものすごく苦労しました。AstrtoBinでM51を検索するとわかりますが、形の豪華さの割に、大きさとしては小さい部類のM51の分解能を出すのはなかなか大変そうなのがわかります。物凄く分解能が出ている画像が何枚かあったので「おっ!」と思ったのですが、実際にはほとんどがHubble画像の再処理でした。1枚だけHubble以外でものすごい解像度のものがありましたが、望遠鏡の情報を見たら口径1メートルのものだったのでさすがに納得です。それよりもタカsiさんが最近出したM51の解像度が尋常でないです。口径17インチなので約43cm、これでAstroBinにあった口径1メートルの画像に勝るとも劣りません。43cmでここまででるのなら、自分の口径26cmでももう少し出てもおかしくないのかと思ってしまいます。今回私の拙い技術で出せたのはこれくらいです。クロップしてあります。

「M51:子持ち銀河」
masterLight_ABE_crop_BXT_BXT_Lab_conv5_Lab_CT_bg2_cut_tw

  • 撮影日: RGB: 2022年4月2日20時32分-4月3日3時50分、LとHa: 2023年3月29日20時17分-3月30日4時34分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB、Hα
  • 赤道儀: Celestron CGX-L
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 240で露光時間10分がR: 7枚、G: 7枚、B: 10枚、Gain 240で露光時間5分がL: 47枚、Hα: 21枚の計27枚で総露光時間240+340 =580分 =9時間40分
  • Dark: Gain 240で露光時間10分が64枚、Gain 240で露光時間5分が128枚
  • Flat, Darkflat: Gain 240で露光時間 RGB: 0.03秒、L: 0.01秒、Hα: 0.2秒、 RGBがそれぞれ64枚、LとHαがそれぞれ128枚
  • 画像処理: PixInsight、Photoshop CC

元の大きさではこうなります。ただしbin1のままだと画素数が多すぎてブログにアップロードできないので、解像度を縦横半分のbin2相当にしてあります。

masterLight_ABE_crop_BXT_BXT_Lab_conv5_Lab_CT_bg2_lowreso

中心部を比較してみます。左が昨年のRGBだけのもの、右がL画像とHα画像を撮り増ししたものです。
comp

見比べると、明らかに今回のL画像が入った方が分解能が増していることがわかります。ただすでに画像処理がキツすぎる気もしています。今の機材でこれ以上の分解能を求めるにはどうしたらいいのでしょうか?

考えられる改良点は、
  • シーイングのいい時に撮影する。
  • Lがフィルター無しなので、UV/IRカットフィルターを入れて赤外のハロなどをなくす。
  • 振動が問題になる可能性があるので、三脚の足に防震シートなどを入れる。
  • 読み出しノイズに制限されているわけではなさそうなので、揺れ対策で1枚あたりの露光時間を3分ほどにしてみる。
  • Lの総露光時間をもっと増やす。
  • 暗い空で撮影する。
  • バローを入れて焦点距離を伸ばし、かつbin1で撮影する。
などでしょうか。小さな天体を撮影する際の今後の課題としたいと思います。


まとめ

BXTという観点からはあまり大したことは言えていません。分解能という観点からはDeNoise AIとそこまで能力は差がなさそうなことがわかりますが、恒星の収差補正などに利点があり、今後DeNoise AIを使うことはほぼなくなるでしょう。リニアなステージで使うことが正しそうで、RGBとLで別々に処理して合成しても問題なさそうなことがわかりました。BXTなしとありでは分解能に圧倒的に差が出て、今回もM51としてはそこそこの分解能になっていますが、まだ鏡筒の性能を引き出し切っているとは言い難いのかと思います。

RGBだけの場合と、Lがある場合では分解能にあからさまに差が出ることが改めてわかりました。でもなぜそこまで差が出るのか、自分自身本質的にはあまりよくわかっていません。単にLの露光時間が長いからなのか? R、G、Bとフィルターで光量が減るので、それに比べて全部の光子を拾うLが得なのか? それとも他に何か理由があるのか? 一度、R、G、B、Lを全て同じ時間撮影して、RGB合成したものからLを引き出して比較してみるのがいいのかもしれません。

とまあ色々議論したいことはありますが、庭撮りで着実に進歩はしてきていて、M51がここまで出たこと自身はある程度満足しています。でももう少し出るかと淡い期待を抱いていたことも事実です(笑)。


先日、M106の記事をアップしましたが、記事を書き終えてから画像処理にアラがかなりあることに気づき、改めて再処理をしました。



でもこの再処理過程、苦労の連続で思ったより時間がかかりました。以下にまとめましたが、実際にはこんなにすんなりとはいっていなくて、いろんな回り道をしてある程度見通しがついたものだけを列挙しています。


問題点

問題点は以下の通りです。問題の大きさの順に、
  1. 周辺部のディスクの淡いところがノイジーで、解像度がイマイチです。改めて完成画像とマスターL画像と比べてみると、淡いところ、特に微恒星が相当欠落していることが判明しました。
  2. 明るい恒星がひしゃげていることに気づきました。
  3. 銀河中心が飛んでしまっていることに気づきました。
  4. 光条線が全然キリッとしていません。もしかしたら、微妙な画像の回転が影響しているのでしょうか?
などです。

色々調べていくと、ある程度原因と解決策が見えてきました。とりあえず簡単なところから順に行きます。


3. 銀河中心の飛び

問題3はBXTの弊害と結論づけました。

原因は、リニア画像の段階でBXTをかけていたため、銀河中心を強度に強調してしまい、その結果中心部のみ飛んでしまっていたようです。

解決策は、ストレッチ後の画像にBXTを適用することで解決しました。左がBXT->MaskedStrerchの順で、右がMaskedStrerch->BXTの順です。

comp

なんでこんなことに気づかなかったかというと、下がBXT適用後にPI上でSTFで見かけ上のオートストレッチをした画像なんですが、これだと周りも飽和気味で中心部だけ飛んでしまっているのは判別できないからです。
02_BXT_STF_Image05_ABE_DBE_SPCC_DBE_clone_Preview031

ちなみにオートストレッチしないとこんなふうです。左がBXTする前で、右がBXTをかけたあとです。これならすぐにわかるんですが、普段はSTFをかけた画像しか見ないので、気づくことができませんでした。
comp2


4. 光条線のシャープさ

問題4は撮影中にカメラが開店してしまった可能性があるので、L画像をプレートソルブにかけて調べてみました。プレートソルブは回転角まで出るので、ずれがあった場合に比較することでわかります。

L画像は1日目と4日目にのみ撮影しています。結果は、1日目のL画像がが90.50度で、4日目のL画像が86.13度と、なんと4度以上回転していました。1日目は29枚、4日目は51枚撮影していて、4日目の方が撮影枚数は多いので、少し惜しいですが1日目の分を丸々捨てるとことにしました。さらに4日目の人工衛星の軌跡がひどいものを5枚省いて、46枚でスタックしました。

まずは光条線の評価です。左が1日目と4日目を合わせた80枚、右が4日目だけの46枚です。そこまで大きくは変わりませんが、よく見ると確かに46枚だけの方が光条線は多少鋭くなっているように見えます。でも、正直もう少し鋭くなることを期待していました。-> (追記): 最後まで仕上げたら、明らかな違いになりました。1日目を捨てて正解でした。

comp_original

SCA260の分解能を少し疑ったのですが、例えばこの記事の画像を見る限り
  • 明るい星の光条線は十分に鋭く出ていていること、
  • 中途半端な明るさの星の光条線はそこまで鋭くないこと
などがわかるため、とりあえずは今回撮影した程度の鋭さが標準だと思うことにします。


もう少しL画像を評価

このL画像の枚数の違いですが、問題2に関しても議論することができそうなので、もう少し検証します。上の左右の画像をよく見比べると、微恒星に関してはやはり枚数の多い左側の方が明らかに暗い星まで写っていることがわかります。

ではこの画像にそれぞれBXTをかけてみます。同じく、左が1日目と4日目を合わせた80枚、右が4日目だけの46枚です。

comp_BXT


2つのことがわかります。
  1. 1日目に撮影した画像が加わると、明るい恒星の場合、中心部分が右に寄ってしまい、左にハロのようなものが残る結果になってしまいます。
  2. BXTによる恒星の縮小ですが、(微恒星がより出ていないはずの)右の方の画像の方が、左の画像と比べて、より多くの恒星に適用されていることがわかります。
まず1の原因ですが、元の1枚1枚の撮影画像を見てみると、明らかに星像が縦長になっていることに気づきました。1日目から4日目を全部比べてみると、日が変わっても出ていること、画像の中の位置によらず、常に縦が長くなるような方向に出ています。上の右の画像は問題ないように見えても所詮程度問題で、彩度を出すとかしていくと結局目立つようになります。撮影時の問題であることは明らかで、鏡筒の光軸ずれ、カメラ側のスケアリングのずれ、赤道儀での縦揺れなどが考えられます。前回撮影のM81の時の画像を見直してみても、こんな現象は出ていないようなので、おそらく1月から3月の間に光軸のずれが起こった可能性が高いのかと思います。ただし、波長によって出る出ないが違い、縦長がひどい順にG>L>R>B>>Aとなっているのは、まだ少し解せないところです。とりあえず今回はこの縦長星像、画像処理でなんとかごまかしますが、まずは次回鏡筒の光軸を見直すことにします。

次の2ですが、これは結構面白いです。BXTで恒星をdeconvolutionするためには、恒星をきちんと恒星として認識してもらわなくてはダメなのですが、左の画像は恒星であるのに恒星と認識されていないものが多いのです。何故かは元画像を見比べてみるとよくわかりました。 おそらくシンチレーションの違いで、1日目の画像は星像が大きく、4日目の画像は星像が明らかに小さいのです。動きの多い1日目の画像が混ざったことで点像とは見なされなくなってしまい、恒星と認識されなくなったのではと思われます。日が変わった場合の撮影では、このような違いにも気をつける必要があることがよくわかります。

いずれにせよ、BXTはかなり暗い最微恒星については恒星と認識するのは困難で、deconvolutionも適用できないようです。そうすると逆転現象が起きてしまうことも考えられ、より暗い星の方がそれより明るい星よりも(暗いけれど)大きくなってしまうなどの弊害も考えられます。

考えるべきは、この問題を許容するかどうかです。

この逆転現象とかはかなり拡大してみないとわからないこと、収差の補正や星雲部の分解出しや明るい恒星のシャープ化など現段階ではBXTを使う方のメリットがかなり大きいことから、今のところは私はこの問題を許容して、BXTを使う方向で進めたいと思います。シンチレーションの良い日を選ぶなどでもっとシャープに撮影できるならこの問題は緩和されるはずであること、将来はこういった問題もソフト的に解決される可能性があることなども含んでの判断です。


1. 淡い部分、特に微恒星が全然出ていない

問題1が1番の難問です。そもそも何故LRGB合成なのに、L画像相当の解像度が出ないのかという問題です。

これが撮影してスタックしたL画像: 
L

一方、これがRGB画像から引き出したL画像:
RGB_Lab_L

2枚を比較すると、当然撮影したL画像の方が圧倒的に情報量が多いわけです。

で、これが前回記事でアップした画像のPhotoshopに引き渡す前くらいの画像です。これが上の2枚のどちらに近かったというと、あからさまに後者のRGBから引き出したL画像の方に近いのです。
Image05_ABE_DBE_SPCC_DBE_BXT_MS

なんでこんなことが起きてしまったか、よく考えます。まず今回の撮影はRGBの撮影枚数がそれぞれ10枚程度と、L画像の(1日目、4日目合わせた)76枚と比べてかなり少ないです。こんな場合は、PixInsightでLRGB合成をする際に、LとRGBををどのような比率で合成するかをよく考えなくてはダメだったのです。

前回のLRGB合成でやったことは、L:R:G:Bを1:1:1:1の割合で混ぜたことでした。いや、これさえも本当に実現できているのかよく判りません。実施際にはLRGB合成の際に、L、R、G、Bそれぞれの画像を一度にチャンネルウェイトを0.25:0.25:0.25:0.25で合計1になるように合成しています。合計1にするのはサチるのを避けるためですが、どうもこのチャンネルウェイトは比だけを見るみたいで、絶対的な明るさは変わらないようです。例えば、R、G、Bを0.025:0.025:0.025として一桁落として合成しても、暗くなったりしません。絶対的な明るさは下のLightnessで決まるようです。1より小さくすると合成後が明るくなります。

さて、今回撮影したL画像のS/NはRGBに比べて遥かに高いので、Lの比率を大きくした方が得なはずです。試しにL:R:G:B=0.5:0.25:0.25:0.25で合成すると細部が表現され始め、L:R:G:B=1:0.25:0.25:0.25とするとさらに分解能が上がることがわかりました。その一方、Lの比率が大きくなるので、当然合成直後の画像は色がほとんど出ていなくて、かなりモノクロに近い画像になっていきます。それでも、その後に画像処理を進めていくと彩度を出すことはできるので、色情報がなくなっているわけではないようです。ただしRGBのS/Nが悪いので、色を出していくとどうしもノイジーになってしまうようです。

問題は数値の調整はできるものの、どのような比率でLとRGBを混ぜればいいのか結局のところよくわからないということです。そもそも、RGB画像をLab空間で考えると、単にLを取り替えることをすればいいはずです。それで彩度は保たれ、シャープさは良くなるはずなんです。

それならばいっそのこと、本当にRGBをLabに変換して、Lのみを入れ替えるという操作をしてやった方がいいのではと考えました。その結果が以下になります。
Image141_2

この方向は結構正しいようで、少なくとも細部は十分に出ています。また、Lab合成を使うという考えに基づくと、SPCCは合成前のRGBの時点でやった方がいいという考えに行き着きます。Lの明るさは調整可能なので、元のRGBとは彩度がずれる可能性があるからです。

さてこのLab分解とLab合成でLだけ変える方法、一見うまくいっているようですがまだ問題があって、試しに明るい恒星を見てやると以下のように緑や青が目立つようになってしまいます。

Image141_clone_Preview01_autostretch

これを回避するために色々試してみたのですが、どうやらL画像の明るさがab画像より暗い場合に起こるようです。そのためLab合成の時にL画像を少し明るくして合成します。すると以下のように、変な色が飛び出るようなこともなくなります。

Image230

一見モノクロに見えますが、色はきちんと隠れていて、試しにCurvesTransformationなどで彩度を上げると以下のように色が出てきます。
Image230_CTx5

ところが、ここでまた問題です。このように彩度を出していくと、再び緑飛びが出てきてしまうのです。
Image230_CTx5_cut

結局のところ、Lab合成でどうあがこうとしても、元の画像が悪い状態で彩度を出したら同じことの繰り返しで、変な色飛びはどうしても出てしまうということがやっと理解できました。

それで結局何をやったかというと、Lab合成する際に色情報であるaとbをぼかしてから合成することです。ここら辺はそーなのかーさんのこのページを参考にさせていただきました。


今回はConvolutionでStdDevを5として3回かけ、明るい恒星の色バランスの崩れがなくなるくらいまで、かなりぼかしました。少なくともこれで緑の形がおかしくなるようなことは避けることができました。ただし、ぼかしのバランスがaとbでどうしてもずれてしまい、恒星周りに均等にリング状の緑の輪がかかってしまったので、SCNRでProtction MethodをMinimumNeutralに、Amountを0.5にしてかけて緑を除きました。この時点でやっとBXTをかけます。結果は以下のようになりました。

Image249_a_conv5x3_bconv5x3_Lab_CTx3_SCNR_HT_SCNR_BXT

色情報を相当ぼかしたわけですが、人間の目の色情報の分解能はかなり弱いと指摘されていて、実際に色が出ていないように見えることはほとんどありません。

これでやっと満足です。この後はPhotoshopに引き渡しますが、Hαジェットを除き、もうすでにかなり仕上がり状態に近いです。


やっと仕上げまできたー!

Photoshopはもうノンリニア編集なので、好きなように仕上げます。主には彩度出しでしょうか。Hα合成も2度目なので、少し余裕が出てきました。結果が下の画像になります。まずはジェットがよく見えるように銀河をアップで。

Image249_a_conv5x3_bconv5x3_Lab_CTx3_SCNR_HT_SCNR_BXT_bg4_cut_s

次に全体像です。


「M106」
Image249_a_conv5x3_bconv5x3_Lab_CTx3_SCNR_HT_SCNR_BXT_bg4_cut

  • 撮影日: 2023年3月19日20時48分-20日4時9分、20日19時25分-23時19分、28日19時51分-29日4時38分、
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGBHα
  • 赤道儀: Celestron CGX-L
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 120、露光時間5分、L:80枚、R:10枚、G:10枚、B:14枚、Hα:44枚の計158枚で総露光時間13時間10分
  • Dark: Gain 120、露光時間5分、温度-10℃、32枚
  • Flat, Darkflat: Gain120、露光時間 L:0.001秒、128枚、RGB:0.01秒、128枚、Hα:20秒、17枚(dark flatは32枚)
  • 画像処理: PixInsight、Photoshop CC


最初に挙げた問題点順に評価していくと、
  1. 銀河の淡いディスク部分の分解能はかなり出ました。
  2. 恒星のおかしな形もほぼ無くなっています。
  3. 銀河中心部の不自然さももうありません。
  4. 光条線も明らかに鋭くなりました。
と、こちらもほぼ満足です。

加えて、ジェットをもう少し派手にしてみました。自宅でここまで出れば上出来かと思います。というか、すでにちょっと炙り出し気味で、今の手持ちのHαだとこれくらいが限界かと思います。

最後は恒例のAnnotationです。
Image249_a_conv5x3_bconv5x3_Lab_CTx3_SCNR_HT_SCNR_BXT_bg2_cut_A

 

まとめ

時間はかかりましたが、再処理を突き詰めていってよかったです。あからさまに良くなったことと、じっくり付き合ったことで次回以降にどうすればいいか、かなり得るものがありました。自宅撮影の結果としては、ある程度情報を引き出しきれた気はしていて、かなり満足しています。

そもそも撮影に問題はありましたが、いつも完全ということは当然ないので、画像処理でのリカバリも含めていつもこれくらい時間をかけないとダメなんだということが、今回とても実感できました。実を言うと、特に恒星ですが、もう諦めようと何度思ったことか。

今回の方法は真っ当なものではないのは重々自覚していますが、撮影はいつもうまくいくとは限らなくて、せっかく時間をかけた画像をできるだけ使ってあげたいので、手持ちの手法としては持っておいてもいいかと思いました。というより、画像処理は一辺倒にはなかなかいかないもので、撮影画像に応じて臨機応変に対応することが大切なのではないかと、改めて感じました。



BlurXTerminator (BXT)を使った、過去画像の再処理の第3弾です。

第1弾は三日月星雲、第2弾は青い馬星雲でした。



三日月星雲は主に星雲本体、青い馬星雲は主に恒星の収差の改善でしたが、今回もすごいです。


トールの兜星雲

今回のターゲットは、NGC2359: トールの兜星雲です。昨年1月に撮影しているので、1年ちょっと前になります。


SCA260で撮影していますが、この時はまだ、今使っている大型赤道儀のCGX-Lではなくて、もう一つ小さいCGEM IIに重いSCA260を載せています。そのため、今見ると3分露光でも揺れの影響が残ってしまっているようで、恒星像が今一ピシッとしていません。これがBXTでどこまで改善できるかがまずはポイントになります。


再処理の途中で

処理をしている途中で、BXTで明るい恒星が崩れる現象が見られました。
Image07_ABE1_DBE_SPCC_BXTbad_NXT_stretch_cut

原因は、元画像の恒星自身が何か歪んでいたことで、よく見ると以前の画像でもその兆候が見られますが、気づいていませんでした。BXTでその歪みが助長されて気づくことができました。BXTといえど全然万能ではなく、元画像がダメな時はどうしようもないです。

ではその恒星の乱れはなんだったかというと、Integrationの時に起こっていて今回はrejectionにWinsorized Sgma Clippingを選んでいたことが原因でした。High側で恒星中心付近がいくつかrejectされていて、非連続になっていたというわけです。今まで気づいたことがなかったので、恒星がおかしい時はrejectionにちょっと気をつけた方がいいかもしれません。

masterLight_BIN-2_4144x2822_EXPOSURE-180.00s_FILTER-HA_mono_cut
明るい恒星の右側がrejectionで不連続になってしまっています。

結局、WBPPでのIntegrationのRejection algorithmをAutoにして解決したのですが、マニュアルでのPreprocdessing からのIntegrationとWBPPのIntegrationでは少し振る舞いが違うようです。マニュアル操作ではそもそもWinsorized Sgma Clippingでも(WBPPのときと同じパラメータにしても)rejectonの度合いはもっと緩やかで、問題が露呈しないレベルで抑えられます。WBPPのWinsorized Sgma Clippingのパラメータをどういじっても解決はできなかったので、諦めてAutoにしたらあっさり解決しました。

それ以外はBXT、NXT合わせて特に困ったことはありませんでした。しかも青い馬星雲の背景出しで相当な時間をかけたので、それがいい練習になっていて、今回の再処理は短時間で終わりました。


結果の比較

結果ですが、以前のものと比べます。まずは以前のもの。背景が暗いので、今回の再処理でもう少し淡いところが出るかもしれないという目論見です。あとはやはりSCA2660とCGEM IIの組み合わせでの揺れのせいでしょう、今見ると恒星の締まりがないのが気になります。
Image07_DBE_PCC_DBE_AS_HTx3_reducestar2_3_crop_mod

次に、今回再処理した結果の画像です。一皮どころか、二皮も三皮もむけた感じです。ちょっとやり過ぎの感もあります。
Image07_ABE1_DBE_SPCC_BXTbad_NXT_stretch2_cut

まず、兜本体の分解能が尋常でないです。これはひとえにBXTのおかげです。また、恒星の大きさですが、不自然でない程度にとどめておきましたが、かなりシャープに絞ることができています。微恒星もより暗いものまではっきりと出ています。

comp1

あと、背景も積極的に炙り出せました。前回の青い馬星雲で練習した成果になるでしょうか。ただ、背景についてはは自宅の明るい場所での撮影なのでこれくらいが限界です。すでにノイズの荒々しさが残ってしまっています。本当はもっと広い範囲で淡い青いところが広がっているはずなのですが、これ以上出したかったら、露光時間をさらに増やすか、もしくはもっと暗い所へ行くべきです。それでもまあ、今回の再処理でとりあえずここまで出たのでよしとしましょう。


まとめ

これまで何度か試したBlurXTerminatorですが、これは天体写真の解像度向上に革命を起こすくらいのツールと言えそうです。その一方、今のAI技術はまだまだ発展途中、もしくは遠い将来から見たら出始めのかなりあやふやな技術だと評価されるかもしれないので、疑似的な画像を作り上げる可能性も否定はできません。中身がほとんどブラックボックスという心配もあります。

そうは言ってもこの素晴らしいツール、手間の軽減、時間の短縮、星像のシャープさ、分解能の向上などメリットの方が遥かに遥かに大きいです。私個人としては新しいツールにかなり寛容なので、DeNoise AIの時もそうでしたが、趣味の範囲では見た目でよさそうなら積極的に使っていきたいと思っています。DeNoiseの時もフェイクになる可能性があるという批判はありましたが、大きな目で見れば今回のBXTはそのアップグレードと考えることもでき、順当な進化なのかと思います。

AIと画像処理は研究ベースでも親和性がとてもいいようなので、今後もアマチュア天文を対象にAIを利用したソフトがさらに出てくることと思います。個人的には拒否反応など示すことなく、冷静にいいところを見つけて、積極的に使っていきたいと思っています。

BlurXTerminator (BXT)を使った、過去画像の再処理の第二弾です。

第一弾は三日月星雲でした。


この時は主に背景の改善が特徴でしたが、今回は特に恒星の改善がすごいです。

BXTの収差補正能力

昨年ゴールデンウィークに、近くの牛岳においてFS-60CBにASI2400MC Proを取り付けて撮影した青い馬星雲。



当時出来上がった画像はASI2400MCの能力が思う存分発揮されたもので、背景の淡い部分が十分に表現され、遠目で見る限り素晴らしいものです。自分的にも十分満足していました。その一方、遠征先で撮影時に接眼側の延長筒の長さが手持ちで合わず、バックフォーカスがずれてしまい、四隅が思いっきり流れてしまいました。
mosaic1

これはさすがに救いようがないとずっと思っていたのですが、BXTはこのレベルでも大幅に改善してくれます。しかも今回使ったのは「Collect only」だけで、恒星を小さくしたりハロを押さえたりする機能は使っていません。
mosaic3

左上だけまだ少し流れていますが、他の8枚は完全に許容範囲です。これだけでもBXTの収差改善は圧倒的にすごいです。

しかもFS-60CBには、昔から指摘されている弱点の一つとして、撮影の際に赤と青とでピント位置がどうしてもずれてしまうという問題があります。現場において赤に合わせるか、青に合わせるか、もしくはその中間に合わせるかいつも大問題です。どうするかは場合によるのですが、今回は青い領域なので青にピントを合わせたために、全ての恒星周りに赤いハロが出てしまっています。ところが、これらの赤ハロも今回のBXTはものの見事に綺麗に除去してくれています。これはFS-60ユーザーにとっては大きな福音となるのではないでしょうか。


背景と仕上げ

この四隅で仕上げた画像です。今回はNXTも使いノイズをある程度除去しています。また、青い馬付近は意外に赤い領域もあり、前回はこの特徴をあまり出せなかったので、今回は少し強調してあります。

masterLight_180_00s_RGB_integration_ABE_SPCC_ABE3_cut

下はこれまでの画像ですが、今回のと比べると、やはり少し緑に寄っている気がしますし、赤が弱いと思います。
masterLight_180s_ABE_PCC_ASx4_SCNR_bg2_cut_s

これまでと、今回の再処理の2枚を比較して検討してみます。まず恒星ですが、明らかに分解能が増しています。特に首元にある青い明るい2つの星の下の方のものは、2つの星がかなり近接しています。前回のものでは明るすぎて分離できていませんでしたが、今回のでは余裕で分離しています。また、微恒星に関しても、拡大して比べるとよくわかりますが、より暗い星までかなりはっきりと写っています。恒星に関してはほとんどの処理がPixInsightで閉じるようになったのでずいぶん楽になったのと、その恩恵でしょうか仕上がりも大分良くなったと思います。BXTのおかげですね。

その一方、分子雲に関しては今回かなり苦労しました。前回のレベルまで全然持っていけないのです。前回の時点ですでにかなりのレベルで淡いところを引き出し切っていて、しかも最後のところをPhotoshopでやっていたので、肝心要の最淡の部分でどうやったか記録が全く残っていません。元々の素材が良かったので、画像処理はかなりシンプルだったはずです。色々試しても、ごくわずかのところでどうしても前回のレベルまで持っていけません。結局今回は第9バージョンまで処理し直して、やっとそこそこ満足しました。ポイントはマスクの使い方だったのですが、前回シンプルにやっていたのを、今回凝りすぎていたというのが原因でした。本当にシンプルに星マスクをうまく適用することで、背景の分子雲モクモクを再現することができました。

あと今回はNXTも使ったので、背景が全体的にノイジーだったのが改善されています。ある程度拡大して比較するとよくわかります。


まとめ

BXTを使い再処理すると、やはり有意に違いがわかるレベルで改善します。今回に関しては主に恒星です。その一方、今回実感できたことは、BXTは恒星や星雲部の分解能は向上させることはあっても、諧調に関してはほぼ何も貢献しないということです。前回の三日月星雲の再処理では背景の階調が改善しているように見えますが、あくまで副次的な効果で、基本的にはこれまで通り丁寧に階調のある部分をうまく拡大させることが必要となるということがよくわかりました。


BXTによる再処理シリーズの第三弾はトールの兜星雲です。
 

BlurXTerminator (BXT) が面白いです。前回までで、ゴースト星雲でのBXTの試用と、BXTをカラー画像に適用した場合などを記事にしてきました。





その後、BXTのバージョンが上がり1.1.1になりました。初期バージョンでは恒星の色ずれがPIのForumで指摘されていたようですが、新バージョンではそれも解決されているとのことです。

BXTの効果がかなりすごいので、過去画像にもいくつか適用してみました。今回の再処理は全て新バージョンで試しています。


三日月星雲

まずは、はくちょう座にあるNGC6888: 三日月星雲で比較です。下の画像は昨年5月にSCA260で撮影し処理したもので、AOO合成になります。当時はそこそこ分解能もでていると満足していました。
Image11_ABE1_PCC_ABE4_cropped2_mod
この時の反省点は、星雲本体はよく出たのですが、背景がかなり淡くて出にくかったのを覚えていて、結構無理をしてノイズ処理をしました。背景の細かい構造はほとんど飛んでしまっています。ここら辺がBXTとNXTが入ったらどうなるかも気にしたいと思います。


BXTとNXTの適用

元のファイルは前回WBPPまで終了して、AOO合成までしたものを使います。まずはSPCCをかけ、すぐにBTXです。この時点ですごい分解能となり、ちょっとびっくりしました。

ストレッチはHistgramTransformationです。ArcsinhStretchとMaskedStretchも試しましたが、星雲本体の赤の部分が差散り気味になってしまったのであきらめました。あとはCurveTransformationのSaturationで彩度を出します。その後NXTでノイズ処理をしています。

これまでマスク処理は、マスクをPIで作ってからPhotoshopにマスクを渡して処理をすることがほとんどでした。今回はマスク処理自身もPIでやってみることにします。今回のマスクはB画像から作り、星雲本体の青いところを強調しました。最後にPhotoshopに一応手渡してほんの少しだけ色を好みのものにしましたが、今回は自分的には98%くらいがPIでPhotoshopで触ったのは本当にごくわずかです。

結果です。一見しただけでBXTを適用したものは三日月本体の分解能が圧倒的に上がっています。

Image11_SPCC_BXT_HT_HT_CT_SCNR_NXT_maskB_CT_CT_CT_ok2

青いところもよりはっきりと出すことができました。背景もそこそこの階調で出ていて、ノイズ処理もより自然になっているように見えます。以前の処理と、今回の処理の違いを一言で言うと、以前のものは画像の中にある情報を引き出し切れていなかったと言うところでしょうか。BXTの底力を見せつけてくれる結果と言えます。

あと、微恒星の数が圧倒的に増えています。私は元々恒星の処理が下手くそなのですが、BXTとNXTのおかげかかなり楽になりました。作業がPIで閉じていて、恒星と背景を分離したり合成したりする必要がなくなってきたことが大きいです。分離は使うとしても軽い星マスク程度です。言い換えると、分離というある意味特異な処理をする必要がなくなりつつあり、より自然に手間をかけずに恒星を出すことができるようになってきています。


驚異的な分解能

こうして見るとBXTの威力がいかに凄いかわかるのですが、いささか分解能が出過ぎのような気もします。そこで、さらに高解像度の画像、例えばこのページにある三日月星雲と比べてみます。試しにPhotoshopで各レイヤーに自分の画像とリンク先の画像をはって、拡大縮小回転などして位置合わせをして、レイヤーの表示/非表示でかなり詳細に比較してみました。

少なくとも私がみた限りでは、BXTのAIによってあからさまに変な線が出ているようなことはないようです。勝手に上記の画像をこのブログに貼るわけにはいかないのですが、結論としては、おかしくないパラメータの範囲でBXTを使う限りは変な構造を加えるようなことはなく、画像の中に情報として残されている構造をかなりのレベルで引き出しているのかと思います。また、引き出す構造に限界もあり、これも詳細画像と比較するとわかりますが、撮影画像の中に無い構造はやはり出てこないこともわかるので、少なくともAIだからと言って、そこまで変なことをしているわけではないのかと思います。

BXT、今回もかなりの手応えなので、今後もう少し過去画像の再処理を続けたいと思います。


(追記) 第二弾は青い馬星雲です。

このページのトップヘ