ほしぞloveログ

天体観測始めました。

タグ:PixInsight

自宅で淡いもの撮影シリーズ、多分このダイオウイカが最終回になるでしょう。これ以上淡いのは...さすがにもう限界です。

「そこそこ」撮影

私の元々の天体撮影の動機は「自宅でそこそこ撮れればいいな」でした。でも「そこそこ」がいつしか「どこまで」になり、いまでは「限界は」になってしまっています...。初心から考えるとあまり良くない傾向ですね(笑)。

最初に天体写真を始めてからずいぶんかかりましたが、最近では自宅でもやっと「そこそこ」満足に撮れるようになってきました。なんか「そこそこ」の使い方が間違っているようにも感じますが、とにかくイルカさんカモメさんクワガタさんは分解能や階調など見てもそこそこかと思います。ここ数年のソフトの進化の効果もかなり大きいです。でもこれは明るい天体だからまだ言えることで、かなり頑張って出したスパゲッティーさんは自宅撮影の限界はもう超えているんだと思います。今回の撮影のコウモリさんはまだしも、ダイオウイカさんはスパゲティーと同レベルか、もっと淡かったりします。


撮影したのはかなり前

Sh2-129: フライングバット星雲とその中のダイオウイカ星雲を撮影したのはもう半年も前のことで、時期的にはスパゲティー星雲を撮影した直後です。そういう意味でも自宅からどこまで淡い天体が出るのかの検証の一環になります。


ところが、撮影後に長い迷走状態に陥りました。最低限の画像処理としてWBPPまではすぐに終わったのですが、そこからが長い長い。理由ははっきりしていて、何度やっても仕上がりが気にいらなくて、ほっぽらかしてしまっていたからです。

気に入らない理由もはっきりしていて、HαとOIIIに写るものがあまりにもはっきり区別されすぎていて、Hα起因の赤は赤だけでのっぺりしてしまうし、OIIIはそもそもメインのダイオウイカさえもあまりにも写らなくて、炙り出そうとしても画面全体がノイジーになってしまうからです。

とりあえずこちらを見てください。OIIIの5分露光1枚撮りで、ABEとDBEをかけてフラット化して、かなり強度に炙り出してみたものでが、ほとんど何も見えません。フラット補正の誤差レベルで出てくる鏡筒の迷光の僅かな明暗差よりも、星雲本体の方が全然淡いくらです。
2023_12_04_19_13_50_300_00s_g100_9_80C_0000_ABE_DBE_s

WBPP後にどうなるかというと、まあせいぜいこの程度です。OIIIだけで10時間25分あるのですが、強炙り出ししても高々これくらい出るのみです。
2392x1597_2x2_drizzle_2x_integration_ABE1_ABE6_DBE_strong

少しでもS/Nを稼ごうとして、ソフトウェアビニングをかけて、bin4x4状態にして、そこからdrizzleでx2をしています。これについては以前議論していて、上記画像はすでにその過程を経たものになってます。このレベルのノイズだと流石にいかんともしがたく、少しだけ画像処理を進めましたが、全く太刀打ちできませんでした。

こんな調子ですが、画像処理の基本的な方針だけは初期の方に決まりました。恒星はRGBをそれぞれ別撮りしたものから得ます。その結果Hαの恒星もOIIIの恒星も使わないことになります。なので、最初からリニアの段階でHαもOIIIも背景と恒星を分離してしまいます。HαとOIIIの背景と、RGBから作った恒星を、別々にストレッチして、あとから合わせることにしました。

OIIIですが、恒星分離するともう少しフラット化や炙り出しなどを進めることができ、やっとダイオウイカの形がそこそこ見える程度にまでなりました。
2x2_300_00s_FILTER_O_mono_dri2x_ABE1_ABE6_DBEDBEDBE_back_DBEDBE

背景の一部がボケたようになっていますが、DBEなどのフラット化の時になぜかボケてしまいます。どうやらこれは階調が僅かすぎて補正しきれないことに起因するようです。例えこれくらい出ていたとしても、AOO合成して処理しようとすると青と緑の背景があまりにノイジーになりすぎ、全く処理する気にならずに、ここで長期間放置状態になりました。

その後しばらくして、OIII画像は星雲本体のマスクを作ることができることに気づき、なんとかなると思い画像処理を進めました。今度はHαは赤のみ、OIIIは青と緑のみと、ものの見事に別れきっていることに気づいて、あまりに赤がのっぺりしてしまって、さらにはダイオウイカ自身も青一辺倒で後から乗っけたようになってしまい、これまた嫌になってしまって再度長期放置していました。

体調を崩してからまだ夜の撮影を敢行できずにいるので、未処理の画像をと思い、今回重い腰を上げました。スタートは以下の画像です。これとOIII画像から作った星雲本体と明るい青い部分のマスクを使います。
Image80

ただ、これだけだと赤と青共にのっぺりするのは変わらないので、途中からRGB画像のG成分を少し加えてみました。淡いですがG画像の背景に構造は残っているようで、緑成分がHαの赤と合わさって茶色の分子雲を作り出せればと考えました。このやり方が正しいのかどうかは疑問もあるのですが、例えばこれまでもかもめ星雲の時にHαにGBの背景を合わせて、赤の「のっぺり」を防いでいます。OIIIを使っていないのがポイントで、B画像とG画像の青と緑成分を使い色の階調を稼いでいます。また、網状星雲の画像処理ではε130DのテストとしてHαとOIIIのみでAOO合成していますが、これだと右側に広がる茶色の分子雲をどうやっても表現することができません。G画像を持ってくれば何か出せるのかなと考えていて、今回はその布石でもあります。同様のことはクワガタ星雲のAOO画像でも述べています。

初出でXに投稿した画像はマスク処理が功を奏して、やっとなんとかダイオウイカ本体が出てきたものでした。でもダイオウイカ本体から透けて見えるはずのHαの赤成分が全然出ていないことに後から気づきました。今から見るとちょっと恥ずかしいですが、まだ苦労している途中の習作ということで出しておきます。
Image80_3_cut

次に投稿したものは、青から透けて見える背景の赤に気をつけて処理したものです。
Image80_5_cut

その後、ソフトウェアビニングでbin4相当だったOIII画像を元のbin2に戻して、さらに青ハロの処理を間違えていたことと、ダイオウイカ本体以外にも青い部分は存在していることに気づき、青をさらに注意して、再度ほぼ一から処理し直しました。大体の処理方針はもう決まっていたので、再処理でもそこまで時間はかからず、最終的には以下のようになりました。

「Sh2-129: ダイオウイカ星雲」 
final4_cut2
  • 撮影日: 2023年12月4日19時13分-23時47分、12月8日18時53分-22時45分、12月29日17時56分-21時53分、12月30日18時5分-21時13分、2024年1月2日17時54分-20時47分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: TAKAHASHI製 ε130D(f430mm、F3.3)
  • フィルター: Baader:Hα 6.5nm、OIII 10nm
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI6200MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、bin2、Gain 100、露光時間5分、Hα: 28枚、OIII: 125枚、R: 11枚、G: 14枚、B: 11枚、の計189枚で総露光時間15時間45分
  • Dark: Gain 100、露光時間5分、温度-10℃、117枚
  • Flat, Darkflat: Gain100、露光時間 Hα: 0.2秒、OIII: 0.2秒、R: 0.01秒、G: 0.01秒、B: 0.01秒で全て64枚
  • 画像処理: PixInsight、Photoshop CC

背景が赤一辺倒、ダイオウイカ本体は青一辺倒というのから脱却して、少しだけですが階調を出せたのかと思います。処理途中は、かなり最後の方までイカ本体が少しでも見えたらいいくらいに本気で思っていましたが、結果としては正直自宅撮影でよくここまで出たと思います。結局イカ本体はある程度出てくれたので、こんな淡い天体の場合でも画像処理の手法としては存在するということが、今回学べたことです。

その一方、元々超淡くてノイジーなダイオウイカです。マスクを駆使して、相当な無理をして出していることを実感しながら処理していました。これだけ淡いと、環境のいい多少暗いところで撮影したとしても、画像処理には無理が出そうで、例えば他の方のダイオウイカ本体がかなり綺麗に出ている画像を見ても、よくよく見てみると多少強引に処理を進めたような跡が見てとられます。Xに投稿したときに海外の方から「このターゲットを狙う限り、みんな苦労して画像処理している」とか言うようなコメントがありましたが、本当にみんな苦労しているのかもしれません。

恒例のアノテーションです。
final4_cut2_Annotated1


以前に挑戦していた!?

どうせなのでぶっちゃけますが、実はダイオウイカ星雲は以前撮影していて、お蔵入りにしたことがあります。2021年11月のことです。FS-60CBにDBPフィルターをつけて、EOS 6Dで撮影しました。

DBPで胎児とハート星雲を撮影してみて、結構出るのでこれならダイオウイカでもなんとかなるかなと思って意気揚々と3日に渡り撮影しました。1枚当たりの露光時間はたっぷり10分で82枚、合計で13時間40分です。下の画像は、試しにWBPP後、フラット化だけしたものですが、何個もある黒い穴はホコリなので無視するとして、強炙り出ししても心の目で見てやっと青いイカが確認できるくらいです。

600_20s_FILTER_NoFilter_RGB_drizzle_1x_ABE_ABE

ホコリの跡が目立ったのもありますが、このイカさんの淡さ見て画像処理をする気にもならずに、諦めてしまいました。でもこれが広角の明るい鏡筒でナローバンド撮影をしたくなった強烈な動機になり、それから1年ちょっと経った時にε130Dを手に入れています。(追記: 改めて過去記事を読んでみると、DBPと6Dで胎児とハート星雲を撮影してうまくいったので、次にDBPでスパゲティー星雲を撮影しようと思ったみたいです。でもスパゲティーの前に6D+DBPでダイオウイカに行って上の画像のように打ちのめされて、そのままスパゲティーに行かずに、一旦ε130Dに走ってスパゲティーを撮影して、やっと今回のダイオウイカに戻ったということみたいです。)

今の技術で2年前のダイオウイカを画像処理したらどうなるか、ちょっと興味が出たので、少しだけ挑戦してみました。念の為一からWBPPをかけ直して、ABEとGradientCorrectionでフラット化して、SPCCをかけて、BXTをかけて、リニアの状態で恒星と背景を分離するなど、基本方針はナローで撮った時と同じです。ところが、適当にストレッチしてからダイオウイカ本体の処理のために青のマスクを作ろうとしたのですが、あまりに淡くてノイジーで背景と分離することができずに、結論としてはマスク作成不可能ということで頓挫しました。やはり今の技術を持ってしても、無理なものは無理と分かっただけでも収穫かもしれません。

結局年単位の長期計画になったのですが、改めて明るい鏡筒まで手に入れて、今回ナローでイカを撮った甲斐があったというものです。


PixInsight1.8.9-3のFBPP 

ちょうど6Dの画像処理中の6月24日、PixInsightのメジャーアップデートのお知らせがメールで届きました。目玉の新機能が多数枚の画像の速い処理を可能にするFastBatchPreprocessing(FBPP)と 、色バランスをGaia DR3データと比較して合わせるSpectrophotometricFluxCalibration (SPFC)でしょうか。とりあえずFBPPだけ試してみました。WBPPとの簡単な比較ですが、興味がある人も多いのではないでしょうか。

あ、その前に、1.8.9-3にアップデートした時点でプロジェクトファイル内に保存されていたWBPPのインスタンスが再利用できなくなったので、使い回しができなくなり新たに一から作り直す必要がありました。ダークとかフラットを登録済みで便利だったのに、また登録し直しでちょっと面倒でした。アップデートする方はこの点注意です。

1.8.9-3のインストール後、使えなくなったのはStarNetのみでした。これは前バージョンのPixInsightを消さずにフォルダ名だけ変えて残しておいて、1.8.9-3を元と同じ名前のフォルダにインストールし、古いフォルダ以下に残っていたファイルを新しい方にコピペしました。どのファイルをコピペすればいいかはここを参照してください。コピペでファイルの権限などもそのまま写されるので、このページにあるchmodなどの属性変更は必要ありませんでした。

さて処理にかかった時間の結果ですが、WBPPとFBPPで比較します。ファイルは全てEOS 6Dで撮影したカラー画像です。ファイル数は全く同じで、LIGHTが82枚、FLATが32枚、FLATDARKが32枚、DARKが106枚、BIASは以前に撮ったマスターが1枚です。

まずはこれまでのWBPPでかかった時間です。WBPPはdrizzle x1やLN Referenceなどもフルで実行しています。やっていないのはCosmeticCorrectionくらいでしょうか。トータルでは45分強かかっています。
20240621_WBPP_time2

一方、FBPPは設定でほとんどいじるところがなくて、ここまでシンプルになると迷うことが無くなるので好感が持てました。PixInsightの設定の多さや複雑さに困っている人も多いかと思います。私は多少複雑でも気にしないのですが、それでもこれだけシンプルだとかなりいいです。トータル時間は約11分です。
20240621_FBPP_time2

結果を比べると、Fast Integrationと出ているところは元のIntegrationなどに比べて3倍程度速くなっていますが、Fast IntegrationはLIGHTのみに使われていて、その他のDARKなどのIntegrationには使われないようです。Debayerも5倍弱と、かなり速くなっています。他の処理は元と同じ名前になっていて、かかる時間はほぼ同じようです。その代わりに余分な処理数を減らすことでトータルの時間を短縮しているようです。トータルでは4分の1くらいの時間になりました。

ここから考えると、LIGHTフレームの数が極端に多い場合は、かなりの時間短縮になるのかと思われますが、アナウンスであった10分の1は少し大袈裟なのかもしれません。

処理数を減らしたことに関してはdrizzleを使わないとか、ImageSolveで位置特定を個別にするとかなら、ほとんど問題になることはないと思われます。出来上がりのファイル数も少なくて、操作もシンプルで、FBPPの方がむしろ迷わなくて使いやすいのではと思うくらいです。


今後の改善

ダイオウイカですが、2年くらい前の撮影から進歩したことは確実です。機材が違うのが第一です。ソフトウェアの進化はそこまで効かなくて、以前の撮影の無理なものは無理という事実は変わりませんでした。

さて今後ですが、これ以上の改善の可能性もまだ多少あるかと思います。例えば今使っている2インチのOIIIフィルターはBaaderの眼視用なのですが、透過波長幅が10nmと大きいこと、さらにUV/IR領域で光を透過する可能性があり、まだ余分な光が多いはずです。実際、フラット撮影時にBaaderの撮影用のHαとSIIフィルターと比べると、OIIIのみ明らかに明るくなります。また、明るい恒星の周りにかなりはっきりとしたハロができるのも問題です。これらはきちんとした撮影用のOIIIフィルターを使うことで多少改善するかと思います。この間の福島の星まつりでやっと撮影用の2インチのOIIIフィルターを手に入れることができたので、今後は改善されるはずです。

また、今回OIIIに注力するあまり、Hαの枚数が5分の1程度の25枚で2時間程度と短かったので、もう少し枚数を増やして背景の赤の解像度を増すという手もあるかと思います。

G画像だけはもっと時間をかけて淡いところを出し、分子雲を茶色系に階調豊かにする手もあるかと思います。これはナローバンド、特にAOOで緑成分をどう主張させればいいかという、今後の課題になるのかと思います。

あとは、やはり暗いとことで撮影することでしょうか。いくらナローバンド撮影と言っても、光害での背景光の明るさが変われば、OIIIの波長のところでも違いが出るのかと思います。特にS/Nの低い淡い部分は効いてくるでしょう。


まとめ

2年前に心底淡いと震撼したダイオウイカですが、自宅でのナロー撮影で、まあ画像処理は大変でしたが、これだけ出たのは満足すべきなのでしょう。でももう、自宅ではここまで淡いのは撮影しないと思います。もう少し明るいものにした方が幸せになりそうです。無理のない画像処理で、余裕を持って階調を出すとかの方が満足度が高い気がしています。



CP+のセミナー、いかがでしたでしょうか?細かい操作も多かったので、その場では少し見にくいところなどもあったかもしれません。すでに動画配信が用意されているので、わかりにくかったところは繰り返しチェックしてみてください。

 

今回の記事は、動画配信を元に、わかりにくかったところの補足をしようと思います。


処理画像の準備

セミナーの中で話した、撮影までの状況と、SharpCapでの再ライブスタックは、これまでの記事で書かれています。







今回の記事は、セミナーで示した中でも、特に画像処理の部分について補足していきたいと思います。「なぜ」この操作をするべきなのかという意味を伝えることができればと思います。

セミナーは
  1. (23:50) 入門用にMacの「プレビュー」を使って、その場で処理
  2. (27:05) 初心者用にPhotoshopを使って、その場で処理
  3. (32:40) 中級者用に「GraXpert」とPhotoshopを使って、その場で処理
  4. (41:50) 上級者用に「PixInsight」をあらかじめ使った処理の結果を流れだけ
という内容 (括弧内の時間は配信動画での位置) でした。

使用した画像は、SharpCapで1分露光で撮影したオリオン大星雲を60枚したものです。これを、上の1と2はオートストレッチしたものをPNGフォーマットで8ビットで保存されてもの、3と4はRAW画像のfitsフォーマットで16ビットで保存されたものです。

オートストレッチで保存できるのは2種類あって
  1. 「Save with Adjustments」を選ぶ、LiveStackでのオートストレッチのみかかったもの
  2. 「Save exactlly as seen」を選ぶ、LiveStackでのオートストレッチに、さらに右パネルのオートストレッチが重ねてかけられてもの
です。今回は後者の2の保存画像を元に画像処理を始めます。いかが、SharpCapで保存されたライブスタック済み、オートストレッチ済みの初期画像です。

ここでオートストレッチについては少し注意が必要で、何度か試したのですが、ホワイトバランスや輝度が必ずしも一定にならないことがわかりました。全く同じRAWファイルをスタックした場合は同じ結果になるのですが、スタック枚数が変わったり、別のファイルをスタックしたりすると、見た目に色や明るさが変わることがあります。どうも比較的暗いファイルでこれが起こるようで、ノイズの入り具合で左右されるようです。明るさはまだ自分でヒストグラムの黄色の点線を移動することで調整できるのですが、RGBのバランスは大まかにはできますが、極端に暗い画像をストレッチするときの微妙な調整はSharpCap上ではできないようです。Photoshopでは背景と星雲本体を個別に色合わせできるのでいいのですが、WindowsのフォトやMacのプレビューでは背景も星雲本体も同じように色バランスを変えてしまいます。このことを念頭においてください。


Windowsのフォトでの簡易画像処理

まず、入門用のOSに付いている簡易なアプリを使っての画像処理です。

セミナー当日はMacとWindowsの接続が不調で、SharpCapのライブスタックとWindowsのフォトでの加工をお見せすることができませんでした。手持ちの携帯Wi-FiルーターでMacからWindowsにリモートデスクトップで接続しようとしたのですが、2.4GHzの信号が飛び交い過ぎていたようで、遅すぎで使い物になりませんでした。あらかじめテストはしていたのですが、本番でこんなに変わるとは思ってませんでした。

お詫びではないですが、Windowsのフォトについては、配信動画の代わりに、ここでパラメータと結果画面を追加しておきます。画像処理前の、SharpCapのオートストレッチで保存された画像は以下のものとします。

Stack_60frames_3600s_20_34_59_WithDisplayStretch

これをWindowsのフォトで処理します。
  1. WindowsではPNGファイルをダブルクリックすると、フォトが立ち上がります。画像処理をするには、上部真ん中にあるアイコン群のうち、左端の「画像の編集」アイコンをクリックします。
  2. 上部に出てくるメニューの「調整」を押します。
  3. フォトの弱点は、背景を暗くするのがしにくいことでしょうか。今回は「コントラスト」を右に寄せることで背景を暗くします。
  4. 星雲中心部が明るくなりすぎてます。トラペジウムを残したいので「強調表示」を左にして明るい部分を暗くします。
  5. 色バランスは「暖かさ」と「濃淡」で整えます。「暖かさ」左に寄せて青を出し。「濃淡」を右に移動しバランスを整えます。
  6. 「彩度」をあげて、鮮やかにします。
setting

画面が暗い場合は「露出」を少し上げるといいかもしれません。「明るさ」は変化が大きすぎるので使いにくいです。

上のパラメータを適用すると、結果は以下のようになります。
photo

たったこれだけの画像処理でも、見栄えは大きく変わることがわかると思います。


Macのプレビューでの簡易画像処理

Macのプレビューでの画像処理過程はセミナー中に見せることができました。でも今動画を見直していたら、どうも本来処理すべき初期画像を間違えていたようです。

Windowsとの接続がうまくいかなくて、内心かなり焦っていたようで、本来は上のフォトで示した初期画像にすべきだったのですが、間違えて出してしまったのがすでに加工済みの下の画像で、これを元に画像処理を進めてしまいました。焦っていたとはいえ、これは完全に私のミスです。本当に申し訳ありませんでした。
Stack_60frames_3600s_20_34_59_WithDisplayStretch 2

ここでは、改めて本来加工するはずの下の画像で進めようと思います。フォトで使ったものと同じものです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch

最終的なパラメータはこれくらいでしょうか。一つづつ説明してきます。
setting
  1. オートストレッチで星雲本体を炙り出た状態だと、星雲中心部が明るくなりすぎます。トラペジウムを残したいので「ハイライト」を下げます。
  2. 背景が明るすぎるので、上のヒストグラムの左のマークを右に動かします。星雲本体を炙り出すために、真ん中のマークを左に少し寄せます。これは後のPhotoshopの「レベル補正」に相当します。
  3. 色バランスは「色温度」と「色合い」で揃えるしかないようです。「色濃度」は左に動かすと青っぽくなります。「色合い」は右に動かすとバランスが整います。最後は画面を見ながら微調整します。
  4. 「シャープネス」を右に寄せると、細部を少し出すことができますが、今回はノイズがより目立ってしまうので、ほとんどいじっていません。

結果は以下のようになりました。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
これをみると、セミナー本番中にプレビューで処理を開始したものとよく似ているかと思います。要するに、練習でプレビューで処理をしたものを間違えて開いてしまったと言うわけです。こんなことも気づかないとは、やはりその時はかなり焦っていたんですね。それでも次のPhotoshopの処理はそれに気づいて、SharpCapから直接保存されたものを処理に使っています。


Windowsのフォトも、Macのプレビューも、いじることができるパラメータはそう多くはないので、解はある程度一意に決まります。むしろパラメータは画像処理を始めるときの初期のホワイトバランスと、初期の背景の明るさに依りますでしょうか?これはSharpCapの保存時に決まるのですが、保存時に細かい調整ができないのが問題です。それでも、方針さえしっかりしていれば、パラメータに関してはここら辺しかありえないというのがわかるかと思います。繰り返して試してみるといいかと思います。


Photoshopを使った画像処理

次はPhotoshopです。こちらはできることが一気に増えるので、パラメータ決定の際に迷うかもしれません。それでも方針をしっかり立てることで、かなり絞り込むことができるはずです。

初期画像は上と同じもので、SharpCapでストレッチされたPNGファイルです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
  1. (27:10) まず、背景の色バランスの調整です。これはPhotoshopのメニューから「イメージ」「色調補正」「レベル補正」を使うと楽でしょう。RGBの各色をそれぞれ個別に調整して、まずは各色の山のピーク位置と、各色の山の幅を調整します。調整の様子は動画で確認してみてください。山の位置が揃うと、背景の色バランスがとれたことになります。
  2. (27:40) 次に動画では、同じ「レベル補正」を使って背景を暗くしています。左の三角を少し右に移動します。暗くしすぎると、後から分子雲が出にくくなるので、これはもしかしたら必要無かったかもしれません。
  3. (27:55) 次に、青を少し強調します。一般的に星雲本体の青は出にくかったりします。特に今回は光害防止フィルターでQBP IIIを使っているので、そのまま処理すると、赤でのっぺりした星雲になりがちです。「イメージ」「色調補正」「トーンカーブ」と行って、「ブルー」を選び、ここは慎重に真ん中ら辺を少しだけ上げます。トーンカーブは左の方が暗い背景に相当し、真ん中ら辺が星雲の淡いところ、右が星雲の明るいところや、恒星に相当します。
  4. ただし真ん中を上げると、せっかくバランスをとった背景も青くなってしまうので、トーンカーブの線上の左の方をクリックしてアンカーを打ち、暗い背景部分があまり変わらないようにします。アンカーの部分だけが動かなくなるので、アンカーの右の方の線を動かすと、アンカーの左側も変わってしまって背景のバランスが崩れることがあります。そんな時は、左の方にアンカーを複数打って、背景バランスが崩れないようにしてください。
  5. (28:20) 少し地味なので、彩度を上げて各色の諧調が豊かな、見栄えがする画像にします。「イメージ」「色調補正」「自然な彩度」と選びます。その中に2つ触れるパラメータがありますが、「彩度」の方はかなり大きく変わってしまうので、私は「自然な彩度」の方を触ることが多いです。
  6. 補足ですが、色を出そうとしてよくあることなのですが、彩度を単体であげるとくすんだような俗にいう「眠い」画像になります。そんな時はまずは輝度を上げるようにしてください。輝度に関しては、画面に集中してしまうと、暗い状態でもいいと思ってしまうことがよくあります。一度ネットなどで自分が一番いいと思う画像をブラウザ上で見て、そのすぐ横に今編集している画像を並べてみてください。思ったより明るさも色も出ていないことに気づくかもしれません。客観的になるのは難しいですよね。並べて比べながら、まずは一番いいと思う画像くらいになるように明るさや彩度を出してみるのがいいのかと思います。
  7. (28:40) Photoshopで便利な機能が、「フィルター」の中の「CameraRawフィルター」です。まずは「ライト」の中の「ハイライト」を下げることでトラペジウムを守ってやります。
  8. (29:10) 次に、背景に含まれる分子雲を引き出すために「ブラック」を右に振り、「シャドウ」を左に振ります。ブラックとシャドウはよく似ていますが、逆にブラックを左にシャドウを右に振ってやると、似て非なるものだとわかるでしょう。この分子雲の炙り出しは、「効果」の「明瞭度」も効き目があります。セミナーでは説明しませんでしたが、「コントラスト」も同じような効果がありますが、こちらは強すぎる感があるので、使うとしても微妙に調整します。
  9. セミナーでは説明しませんでしたが、細部は「効果」の「テクスチャ」である程度出すことができます。同時に背景のノイズや不自然な大きな構造も出すことになるので、かけすぎには注意が必要です。
  10. (29:35) ここまで分子雲をかなりあぶり出してきたことになるので、かなりノイズが目立っていると思います。Photoshopでも簡単なノイズ処理ができます。その一つが「CameraRawフィルター」の「ディテール」の「ノイズ軽減」です。ノイズの具合に応じて、50とか、最大の100とかに振ってやります。同時に「カラーノイズ」も除去してしまいましょう。カラーノイズは画像を拡大すると、RGBの細かい色違いのノイズがあるのがわかると思います。拡大しながらカラーノイズが除去されるのを確認してみるといいかと思います。
  11. (30:45) ノイズを除去すると、どうしても細部が鈍ってしまいます。これは同じところの「シャープ」を上げてある程度回避できますが、完全に戻すことはPhotoshop単体ではできないかと思います。ノイズ処理に関してはここら辺がPhotoshopの限界でしょうか。
  12. (31:15) 最後に仕上げで再びトーンカーブをいじっています。ここら辺は好みでいいと思いますが、今回はまだ青が足りないのでBのを少し上げました。派手さは赤色で決まるので、Rも少し上げます。緑は自然さを調整します。赤とか青が強くて、全体に紫っぽくて人工的な気がする場合は、Gをトーンカーブで気持ち上げると自然に見えたりします。セミナーでは説明しませんでしたが、必要ならばトーンカーブの右側にも適時アンカーを打って、明るい部分が明るすぎにならないようにします。特にせっかく撮影時に残ったトラペジウムを、明るくしすぎて消さないようにします。
Photoshop

こんなところで完成としましたが、いずれにせよここでは、背景と星雲本体を個別に色バランスをとりつつ、背景を炙り出し、コントラストを上げることが重要です。背景はそもそも暗いためにノイズが多く、分子雲を炙り出すとどうしてもノイズが目立つようになるので、何らかのノイズ処理が必要になってきます。

WindowsのフォトやMacのプレビューだけで処理したものと比べると、背景と本体のバランスがとれていて、それらしい画像になってきたのかと思います。


GraXpert

ただし、Photoshopでの処理だけだと、背景の分子雲はまだあまり見えていないですね。この淡いところを出すにはどうしたらいいでしょうか?基本は、星雲本体と背景の輝度差をなくすことです。特に、画面全体に広がるような大きな構造(「空間周波数が低い」などと言います)での輝度差をなくすことが重要です。ここでは「GraXpert」という無料のアプリを使います。WindowsにもMacにも対応しています。

GraXpertは操作がそれほど多くないので複雑ではないのですが、少しクセがあります。

1. (32:35) GraXpertにストレッチ機能があるので、今回はすでにストレッチされたPNGではなく、暗いままのRAWフォーマットのFITSファイルを使いましょう。ストレッチされてない画像なので。最初にGraXpertの「1」の「Load Image」で開くとこんなふうに真っ暗に見えるかと思います。
Stack_16bits_60frames_3600s_20_21_42_fits_nostretch

2. (33:05) GraXpertの「2」の「Stretch Options」で何か選ぶと、明るい画像になるかと思います。ここでは見やすくするために「30% Bg」を選びます。

3. (33:15) 画像の周りに黒いスジなどある場合はフラット化がうまくいきません。ライブスタックの時にディザリングなどで少しづつ画像がずれていくと、黒い筋になったりするので、まずはそれを左メニュー一番上の「Crop」の横の「+」を押して、出てきた「Crop mode on/off」を押します。黒い筋を省くように選択して、クロップして取り除きます。クロップ機能がGraXpertにあるのは、画像周辺の情報の欠落に敏感だからなのでしょうね。実際の取り除きの様子は配信動画を参考にしてください。

4. 「Saturation」は彩度のことなので、少し上げておくと後から彩度を出すのが楽になるかもしれません。今回は1.5を選びました。

5. (33:48) 「3」の「Points per row」と「Grid Tolerance」は画像によって適時調整してください。「Create Grid」を押します。目安は星雲本体が黄色の枠で選択されないくらいです。ここであまり神経質にならなくてもいいのがGraXpertのいいところでしょうか。

6. (34:00) 「Interporation Method」ですが、これは4種類ありますが、各自試してみてください。場合によって適不適があります。私はKriging>RBF>AI>Splineくらいの印象でしょうか?セミナーでは時間のかからないRBFを選びました。Methodによっては差が出る場合もありますが、ほとんど差が出ない場合もあります。

7. (34:25) しばらく待って結果が出たら、画面真ん中上の「Processed」と「Original」で比較してみるといいでしょう。その差が「Background」で見ることができます。
bg
こうやってみると、左が緑に寄っていて、右が赤に寄っていたことがわかります。

8. (35:28)できた画像をこのまま保存すると、ストレッチがかかりすぎているので、「Stretch Options」で「10% Bg」程度を再度選びます。その後「5」の「Saving」で「16bit TIFF」を選択し、「Save Stretched & Processed」を押して、ファイルを保存します。

TIFFファイルはサイズが大きくなるので、ここではTIFFファイルをjpgに変換したものを表示しておきます。
Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert

9. (36:14) 保存されたTIFFファイルをPhotoshopで開き、あとは上でPhotoshopで処理したものとほぼ同様に進めます。

10. (36:20) 今回の場合、ヒストグラムで全ての山がそろっています。GraXpertで背景のホワイトバランスも合わせてくれています。

11. (36:28) 背景が暗いのですが、中心部は明るいので、Camera RAWフィルターで、ハイライトを下げ、黒レベルを上げ、さらに露光を少し上げると、背景の分子雲がPhotoshop単体で出したものよりも、すでに黙々しているのがわかります。これがGraXpertのフラット化の効果です。

12. (37:17) あとは同様にトーンカーブで青を少し出します。

13. (37:35) GraXpertのフラット化の弊害として、色が出にくいというのがあります。彩度を少し強調するといいでしょう。

14. (38:15) Camera RAWフィルターの「ディテール」の「ノイズ軽減」でノイズが目立ちにくくなります。ここまでの完成画像を示します。

Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert_final

明らかにPhotoshop単体より、GraXpertでフラット化することにより、背景の分子雲が出たのかと思います。

よりあぶり出せたのはいいのですが、その分ノイズが目立つと思います。そのため、動画では (40:13)あたりで DeNoise AIを紹介しています。これはAIを利用したノイズ除去ツールで、非常に強力なのですが、恒星の処理が苦手で、星が崩れたりしてしまいます。今回は中心が抜けたような星になってしまいました。

これは次に話すように、星と背景を分離するなどして、背景のみに実行することでうまく使うことができますが、ここまで来ると今回の範囲を超えてくるので、参考までにノイズツールはこのようなものもあるということだけ認識しておいてください。


PixInsight

セミナーでは最後にPixInsightでの処理を紹介しましたが、これは今回の目的の範囲を超えていると思いますので、参考程度に処理したものを順に示すだけにしました。なのでここでも詳細な解説は控えておきます。というか、これを解説し出すとこの一記事では到底収まりきりません。

ポイントは
  1. (42:40) BlurXTerminatorで収差を改善し星を小さくシャープにすること
  2. (44:47) 星と背景を分離すること
でしょうか。これらはPhotoshopでの処理とは全く異なり、天体画像処理専用ソフトの強いところです。最初からここまで手を出す必要は全くないと思いますが、いつか自分の処理が不満になった時に、こんな手法もあるということくらいを頭の片隅に入れておけばいいでしょう。


比較

最後に、今回それぞれで画像処理をした
  1. Macのプレビュー
  2. Photoshotp
  3. Graxpert
  4. PixInsight
の4枚を並べて比べてみます。左上からZの字を書くように、上の1、2、3、4と配置しています。

all

Macのプレビューだと、背景と星雲本体を別々に色合わせできなかったことがよくわかります。Photoshopになると、色がある程度バランスよくなっています。分子雲のモクモクはGraXpertが一番出ているでしょうか?

セミナー当日見せるのを忘れてしまいましたが、同じ4枚を拡大したものも比較してみます。
all_magnified

Macのプレビューはノイズ処理がないので、やはりノイジーです。拡大すると、PhotoshopのみとGraXpertが入った時の違いもよくわかります。モクモクのあぶり出しと同時に、細部もでています。それでも細部はPixInsightがBXTのおかげで圧倒的でしょうか。

セミナーの最後でも言いましたが、4枚目でも情報を引き出し切ったかというと、かなりいいところまで入っていると思いますが、まだ少し余地が残っていると思います。マスクを使ったりすることで、ノイズ処理やあぶり出しをもう少し改善することはできるかと思います。


まとめ

さて、今回のセミナーと合わせての一連のブログ記事いかがだったでしょうか?電視観望から始まり、撮影に発展し、画像処理までを解説してきました。セミナー本番は少し詰め込みすぎたかもしれませんが、後の配信を前提に動作を示すことを中心としたので、よろしければ動画を繰り返し見ながら確認して頂ければと思います。皆さんの画像処理の何かのヒントになるのなら、今回のセミナーを引き受けた甲斐が十分にあるというものです。

画像処理はとても奥深いところがあり、今回示したBlurXterminatorもそうですが、まだまだ今後ソフトや技術も進化していくはずです。大切なことは、ここまで説明したことの繰り返しになるかもしれませんが、闇雲に処理を進めるのではなく、何が問題で、どうすれば解決するかの方針を立てて、手持ちの技術で実際に進めていくことかと思います。画像処理といっても、いわゆる普通の問題解決プロセスと同じですね。

今回色々な手法を示しましたが、これが唯一の方法だなんてことは口が裂けても言えませんし、正しい方法かどうかもわかりません。あくまで一例で、他の方法もそれぞれ皆さんで、試行錯誤もあるかと思いますが、いろいろ編み出して頂ければと思います。











M106の再画像処理の記事を公開後、Twitter上でかなり熱い議論が交わされました。LRGB合成についてです。LRGBってもっと単純かと思っていたのですが、実際にはかなり複雑で、議論の過程でいろんなことがわかってきました。




M106での画像処理

詳しくは上の記事を見てもらえるといいのですが、今回の撮影ではRGBの露光時間がLに比べてかなり短くノイジーでした。そこで検証したのが、LRGBの際のLとRGBの比率をどうすればいいかという点です。 

M106の再画像処理のLRGB合成の過程で、Lの比率を上げると分解能は良くなっていく傾向でした。その一方、合成直後の彩度は落ちてしまいます。それでも色情報がなくなったわけではなく、たんにかくれているだけで、その後に彩度を上げていくと色が出てできます。ただし、色が出ると同時に短時間露光のせいかと思いますが、ノイジーになっていきました。

この時点でLとRGBの比率をどうすべきかわからなくなったので、LRGB合成の代わりにRGB画像をLab分解し、Lを入れ替えるという手段を取りました。この方法の利点は、RGBがノイジーな場合にabの分解能を落としてカラーノイズを減らすことが独立してできるということです。これは人間の目が色に対する分解能があまりないということを利用しています。

今回は上記のように試してみましたが、結局のところLRGBもLab変換も、まだ全然理解できていないことがよくわかりました。


Twitterでの議論

その後、TwitterでNIWAさんが反応してくれて、その後botchさん、だいこもんさんも交えてかなりの議論がなされました。

と言っても私は「わからない、わからない」と吠えていただけで、基本的にはNIWAがいろんな有用な情報を提供してくれたというのが実情なので、まずはNIWAさんに感謝です。botchさんはさすが長年この界隈にいる方なので、何が問題か本質的理解されているようでした。だいこもんさんはとてもわかりやすい説明をしてくれました。


PixInsight forumの解説、でもよくわからない

NIWAさんからの最初の有用な情報はPixInsight forumのJuanさんの発言(スレッドの#2,3,7)でした。



NIWAさんがこのページをもとに日本語でまとめてくれているので、英語が辛い場合はここを読むといいかと思います。



Juanさんの言う大事な主張は、
  • RGBはリニアでやっていいが、LRGBはノンリニアで処理しなければならない。
ということです。理由は
  • CIE L*a*b*とCIE L*c*h*はノンリニアカラースペースであり、それらがLRGB合成するために使われているから。
ということなのですが、最初この意味が全くわかりませんでした。そもそも私はLRGB合成はリニアのうちに処理してしまっていて、今のところ何か不具合のようなものは何ら感じていなかったからです。ここでいう「ノンリニア」というのはどうも「ストレッチ」というのと同義らしいので、このまま受け取ると
  • LRGB前に全てRもGもBも、当然Lもフルストレッチしきっていなければならない。
とも受け取れます。これはかなりきつい制限で、できるなら私は早いうちに合成してしまって、まとまった画像で色と解像度のバランスを見ながら処理したいのです。しかも、上記のように理由が挙げられていますが、この意味が全くよくわかりません。


ノンリニアとはLの輝度合わせ?

そもそも、PixInsightのLRGBCombinationが実際どんなアルゴリズムで実行されているのか、どこにも情報がありません。NIWAさんから
  • パラメータ調整無しの場合、LRGBCombinationとChannel CombinationのLabのL入れ替えは同じ。
  • RGBからのL画像とL画像を50%ずつブレンドしたLによるLRGBCombinationと、Weights 0.5のLRGBCombinationは同じ。
という説明があり、LRGB合成のなかみを推測する材料などが提供されたりしましたが、やはりリニアとかノンリニアに関することを含めてブラックボックスに近い状態です。

その後、Juanさんの発言の#11を読み込んでいくと、luminance transfer functionとchannel weightsが何を意味するのか、少しわかってきました。本来は適用するLと、適用されるRGB画像のLが同じ輝度とバックグラウンドというのを前提としているようです。

そこでbotchさんがTwitterで
  • 「ほとんどの場合で、使うRGB画像の質が相対的に悪いので、強い後処理を行うとアラがでます。そもそもLとabが一致していないので。RGB画像とそれをモノクロ化した画像を扱っているのではない点を考えてみてください。」という発言と
  • 「んー、LRGBって非可逆ですよね。」という意見を言ってくれたのですが、この時点でも私はまだほとんど理解できていませんでした。

私が返した
  • 「Lab変換して、L画像を置き換えてLab合成し、それをまたLab変換して元のL画像に置き換えたら、元の画像に戻ると思っていたのですが、何か間違ってますでしょうか?」に対して、
  • botchさんが「Lを置き換えて、もう一度Lを置き換えるだけでなら同じです。samさんの「それをまたLab変換」と言う部分はその前にRGBになどに変換している事になるので、そうなると元には戻りません」というところで、だんだん理解できて
  • 「違うLとLab合成した段階で、次にLab変換で分離したaとbには違うLの情報が混じり、最初のabとは違うものになるという理解でいいでしょうか?これが正しいなら確かに不可逆です。」と答えましたが、まだこのことがリニアな画像にLRGB合成を適用してはダメな理由には結びつきませんでした。
ここでだいこもさんがものすごくわかりやすい説明をしてくれました。
  • 「リニアのRGB画像から抽出したモノクロ画像をLc、Lフィルターで撮影したリニア画像をL、と呼ぶことにする。LcはRGBをストレッチして得られているのでノンリニア画像であるというのがまず前提です。それで、フィルターの性質上LcとLは輝度が違うので、そのままLRGB合成すると色が薄くなったりして良好な色が得られません。そこで例えばLinearFitをつかって輝度をそろえる必要がでますが、それをやってLcとLをそろえるとそれぞれノンリニアとリニアなので、うまく輝度がそろわない。そのような理由で、結局はLにノンリニアなストレッチを施して、Lcとヒストグラムを一致させてからLRGB合成すると上手く行くという話になるのだと思っています。」

素晴らしい説明で、これでやっとなぜJuanさんがノンリニアと言っているかが理解できてきました。要するに
  • LとLcの輝度を合わせることをノンリニアと言っているに過ぎないということです。
botchさんの最初の説明も本質的に同じことを言っているのだということがわかりました。だいこもさん、ありがとうございました。

でもこの考えも実際にはまだ不十分で、議論はさらに続き、下の「ノンリニアの本当の意味は?」でさらに明らかになります。


リニアでLRGB合成する時の問題点

だいこもんさんはさらに
  • 「ただし、画像依存はあってリニアなままLRGB合成しても破綻なく上手く行くこともありました。
と述べているのですが、こちらは私の経験とよく合います。最初から輝度がそこそこあっていればリニアなままでもいいかもですが、それは特殊なケースなのかと。

では、LRGB合成をリニアでやったら現実的には何が問題になるかというと、NIWAさんが
  • 「リニアでやると輝星に原色のノイズが出ることがよくあります。一番明るい部分が例えば階調なく原色で青く塗り潰されるような現象です。発生メカニズムは不明ですが『明るいLに対して対応できるRGBの組み合わせがなくて、破綻して原色になってしまった』と言うように見えます。」
と具体例を述べてくれています。さらにだいこもんさんがPIのメニューのSCRIPTS>Utilities>LinLRGBに今回の問題に対応するようなスクリプトを見つけてくれました。
  • 「単純にLRGB合成すると星が破綻する画像でも、これを使ったら破綻しませんでした」とのことなので、リニアで処理してもうまくいくのかもしれません。
  • 「スクリプトの中身見てみたら、カラー画像をHSI分解して、IをLと入れ替えているだけのようです。そうすると星の破綻も起きませんでした。」
とのことなので、リニアでもうまくLを入れ替えることができるのかもしれません。

リニアで色がおかしくなる事は私も前回のM106の処理中にありました。これはLがRGBより暗い部分で起こるようです。私の場合はLを少しストレッチしてRGBより明るくすると回避できました。

NIWAさんからもう一つJuanさんが発言されているスレッドの紹介がありました。ここでもあからさまにRGBはリニア、LRGBはノンリニアと言っています。



Juanさんが#5の最後で言っているのは、ここまで議論していた「入れ替えのLの輝度を合わせるストレッチをすることをノンリニアという」ということに近いかもしれません。でもまだ別の意味の気もします。

このことは次で明らかになったのかと思います。


ノンリニアの本当の意味は?

上の疑問に関して、
  • だいこもんさんの「LcはRGBをストレッチして得られているのでノンリニア画像であるというのがまず前提」という発言から、
  • NIWAさんが「つまりRGBからLを取り出した時点で、ストレッチされてしまうわけですね。」
と非常に重要な発言をされています。NIWAさんが調べたところによると、そのLを取り出すときにガンマ補正が入るようで、根拠は
だとのことです。要するに、
  • リニアなRGB画像だったとしても、そこからLを引き出しただけでノンリニアなL画像になってしまう
というのが本質のようであり、ある意味今回の結論になります。


まとめてみると

これまでの議論が正しいなら、
  1. RGB合成まではリニアなのでストレッチなどする必要はないが、LRGB合成はノンリニアになる。
  2. 具体的はRGBからLを引き出す際にノンリニア処理になるので、それ以降はリニアな処理はしない方がいいということが重要。
  3. 言い換えると、R、G、Bに関しては事前にストレッチしておく必要はない
  4. LRGB合成する際のL画像も事前に必ずしもストレッチしておく必要はないが、RGBから引き出したL画像と同じ輝度レベルにした方がいい。例えばL画像がリニアなままでは恒星の色が破綻することがある。
  5. LinLRGBなどでHSI分解してIとLを入れ替えると破綻しにくくなる(要検証)。
ということが、ある程度のまとめとして言えるのかと思います。

個人的に重要視したかった「ストレッチのタイミング」ですが、少なくとのR、G、Bに関してはストレッチは合成後でいいことがわかったので、最初に言っていた「LRGB合成前に全てRもGもBも、当然Lもフルストレッチしきっていなければならない」というかなりきつい制限は相当緩和されるという結論になったかと思います。

あと、この議論はあくまで原則論で、実際にどう運用するか、実際の画像処理に影響があるかどうかは程度問題の可能性も十分にあります。本当に正しいかどうかもさらなる検証が必要かと思います。天体写真に対する考え方は人それぞれで、科学の範囲と思ってストイックに考えている方もいれば、趣味として楽しんでいる方もいるのかと思います。たとえこの議論を読んだとしても何が正しいかは自分で判断すべきで、必要ならばこの議論も参考にしてみるというような考え方でいて頂ければありがたいです。

今回はLabのノンリニア性とか、まったく意識していなかったことがたくさんありました。まだまだ学ぶことが多いです。NIWAさんが参考ページを教えてくれました。

NIWAさんの情報初め、みなさんの議論におんぶに抱っこで、私は疑問を出しまくっているだけでした。本当に皆様に感謝です。こんなまとめをするのも越権かもしれませんが、私自身のメモという意味も兼ねていますので、どうかご容赦ください。でも、こうやってネット上で議論が進んで理解が深まるというのは、とても有意義で、とても楽しいことなのかと思います。皆様どうもありがとうございました。


前回の記事でBlurXTerminator (BXT)についてゴースト星雲の画像処理で適用した例を書きました。


最初L画像のみでBTXを試していたのですが、途中からL画像単体でBXTを適用することは止めて、最終的にはLRGB合成した後にBXTを適用しました。前回の記事では、RGB画像へのBXTの適用の過程をざっくり省いてしまいました。実際にはかなり検証していて記事もそこそこ書いたけど、長すぎるのでボツにしてしまいました。Twitter上でカラー画像への適用に興味を持たれた方がいたので、ボツ予定だった記事を一部改変して掲載しておきます。


カラー画像にBTXを適用するに至るまで

大きく分けて次の5段階のことを試しました。
  1. L画像のみBXT、 その後LRGB合成
  2. L画像にBXT、RGB合成した画像にBXT、その後LRGB合成
  3. L画像にBXT、星像の大きいRのみにBXTをかけてGB画像はそのままでRGB合成、その後LRGB合成
  4. L画像にBXT、R、G、Bそれぞれの画像にBXTしてRGB合成、その後LRGB合成
  5. RGB合成、その後LRGB合成 、できた画像にBXT
とりあえず最初に各テストの結果を書くと
  1. 一見問題ないが、よく見ると恒星に色ずれが起きる。原因は恒星の大きさがL画像とRGB画像で違いすぎること。
  2. RGBにBXTをかけた段階では問題がないが、LRGB合成をする際に恒星中心がサチることがある。
  3. 恒星にハロが出て、その影響でSPCCをかけると背景の色が変わる。
  4. 問題なし。
  5. 問題なし。
4と5は手法としては問題はなさそうです。ただしこれにNoiseXTerminator (NTX)が絡むと、3と4で差が出ます。あとの方で詳しく書きます。 


1.

最初は
  1. L画像のみBXT、 その後LRGB合成
した場合です。この方法、一見問題なく見えます。この手法で許容してしまってもいいという人も多いかもしれません。ですが、よく見ると恒星に色ずれが起きる可能性があります。

LRGB合成した後に恒星周りに色ズレのような現象が確認できました。たとえば下の画像の恒星は左下をよく見えるとマジェンタが強くなってしまっています。画像処理を進めていくとこれが目立ってくることに気づきました。

Image55_SPCC_LRGB_zure_cut

いろいろ原因を探っていくと、どうやらBlurXTerminatorをかけたL画像と、BlurXTerminatorをかけていないRGB画像の恒星の大きさと差がありすぎているからのようです。BXTでL画像の恒星の大きさは小さくなるのですが、RGBの恒星の大きさは大きいままです。L画像のエッジを効かせるべき範囲と効かせない範囲が、RGB画像では大きく色情報が違ってしまっているのが原因かと思われます。次の2からの作業をしてこの色ズレが消えたので、おそらくは正しいと思いますが、確証はというとまだいまいちありません。


2.

上記の恒星色ずれ問題があったので、次にRGB合成した画像にL画像と同じパラメータでBXTをかけてみました。RGB画像にBXTを適用すると恒星の色がズレる可能性があるという報告も見ましたが、私が試している限りこの時点での恒星の色は保たれているようでした。RGB画像の段階ではいいのですが、このBXTを適用したRGB画像に、BXTを適用したL画像でLRGB合成すると、恒星中心部が激しく色飛びすることがあるようで、あまりよろしくありません。

Image06_RGB_crop_ABE_ABE_ABE_SPCC_BXT_Preview02_saturation

数回多少パラメータなどを変えて試しましたが、多少の変化はあれどいずれも上記画像のような色飛びがでます。再現性もあるようなのですが、一部の原因は撮影時に恒星中心がサチっていたか、サチりかけていたことがあるのかと思います。

RGB合成だと目立たずに、LRGB合成で顕著に出てくるのが少し不思議ですが、とにかくLRGB合成が鬼門です。BTXを使わなければ、同じ画像でもLRGB合成でこんな過激なサチりはでてきません。この時点で思ったのは、どうもBXTとLRGBは相性問題があるような感触です。BXTのdeconvolutionで星を尖らせているようなものだと考えると、LとRGB尖らせたものどうしで合成する際に問題が出るのは理解できる気もします。


3. と4.

次の策として、R、G、Bの元画像それぞれにBlurXTerminatorをかければと思いつきました。その際、恒星が大きく見えるRのみにかけるか、R、G、B全てにかけるか迷ったので検証してみました。

SPCCをかける前は一見RのみにBlurXTerminatorをかけた方が赤ハロが少なく見えていいと思ったのですが、SPCCをかけるとこの判断は逆転しました。結果だけ見せます。

まずはRだけBlurXTerminatorをかけRGB合成し、SPCCをしたものです。SPCC前の結果とは逆に恒星周りにわずかに青ハロが出てしまって、さらに背景が赤によってしまっています。
Image54_Preview01

次にR、G、BにそれぞれBlurXTerminatorをかけRGB合成し、SPCCをしたもの。ハロもなく、背景もまともな色です。
Image55_BXT4RGB_Preview01

ここまではRGB合成のみのテストですが、この後にL画像も同様のパラメータでBlurXTerminatorをかけ、上の2枚のRGBと合成してみました。この時点で1.で示した恒星の色ズレは見事に消えましたが、やはりRだけBlurXTerminatorをかけた場合は青ハロが残り、RGBそれぞれにBlurXTerminatorをかけた場合は色バランスもきちんと残されたままでした。なので、RだけBXTをかけるとかはやめた方が良さそうです。

なんでこんなまどろっこしいことをあえて書いたかというと、BXTはRGBバランスよくかけた方がいいことがわかりますが、その一方でBlurXTerminatorは恒星の各色の大きさ調整に使えるのではないかということです。鏡筒によってはRGBで収差が違う場合もあり、それがハロなどにつながることがあります。それらの色合わせに役立つ可能性があるということです。ただし上で示したように、SPCCなどで構成の色合わせをしてからでないと判断を間違える可能性があるので、きちんと色バランスをとった上で判断した方がいいということに注意です。

上の結果はさらに、恒星の色バランスが悪いと、SPCCが背景の色バランスに影響を与える可能性があるということを示唆しています。PCCもSPCCもそうですが、基本は「恒星の色」を基に「恒星の色」を合わせるだけの機能で、背景の色を直接検証しているわけではないということです。例えば色収差のある鏡筒では恒星のRGBバランスがズレてそれを元にSPCCを使うと背景の色も狂う可能性があるなど、SPCCもまだ完璧とは言い難いことを意識しておいた方がいいのかと思います。

というわけで、ここまでで4の

L画像にBXT、R、G、Bそれぞれの画像にBXTしてRGB合成、その後LRGB合成

という手法でほぼ問題ないことがわかりました。


5

ここまでで、L、R、G、B画像にそれぞれBXTをかけてLRGB合成するのでほぼ問題がないと言ってきました。念の為、LRGB合成してから、その画像にBXTをかけてみます。この段階では4と5にほとんど差が見られませんでしたが、もう少し見やすくするためにNXTをかけてみました。ここで差がはっきりと出ました。

L、R、G、B画像にそれぞれBXT、後にNXT:
Image37_Preview01


LRGB合成してから、その画像にBXT、後にNXT:
Image65_ABE_ABE_ABE_Preview01


後者の方が明らかにノイズが少ないです。(追記: すみません、ブログ記事にアップ後に改めて見たのですが、ブログ上だとほとんど差が分かりません。一応ローカルでは見分けがつくくらいの差はあるのですが...。あまり気にするレベルではないのかもしれません。)

ではなんでこんなことを試したかというと、R画像はまだしも、G画像やB画像にはゴーストの形はほとんど写ってなくて、それらにBXTをかけた結果を見ていてもシャープさが増すというより、単にノイズが増えたように見えてしまったからです。それならばRGBでバランスよくBXTをかけた方が得なのではと思ったのが理由です。


注意と結論(らしきもの)

あと一つ、今のところ私はBXTをリニア画像にしか適用していません。例えばマニュアルにはBXT内でFWHMを評価するとありましたが、ストレッチなどしてしまうとFWHMも正しく評価できなくなってしまうので、リニアで適用するのが原則かなと思います。ただ、例えばFWHMも絶対評価でなく各色の相対評価とかでもいいと思うと、必ずしもリニア画像でなくてもいいのではとも思います。ここら辺はもう少し検証が必要でしょう。

結論としては、いい方から5>4>1>>3>>2の順で、特に3の方法はもしかしたら色々応用できるかもと思っています。

というので、私的には今のところ普通にLRGB合成をして、その画像にBXTをかけるのが一番いいという結論です。もちろん、これはあくまで今回個人的に出した結論というだけで、まだまだ他に試すべきやり方はあるでしょうし、画像や環境によってはこの結論が根本的に変わる可能性もまだあるかと思いあます。


おまけ1: BXTとNXTどちらが先?

最後におまけで、BXTとNXTどちらを先にかけたらいいかの結果を載せておきます。BXTをかける時にもしもう少しノイズが少なかったらとかいう誘惑に取り憑かれたときのためです。5のLRGB合成してから、その画像にNXT、後にBXTをかけています。

Image65_LRGB_crop_ABE_ABE_ABE_SPCC_clone_Preview01

もう全然ダメですね。これは原理を考えればすぐにわかるのですが、ノイズ処理をしてしまった段階で、deconvolutionをする前提が崩れてしまっているからだと思われます。


おまけ2: L、R、G、BそれぞれにBXT、NXTをそれぞれかけてからLRGB合成

もう一つおまけで、Twitterでt a k a h i r oさんからのリクエストです。L、R、G、BそれぞれにBXT、NXTをそれぞれかけてからLRGB合成したらどうなるかです。4.のmodバージョンですね。

結果だけ示します。
Image12_BXT_NXT_LRGB_SPCC_CT_CT_cut


私の予測は4の結果とほとんど変わらないだったのですが、これだけ見ると全然ダメですね。というか、なんでここまでダメなのかむしろ理由がわからなくらいです。何か間違ってないか見直しましたが、NXTの順序を入れ替えただけで、特におかしなところはなかったです。

改めて見てみると、やはりGとBの星雲本体が淡すぎることが問題の気がしてきました。淡すぎるとNXTがノイズを無くしているだけで、特に星雲を炙り出すようなことは全然できてないのです。BTXもNXTもやはり何かはっきりした対象があって、初めて効果的に働くような気がしています。もしくは、今回どのテストも同じパラメータでやって、そのパラメータはというとゴースト本体が一番よく出るようにというので選んでいるので、他のパラメータを考えてみればまた結果は変わってくるのかもしれません。


まとめ

限られた環境ですが、ある程度の結論として「BlurXTerminatorはカラー画像に適用できる」ということは言ってしまってもいいのかと思います。むしろL画像のみに適用する場合はLRGB合成をかなり注意深く実行する必要がありそうです。

いずれにせよ、このBXTはすごいソフトです。もう少し色々触ってみたいと思っています。またまとまったら記事にするかもしれません。


前回記事のゴースト星雲の処理の続きです。




前回はSPCCまでで、モノクロ撮影でBaaderフィルターを選んだらうまく補正ができたという話でした。今回は主にBlurXTerminatorについて試してみて、ゴースト星雲を仕上げています。


BlurXTerminator 

今回はBlurXTerminator (以下BXT)と呼ばれるdeconvolutionソフトを処理してみます。このソフトはRussell Croman氏が独自に書いているもので、氏が書いているいくつかのソフトの最新のものです。特に2021年から機械学習を取り入れたXTerminatorシリーズはノイズ除去のためのNoiseXTerminator (NXT)、スターレス画像を作るStarXTerminator (SXT)といずれも大きな話題となっています。

ノイズ除去ソフトは他にも実用レベルのものがいくつもあるのと、スターレス画像についてはStarNet V2が無料でかなり性能がいいので、私はこれまで氏のソフトは使ってきませんでした。それでも今回のBXTは分解能が信じられないほどに向上するようです。

私自身がdeconvolutionが苦手で、これまでも実際に作例にまで適用したのは数例。大抵は試してもあまり効果がなかったり、リンギングが出たりで、よほどうまくいった場合でないと適用してきませんでした。deconvolutionはどうしても時間を費やしてしまうので、画像処理の中でも大きな鬼門の一つでした。

BXTは、マニュアルとかに書いてあるわけではないようなのですが、基本的にはリニア画像のL画像のみに使うべきだという噂です。とりあえずまずはスタック直後のL画像で検証してみます。パラメータは基本的に2つだけで、
  1. 星像をどこまで小さくするかと、
  2. 分解能をどこまで出すか
だけです。

星像の補正

パラメータは上記の2つだけですが、BXTで「Correct」と呼ばれている、あまり注目されていな星像補正の効果があります。これだけでもかなりすごいので、まずはそこに注目してみたいと思います。

この機能はBXTを走らせるとデフォルトで適用される機能です。ですがこの機能の凄さを確かめるために「Correct Only」オプションをオンにして、この機能だけを試してみます。星像を小さくしたりとか、星雲の分解能を上げるといいった効果を適用「しない」、ある意味BXTのベースとなるような機能です。

マニュアルを読むと以下のものを補正できるそうです。
  • limited amounts of motion blur (guiding errors)
  • astigmatism
  • primary and secondary coma
  • unequal FWHM in color channels
  • slight chromatic aberration
  • asymmetric star halos.
とあります。日本語に意訳すると、
  • ある程度のブレ(ガイドエラー)
  • 非点収差
  • 1、2次のコマ収差
  • 各色のFWHM (星像の大きさ) の違い
  • 多少の色収差
  • 非対称なハロ
となります。どうやらものすごい威力のようです。マニュアルにはさらに「画像位置によってそれぞれローカルなPSFを適用する」ということで、たとえば四隅ごとに星像の流れが違っていてもそれぞれの流れに応じて補正してくれるようです。こんなソフトは私の知る限りこれまでなかったはずで、もし本当ならすごいことです。

試しにスタック後のL画像でオリジナルの画像とCorrect onlyだけで試した結果を比較して、四隅をGIFアニメにしてみました。
masterLight_BIN_2_4144x2822_EXPOSURE_300_00s_FILTER_L

自分的には四隅とも十分真円に見えていたので、全然問題ないと思っていました。でもBXTは躊躇することなくおかしいと認識しているようで、正しく直してくれているようです。左下は星像の大きさが少し小さくなるくらいでままだましですが、左上の画像は少し下方向に、右上の画像は大きく左下方向に、右下の画像は大きく左方向にずれていたことがわかります。本当に正しく直しているかどうかは今の段階では不明ですが、少なくとも見た目は正しい方向に直しくれているようです。効果が分かりにくいという方は、できるだけ画面を拡大して見てみてください。

この結果はすごいです。実際の撮影が完璧にできることはほとんど無理で、何らかの不具合がある方がごくごく普通です。これらのことが画像処理で補正できるなら、安価な機材が高価な機材に迫ることができるかもしれませんし、なにより撮影時のミスなどで無駄にしたと思われる時間を救い出せるかもしれません。はっきり言って、この機能だけでも購入する価値があると思います。

また、BXTはL画像のみに適用した方がいいとも言われていますが、マニュアルによると各色の星像の大きさの違いも補正できるということなので、BXTをカラー画像に適用することも可能かと思われます。


恒星の縮小

上記補正はBXTでデフォルトで適用される機能。さらにすごい機能が続きます。BXTの適用例を見ていると、普通は星雲部の構造を出すのに期待すると思うのですが、私はdeconvolutionの原理といってもいい星像を小さくする効果にとんでもなく驚かされました。まずは背景の効果をオフにして、星像改善のみSharpen Starsが0.25、Adust Star Halosが-0.25として、適用してみます。

Original:
orignal

BXT (恒星の縮小のみ):
staronly

まだ小さくすることもでき不自然になることもほとんどないですが、とりあえず今回はほどほどにしておきます。特に左下の明るい星に注目してもらえるとよくわかるかと思いますが、近づいていていあまり分離できていない2つの星がはっきりと分離されます。パラメータによってはハロの処理が少し不自然に見えたりもしますが、自分で頑張ってやった場合より遥かにましなハロになっているので、全然許容範囲です。

これもすごい効果ですね。星像を小さくするのはいつも相当苦労するのですが、リンギングなどもほとんど出ることがなく、このソフトが決定版の気がしています。ぜひともM57の分解能ベンチマークに使ってみたいです。


背景の分解能出し

やっとBXTの一番の目玉の背景の構造を出す機能です。今回はゴースト星雲のバンザイしている手のところなどを見ながらパラメータを攻めていきました。結局のところ、構造を出すSharpen Nonstellerはかなり大きな値にしないとほとんど効果は見えなかったのでデフォルトの0.9のまま、それよりもPSFをマニュアルで設定することで効果が大きく変わることがわかりました。興味があるところをpreviewで表示して効果を見ながら値を決めればいいと思いますが、今回は最終的にPSF Diameterを0.75、Sharpen Nonstellerを0.90にしました。

結果としては以下のような違いとなりました。

Original:
orignal

BTX(恒星の縮小と背景の分解能出し):
BXT_all

あまり効果があるように見えていませんが、これ以上分解能を出すと、ゴースト君が崩れてきてしまいました。かなり拡大して見ているのですが、ここまで拡大してみることをしないなら、もっと大きな構造を見ながら細部を調整するという手もあるかと思います。


その後の画像処理

でもですね、結局L画像にBXTを適用するのは止めました。じゃあどうしたかというと、スタック後RGB合成した後、そのままL画像とLRGB合成をして、その後にSPCC、CTで色出し、その後にやっとBXTを適用しました。

理由は、L画像のみに適用するよりもLRGB画像に適用する方が、特に細部出しのところでノイズに負けずにゴースト部分が出たというのが大きいです。

カラー画像に適用した場合でも、懸念していた恒星の色ズレもなかったです。今回は色々やって最後この順序になりましたが、この順序が正しいかどうかもまだよく分かっていません。BXTはパラメータこそ少ないですが、他のプロセスとの組み合わせで、順序なども考えたら無限の組み合わせがあり、ものすごく奥の深いソフトなのかと思います。

その際、BXTのついでに、NoiseXTerminator(NXT)も使ってみました。もちろんノイズ除去の効果があったのはいうまでもないのですが、その結果大きく変わったことがありました。PixInsightの使用する割合が多くなり、これまでストレッチ後のほとんどの処理を担っていたPhotoshopの割合が相当減って、処理の大方針が大きく変わったのです。具体的にはdeconvolutionが楽になったこと、そのため恒星の処理が楽になったこと、ノイズ処理もPixInsightでNXTで動くことが大きいです。不確定要素を少なくするという意味でも、PIの処理を増やすのは多分真っ当な方向で、以前から考えていてできる限りの処理をPIのみで済ませたいという思いがやっと実現できつつある気がします。

あともう一つ、PIのWBPPでいつものようにLocal Normarizationをオンにしおいたのですが、どうやらこれが悪さをしていたようでした。RGBでそれぞれの背景の大構造でズレが起きてしまったようで、背景に大きな色むらができてしまいました。ABEのせいかとも思い色々探っていって、やっと最後にLNが原因だと突き止めるに至りました。明るい光害地で、かなり無理して淡いところを出していて、スカイノイズの影響は大きいはずです。もしかしたらそこら辺も関連しているのかもしれません。暗いところに行くか、さらに撮影時間を伸ばす必要がありそうです。ここら辺が今後の課題でしょうか。


仕上げ

今回Photoshopでやったことは、最後の好みの色付けくらいです。恒星も背景もPIできちんと出してからPhotoshopに渡したので、かなり楽でした。

「sh2-136ゴースト星雲」
Image13_ABE_ABE_ABE_cut
  • 撮影日: 2022年10月25日20時2分-26日0時27分、10月26日19時17分-21日0時0分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB
  • 赤道儀: Celestron CGX-L
  • カメラ: ZWO ASI294MM Pro (初日分は-10℃、2日目は+9℃から11℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 120、露光時間5分、L: 54枚、R: 18枚、G: 15枚、B: 12枚の計99枚で総露光時間9時間55分
  • Dark: Gain 120、露光時間5分、温度-10℃、32枚
  • Flat, Darkflat: Gain120、露光時間 L: 0.001秒、128枚、RGB: 0.01秒、128枚
  • 画像処理: PixInsight、Photoshop CC


おまけ

恒例のAnnotatonです。
Image13_ABE_ABE_ABE_cut_Annotated

あと、前以前飛騨コスモス天文台でTSA120で撮影したゴースト星雲と比較してみます。

まずは以前のもの:
TSA120

今回の画像を同じ画角で比べると、
Image13_ABE_ABE_ABE_cut_comp
自宅といえど、さすが大口径で露光時間も長いだけあります。分解能、恒星、ノイズ、いずれも大きく進歩しています。バンザイしているところもきれいに出ていますね。


まとめ

画像処理をサボっている間に、SPCCやBXTとかなり状況が進んでいました。新しいツールも躊躇せずに、どんどん取り込んでいければと思います。BXTも迷走したりしていますが、使い方によって明らかに良くなったりするので、最適な方法を探っていくほかないと思います。


今回はケフェウス座のSh2-136: ゴースト星雲です。撮影したのはもう結構前で、10月終わり頃になります。

前後関係で言うと、自宅でSCA260で撮影したアイリス星雲とセットで撮影したもので、その意味ではもっと早く処理していても良かったものです。


現実的には撮影後に、小海の星フェスや皆既月食など、他にも色々忙しくてなかなか取り掛かることができなかったという理由もあります。最近のBlurXTerminatorが結構凄そうなので、少し試してみたくなり、時間の取れる年末年始に画像処理を進めてみました。


R画像?

撮影は10月25日の夜と、26日の夜の二日に渡っています。アイリス星雲を撮影していたセットアップのままなので、特に何か変更するでもなかったです。

画像処理を進めていくと、なぜかR画像のみ右上に変なスジが残りました。
masterLight_BIN-2_4144x2822_EXPOSURE-300.00s_FILTER-R_mono

最初は単にアンプグローの残りかと思ったのですが、そうだとすると2つ奇妙なことがあります。一つはGとBにこんなスジは全く出ていないこと、もう一つはダークフレームで見たアンプグローとスジの方向がずれていることです。R画像のスジは全部下向きですが、ダークフレームの筋は放射状に広がっていて、上剥き成分もあります。重ねて比べてみると、上向き成分のあるエリアでもR画像では下向き成分になってしまっているので、アンプグロー起因でない可能性が高い気がします。多数スタックで画角がずれてスジもずれたことも考えましたが、明らかに画角ずれ以上にスジがずれています。

こうなるとRフィルターが何か悪さをしているのかと思ったのですが、この前に撮影しているアイリス星雲のR画像にも、この後の同じ日に撮影している燃える木のR画像にも、そんなへんなスジは見当たりません。そうすると本当に存在するスジかとも思ってしまいますが、他の方の、かなり炙り出してある画像を見てもそれらしいものは見当たりません。釈然としませんが、今回は画像処理で誤魔化すことにしました。


USBケーブル

もう一つトラブルを思い出しました。ゴースト星雲と燃える木の撮影ターゲット切り替えの時に一つやらかしたことです。USBケーブルが引っかかってしまいました。

6B15B0B8-118F-499E-89DD-2B5595D700F1
子午線反転のところは必ずその場にいるようにしているのですが、ターゲット切り替えは部屋の中からリモートでやっています。中途半端に垂れ下がっているケーブルが赤道儀の出っ張りに引っかかったようです。ターゲット移動のときにカメラの映像を見ていたのですが、突然変な感じで映像が止まり、接続が切れたみたいだったのでもしやと思って外に出たら、案の定でした。幸いケーブルの方が破損しただけで、肝心なカメラの端子は無事で、USBケーブルを交換して接続し直したらきちんと認識され、撮影も可能でした。ケーブルの方を弱く作ってくれているのかと思いますが、こういったところはありがたいです。

反省点としては、
  • ケーブルの設置はきちんと弛まずに、かつ回転を妨げないようにすること
  • ターゲット移動の時もきちんと現場にいること
などしょうか。


SPCCの意義

新たにPixInsightで実装されたSPCC(SpectrophotometricColorCalibration )は、かなりすごいですね!懸案だったフィルター補正の機能をうまく実装したと思います。かなり原理的に正しい色に近づく可能性が高くなったと思います。

「PCCは科学的に正しいことをしているので、出来上がった色はおかしいはずがない」とかいう意見もちらほら聞きましたが、実際には全然そんなことはなかったということです。以前からPCCでは基準となるカメラと、個人が撮影するカメラの波長に対する応答が違うので、その分の色ズレが原理的に起きてしまうという主張をしていましたが、その機能が見事に実装されています。


個々のカメラの応答をデータとして持ち、参照カメラとの差を補正しない限り、正しい色にならないということです。今回のSPCCでは、実際に個々のフィルターやセンサー特性をデータベース化して持とうとしているため、原理的にも正しい方向に大きく進んだわけです。

さて、どれくらいの機能が実装されたのか、SPCCを使って実際に色合わせをしてみました。SPCCのインストール方法や、巨大なガイアのデータを落として使えるようになるまでは、マニュアルを見ればすぐにわかりますし、日本語の解説ページもいくつかありますのでそちらに任せるとして、使ってみてのポイントだけ少し書いておきたいと思います。

まず、プレートソルブがScriptのImageAnalysisにImageSolverに集約されたことです。これまではPCCは専用のプレートソルブ機能を持っていたのでですが、SPCCはもちろん、PCCもあらかじめ別途ImageSolverを走らせておかなければ、使うことができないようになってしまっています。このことを知らなければ、これまでのユーザはとまどうかもしれませんが、これは正常進化の一環で、一度わかってしまえばこれ以降特に問題にはなることはないはずです。

一番戸惑うところは、フィルターの選択でしょう。デフォルトはソニーセンサーのUV/IRカットフィルターになっています。今回の撮影ではASI294MM Proを使っているので、最初はここら辺から選ぶのだろう考えました。UV/IRフィルターは使っていないので、フィルターなしのソニーセンサーのRGBで試しました。フィッティンググラフは以下のようになります。
SPCC_Sony_RGB
ですが、これを見ると、明らかにフィッティング直線にかなりの星が載っていないことがわかります。

フィルターの選択肢をよく見ているとBaaderというのがありました。よく考えたら今回使っているカメラはモノクロで、応答の違いは主にRGBフィルターで起きていると思うと、使っているフィルターに応じて選ぶ方が良さそうです。実際に今回使ったはBaaderのRGBフィルターだったので、RGBそれぞれにBaaderを選んでみることにしました。すると以下のように、ほぼ全ての恒星がフィッティング直線に載るようになり、少なくともこちらのBaaderを選んだ方が正しそうなことがわかります。
SPCC_Baader
でもこれ、よく考えるとモノクロセンサーの特性は考慮していないんですよね。量子効率はソニーセンサーの選択肢がないので、理想的な場合を選びました。この場合量子効率は全波長で100%とのことなので、やはりセンサーの応答は実際には考慮されていません。

一眼レフカメラは、ある程度専用フィルターファイルが用意されているようです。でもCMOSカメラに関しては、一部のソニーセンサーの型番は専用フィルターを用意されているようですが、基本的には代表的な設定で代用しているので、まだまだ今後発展していくものと思われます。もしくはフィルターファイルは自分で用意できるようなので、実際に使っている環境に応じて自分でフィルターを書くことがいまの段階では正しい使い方と言えるでしょう。

重要なことは、考え方自体は真っ当な方向に進んでいて素晴らしいのですが、まだSPCCは今の段階では色合わせについては完璧はないということです。今後少なくともフィルターファイルが充実して、例えば複数選択できるなど、柔軟に対応することなどは必須でしょう。その上で多くのユーザーレベルで実際の色合わせの検証が進むことが重要かと思います。今後の発展にものすごく期待しています。

さて、PCCとも比較してみましょう。PCCでのフィッティングのグラフを示します。
PCC
SPCCに比べて一見ばらけていて誤差が多いように見えますが、縦軸、横軸のスケールに注意です。SPCCはかなり広い範囲をみているので、直線に載っているように見えるだけで、スケールを合わせるとばらつき具合はほとんど変わりません。実際に色合わせした画像を比べても、少なくとも私の目では大きな違いは見えません。

SPCC:
Image05_crop_ABE_ABE_SPCC_HT

PCC:
Image05_crop_ABE_ABE_PCC_HT

PCCは各恒星の点が2つのグループに分かれたりとフィッティング直線に乗らないケースもよくあります。そんな時はどうしようもなかったのですが、SPCCではそれらを解決する手段が手に入ることになります。SPCCは手持ちセンサーのデータを持つことで、色を正しい方向へ持っていこうとしています。科学的に正しい方向に進むのはいい方向で、少なくともそういった方向が選択肢として選べることは素晴らしいことだと考えています。

SPCCだけでもうかなり長くなってしまいました。続きもまだまだ長くなりそうなので、今回の記事はここまでにします。次は主にBlurXTerminatorについてですが、こちらもなかなか面白いです。

このページのトップヘ