ほしぞloveログ

天体観測始めました。

タグ:PixInsight

今回はPixInsight上で動く、太陽画像処理用のSolar Toolboxを紹介します。すでに使っている人も多いかと思いますが、日本語の解説はいまだにどこにも見当たらないようです。


PixInsightの太陽画像処理ツール

PixInsight上で動作するSolar Toolboxというスクリプトが、今から1年ほど前の2024年2月にリリースされました。当初から使ってみたいとは思っていたのですが、今のImPPGからPhotshopという流れでそこまで不満ではなかったので、そのままになっていました。

転機になったのは、Astrobinの2025年4月1日のImage of the dayです。恐ろしく精細なプロミネンスのタイムラプスにびっくりしました。とてもじゃないですが、自分ではここまで出せる自信はありません。使っているツールの中にSolar Toolboxという名前を見つけたので、「あ、やっぱりいいんだ」と思ったのがきっかけです。

Solar Toolboxのインストールは

https://www.cosmicphotons.com/pi-modules/solartoolbox/

をPixInsightのレポジトリーに追加し、アップデートをチェックし、その後PIを再起動します。すると、メニューの「Process」の中に「Solar」という項目が作られていて、その中に「SolarToolbox」が追加されています。

Solar Toolboxは、機能的にはストレッチ、プロミネンスの切り分け、プロミネンスのブースト、コントラスト調整、カラー化と、カラー化に際しての色バランスとコントラスト調整、細部出し、デノイズなどがあります。カラーかと細部出しについては、マスク処理もできるようです。これだけ高機能なところをみると、一見他のツールが必要ないようにも思えるかもしれません。一通り試したのですが、決して万能のツールというわけではなく、得意、不得意があるようです。

モードは3つあり、「太陽表面のみ」と「プロミネンスのみ」と「太陽表面とプロミネンス」になります。自分が撮影した画像に応じて選びます。


事前理解と準備

これ以降はできるだけ機能を説明するために「太陽表面とプロミネンス」を前提に話します。他のモードだと、いくつかの機能が使えなくなります。

スクリーンショット 2025-04-15 010102_dialog

ダイアログの右下のDonumentationボタンを押すと、ヘルプファイルが出てきますが、あまり大した説明はないようです。作者によるインストラクション的な動画がアップロードされていて、それを見るのがいいのかもしれませんが、私はあまり動画を見るのが好きでないので、自分で一通り試してみてから、わかりにくいところだけを動画で見てみました。動画は英語なので、英語が苦手な場合は説明を聞くより実際自分でパラメータをいじって何が変わるかを見た方が早いと思います。その上で、今回は私が試した限りで、どの機能が有益で、どの機能はもう少しとかの説明や感想を書いておきます。

そもそも撮影後の、どこまで処理が進んだファイルを読み込ませるかですが、
  • 少なくともAutoStakkert4!などでスタックした後のファイルを使うことになるでしょう。
  • 細部を事前にどこまで出しておくか、プロミネンスの強調やコントラストをどこまでやっておくかは、Solar Toolboxでどれだけ処理をするかに依ります。このSolar Toolboxですが、特に細部出しはあまり強力ではないようなので、少なくとも細部出しはImPPGなどである程度あらかじめすませておいた方がいいのかと思います。
  • プロミネンスとコントラストはSolar Toolboxが結構得意なので、事前に何も弄らなくてもいいでしょう。
  • また、ImPPGなどでヒストグラムの形をいじって暗いところをあらかじめ炙り出しておくのは、やめておいた方が良さそうです。下で説明するプロミネンスのブーストが、事前に炙り出されていないことを前提にしているみたいで、あらかじめ炙り出してあると、明るくなり過ぎたり、特にImPPGで処理するとドット状のノイズが目立ってしまいます。
  • その一方、ヒストグラムの左右を切り詰めておくことは、あらかじめやっておくと楽です。例えばImPPGだとヒストグラムを「見ながら」切り詰めができる一方、Solar Toolbox上だと、切り詰めパラメータを一回入れる毎に、画像の変化をいちいち時間をかけて見なければならないです。効果としては全く同じですが、時間がかかる上に、見通しがとても悪いです。

Solar Toolboxでは、何をするにしてもリアルタイムプレビュー画面を見ながら各機能のパラメータの値をいじるのですが、一つパラメータを変えるたびに結構な時間をかけてプレビュー画面を更新します。全然リアルタイムではないので、できるだけ速いPCを使った方がいいです。


プロミネンスの切り分け機能

まず、一番上のプロミネンスの切り分け機能です。パラメータの微調整がシビアですが、うまく設定すると太陽表面と周辺のプロミネンスを綺麗に分けることができます。デフォルトの0.5を一度大きく変えると何が変わるか見えるので、どんな機能かがわかるかと思います。わかりにくい場合はすぐ下の「Invert」オプションをオンにしてみてください。傾向がわかったら、0.05単位くらいで微調整していけば、好みの切り分けにできるでしょう。

これに相当する機能は、ImPPGでヒストグラムの曲線をいじって、プロミネンス部分と太陽表面部分を切り分けて輝度調整するとかですが、それよりもSolar Toolboxの方がうまく分離できるようです。普通は輝度の違いだけで判断するとあまりうまく分離できないのですが、Solar Toolboxではかなりうまく分離できるので、見ているのは輝度だけはないのかもしれません。一般的には、うまく分離しようとしたらマスク処理が必須となるのですが、マスク無しでうまく分離できるのでかなり便利です。

Solar Toolboxのストレッチは、ブラックポイントとホワイトポイントの切り詰めだけです。この切り詰めはあらかじめImPPGでやっておいた方が、デフォルトのブラックが「0.000」とホワイトが「1.000」をそのまま使えるので楽です。プロミネンスの背景が明るすぎる場合、ブラックポイントを0.01とか、0.02とかに上げて微調整します。プラージュとかの白いところの階調があまり取れていな場合は、ホワイトの値を1.1とか1.2まで上げると、多少階調を改善すことができます。

ImPPGならヒストグラムを見ながら、ガンマ補正や、曲線そのものを任意にいじることができるので、あらかじめいじっておいてもいいですが、今のところSolar Toolboxの使用が前提なら、事前にあまりいじらない方が楽っぽいです。ImPPGでいじって、さらmにSolar Toolboxでいじると、パラメータが多すぎてよくわからなくなることが多いので、私はImPPGでは細部出しと、ブラックとホワイトのと切り詰めをするだけにしています。


プロミネンスのブースト

プロミネンスのブーストは必要十分な機能です。ImPPGの方がヒストグラムで調整できるので、一見高機能に思えますが、再現性や安定度という意味ではSolar Toolboxのシンプルな操作の方が上かと思います。ImPPGでプロミネンスをあぶり出ししていなければ、0.7とか0.8とかの大きな値にしてもいいかと思います。

3D機能は開発者の動画解説によると、周辺のブーストと太陽表面の球のような輝度分布を重ねるような効果だそうです。3D機能を使わないと、太陽全体が見えている時なんかは太陽表面の輝度がフラット化されて、ノペーっとして、3D機能の値を上げると、立体感が増します。太陽表面の印象が印象が変わるので、いろんな値を試して好みを探るといいでしょう。


コントラスト

コントラスト設定はかなりわかりにくいです。まずは左タブの「Histgram equalizatin」で説明します。「Contrast limit」の数字を上げると明るくなって、下げると暗くなるのが基本操作です。「Kernel radius」でどれくらいの粗さかを決めますが、値が100とか小さ過ぎると輝度が大きな範囲で凸凹するようです。私は普段は200以上の大きな値を使っています。

マスク処理は、チェックボックスをオンにしてマスクを表示させながら調整するといいでしょう。「Surface Only」で基本的に太陽表面のみにするか、「None」で全体にするかを分けるものです。「Surface and prom」で好きなところを選べますが、こちらはマスクの状態をよく見ながら、輝度を「Shadow」で合わせる必要があるので、ちょっと面倒です。

結局、「Histgram equalizatin」はかなり扱いにくかったので、隣の「Local contrast」を使った方が楽かと思います。左の「Histgram equalizatin」と右の「Local contrast」は完全に独立な設定で、どちらかを選ぶと、もう一方の設定は全部無視されます。「Local contrast」は数値を大きくすると、特に太陽表面の模様の明るいところと暗いところの差がうまく強調されます。

次のカラー化のところのコントラスト調整と合わせて、この「うまく」コントラストを出すというのが今回のSolar Toolboxを使うことの一番のメリットなのかと思っています。というのも、例えばHα画像をPhotoshopに持っていって、ありとあらゆる調整を試しても、コントラストを素直にうまく改善する機能がほとんど見当たりません。私は普段はImPPGでコントラストを強調してから、Photoshopではほんの微調整くらいしかしませんが、もっと簡単にコントラストを調整できたらとずっと思っていました。そういったい意味で、このSolar Toolboxは非常に優れていると思います。


カラー化

もう一つのSolar Toolboxの利点は、カラー化です。カラー化自身はPhotoshopのレベル補正でなどでもできますが、なかなかいいパラメーターが決まらず、毎回違った設定になって結果も安定な色になりません。

Solar Toolboxのデフォルトの色バランスの設定はかなりうまく選んであって、少し変えてみて結局元のデフォルトの色方が良かったりしたので、ほとんどの場合はデフォルトで処理してしまっています。デフォルトを使うと決めてしまうと、たとえ他の画像を処理しても、かなり安定な色になることが期待できます。もちろんコントラストなどの設定が色味を変えることがあるので、色の微調整はするかもしれませんが、今後画像によって大きくブレるかとは無くなるのかと思っています。

カラー化する場合、その中で2種のコントラスト設定をいじることができます。これらもとてもうまくコントラストを上げてくれるので、下手にPhotoshopなどで自分でやるよりも、簡単に安定して処理してくれるでしょう。ハイライトの方は効果がすぐにわかります。高くすると見栄えが良くなります。通常のコントラストブーストは効果がわかりにくいです。ものすごく大きくしてやるとやっと違いがわかると思います。

ストレッチは0.5から下げると明るくなり、上げると暗くなります。全体の明るさをいじるのはここがメインになります。カラー化する場合はこのストレッチ機能が使えるからいいのですが、モノクロのままだと全体の輝度調整をするのが結構面倒だったりします。モノクロの場合は素直にHistgramTransformationとか使った方が楽かもしれません。

Solar Toolboxダイアログの一番上の「Image type」で「Prominence only」を選ぶと、プロミネンスのマスクが使えるようですが、ここでいうProminence only用の画像とは開発者の解説動画によると、太陽表面が完全に飽和したような画像のことのようです。今回そんな画像は試していないので、ここのマスク機能はまだ使えていません。


細部出し

最後のSharpningは結構微妙です。もちろんシャープにしてくるのですが、こちらはそこまで強力ではなく、ImPPGなどの方がはるかに簡単に強力に処理してくれます。

私が思うImPPGの唯一の欠点は、デノイズ機能がないことです。そのため、ちょっと強力な炙り出し処理をすると、途端に背景とかにツブツブが載ることです。これは月をImPPGで処理すると良くわかります。太陽だとモジャモジャしているところも多いので、背景以外はあまり目立たないのですが、月は表面で滑らかなところがありツブツブが目立ちます。なので、月にはImPPGを使うのを諦めた過去があります。

例えばRegistaxのWaveletや、PIのMultiscaleLinearTransformなどは、細部出しと共にデノイズ機能があるので、ツブツブ感が軽減できるのですが、細部出しそのものについては手軽さまで考えるとImPPGの方が上だと思っています。なので、ImPPGでストレッチと細部出し、少しのプロミネンス強調までして、PIに持っていきMultiscaleLinearTransformでデノイズ処理、その後Solar Toolboxでプロミネンス強調、コントラスト調整、必要ならカラー化とカラー化に伴うコントラスト調整、さらに必要なら細部出しとデノイズを僅かにといったところでしょうか。


タイムラプスへの応用

Solar ToolboxがPixInsightをベースにして動くことで便利なのは、コンテナを使って複数ファイルに自動で同じ処理を適用できることです。今のSolar Toolboxは細部出しが苦手っぽいので、ImPPGを使わざるをえない状況かと思いますが、ImPPGもバッチ処理機能があるので、複数画像に同じ処理を適用できます。連続処理できるツールのみを使うことで、タイムラプスで多数の画像を楽に扱うことができるようになります。


まとめ

Solar Toolboxを一通り試してみましたが、かなり使えます。特にカラー化の安定性と、コントラストを出しやすい点は気に入りました。ただ、Solar Toolbox単体で十分かというと、そういうわけでもないので、他ツールとの併用がいいのかと思います。もう少し使い込んでみようと思います。






網状星雲は今回で4度目の挑戦になります。2020年8月にFS60CB+EOS 6DでフィルターにCBPを使って初撮り、2021年10月には同じセットアップでフィルターをDBPにして、2023年5月にはε130D+ASI6200MM ProのテストとしてナローのAOOで撮影しています。だいたい1年半おきくらいでしょうか。なんだかんだ言って結構コンスタントに撮っていることになります。






4度目の撮影の目的

3度目はε130Dを買ってすぐでの撮影でした。まだ鏡筒のテスト段階で、HαとOIIIのみのAOOです。撮影時間も十分に取れていませんでしたが、この明るい鏡筒でどこまで出るか試していて、かなり淡いところまで出ていたので、明るさ的には十分な鏡筒だということが確認できました。この時の反省点としてはRGBを撮っていなかったので、恒星の色が赤っぽくなってしまったことでしょうか。あと、ε130Dを含む横側に接眼部が付いている鏡筒一般に出ると思われれる、迷光によるリング上の迷光の跡が残ってしまっていますが、当時はまだテスト開始時で何が原因かも分かってなかったですし、あまり問題視もしていませんでした。

また、既にこの時にも書いていて、今回の撮影のきっかけにもなっていますが、網状星雲の右側がいつも何か暗くなることに気づいています。2020年の最初のCBPの時にも既にその傾向が見えていることも確認ができました。これが分子雲か何かなのか?その正体を暴きたいとずっと思っていました。昨年の夏に、風の民さんが大きなヒントをくれました。


これを見る限り、明らかに分子雲と思われます。ナローバンドフィルターを使っていると出てこないようで、これはブロードで撮らないと出ないのではと思っていたのですが、上記画像もやはりノーフィルターでブロード撮影したとのこと。

これらのことから、今回の目的は、
  1. 恒星をRGBでまともな色にすること
  2. 鏡筒ムラをなくす
  3. 右側にあると思われる、広い範囲に広がる淡い分子雲のようなものを、ブロードで撮影して出す
などとすることにします。


迷走状態の撮影

撮影は長期にわたりました。HαとOIIIに関しては、前回の3度目の撮影の時に、光害地の自宅でもそこそこ出ることはわかったので、そこはあまり時間をかけませんでした。それよりも、右側の淡い分子雲と思われるものがこの自宅から撮影できるかどうか、全然見通しが立たなかったので、むしろRGBの方に撮影時間を割きました。

ε130DでR、G、Bフィルターでそれぞれ別撮りした画像を、RGB合成したものを見てみます。撮影は4日に渡っていて、約6時間分になります。
Image20_org

これで見る限り、分子雲と言えるようなものはほぼ何も見えていないと言っていいでしょう。この画像は4日分ですが、初日に2時間分くらいでRGB合成した時にも全く分子雲が写らず、本当に見通しが立っていませんでした。

それでも分子雲があるはずだという根拠の一つが、R画像でもG画像でもB画像でもいいのですが、スタック後に背景と恒星を分離して、恒星側を見てみると、右側3分の1くらいの領域の星が明らかに暗くなっていることがわかるのです。
star_mask
ここでの推測は、おそらくですが分子雲に遮られてその背景に見える恒星の光が遮られてしまい暗くなっているのではと考えました。過去3度の撮影でも右側の恒星が暗くなる傾向はあったので、たまたまとかではないはずです。

また、F3.3のε130Dではまだ暗いのかと思い、とにかく明るくという方針で手持ちのF1.4のシグマの105mmのレンズと画角をある程度揃えるためにUranus-C Proで撮影してみたのが下の画像です。背景の色の違いがわかるように恒星を分離しています。かろうじて茶色の分子運の濃淡がわかりますが、解像度がイマイチで使えるレベルではないようです。さらにノーフィルターで撮っていたので、やはり網状星雲自身の色さえもあまり出なくて、5時間くらい撮影しましたがお蔵入りとしました。

4144x2822_EXPOSURE_60_00s_RGB_integration_ABE_ABE

その後再びε130Dに戻り、RGB画像の撮影枚数を増やしていって、あるとき105mmレンズで分子雲を見ようとした時みたいに、恒星と背景を分けて背景を見てみたら、何か写るのでは?と気付きました。恒星分離して、ABE、DBE、HGC、GraXpert、マニュアルでの迷光補正など、ありとあらゆることを試しましたが、下の画像くらいが限界でした。
Image16_ABE

それでも網状星雲本体の右上に、少なくとも何か構造が写っているのがわかります。自宅の光害地でもRGBで何か写ることがこの時点でやっとわかりました。但し、ε130Dの迷光で出るリングくらいの淡さのにしか出ていません。これで進めてしまうか、それともRGBはお蔵入りして、AOOだけにするか、その後ずっと迷走していて時間だけが過ぎ、夏から撮影していたはずなのにあっという間に年末近くになってしまいました。


MGCでとうとう進展が!

長い時間をかけて処理をしている間に、PixInsightが2024年12月末に1.8.9から1.9.0に、


そこから程なくして1.9.2までアップデートされました。Lockhartですか...、私はどちらかというとKisaragiの方が...。懐かしいですね。

アップデートの際、WBPPの過去のインスタンスが使うことができなくなってしまいました。正確にいうと、一部使えるものもあるのですが、少なくとも1.8.9で網状星雲の処理に使っていたWBPP設定は内容を確認することもできなくて、全て最初からやり直しとなってしまいました。

WBPPはとりあえず置いておくとして、今回のアップデートで重要なのはとうとうMARSプロジェクトを利用したMGC(Multiscale Gradient Correction)が使えるようになったことです。これまでも背景処理にはシンプルなABEから、DBE、GradientCorrection、PI以外でもGraXpertなど、さまざまなフラット化処理がありました。それでも背景が分子雲で満たされているような場合は、処理によってずいぶん結果に差が出てしまい、何が正しいのか指標となるようなものがほとんどなかったというのが実情でした。MGCはMARSと呼ばれる35mmと135mmレンズで撮影された、全天とはいかないまでもかなり広い範囲の背景データを用いて、分子雲に満たされた背景を広い範囲と矛盾なく強力に補正してくれます。これは特にモザイク合成の接続などにも威力を発揮するようなので、これまで試しても結局仕上げを諦めていたモザイク合成もまた試してみようと思います。

今回の網状星雲でMGCを実際に試したところ、やはり威力はかなりのものです。触ったパラメータはGradient Scaleだけですが、デフォルトの1024から段階的に256まで変えたところで下の画像のように相当な改善が見られました。
Image20

あからさまに右側に分子雲と思われるものがはっきりと出ているのがわかります。これまでのフラット化の処理は画面内で閉じていたので、このように例えば左右で明らかに輝度に差がある背景などはうまく処理する方法がありませんでした。同様のことはこれまで例えばかもめ星雲でもありました。

本当はかもめの頭の上の画面の半分くらいが暗いはずですが、この時はなんとか誤魔化して処理しています。こういったものに使うことができるはずです。


画像処理

それでも、そこからの画像処理は難航を極めました。分子雲に加えて、Hαの赤と、OIIIの青がどこまで淡いところが出るかも一緒に表現したいのです。Hα単体、もしくはOIII単体ならそこそこ出ることがわかります。特にHαに見える、星雲本体を左から上側に取り囲むような淡いリングをなんとか表現したいと思います。
Image118_DBE1

Image91

ちなみにOIIIフィルターですが、これまではBaaderの眼視用のものを使っていてハロが出ていたりしましたが、やっと今回からBaaderの「撮影用」の6.5nm透過のものを使うことになりました。福島の星まつりで買ったものです。OIII画像を見る限り、ハロが出なくなったことと、コントラストがより出るようになったのかと思います。

HαとOIII2つを重ねるのがとても難しいです。明るいところは白くなりがち、淡いところは両色ともなかなかうまく表現できずと、単色の迫力からはどうしても劣ってしまいます。
Image108

これらと、さらに分子雲のRGB画像、RGB画像から作った恒星画像を重ねていきます。


結果

出来上がった画像です。

「網状星雲」
Image20_9_cut
  • 撮影日: 2024年7月5日0時9分-2時57分、9月10日22時35分-9月11日1時24分、9月11日23時8分-9月12日2時37分、9月14日1時2分-3時9分、10月9日20時14分-21時10分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: TAKAHASHI製 ε130D(f430mm、F3.3)
  • フィルター: Baader:Hα 6.5nm、OIII 6.5nm、R、G、B
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI6200MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、bin2、Gain 100、露光時間5分、Hα: 28枚、OIII: 20枚、R: 35枚、G: 29枚、B: 10枚の計121枚で総露光時間10時間5分
  • Dark: Gain 100、露光時間5分、温度-10℃、117枚
  • Flat, Darkflat: Gain100、露光時間 Hα: 0.2秒、OIII: 0.2秒、R: 0.01秒、G: 0.01秒、B: 0.01秒で全て64枚
  • 画像処理: PixInsight、Photoshop CC

MGCを使ったとしても、その後の画像処理が入っているので、分子雲がどこまで正しいのかよくわかっていません。それでも少なくとも何か存在することはわかったので、今回の目標は達成と言っていいかと思います。分子雲は主にRとGによく写っていて、B画像やHαとOIIIなどのナローバンドではほとんど写らないこともわかりました。

ただし、RGB画像のみだと網状星雲本体が出てこないので、同時にHαとOIIIで星雲本体もやはりあったほうが見栄えがいいでしょう。赤いリングもなんとか表現できたのではないかと思います。

それでも特にHαはやはり撮影時間が絶対的に足りていないです。左のリングを無理して出しているので、同等の明るさの中心部の淡いところの諧調が出ていません。OIIIももっと露光時間を伸ばしても良かったかもしれませんが、2024年は秋から冬にかけて富山の天気が全然ダメで、網状星雲の季節も過ぎてしまい、諦めざるを得ませんでした。実際、1年半前の前回の撮影の時の方がHαもOIIIも撮影時間が長く、淡い階調もきちんと表現できていたので、この画像を足そうかとも思いましたが、画角が微妙に違っていたので諦めました。来年以降に持ち越しでしょうか。


まとめ

いろいろ時間がかかりましたが、それでもとうとう網状星雲が分子雲込みで撮影できました!ε130Dでやりたかったことがまた一つ達成できたことになります。

OIIIフィルターもやっとまともなものになったので、今後も淡いOIIIに挑戦できるかと思います。

その一方、光害地でギリギリを攻めるのに疲れてきているのもあるので、しばらくはSWAgTiで明るくてよく出る対象にするかもしれません。でもSCA260でも試してみたいことがあるんですよね...。春になって天気が良くなったら考えることにします。


日記

しばらくブログ更新ができていなかったので、ちょっと事情を。

年末年始の休暇が終わった段階で、今回の網状星雲の画像処理はある程度目処をつけていました。でももう少しだけ直したくて少し放っておいたら、また体調を崩してしまいました。平日はかろうじて最低限の仕事だけして基本早めに寝て、休日はほとんど寝てるというのがしばらく続きました。1月も終わり近くになり、やっと体調も戻りつつあり、今回の画像処理とブログ書きとなりました。

やはり体調管理はとても大切で、調子が悪いとほとんど何もできなくなることを再認識しました。あまり無理をせずに、できる範囲で楽しみたいと思います。

PixInsighのメジャーアップデート時には、基本的にはほとんどのモジュールは自動的に再インストールされるのですが、星消しで使うStarNet V2だけは、毎回消えてしまって、手動で再インストールする羽目になります。

最近のStarNet V2のインストールは、継続インストールと新規インストールの2つの方法があるようです。以前はPixInsightのメジャーアップデートのたびに継続でインストールしていて、マニュアルにも間違いがあったりして結構面倒なので、このブログでも正しいと思われるインストール方法をお知らせしてきましたが、今後も継続だと面倒そうなので、今回はPixInsightを1.8.9から1.9.2にアップデートするにあたり、StarNet V2を新規でインストールしました。


Mac版の新規インストールパッケージのダウンロード

まず、ここでの話はMacのみなので、Windowdでは一部通用しないことがあるのに注意してください。このページのメニューのDownloadから、今回は新規インストールパッケージをダウンロードします。



場所は「Mac OS」の中の結構下の方の「PI versions 1.9.0 and higher」の2つ目の

Fresh install: StarNet2_win_2.1.2-0127_TF_x64_install.zip

です。ダウンロード後、ダブルクリックして解凍してください。パッケージといっても、インストーラーがついているわけではなく、基本は手動インストールなのはかわりません。

インストール方法はいくつか注意が必要ですが、英語でわかりにくいかもしれませんので、ここに分かりやすく書いておきます。


Mac版のStarNetV2の新規でのインストール方法

ZIPファイルの中のREADME.txtを読んでみます。まずは「INSTALLATION」です。

1. Close PI.
: PixInsighを閉じます。

2. Copy the files from this folder into PixInsight's 'bin' folder.
   Location should be something like '/Applications/PixInsight/bin'.
   Make sure that StarNet2-pxm.dylib is in the 'bin' folder.
: ZIPファイルの中身のファイルを全て「/Applications/PixInsight/bin」にコピーします。

他は気にしなくていいです。

次にREADME.txtの「TROUBLESHOOTING」に行きます。

1. If after you hit 'Search' PI does not find StarNet, 
 try copying two tensorflow libraries into
    
     /Applications/PixInsight/PixInsight.app/Contents/Frameworks/

   If you use finder to do this, you will need to navigate into
   /Applications/PixInsight/, right-click PixInsight and choose
   'Show Package Contents' and go further from there as usual.

今回はこの1に該当しました。この処理をしないと、PixInsight上で新しいモジュールをサーチしても、新規にStarNetのモジュールが出てきません。そのためここではまず、先のZIPファイル内の、「libtensorflow_framework.2.dylib」と「libtensorflow.2.dylib」を「 /Applications/PixInsight/PixInsight.app/Contents/Frameworks/」内にコピーします。ただし、/Applications/PixInsight/PixInsight.appは一見ただのアイコンに見えるので、Finderでそのアイコンを右クリックして「パッケージの内容を表示」をクリックして中身を開きます。その中の「Contents/Frameworks/」内に上記2つのファイルをコピーします。

さらに、ホームページ内の注意事項を見ると、

There is a bug in PI for MacOS that results in an error installing process modules (not only StarNet). When installing using Process -> Modules -> Install Modules do not click on the StarNet module after you do search, just hit Search->Install. Otherwise, the installation will error out. If you did click on on module name to view its properties (confirm version, etc.) you will need to restart PI and try again.

とありますが、上で示したように2つのライブラリをきちんと/Applications/PixInsight/PixInsight.app/Contents/Frameworks/内にコピーしないとそもそも、PixInsightのメニューから「Process -> Modules -> Install Modules」で下にある「Serach」ボタンを押しても、StarNetのモジュールがうまく検索されません。

上記コピー操作をきちんとすると、きちんと検索されるはずなのですが、さらにここで注意です。検索結果が出てきたら何も考えずに下の「Install」ボタンを押してください。(私は試してませんが)下手に出てきたモジュールを選択したりすると、インストールに失敗するそうなので、その場合はPixInsightを一度閉じて、立ち上げ直してもう一度検索からやり直してみてください。


まとめ

StarNetは毎回面倒なので、自分のメモがわりに記事にしておきました。手間を省くためにも、いい加減有料のStar XTerminatorにしようかとも思っていますが、とりあえずうまくいったのでまた今回もスキップして、StarNetを使い続けることになってしまいそうです。

恒星分離の性能に関しては、StarNet V2であまり不満はないので、無料でこのようなソフトを提供してくれている作者様に対しては、ものすごく感謝しています。

前回記事でSWAgTiのディザー撮影ができたことを書きましたが、書ききれなかったこともあるので、少し補足します。


機材

鏡筒ですが、最近手に入れた新機材でRedCat51です。と言っても新品ではなく、譲り受けたもので、IIでもIIIでもなく初代です。

富山県天文学会のK会長が4月に逝去されました。2016年の5月、星を始めたときに牛岳で誘われて入会して以来、折につけお世話になっていました。会内では最もアクティブな方で、とにかく天気さえ良ければいろんなところに顔を出して星を見てた方です。星や宇宙の解説が大好きで、普通に来てた一般の人にも、いつも分かりやすく説明されていました。昨年末くらいからでしょうか、急に痩せられて、体調を悪くされているようでしたが、3月の役員会には顔を出されていたのに、まだ60代半ばで、あまりに早すぎるお別れでした。熱心な方だったので、当然大量の天文機器があるのですが、遺族の方のご好意で、できれば皆さんで使ってくれないかということで、私はRedCat51とEOS 6Dを格安で譲っていただくことになりました。ちなみにK会長、6Dがよほど気に入っていたのか、3−4台もあって、私はその中であえて1台だけあった無改造機を選びました。私が持っている一眼レフカメラは全て天体改造をしてあるもので、ノーマル機を一台も持っていなくて、普通の景色も少しは撮ってみたいと思っていたので、実はとてもありがたかったのです。

IMG_9796

撮影用のコンパクト鏡筒としてはこれまで主にFS-60CBを使っていましたが、赤ハロ青ハロ問題を避けたいというのがありました。これはFS-60CB特有の問題で、ピント位置が赤と青で微妙にずれていて、赤か青のどちらかのハロがどうしても出てしまうというものです。ジャスピンが難しく、赤と青を均等になるように合わせたりしてきました。また、FS-60CBにレデューサをつけると焦点距離が250mm程度になるのですが、周辺星像がすこし流れるのも気になっていたこともあり、250mm程度の短焦点で性能の良い鏡筒を狙っていました。実は最近はBXTがあるので、これらのFS-60CBの欠点はソフト的にかなり解決できますが、やはり撮影時に解決したいという思いがあります。

RedCat51を使ってみて驚いたのは、周辺減光の少なさです。今回使ったカメラがUranus-C Proでセンサーサイズが1/1.2インチと決して大きくはないのですが、オートストレッチで強あぶり出ししてもほとんど周辺減光が確認できませんでした。なので、簡単撮影という目的も考えて、今回あえてフラット補正をしませんでした。さらにいうと、PixInsight上でもなんのフラット化もしていません。普通は周辺減光とかあると、輝度差で淡い部分のあぶり出しがうまくいかないはずです。でも今回はフラット補正も、ABEも、DBEも、GCも、本当に何もしていないのですが、きちんとM27の羽まで見えるくらい問題なく炙り出しができています。これは今までにない経験で、RedCat51の性能の高さの一端を見た気がしました。

前回記事でも見せましたが、改めて何のフラット補正もしていない、WBPP直後の画像を載せておきます。M27の周りを広い範囲で撮っているのってあまり見当たらないので、本当は背景の構造を出したかったのですが、今回の2時間では全然ノイジーです。でももうSWAgTiで長時間露光も楽にできるので、天気がいい時に放置で10時間とか露光しても面白いと思います。
masterLight_BIN-1_3856x2180_EXPOSURE-180.00s_FILTER-NoFilter_RGB

カメラですが、M27は結構小さいので、センサー面積が小さく、夏場なので冷却ができるものというので、PlayerOneのUranus-C Proを使いました。CP+で使わせてもらったカメラです。PlayerOne社のカメラの特徴の一つ「DPS」も魅力で、これでホットピクセルはかなり軽減されるはずです。実は今回、ダーク補正を全くしていません。PixInsightのCosmetic Correctionのみ使いました。それでホットピクセルやクールピクセルは全く問題にならないレベルになったので、お気楽撮影にふさわしいカメラだと思います。

IMG_8960


iHDRがすごい!

今回初めて使いましたが、PixInsightのストレッチの中でも比較的新しい「iHDR」がすごいです。M27の星雲本体とその周りの淡い羽の部分には相当な輝度差があり、普通のストレッチでは両方を同時にうまく出すことができません。そのため、一般的にはマスク処理が必要となるのですが、今回は部分的なマスクを使うことなく、ほぼ自動で輝度差が出ないようにストレッチすることができました。

iHDRの説明についてはこちらをご覧ください。
 

インストールは

https://uridarom.com/pixinsight/scripts/iHDR/

をレポジトリに登録して、アップデートをチェックするだけです。インストールされたiHDRはメニューの「Scripts」の「Sketchpad」の中に入っています。

パラメータですが、iHDRでMaskStrengthを倍の2.5にしてより明るい部分を抑え、Iterationを3にしだけで、あとはデフォルトにしました。中心の明るい部分を十分に抑えることができました。
  1. まず、背景が何回くらいIterationすれば適した明るさになるか、何度か繰り返して試してから確定します。
  2. 星雲本体の輝度差がまだ残るようならMaskStrengthの値を増やして、これも何度か調整してみます。
一度試すたびに、Undoで元に戻してから再度パラメータを変えて試し、値を確定していくと楽かと思います。その際、Undoは一度で元に戻らないことがあるので、Undoアイコンのところにカーソルを持っていって、ちょっと待って、何の作業を戻すのか表示されるのを確認すると良いと思います。これがPixelMathと表示されるうちは、まだUndoしきれていないです。

iHDRの後は、NXTでノイズを軽く落として、StarNet++で恒星と背景を分離して、最後Photoshopに渡して仕上げますが、ストレッチまでかなり仕上がりに近い形で済んでいるので、Photoshopでは軽く好みに処理するだけで済みました。


SPCC

もう一つ、PixInsightでの色合わせツールのSPCCを少し使い込んでみました。実際にはWBPPでスタック後にすぐに試したことです。

今回は光害防止フィルターとして、サイトロンのDual Band Pass (DBP) フィルターを使いました。これまではSPCCのナローバンドモードを使って適当な波長幅を指定していましたが、いい機会なのでフィルターをきちんと設定することにしました。参考にさせて頂いたのはだいこもんさんのこのページです。
 

同ページにだいこもんさん自身が作ってくれたフィルター用ファイルが紹介されていて、その中にDBPのファイルもあったので、それを使わせて頂きました。フィルターを設定して公開してくれているだいこもんさんと、さらにオリジナルのJason Coonさんに感謝です。

だいこもんさんによると、カメラがASI294MCの場合はSonyのCMOSの標準フィルターでいいとのことでしたが、Uranus-Cで使っているIMX585は特に赤外の感度が高く、標準の応答とは少し違っています。いい経験になると思い、ついでにIMX585用のカラーフィルターを作ってみました。

実際自分でフィルターデータを作ってみるとわかりますが、cvsファイルの1箇所に波長情報を全て入れるとか、透過率も1箇所にいれるとか、結構面倒です。また、メーカーのグラフから値を読み取るのですが、読み取りソフトはだいこもんさんお勧めのPlotDigitizerを使いました。面倒だったのは、赤外の領域ではRGBの線が重なっていて、グラフで一番上の色(この場合青でした)しか読み取ることができず、後から赤と緑に同じ波長の青の線を近似的に追加するなど、少し加工が必要だったことです。

IMX585_R
IMX585のR曲線ですが、長波長側は青線と重なっていて直接読めないので、
青線から起こしています。


自分で作ってIMX585とDBPの応答を合わせて、今回の撮影に合わせた応答を作りましたが、結局2つのグラフを合わせると、ただの一本線になってしまうので、IMX585のデータを作った意味があるかどうかはちょっと疑問です。でも面白いのは、例えば下のBグラフでは、長波長の赤の領域にも線があるんですよね。
DBP_IMX585_B2

これはIMX585がRGBともに長波長に感度があるからです。だからBもGも実は赤を少し含みます。どれくらいの割合かというと、B曲線ではBが0.44に対してRが0.07と16%程度、G曲線ではGが0.78に対してRが0.17と22%程度と、無視できないくらいの結構な割合で含まれることになります。カラーカメラとDBPはモノクロカメラで撮ったAOO相当になると思うのですが、DBPでは赤と青でのっぺりせずに多少なりとも色調が豊かに見えるのは、この余分な色の成分のせいなのかもしれません。ちなみに、R曲線にもGがすこしまざりますが、Rが0.96に対してGが0.03とごく僅かなので、こちらはあまり効いてこないでしょう。

上の重ねたグラフを使い、SPCCで測定した結果を見ると見事に直線に載ったので、ちょっと嬉しかったです。

SPCC

でもSPCCのフィルター制作は完全に蛇足で、SWAgTiの簡単撮影のためにはこんなことまでやる必要は全くないと思います。


SWAgTiについて

SWAgTiを改めて振り返ってみます。

高精度追尾で1軸単機能のSWATに、低精度でも2軸で高機能のAZ-GTiを組み合わせることで、SWATがまるで高精度高機能赤道儀のように生まれ変わります。実際、SWAT350のピリオディックエラーはPremium仕様で+/-2.8秒を実測して出荷しているそうです。これだけの精度を有している赤道儀はポータブル型ではほぼ皆無で、大型の高級機と比較しても何ら遜色ない素晴らしい値なので、ガイドなしでの簡単撮影が生きてきます。

AZ-GTiを赤道儀化される方も多いかと思いますが、その際の極軸を北極星方向に向ける35度の角度をつける台座に苦労します。揺れてしまわないためにも、台座の強度も重要になります。SWATには底面に角度がつけてある、SWAT自身が強固な35度の台座を兼ねることができます。

AZ-GTiは、自動導入、プレートソルブ、エンコーダー内蔵など、値段から考えたら非常に高機能で汎用性が高く、ユーザーも多いため情報に困ることはまずないと思います。プレートソルブだけは今回ディザーと併用できませんでしたが、元々できていたことなので単なるバグの可能性が高く、いずれ解決するものと思っています。AZ-GTiは精度があまりないと言っても、モーターさえ動かさなければその強固な筐体と合わせて、極めて安定しています。追尾中はSWATのみが動き、AZ-GTiのモーターは動かないので、撮影時の精度はSWATのみで決まります。AZ-GTiのモーターが動くのは、導入時や、撮影の合間のディザーの時のみです。

PCとAZ-GTiとの接続はワイヤレスなので、ケーブルの数も一本減らせています。それでも少なくとも今回の2時間は全く接続が落ちることなどなく、安定でした。なのでケーブルの数は、PCとCMOSカメラを繋ぐUSB3.0ケーブル、CMOSカメラの冷却電源ケーブル、SWATの電源ケーブルの3本です。PCは内臓バッテリー駆動です。ダーク補正しないなら、特に冬場なら、冷却カメラでなくてもいい気もするので、冷却用の電源ケーブルは減らせるかもしれません。SWATも乾電池駆動が可能なので、SWATの背中側に電池をおいてしまえばさらに長いケーブルの数を減らせます。AZ-GTiも私は電池駆動にしています。こう考えると、最小構成ではPCとカメラを繋ぐUSBケーブル一本で稼働可能かもしれません。あ、StickPCを使えばさらにUSBケーブルも短くできるので、超シンプルになるかもしれません。こうなってくるとASIAirみたいですね。どこまでシンプル化ができるか、ちょっとやってみたくなってきました。

重量に関しても少しコメントを書いておきます。SWATもAZ-GTiもそこそこの重さはあるので、二つ合わせると決して軽量とは言い難くなります。一般的な小型赤道儀程度の重量と言っていいでしょうか。それでも十分に軽くてコンパクトなので、私は鏡筒を取り付けたまま運んでいます。玄関においてあるのですが、そのままなんの組み外しも組み立てもなしで運べるのはかなり便利です。超高精度と考えると、最軽量クラスの赤道儀と言ってもいいのかと思います。

逆に、今のところの欠点ですが、SharpCapでの極軸調整を三脚をずらすことでやっているので、ちょっとテクが必要です。微動雲台を使ったほうがいいのかもしれません。ただ、微動雲台は双刃の剣で、揺れを導入するかのうせいがあるので、以前テストさせていただいた迷人会の微動雲台クラスのものが欲しいレベルかと思います。

プレートソルブが使えなかったのはかなり痛いです。でもこれはソフト的な問題のはずなので、いずれ解決するでしょう。短期的にも、何か回避策がないか少し試したいと思います。


まとめ

アイデアが出たのが去年の6月、星まつりでデモなどしましたが、今回ディザーができ縞ノイズが解決して、ある程度のキリがついたと思います。1年以上にわたるテストでしたが、(プレートソルブを除いて)何とか形になりましたでしょうか。今後は鏡筒やカメラを変えて、実用で使っていきたいと思っています。

そうそう、Unitecさんにディザーが成功したことを伝えたら「諦めないところがすごいです」と言われてしまいました。結構嬉しかったです。その経緯でUnitecさんのページでもSWAgTiがまた紹介されてます。

今週末の胎内はちょっと時間的に厳しそうなので、参加は見送ることになりそうですが、9月15日の京都の「星をもとめて」でUnitecさんのブースでまたSWAgTiをお披露目できるかと思います。その際は、お気軽にお声掛けください。


自宅で淡いもの撮影シリーズ、多分このダイオウイカが最終回になるでしょう。これ以上淡いのは...さすがにもう限界です。

「そこそこ」撮影

私の元々の天体撮影の動機は「自宅でそこそこ撮れればいいな」でした。でも「そこそこ」がいつしか「どこまで」になり、いまでは「限界は」になってしまっています...。初心から考えるとあまり良くない傾向ですね(笑)。

最初に天体写真を始めてからずいぶんかかりましたが、最近では自宅でもやっと「そこそこ」満足に撮れるようになってきました。なんか「そこそこ」の使い方が間違っているようにも感じますが、とにかくイルカさんカモメさんクワガタさんは分解能や階調など見てもそこそこかと思います。ここ数年のソフトの進化の効果もかなり大きいです。でもこれは明るい天体だからまだ言えることで、かなり頑張って出したスパゲッティーさんは自宅撮影の限界はもう超えているんだと思います。今回の撮影のコウモリさんはまだしも、ダイオウイカさんはスパゲティーと同レベルか、もっと淡かったりします。


撮影したのはかなり前

Sh2-129: フライングバット星雲とその中のダイオウイカ星雲を撮影したのはもう半年も前のことで、時期的にはスパゲティー星雲を撮影した直後です。そういう意味でも自宅からどこまで淡い天体が出るのかの検証の一環になります。


ところが、撮影後に長い迷走状態に陥りました。最低限の画像処理としてWBPPまではすぐに終わったのですが、そこからが長い長い。理由ははっきりしていて、何度やっても仕上がりが気にいらなくて、ほっぽらかしてしまっていたからです。

気に入らない理由もはっきりしていて、HαとOIIIに写るものがあまりにもはっきり区別されすぎていて、Hα起因の赤は赤だけでのっぺりしてしまうし、OIIIはそもそもメインのダイオウイカさえもあまりにも写らなくて、炙り出そうとしても画面全体がノイジーになってしまうからです。

とりあえずこちらを見てください。OIIIの5分露光1枚撮りで、ABEとDBEをかけてフラット化して、かなり強度に炙り出してみたものでが、ほとんど何も見えません。フラット補正の誤差レベルで出てくる鏡筒の迷光の僅かな明暗差よりも、星雲本体の方が全然淡いくらです。
2023_12_04_19_13_50_300_00s_g100_9_80C_0000_ABE_DBE_s

WBPP後にどうなるかというと、まあせいぜいこの程度です。OIIIだけで10時間25分あるのですが、強炙り出ししても高々これくらい出るのみです。
2392x1597_2x2_drizzle_2x_integration_ABE1_ABE6_DBE_strong

少しでもS/Nを稼ごうとして、ソフトウェアビニングをかけて、bin4x4状態にして、そこからdrizzleでx2をしています。これについては以前議論していて、上記画像はすでにその過程を経たものになってます。このレベルのノイズだと流石にいかんともしがたく、少しだけ画像処理を進めましたが、全く太刀打ちできませんでした。

こんな調子ですが、画像処理の基本的な方針だけは初期の方に決まりました。恒星はRGBをそれぞれ別撮りしたものから得ます。その結果Hαの恒星もOIIIの恒星も使わないことになります。なので、最初からリニアの段階でHαもOIIIも背景と恒星を分離してしまいます。HαとOIIIの背景と、RGBから作った恒星を、別々にストレッチして、あとから合わせることにしました。

OIIIですが、恒星分離するともう少しフラット化や炙り出しなどを進めることができ、やっとダイオウイカの形がそこそこ見える程度にまでなりました。
2x2_300_00s_FILTER_O_mono_dri2x_ABE1_ABE6_DBEDBEDBE_back_DBEDBE

背景の一部がボケたようになっていますが、DBEなどのフラット化の時になぜかボケてしまいます。どうやらこれは階調が僅かすぎて補正しきれないことに起因するようです。例えこれくらい出ていたとしても、AOO合成して処理しようとすると青と緑の背景があまりにノイジーになりすぎ、全く処理する気にならずに、ここで長期間放置状態になりました。

その後しばらくして、OIII画像は星雲本体のマスクを作ることができることに気づき、なんとかなると思い画像処理を進めました。今度はHαは赤のみ、OIIIは青と緑のみと、ものの見事に別れきっていることに気づいて、あまりに赤がのっぺりしてしまって、さらにはダイオウイカ自身も青一辺倒で後から乗っけたようになってしまい、これまた嫌になってしまって再度長期放置していました。

体調を崩してからまだ夜の撮影を敢行できずにいるので、未処理の画像をと思い、今回重い腰を上げました。スタートは以下の画像です。これとOIII画像から作った星雲本体と明るい青い部分のマスクを使います。
Image80

ただ、これだけだと赤と青共にのっぺりするのは変わらないので、途中からRGB画像のG成分を少し加えてみました。淡いですがG画像の背景に構造は残っているようで、緑成分がHαの赤と合わさって茶色の分子雲を作り出せればと考えました。このやり方が正しいのかどうかは疑問もあるのですが、例えばこれまでもかもめ星雲の時にHαにGBの背景を合わせて、赤の「のっぺり」を防いでいます。OIIIを使っていないのがポイントで、B画像とG画像の青と緑成分を使い色の階調を稼いでいます。また、網状星雲の画像処理ではε130DのテストとしてHαとOIIIのみでAOO合成していますが、これだと右側に広がる茶色の分子雲をどうやっても表現することができません。G画像を持ってくれば何か出せるのかなと考えていて、今回はその布石でもあります。同様のことはクワガタ星雲のAOO画像でも述べています。

初出でXに投稿した画像はマスク処理が功を奏して、やっとなんとかダイオウイカ本体が出てきたものでした。でもダイオウイカ本体から透けて見えるはずのHαの赤成分が全然出ていないことに後から気づきました。今から見るとちょっと恥ずかしいですが、まだ苦労している途中の習作ということで出しておきます。
Image80_3_cut

次に投稿したものは、青から透けて見える背景の赤に気をつけて処理したものです。
Image80_5_cut

その後、ソフトウェアビニングでbin4相当だったOIII画像を元のbin2に戻して、さらに青ハロの処理を間違えていたことと、ダイオウイカ本体以外にも青い部分は存在していることに気づき、青をさらに注意して、再度ほぼ一から処理し直しました。大体の処理方針はもう決まっていたので、再処理でもそこまで時間はかからず、最終的には以下のようになりました。

「Sh2-129: ダイオウイカ星雲」 
final4_cut2
  • 撮影日: 2023年12月4日19時13分-23時47分、12月8日18時53分-22時45分、12月29日17時56分-21時53分、12月30日18時5分-21時13分、2024年1月2日17時54分-20時47分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: TAKAHASHI製 ε130D(f430mm、F3.3)
  • フィルター: Baader:Hα 6.5nm、OIII 10nm
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI6200MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、bin2、Gain 100、露光時間5分、Hα: 28枚、OIII: 125枚、R: 11枚、G: 14枚、B: 11枚、の計189枚で総露光時間15時間45分
  • Dark: Gain 100、露光時間5分、温度-10℃、117枚
  • Flat, Darkflat: Gain100、露光時間 Hα: 0.2秒、OIII: 0.2秒、R: 0.01秒、G: 0.01秒、B: 0.01秒で全て64枚
  • 画像処理: PixInsight、Photoshop CC

背景が赤一辺倒、ダイオウイカ本体は青一辺倒というのから脱却して、少しだけですが階調を出せたのかと思います。処理途中は、かなり最後の方までイカ本体が少しでも見えたらいいくらいに本気で思っていましたが、結果としては正直自宅撮影でよくここまで出たと思います。結局イカ本体はある程度出てくれたので、こんな淡い天体の場合でも画像処理の手法としては存在するということが、今回学べたことです。

その一方、元々超淡くてノイジーなダイオウイカです。マスクを駆使して、相当な無理をして出していることを実感しながら処理していました。これだけ淡いと、環境のいい多少暗いところで撮影したとしても、画像処理には無理が出そうで、例えば他の方のダイオウイカ本体がかなり綺麗に出ている画像を見ても、よくよく見てみると多少強引に処理を進めたような跡が見てとられます。Xに投稿したときに海外の方から「このターゲットを狙う限り、みんな苦労して画像処理している」とか言うようなコメントがありましたが、本当にみんな苦労しているのかもしれません。

恒例のアノテーションです。
final4_cut2_Annotated1


以前に挑戦していた!?

どうせなのでぶっちゃけますが、実はダイオウイカ星雲は以前撮影していて、お蔵入りにしたことがあります。2021年11月のことです。FS-60CBにDBPフィルターをつけて、EOS 6Dで撮影しました。

DBPで胎児とハート星雲を撮影してみて、結構出るのでこれならダイオウイカでもなんとかなるかなと思って意気揚々と3日に渡り撮影しました。1枚当たりの露光時間はたっぷり10分で82枚、合計で13時間40分です。下の画像は、試しにWBPP後、フラット化だけしたものですが、何個もある黒い穴はホコリなので無視するとして、強炙り出ししても心の目で見てやっと青いイカが確認できるくらいです。

600_20s_FILTER_NoFilter_RGB_drizzle_1x_ABE_ABE

ホコリの跡が目立ったのもありますが、このイカさんの淡さ見て画像処理をする気にもならずに、諦めてしまいました。でもこれが広角の明るい鏡筒でナローバンド撮影をしたくなった強烈な動機になり、それから1年ちょっと経った時にε130Dを手に入れています。(追記: 改めて過去記事を読んでみると、DBPと6Dで胎児とハート星雲を撮影してうまくいったので、次にDBPでスパゲティー星雲を撮影しようと思ったみたいです。でもスパゲティーの前に6D+DBPでダイオウイカに行って上の画像のように打ちのめされて、そのままスパゲティーに行かずに、一旦ε130Dに走ってスパゲティーを撮影して、やっと今回のダイオウイカに戻ったということみたいです。)

今の技術で2年前のダイオウイカを画像処理したらどうなるか、ちょっと興味が出たので、少しだけ挑戦してみました。念の為一からWBPPをかけ直して、ABEとGradientCorrectionでフラット化して、SPCCをかけて、BXTをかけて、リニアの状態で恒星と背景を分離するなど、基本方針はナローで撮った時と同じです。ところが、適当にストレッチしてからダイオウイカ本体の処理のために青のマスクを作ろうとしたのですが、あまりに淡くてノイジーで背景と分離することができずに、結論としてはマスク作成不可能ということで頓挫しました。やはり今の技術を持ってしても、無理なものは無理と分かっただけでも収穫かもしれません。

結局年単位の長期計画になったのですが、改めて明るい鏡筒まで手に入れて、今回ナローでイカを撮った甲斐があったというものです。


PixInsight1.8.9-3のFBPP 

ちょうど6Dの画像処理中の6月24日、PixInsightのメジャーアップデートのお知らせがメールで届きました。目玉の新機能が多数枚の画像の速い処理を可能にするFastBatchPreprocessing(FBPP)と 、色バランスをGaia DR3データと比較して合わせるSpectrophotometricFluxCalibration (SPFC)でしょうか。とりあえずFBPPだけ試してみました。WBPPとの簡単な比較ですが、興味がある人も多いのではないでしょうか。

あ、その前に、1.8.9-3にアップデートした時点でプロジェクトファイル内に保存されていたWBPPのインスタンスが再利用できなくなったので、使い回しができなくなり新たに一から作り直す必要がありました。ダークとかフラットを登録済みで便利だったのに、また登録し直しでちょっと面倒でした。アップデートする方はこの点注意です。

1.8.9-3のインストール後、使えなくなったのはStarNetのみでした。これは前バージョンのPixInsightを消さずにフォルダ名だけ変えて残しておいて、1.8.9-3を元と同じ名前のフォルダにインストールし、古いフォルダ以下に残っていたファイルを新しい方にコピペしました。どのファイルをコピペすればいいかはここを参照してください。コピペでファイルの権限などもそのまま写されるので、このページにあるchmodなどの属性変更は必要ありませんでした。

さて処理にかかった時間の結果ですが、WBPPとFBPPで比較します。ファイルは全てEOS 6Dで撮影したカラー画像です。ファイル数は全く同じで、LIGHTが82枚、FLATが32枚、FLATDARKが32枚、DARKが106枚、BIASは以前に撮ったマスターが1枚です。

まずはこれまでのWBPPでかかった時間です。WBPPはdrizzle x1やLN Referenceなどもフルで実行しています。やっていないのはCosmeticCorrectionくらいでしょうか。トータルでは45分強かかっています。
20240621_WBPP_time2

一方、FBPPは設定でほとんどいじるところがなくて、ここまでシンプルになると迷うことが無くなるので好感が持てました。PixInsightの設定の多さや複雑さに困っている人も多いかと思います。私は多少複雑でも気にしないのですが、それでもこれだけシンプルだとかなりいいです。トータル時間は約11分です。
20240621_FBPP_time2

結果を比べると、Fast Integrationと出ているところは元のIntegrationなどに比べて3倍程度速くなっていますが、Fast IntegrationはLIGHTのみに使われていて、その他のDARKなどのIntegrationには使われないようです。Debayerも5倍弱と、かなり速くなっています。他の処理は元と同じ名前になっていて、かかる時間はほぼ同じようです。その代わりに余分な処理数を減らすことでトータルの時間を短縮しているようです。トータルでは4分の1くらいの時間になりました。

ここから考えると、LIGHTフレームの数が極端に多い場合は、かなりの時間短縮になるのかと思われますが、アナウンスであった10分の1は少し大袈裟なのかもしれません。

処理数を減らしたことに関してはdrizzleを使わないとか、ImageSolveで位置特定を個別にするとかなら、ほとんど問題になることはないと思われます。出来上がりのファイル数も少なくて、操作もシンプルで、FBPPの方がむしろ迷わなくて使いやすいのではと思うくらいです。


今後の改善

ダイオウイカですが、2年くらい前の撮影から進歩したことは確実です。機材が違うのが第一です。ソフトウェアの進化はそこまで効かなくて、以前の撮影の無理なものは無理という事実は変わりませんでした。

さて今後ですが、これ以上の改善の可能性もまだ多少あるかと思います。例えば今使っている2インチのOIIIフィルターはBaaderの眼視用なのですが、透過波長幅が10nmと大きいこと、さらにUV/IR領域で光を透過する可能性があり、まだ余分な光が多いはずです。実際、フラット撮影時にBaaderの撮影用のHαとSIIフィルターと比べると、OIIIのみ明らかに明るくなります。また、明るい恒星の周りにかなりはっきりとしたハロができるのも問題です。これらはきちんとした撮影用のOIIIフィルターを使うことで多少改善するかと思います。この間の福島の星まつりでやっと撮影用の2インチのOIIIフィルターを手に入れることができたので、今後は改善されるはずです。

また、今回OIIIに注力するあまり、Hαの枚数が5分の1程度の25枚で2時間程度と短かったので、もう少し枚数を増やして背景の赤の解像度を増すという手もあるかと思います。

G画像だけはもっと時間をかけて淡いところを出し、分子雲を茶色系に階調豊かにする手もあるかと思います。これはナローバンド、特にAOOで緑成分をどう主張させればいいかという、今後の課題になるのかと思います。

あとは、やはり暗いとことで撮影することでしょうか。いくらナローバンド撮影と言っても、光害での背景光の明るさが変われば、OIIIの波長のところでも違いが出るのかと思います。特にS/Nの低い淡い部分は効いてくるでしょう。


まとめ

2年前に心底淡いと震撼したダイオウイカですが、自宅でのナロー撮影で、まあ画像処理は大変でしたが、これだけ出たのは満足すべきなのでしょう。でももう、自宅ではここまで淡いのは撮影しないと思います。もう少し明るいものにした方が幸せになりそうです。無理のない画像処理で、余裕を持って階調を出すとかの方が満足度が高い気がしています。



CP+のセミナー、いかがでしたでしょうか?細かい操作も多かったので、その場では少し見にくいところなどもあったかもしれません。すでに動画配信が用意されているので、わかりにくかったところは繰り返しチェックしてみてください。

 

今回の記事は、動画配信を元に、わかりにくかったところの補足をしようと思います。


処理画像の準備

セミナーの中で話した、撮影までの状況と、SharpCapでの再ライブスタックは、これまでの記事で書かれています。







今回の記事は、セミナーで示した中でも、特に画像処理の部分について補足していきたいと思います。「なぜ」この操作をするべきなのかという意味を伝えることができればと思います。

セミナーは
  1. (23:50) 入門用にMacの「プレビュー」を使って、その場で処理
  2. (27:05) 初心者用にPhotoshopを使って、その場で処理
  3. (32:40) 中級者用に「GraXpert」とPhotoshopを使って、その場で処理
  4. (41:50) 上級者用に「PixInsight」をあらかじめ使った処理の結果を流れだけ
という内容 (括弧内の時間は配信動画での位置) でした。

使用した画像は、SharpCapで1分露光で撮影したオリオン大星雲を60枚したものです。これを、上の1と2はオートストレッチしたものをPNGフォーマットで8ビットで保存されてもの、3と4はRAW画像のfitsフォーマットで16ビットで保存されたものです。

オートストレッチで保存できるのは2種類あって
  1. 「Save with Adjustments」を選ぶ、LiveStackでのオートストレッチのみかかったもの
  2. 「Save exactlly as seen」を選ぶ、LiveStackでのオートストレッチに、さらに右パネルのオートストレッチが重ねてかけられてもの
です。今回は後者の2の保存画像を元に画像処理を始めます。いかが、SharpCapで保存されたライブスタック済み、オートストレッチ済みの初期画像です。

ここでオートストレッチについては少し注意が必要で、何度か試したのですが、ホワイトバランスや輝度が必ずしも一定にならないことがわかりました。全く同じRAWファイルをスタックした場合は同じ結果になるのですが、スタック枚数が変わったり、別のファイルをスタックしたりすると、見た目に色や明るさが変わることがあります。どうも比較的暗いファイルでこれが起こるようで、ノイズの入り具合で左右されるようです。明るさはまだ自分でヒストグラムの黄色の点線を移動することで調整できるのですが、RGBのバランスは大まかにはできますが、極端に暗い画像をストレッチするときの微妙な調整はSharpCap上ではできないようです。Photoshopでは背景と星雲本体を個別に色合わせできるのでいいのですが、WindowsのフォトやMacのプレビューでは背景も星雲本体も同じように色バランスを変えてしまいます。このことを念頭においてください。


Windowsのフォトでの簡易画像処理

まず、入門用のOSに付いている簡易なアプリを使っての画像処理です。

セミナー当日はMacとWindowsの接続が不調で、SharpCapのライブスタックとWindowsのフォトでの加工をお見せすることができませんでした。手持ちの携帯Wi-FiルーターでMacからWindowsにリモートデスクトップで接続しようとしたのですが、2.4GHzの信号が飛び交い過ぎていたようで、遅すぎで使い物になりませんでした。あらかじめテストはしていたのですが、本番でこんなに変わるとは思ってませんでした。

お詫びではないですが、Windowsのフォトについては、配信動画の代わりに、ここでパラメータと結果画面を追加しておきます。画像処理前の、SharpCapのオートストレッチで保存された画像は以下のものとします。

Stack_60frames_3600s_20_34_59_WithDisplayStretch

これをWindowsのフォトで処理します。
  1. WindowsではPNGファイルをダブルクリックすると、フォトが立ち上がります。画像処理をするには、上部真ん中にあるアイコン群のうち、左端の「画像の編集」アイコンをクリックします。
  2. 上部に出てくるメニューの「調整」を押します。
  3. フォトの弱点は、背景を暗くするのがしにくいことでしょうか。今回は「コントラスト」を右に寄せることで背景を暗くします。
  4. 星雲中心部が明るくなりすぎてます。トラペジウムを残したいので「強調表示」を左にして明るい部分を暗くします。
  5. 色バランスは「暖かさ」と「濃淡」で整えます。「暖かさ」左に寄せて青を出し。「濃淡」を右に移動しバランスを整えます。
  6. 「彩度」をあげて、鮮やかにします。
setting

画面が暗い場合は「露出」を少し上げるといいかもしれません。「明るさ」は変化が大きすぎるので使いにくいです。

上のパラメータを適用すると、結果は以下のようになります。
photo

たったこれだけの画像処理でも、見栄えは大きく変わることがわかると思います。


Macのプレビューでの簡易画像処理

Macのプレビューでの画像処理過程はセミナー中に見せることができました。でも今動画を見直していたら、どうも本来処理すべき初期画像を間違えていたようです。

Windowsとの接続がうまくいかなくて、内心かなり焦っていたようで、本来は上のフォトで示した初期画像にすべきだったのですが、間違えて出してしまったのがすでに加工済みの下の画像で、これを元に画像処理を進めてしまいました。焦っていたとはいえ、これは完全に私のミスです。本当に申し訳ありませんでした。
Stack_60frames_3600s_20_34_59_WithDisplayStretch 2

ここでは、改めて本来加工するはずの下の画像で進めようと思います。フォトで使ったものと同じものです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch

最終的なパラメータはこれくらいでしょうか。一つづつ説明してきます。
setting
  1. オートストレッチで星雲本体を炙り出た状態だと、星雲中心部が明るくなりすぎます。トラペジウムを残したいので「ハイライト」を下げます。
  2. 背景が明るすぎるので、上のヒストグラムの左のマークを右に動かします。星雲本体を炙り出すために、真ん中のマークを左に少し寄せます。これは後のPhotoshopの「レベル補正」に相当します。
  3. 色バランスは「色温度」と「色合い」で揃えるしかないようです。「色濃度」は左に動かすと青っぽくなります。「色合い」は右に動かすとバランスが整います。最後は画面を見ながら微調整します。
  4. 「シャープネス」を右に寄せると、細部を少し出すことができますが、今回はノイズがより目立ってしまうので、ほとんどいじっていません。

結果は以下のようになりました。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
これをみると、セミナー本番中にプレビューで処理を開始したものとよく似ているかと思います。要するに、練習でプレビューで処理をしたものを間違えて開いてしまったと言うわけです。こんなことも気づかないとは、やはりその時はかなり焦っていたんですね。それでも次のPhotoshopの処理はそれに気づいて、SharpCapから直接保存されたものを処理に使っています。


Windowsのフォトも、Macのプレビューも、いじることができるパラメータはそう多くはないので、解はある程度一意に決まります。むしろパラメータは画像処理を始めるときの初期のホワイトバランスと、初期の背景の明るさに依りますでしょうか?これはSharpCapの保存時に決まるのですが、保存時に細かい調整ができないのが問題です。それでも、方針さえしっかりしていれば、パラメータに関してはここら辺しかありえないというのがわかるかと思います。繰り返して試してみるといいかと思います。


Photoshopを使った画像処理

次はPhotoshopです。こちらはできることが一気に増えるので、パラメータ決定の際に迷うかもしれません。それでも方針をしっかり立てることで、かなり絞り込むことができるはずです。

初期画像は上と同じもので、SharpCapでストレッチされたPNGファイルです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
  1. (27:10) まず、背景の色バランスの調整です。これはPhotoshopのメニューから「イメージ」「色調補正」「レベル補正」を使うと楽でしょう。RGBの各色をそれぞれ個別に調整して、まずは各色の山のピーク位置と、各色の山の幅を調整します。調整の様子は動画で確認してみてください。山の位置が揃うと、背景の色バランスがとれたことになります。
  2. (27:40) 次に動画では、同じ「レベル補正」を使って背景を暗くしています。左の三角を少し右に移動します。暗くしすぎると、後から分子雲が出にくくなるので、これはもしかしたら必要無かったかもしれません。
  3. (27:55) 次に、青を少し強調します。一般的に星雲本体の青は出にくかったりします。特に今回は光害防止フィルターでQBP IIIを使っているので、そのまま処理すると、赤でのっぺりした星雲になりがちです。「イメージ」「色調補正」「トーンカーブ」と行って、「ブルー」を選び、ここは慎重に真ん中ら辺を少しだけ上げます。トーンカーブは左の方が暗い背景に相当し、真ん中ら辺が星雲の淡いところ、右が星雲の明るいところや、恒星に相当します。
  4. ただし真ん中を上げると、せっかくバランスをとった背景も青くなってしまうので、トーンカーブの線上の左の方をクリックしてアンカーを打ち、暗い背景部分があまり変わらないようにします。アンカーの部分だけが動かなくなるので、アンカーの右の方の線を動かすと、アンカーの左側も変わってしまって背景のバランスが崩れることがあります。そんな時は、左の方にアンカーを複数打って、背景バランスが崩れないようにしてください。
  5. (28:20) 少し地味なので、彩度を上げて各色の諧調が豊かな、見栄えがする画像にします。「イメージ」「色調補正」「自然な彩度」と選びます。その中に2つ触れるパラメータがありますが、「彩度」の方はかなり大きく変わってしまうので、私は「自然な彩度」の方を触ることが多いです。
  6. 補足ですが、色を出そうとしてよくあることなのですが、彩度を単体であげるとくすんだような俗にいう「眠い」画像になります。そんな時はまずは輝度を上げるようにしてください。輝度に関しては、画面に集中してしまうと、暗い状態でもいいと思ってしまうことがよくあります。一度ネットなどで自分が一番いいと思う画像をブラウザ上で見て、そのすぐ横に今編集している画像を並べてみてください。思ったより明るさも色も出ていないことに気づくかもしれません。客観的になるのは難しいですよね。並べて比べながら、まずは一番いいと思う画像くらいになるように明るさや彩度を出してみるのがいいのかと思います。
  7. (28:40) Photoshopで便利な機能が、「フィルター」の中の「CameraRawフィルター」です。まずは「ライト」の中の「ハイライト」を下げることでトラペジウムを守ってやります。
  8. (29:10) 次に、背景に含まれる分子雲を引き出すために「ブラック」を右に振り、「シャドウ」を左に振ります。ブラックとシャドウはよく似ていますが、逆にブラックを左にシャドウを右に振ってやると、似て非なるものだとわかるでしょう。この分子雲の炙り出しは、「効果」の「明瞭度」も効き目があります。セミナーでは説明しませんでしたが、「コントラスト」も同じような効果がありますが、こちらは強すぎる感があるので、使うとしても微妙に調整します。
  9. セミナーでは説明しませんでしたが、細部は「効果」の「テクスチャ」である程度出すことができます。同時に背景のノイズや不自然な大きな構造も出すことになるので、かけすぎには注意が必要です。
  10. (29:35) ここまで分子雲をかなりあぶり出してきたことになるので、かなりノイズが目立っていると思います。Photoshopでも簡単なノイズ処理ができます。その一つが「CameraRawフィルター」の「ディテール」の「ノイズ軽減」です。ノイズの具合に応じて、50とか、最大の100とかに振ってやります。同時に「カラーノイズ」も除去してしまいましょう。カラーノイズは画像を拡大すると、RGBの細かい色違いのノイズがあるのがわかると思います。拡大しながらカラーノイズが除去されるのを確認してみるといいかと思います。
  11. (30:45) ノイズを除去すると、どうしても細部が鈍ってしまいます。これは同じところの「シャープ」を上げてある程度回避できますが、完全に戻すことはPhotoshop単体ではできないかと思います。ノイズ処理に関してはここら辺がPhotoshopの限界でしょうか。
  12. (31:15) 最後に仕上げで再びトーンカーブをいじっています。ここら辺は好みでいいと思いますが、今回はまだ青が足りないのでBのを少し上げました。派手さは赤色で決まるので、Rも少し上げます。緑は自然さを調整します。赤とか青が強くて、全体に紫っぽくて人工的な気がする場合は、Gをトーンカーブで気持ち上げると自然に見えたりします。セミナーでは説明しませんでしたが、必要ならばトーンカーブの右側にも適時アンカーを打って、明るい部分が明るすぎにならないようにします。特にせっかく撮影時に残ったトラペジウムを、明るくしすぎて消さないようにします。
Photoshop

こんなところで完成としましたが、いずれにせよここでは、背景と星雲本体を個別に色バランスをとりつつ、背景を炙り出し、コントラストを上げることが重要です。背景はそもそも暗いためにノイズが多く、分子雲を炙り出すとどうしてもノイズが目立つようになるので、何らかのノイズ処理が必要になってきます。

WindowsのフォトやMacのプレビューだけで処理したものと比べると、背景と本体のバランスがとれていて、それらしい画像になってきたのかと思います。


GraXpert

ただし、Photoshopでの処理だけだと、背景の分子雲はまだあまり見えていないですね。この淡いところを出すにはどうしたらいいでしょうか?基本は、星雲本体と背景の輝度差をなくすことです。特に、画面全体に広がるような大きな構造(「空間周波数が低い」などと言います)での輝度差をなくすことが重要です。ここでは「GraXpert」という無料のアプリを使います。WindowsにもMacにも対応しています。

GraXpertは操作がそれほど多くないので複雑ではないのですが、少しクセがあります。

1. (32:35) GraXpertにストレッチ機能があるので、今回はすでにストレッチされたPNGではなく、暗いままのRAWフォーマットのFITSファイルを使いましょう。ストレッチされてない画像なので。最初にGraXpertの「1」の「Load Image」で開くとこんなふうに真っ暗に見えるかと思います。
Stack_16bits_60frames_3600s_20_21_42_fits_nostretch

2. (33:05) GraXpertの「2」の「Stretch Options」で何か選ぶと、明るい画像になるかと思います。ここでは見やすくするために「30% Bg」を選びます。

3. (33:15) 画像の周りに黒いスジなどある場合はフラット化がうまくいきません。ライブスタックの時にディザリングなどで少しづつ画像がずれていくと、黒い筋になったりするので、まずはそれを左メニュー一番上の「Crop」の横の「+」を押して、出てきた「Crop mode on/off」を押します。黒い筋を省くように選択して、クロップして取り除きます。クロップ機能がGraXpertにあるのは、画像周辺の情報の欠落に敏感だからなのでしょうね。実際の取り除きの様子は配信動画を参考にしてください。

4. 「Saturation」は彩度のことなので、少し上げておくと後から彩度を出すのが楽になるかもしれません。今回は1.5を選びました。

5. (33:48) 「3」の「Points per row」と「Grid Tolerance」は画像によって適時調整してください。「Create Grid」を押します。目安は星雲本体が黄色の枠で選択されないくらいです。ここであまり神経質にならなくてもいいのがGraXpertのいいところでしょうか。

6. (34:00) 「Interporation Method」ですが、これは4種類ありますが、各自試してみてください。場合によって適不適があります。私はKriging>RBF>AI>Splineくらいの印象でしょうか?セミナーでは時間のかからないRBFを選びました。Methodによっては差が出る場合もありますが、ほとんど差が出ない場合もあります。

7. (34:25) しばらく待って結果が出たら、画面真ん中上の「Processed」と「Original」で比較してみるといいでしょう。その差が「Background」で見ることができます。
bg
こうやってみると、左が緑に寄っていて、右が赤に寄っていたことがわかります。

8. (35:28)できた画像をこのまま保存すると、ストレッチがかかりすぎているので、「Stretch Options」で「10% Bg」程度を再度選びます。その後「5」の「Saving」で「16bit TIFF」を選択し、「Save Stretched & Processed」を押して、ファイルを保存します。

TIFFファイルはサイズが大きくなるので、ここではTIFFファイルをjpgに変換したものを表示しておきます。
Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert

9. (36:14) 保存されたTIFFファイルをPhotoshopで開き、あとは上でPhotoshopで処理したものとほぼ同様に進めます。

10. (36:20) 今回の場合、ヒストグラムで全ての山がそろっています。GraXpertで背景のホワイトバランスも合わせてくれています。

11. (36:28) 背景が暗いのですが、中心部は明るいので、Camera RAWフィルターで、ハイライトを下げ、黒レベルを上げ、さらに露光を少し上げると、背景の分子雲がPhotoshop単体で出したものよりも、すでに黙々しているのがわかります。これがGraXpertのフラット化の効果です。

12. (37:17) あとは同様にトーンカーブで青を少し出します。

13. (37:35) GraXpertのフラット化の弊害として、色が出にくいというのがあります。彩度を少し強調するといいでしょう。

14. (38:15) Camera RAWフィルターの「ディテール」の「ノイズ軽減」でノイズが目立ちにくくなります。ここまでの完成画像を示します。

Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert_final

明らかにPhotoshop単体より、GraXpertでフラット化することにより、背景の分子雲が出たのかと思います。

よりあぶり出せたのはいいのですが、その分ノイズが目立つと思います。そのため、動画では (40:13)あたりで DeNoise AIを紹介しています。これはAIを利用したノイズ除去ツールで、非常に強力なのですが、恒星の処理が苦手で、星が崩れたりしてしまいます。今回は中心が抜けたような星になってしまいました。

これは次に話すように、星と背景を分離するなどして、背景のみに実行することでうまく使うことができますが、ここまで来ると今回の範囲を超えてくるので、参考までにノイズツールはこのようなものもあるということだけ認識しておいてください。


PixInsight

セミナーでは最後にPixInsightでの処理を紹介しましたが、これは今回の目的の範囲を超えていると思いますので、参考程度に処理したものを順に示すだけにしました。なのでここでも詳細な解説は控えておきます。というか、これを解説し出すとこの一記事では到底収まりきりません。

ポイントは
  1. (42:40) BlurXTerminatorで収差を改善し星を小さくシャープにすること
  2. (44:47) 星と背景を分離すること
でしょうか。これらはPhotoshopでの処理とは全く異なり、天体画像処理専用ソフトの強いところです。最初からここまで手を出す必要は全くないと思いますが、いつか自分の処理が不満になった時に、こんな手法もあるということくらいを頭の片隅に入れておけばいいでしょう。


比較

最後に、今回それぞれで画像処理をした
  1. Macのプレビュー
  2. Photoshotp
  3. Graxpert
  4. PixInsight
の4枚を並べて比べてみます。左上からZの字を書くように、上の1、2、3、4と配置しています。

all

Macのプレビューだと、背景と星雲本体を別々に色合わせできなかったことがよくわかります。Photoshopになると、色がある程度バランスよくなっています。分子雲のモクモクはGraXpertが一番出ているでしょうか?

セミナー当日見せるのを忘れてしまいましたが、同じ4枚を拡大したものも比較してみます。
all_magnified

Macのプレビューはノイズ処理がないので、やはりノイジーです。拡大すると、PhotoshopのみとGraXpertが入った時の違いもよくわかります。モクモクのあぶり出しと同時に、細部もでています。それでも細部はPixInsightがBXTのおかげで圧倒的でしょうか。

セミナーの最後でも言いましたが、4枚目でも情報を引き出し切ったかというと、かなりいいところまで入っていると思いますが、まだ少し余地が残っていると思います。マスクを使ったりすることで、ノイズ処理やあぶり出しをもう少し改善することはできるかと思います。


まとめ

さて、今回のセミナーと合わせての一連のブログ記事いかがだったでしょうか?電視観望から始まり、撮影に発展し、画像処理までを解説してきました。セミナー本番は少し詰め込みすぎたかもしれませんが、後の配信を前提に動作を示すことを中心としたので、よろしければ動画を繰り返し見ながら確認して頂ければと思います。皆さんの画像処理の何かのヒントになるのなら、今回のセミナーを引き受けた甲斐が十分にあるというものです。

画像処理はとても奥深いところがあり、今回示したBlurXterminatorもそうですが、まだまだ今後ソフトや技術も進化していくはずです。大切なことは、ここまで説明したことの繰り返しになるかもしれませんが、闇雲に処理を進めるのではなく、何が問題で、どうすれば解決するかの方針を立てて、手持ちの技術で実際に進めていくことかと思います。画像処理といっても、いわゆる普通の問題解決プロセスと同じですね。

今回色々な手法を示しましたが、これが唯一の方法だなんてことは口が裂けても言えませんし、正しい方法かどうかもわかりません。あくまで一例で、他の方法もそれぞれ皆さんで、試行錯誤もあるかと思いますが、いろいろ編み出して頂ければと思います。











このページのトップヘ