ほしぞloveログ

天体観測始めました。

タグ:画像処理

CP+のセミナーの中で、SharpCapを使うと太陽をリアルタイムでスタックして画像処理ができるので楽だという説明をしましたが、ブログ記事にはしていなかったのでまとめておきます。この記事を書く気になったのは本ブログのコメントで、リュウさんから設定画面を見てみたいというリクエストがあったからです。


太陽の導入

カメラをPCに繋いでSharpCapで太陽を映すまではいいでしょうか?特に昼間の導入は意外に面倒だったりするので、少しだけコツを書いておきます。
  1. まず、赤道儀や経緯台の水平をきちんと取ることは必須です。水平出しは、これ以降の精度全てに効いてきますので、水準器を使ってきちんと水平になっているのを確認します。(補足: 昔の記事で赤道儀の場合は極軸さえ合っていれば水平出しは原理的にどうでもいいと書いていますが、それはあくまで極軸が正確に合わせられる場合です。昼間はほぼ太陽しか出ていなくて、極軸を精度よく合わせることは無理なので、最低限水平をきちんと取ってから始めたほうが遥かに楽です。)
  2. 鏡筒をホームポジションの方向に向けます。ホームポジションは赤道儀や経緯台の機種によるのでマニュアルをきちんと見てもらえばいいのですが、赤道儀の場合は北極星方向、経緯台の場合は北向き水平が多いでしょうか。太陽ファインダーを持っていない場合は、ここはできるだけ精度よく合わせたほうがあとあと楽です。
  3. 経緯台の場合、水平方向は鏡筒に水準器を当てるといいでしょう。
  4. 北向きにするのはなかなか精度が出ません。最近ではスマホにコンパスアプリがついているので、それを使うといいでしょう。その場合、設定で「真北」を選んでください。デフォルトでは「磁北」になっている場合が多いので、これだと6−7度ずれてしまいます。
  5. 次に進む前に、ここで重要な確認です。望遠鏡は太陽を見ることができる状態になっていますか?白色光の場合は太陽用減光フィルター、Hα線の場合はエタロンとブロッキングフィルターなど確実に付いていますか?私は必ず指差し確認をするようにしています。慣れてしまうとどうしても確認が疎かになる可能性が出てくるからです。
  6. 次に、カメラを鏡筒にセットし、カメラをPCに繋ぎます。SharpCapの上部メニューの「カメラ」から接続したカメラと同じ名前のカメラを選択します。
  7. ここまできたら、やっと赤道儀や経緯台の自動導入を使って、太陽を導入します。昼間の太陽導入は安全のために機能的に制限されている赤道着や経緯台が多いので、その制限を解除します。解除方法は機種に依ります。
  8. 必要なら導入前に念のため、赤道儀や経緯台の現在位置の設定と、時刻の設定を見直してください。現在位置や時刻がずれていると、これ以降導入がズレが出る可能性が高いです。緯度と経度を入力する場合は、スマホのコンパスアプリなどで今いる場所の緯度経度を確認できるので、その値を入力するのが楽です。
  9. 太陽を自動導入後、SharpCapで画面を確認しますが、大抵の場合は太陽は画面内に入ってこないと思います。
  10. 太陽ファインダーを持っているなら、太陽光がファインダーの投影板の真ん中に来るように、赤道儀の場合は架台部分の「ネジ」を使って水平方向と垂直方向を合わせます。この時点ではモーターを使わないように注意してください。この時点では、設置時の赤道儀の極軸からのズレを補正するためです。経緯台にはネジがついていないと思いますが、ネジの代わりに三脚をの足を伸ばしたり、水平にずらしたりして、水平方向や垂直をある程度合わせてもいいでしょう。
  11. 太陽ファインダーがない場合は、次のようにSharpCapの画面で確認するしかありません。
  12. 太陽ファインダーの真ん中に来たら、SharpCapの画面に入ってきているか確認してください。露光時間は機材に依りますが、1msとかかなり短くていいはずです。ゲインも0とかせいぜい200(=20dB=10倍)までで大丈夫かと思います。
  13. 太陽が画面内に入りかけているか確認するために、SharpCapの右側パネルのヒストグラムのところにあるオートストレッチボタンを押して、画面を明るくします。端の方が明るかったりしたら太陽が近くまで来ているということなので、ここからはモーターを使って明るいのが真ん中に来るように合わせます。太陽が入ってきて、極端に明るくなったら、今一度オートストレッチボタンを押して明るさを調整します。太陽の一部でも入ればあとはモーターで真ん中に持ってくるだけです。
  14. 最後に、赤道儀もしくは経緯台の追尾設定を、デフォルトの恒星から太陽に変更するのを忘れないでください。

ピント合わせ

太陽が導入できたら、次はピントを合わせます。ピント合わせも少しコツがあります。
  1. 赤道儀や経緯台のモーターを利用して、見たい位置に太陽を持ってきます。
  2. SharpCapの画面を見ながら、とりあえずそこそこフォーカサーなどでピントを合わせます。
  3. SharpCap右側パネルのヒストグラムで、オートストレッチをかけます。
  4. ヒストグラムの3本ある線の、左の線を背景光を表す左のピークより少し右側に、右側の線をヒストグラムの盛り上がりの右端くらいに合わせます。
  5. 画面を見ながら、真ん中の線を少し右に寄せ、細かい模様がよく出るところを探ります。グラフが下に凸の形になるはずです。
  6. ピントを微調整します。
スクリーンショット 2025-05-11 105533
ヒストグラムで調整するとこれくらいになるので、
かなりピントが合わせやすくなるはずです。


必要ならフラット化で見やすく

もし画面全体が太陽表面だけを見る場合(太陽の縁より外が画面に入っていない場合)は、常時フラット補正をしておくといいでしょう。これを行うことで、上記ピント合わせも遥かに精度よく見ることができます。
  1. 黒点周りなど、太陽表面の見たいところを赤道儀のモーターを使って導入する。
  2. 鏡筒のフォーカサーでピントをかなりずらす。その際、つまみをどちら向きに何回転くらい回したかを覚えておくといいでしょう。
  3. ボケボケになったところで、SharpCapのメニューの「キャプチャ」の「フラットフレームキャプチャ」を選びます。
  4. 出てきた画面でフラット撮影の設定をします。枚数は16枚とか32枚もあれば十分でしょう。スタートボタンのすぐ下の「撮影後新しいフラットを適用する」とかいうオプションにチェックを入れておくと楽です。
  5. スタートボタンを押します。
  6. フラットが適用されていることを、画面(真っ白になるはず)や下部に出ているヒストグラム(一本の細い山になるはず)で確認します。
  7. 画面下部に出ているヒストグラムを閉じ、ピントを元に戻します。ピントの再調整は、必要なら上の手順に従ってください。今回は太陽表面の輝度差が補正されているので、かなり合わせやすくなっているはずです。

これでセンサーやフィルターのホコリ、太陽表面の輝度の違い、エタロンの中心波長のずれで見えにくくなっていたエリア、ニュートンリングなどが補正され、圧倒的に見やすく、コントラストを上げて撮影できるようになります。この状態では、露光時間やゲインはある程度変更できますが、あまりに違う設定の場合はフラットを取り直してください。また、位置などが大きくズレると補正もずれてしまうので、その場合もまたフラットを取り直してください。


SharpCapの撮影設定

太陽が導入できてピントもあったなら、太陽が見えているはずです。まずはカメラの設定をします。
  1. モードはモノクロカメラならMONO16一択です。カラーカメラの場合はRAW16でしょう。
  2. 明るすぎたり暗すぎたりしないように、露光時間とストレッチ度合いを今一度合わせます。
  3. 露光時間は撮影のことも考え1ms程度、ゲインは0 ( = 0dB = 1倍) とか100( = 10dB = ~3倍) から、せいぜい200( = 20dB = 10倍) くらいまでで、ゲインがその範囲に入らなければ露光時間を長くしたり短くしたりします。適度な明るさとは、ヒストグラムで見て山が右も左も切れていなく、かつ山が全体的に広がっている状態です。
  4. ストレッチは適時オーとストレッチボタンを押します。露光時間やゲインを変えたとき、雲が通過して画面の明るさが変わった時も押すといいでしょう。


太陽画像のリアルタイムスタック

明るさが適度に調整出来、ピントもあっていたとしても、まだシャキッとした画像にななりません。ここでいよいよライブスタックを開始します。
  1. メニューの「ツール」の「太陽/月/惑星のライブスタッキングと強化」を選択します。
  2. 出てきた画面で「Sharping&Adjunstment」を選んで、下の画面を参考に調整します。
  3. 左側の「Gaussian Wavelet Sharpening」は十分な解像度が出ているなら「Fine」を上げるだけでほとんど大丈夫です。Level1以降は画面を拡大しながら上げてもいいですが、たいていは強すぎるのでほどほどにした方がいいと思います。画面を引いてみる場合と拡大してみる場合は、いいと思われる設定は違うと感じると思います。好みで設定すればいいと思いますが、私は拡大したときに強くなりすぎずに、引いてみたときにあっさりしすぎなくらいでちょうどだと感じています。
  4. 同画面右側の「Image Adjustments」はかなり便利です。でもその前に、オートストレッチをリセットしてヒストグラム画面で出ている曲線をきちんと直線にするのを忘れないでください。ヒストグラムで画像調整してしまうと、画像を保存するときに二重に調整効果がかかってしまって、変なことになる場合が多いです。
  5. 画面が明るすぎたり暗すぎたりするときは「Brightness」を調整します。「Gamma」は見栄えに大きく関係するので、毎回いいところを探してください。
  6. その後は好みで「Solar Colorization」をオンにするとカラー化されます。カラーの度合いはあまりいじることはできないはずです。
  7. 次の「Corona Boost」は、全景の場合はもうデフォルトオンでいいでしょう。ただし雲などが通過するとずれて強調されたりするので、その場合はオフにしてください。「Radius Offset」は適時変えてみて、いいところを選んでください。これも好みかと思います。

スクリーンショット 2025-05-11 113714

次のタブは「Frame Filtering」です。これでラッキーイメージ的なことができます。下の画面では250フレームにわたって画質の良さを評価して、上位85%をスタックするという意味です。
スクリーンショット 2025-05-11 113731
ここに出ているグラフはピント合わせに利用することもできます。主にコントラストを見ているようなので、特に全景の場合は太陽と背景のコントラスト比に比例して数値が出ます。言い換えると、ピントを前後させて、一番値が大きいところがピントが合っているところということです。先に説明した方法でうまくピントが出ない場合は、こちらを利用してみてもいいかもしれません。

最後は「Stabilizatin/Alignment」です。私はガイド鏡を使ってPHD2の太陽バージョンでガイドすることが前提なので、個々の設定はかなりシンプルにしています。こうしないと、PHD2とけんかしたり、正しい状況が見えにくかったりするからです。
スクリーンショット 2025-05-11 091737
全景の場合は「Stabilization Mode」は「Planet/Full Dis」のほうがいいのかもしれませんが、「Surface」でも普通にズレずにスタックできています。「Stacking Mode」も「Single Point」で十分なようです。というよりも、雲が来るとどんな設定でもだめで、雲が来なければどんな設定でもいいと言うような印象です。

その一方、フル設定だと以下のようになると思います。今回の記事のために設定してみただけなので、あまりあてにしない方がいいかもしれません。上で書いたように、ここまでしてもアラインメント精度はあまり違いがない印象です。いい時はいいけど、ダメな時はどう設定してもダメっぽいです。「Stabilize to cente...」はカメラの画角の中に太陽全景が入っていさえすえば、太陽を常に画面中心に持ってきてくれます。タイムラプスなどの時は便利だと思いますが、カメラの画角から太陽が出てしまったときは途端に像が崩れます。問題はこのオプションがオンになっていると、画角の端まであとどれくらい余裕があるのかわかりにくいことです。

「Track Planet with Camera ROI」は普段ROIを使うことがないので、私の場合は意味がないです。ROIで画角を制限したときに、fpsが上がればいいのですが、実用的なROIの範囲ではfpsは変わらないので、フルで撮影するようにしています。動画ファイルが大きくなりすぎるなら、ROIを設定するのもありだと思います。

さらにチェックしていない「Re-align...」と「Overlay...」は試してみましたが、何が変わるのかいまいちよくわかりませんでした。モノクロ撮影だからなのかもしれませんが、よくわかりません。

スクリーンショット 2025-05-11 113509

最後、「Time Lapse」タブですが、これもまだあまり試してはいません。できるだけ階調良く保存したいのでフォーマットはSERかTIFFです。でもSERではバグなのか、いまだにうまく保存できないようなので、今がにTIFF一択です。

「Apply Display Histgram...」はここではオンになっていますが、オフの方がいいでしょう。これがオンになっている、もしくはヒストグラムでリセット状態のまっすぐな線になっている場合以外は、たとえTIFFフォーマットだとしても8bitで保存されると下部のノートに書かれています。

「Create short animated GIF...」がオンになっていますが、いまだにうまくGIFファイルが生成されたことがありません。オフでいいかと思います。

あとは何秒ごとに画面を保存するか設定してスタートボタンを押せばいいのかと思います。動画よりもはるかにファイルサイズが小さくなるので、多少間隔を短くしても大したファイル量にはならないでしょう。「Reset stack after...」は経緯台の場合には画面の回転を防いで枠が回っていくのを防ぐことができるので、うまくフレーム数を設定してみるといいでしょう。ただ、タイムラプス撮影をするなら、あえて回転を見たいとかでなければ太陽の場合は素直に赤道着を使った方がいいかと思います。

スクリーンショット 2025-05-11 120116

いくつかはうまく動かない機能があるので、私の環境が悪いのか、バグなのか不明ですが、タイムラプスに関してはまだそこまで期待しない方がいいのかもしれません。

右から二つ目のタブで設定が3通りまで保存、再現できます。設定を変えた時の比較などに使えるので随時使うといいでしょう。


まとめ

以前は惑星も太陽も画面センターにキープできる機能が便利で、FireCaptureで撮影することが多かったのですが、SharpCapの機能が圧倒的に進んでしまい、少なくとも私は太陽用にはもうSharpCapオンリーです。今回はかなり基本的な太陽の導入の仕方から解説したので、よかったら参考にしてください。私なりのテクニックも随所に入れ込んでいます。







待ちに待った雲が全然ない昼間の快晴!タイムラプスも長時間できそうです。太陽撮影がはかどります。


この日の目標

最近太陽熱がずっと続いています。昼間は休みの日しか活動できないので、休みの日で且つ晴れの日が待ち遠しいです。2025年4月5日は午前中は晴れの予報で、午後からは曇りの予報だったので、休みの日には珍しく午前7時くらいには起きて準備を始めました。

この日の計画は盛りだくさんで、なんと太陽望遠鏡を2台も出すことになりました。撮影データとしてもかなりの量がとれたので、1回分の記事にはできなさそうです。元々考えていたのは
  1. いつもの口径20cmのC8+ASI290MM+PSTで黒点周りと大きなプロミネンスを一通り撮影。
  2. 同セットアップでプロミネンスのタイムラプス撮影を2時間くらい。
  3. 同セットアップで黒点周りののタイムラプス撮影を2時間くらい。
  4. 1台目のPSTをオリジナルに戻し、眼視と撮影
  5. 1台目のPSTを、初期の頃の魔改造に使っていた手持ちの口径10cm F10 (国際光器のMAGELLAN 102)に取り付け、ASI294MM Proで太陽全景を撮れるか試す。
  6. PSTの視野を広げるために少し改造。
  7. 改造後のPSTで10cm Mazaranで視野の広がりを確認。
  8. 改造後のPSTで20cmC8で視野の広がりを確認。
くらいでしょうか。最後曇ったので少し時間が足りませんでしたが、かなりのことはできました。


とりあえず撮影

とりあえず朝の早いうちに1の撮影は一通り済ませたので、まずはその結果です。あ、この日は結局昼すぐには薄い霞みたいな雲が全面に出てきて、それでも撮影やテストは続けたのですが、午後1時半には完全にぼやけ出したので撤収、そのあとは大量の画像をずっと処理してました。

画像処理については今回改めてかなり見直しました。例えば今回の画像はすべてカラー化してあります。カラー化してもモノクロに劣らないようなコントラストを安定につけることができるようになってきまひた。画像処理ついてはまた機会があったら別途記事にします。


まずは黒点関連です。最初は一番大きなAR4046です。番号はいつもの通り宇宙天気ニュースで調べてます。真ん中から少し西に寄っています。
07_55_23_lapl2_ap3860_c

次は4048群です。こちらはこの日がほぼ真ん中です。大きな黒点に、細かい黒点がたくさん連なっています。
07_52_22_lapl2_ap3839_c

小さな黒点群AR4049です。位置的には4046の真下あたりでしょうか。
07_53_39_lapl2_ap3859_c


最後はかなり西に寄ったAR4044です。周辺部も入っているので、彩層面を反転しています。なので、一番白いところが黒点になります。
07_56_37_lapl2_ap2789_lowdot_c2


次はプロミネンスです。大きなものが東の9時方向に出ていました。画像は横長の画角を生かすために90度時計回りに回転させています。
08_00_23_lapl2_ap1030_nodot_c_2

画像を見てもわかりますが、この日は朝早かったこともあったのでしょうか、相当シーイングが良かったようです。どれもかなりの分解能が出ています。これくらいのものが撮影できると、画像処理は相当楽です。これくらいいつも撮影できるならいいのですが、これをコンスタントに出すのが当面の目標でしょうか。


全景を入れてみる

最初の一連の撮影の後、タイムラプス映像の撮影を開始しましたが、こちらは長時間なのでその間に他にやれることをやっておきます。

この日試したかったのは、なんとかして太陽の全景を一度に撮れないかということでした。ずっと以前、口径10cmで全景を出したことはあります。



この時は太陽活動はまだほとんど低迷期で、あまり表面の様子が分からなかったこと、その後画像処理技術も上がったことで、同じ機材でどこまで全景の模様に迫れるかという比較をしたかったのです。これはPhoenixだとあまりに簡単に、しかもかなり綺麗に全景が得られたことも影響しています。

まずは、昔やっていた設定と全く同じで試してみます。機材は口径10cm 焦点距離1000mmの国際光器のMAZELLAN 102というF10鏡筒にPSTを、カメラは視野の広いフォーサーズのASI294MM Proです。これで太陽を見てみますが、本当になんとかギリギリで全部視野内に入ります。でも相当厳しいです。

面白かったのが、鏡筒の先端につけるキャップが2段構造になっていて、真ん中の径4cm位の穴を開けると、明らかに視野が狭くなることでした。これだと全景が入りません。実は最初に4cmで試したので、あれ?以前は入ったのにとびっくりしました。その後に、キャップを全部取り外し10cmをフルで使うと、太陽全景がギリギリですが入ってきて、以前と同様になったというのが実際です。

確かに4cmに絞ると視野は狭くなりそうなのですが、なんでそうなるのかまだいまいち理解できていません。光は対物側のいろんな方向から入ってくるので、たとえ先端で口径を絞っても、暗くなることや周辺がぼやけることはあったとしても、あからさまに視野が狭くなることはないと思っていました。これはF10という平行光に近いのが効いているのでしょうか?たとえそうだとしても、少し定量的に理解しておきたいと思いました。

いずれにせよ10cmをフルに使っても、まだ太陽全体を一度に見るにはまだ視野はギリのギリです。視野を制限しているもう一つ怪しい場所はBFの径です。焦点近くに置くとは言え、わずか5mm程の直径なので、ここで視野が制限されている可能性が十分にあります。大口径のBFを手に入れられればいいのですが、太陽望遠鏡の中でもエタロンに次いで高価な部品の一つなので、購入するとなると10万円以上の大きな出費になること間違いなしです。


BFの加工を少し

そんな理由もあり、BF部分を分解して少し調べてみました。以前も分解した通り、アイピース部分を外すと、ERFとBFに分けることができます。

IMG_1133

上がBRFで、下がBFになります。BFの径はかなり小さいのがわかります。BF部の蓋をさらにかに目レンチで外します。

IMG_1134

BF自身は直方体に近い形をしていて、太陽光が入射する面に金色のコーティングがしてあります。両辺の長さをノギスで測定すると、両方とも5.9mmでした。その一方、BFをマウントする台座と蓋は丸い穴が空いていて、その直径は台座側が5.2mmで蓋側が5.1mmでした。要するに、実際の径はBF自身でなく、そのマウント側で制限されているというとこです。高々0.7-8mmの違いですが、5.1mmから考えたら15%くらいの違いになります。

IMG_1137
大きさを比較しても、やはり穴の径よりもBF本体の方が大きく見えます。

今回は穴を広げすぎて光が漏れたりしないように少し余裕を見て、手持ちの5.5mmのドリル刃を使ってマウントの台座と蓋の径を広げることにしました。ドリル刃がスポスポが通るくらいにするので、5.6mmくらいなっているとして、元の最小径の5.1mmから見たら1割程度の拡大になります。

ドリルで穴を開けた後、MAZALLANで再び、他の設定は何も変えずにカメラで視野を見てみると、おお、確実に太陽全景がはっきり見える範囲が増えています。


全景のテスト撮影

ここで太陽全景を撮影しておきます。まだ周辺減光の影響がかなり残っていることは確かで、そのせいもあるのか太陽中央と端の方の輝度差が激しく、端の方のHαの模様は画面を見ただけではほとんど見えませんでした。その後、画像処理をして輝度差を落としてみると、多少なりとも模様は出ているようです。
_09_54_12_lapl2_ap5309_clone1

ただ、これで十分かというと全くそんなことはなくて、やはりエタロン径とBF径的に無理があるのと、カメラもフォーサーズみたいなセンサー面積が大きいのを使うのはもったいないです。しかもピクセルサイズの粗い294では口径10㎝を生かせてるとも到底思えません。もっと焦点距離を短くして、見える太陽径を小さくして、ピクセルサイズの小さい小面積のCMOSカメラを使った方が、PSTのエタロンのいいところを使えるはずなので、有利なはずです。

手持ち機材で、全景を撮るだけでこんなに苦労とするならとも思ってしまいます。今迷っているのは、Phoenixを購入するかどうか。これならかなり楽に全景が撮れますし、今後改造するときにも特に精度のいいエタロンは格好の素材になります。でもそもそも、手持ちのPSTも2台とも中古のジャンクで格安で買っていて、C8も3万円ほど、MAZALLANはタダで譲り受けています。太陽関連で全部合わせても新品の少し大きめのBF一個の値段にも及ばないので、このまま格安路線を続けれればと思っています。というか、これくらい安価でないと改造なんて怖くてとてもできないです。あー、でもPhoenixのエタロンかなりよかったのでやっぱり買っておいた方がいいかなー?


続きは次回

とりあえず今回の記事はこんなとことにしておきます。タイムラプスで結構すごいのが撮れたのですが、ちょっと安定度に難ありで、処理に時間がかかりそうです。






毎年恒例の振り返りと目標です。年末は忙しいので、たいてい1月末か2月初めに書いてます。去年のまとめ記事はここにあります。


2024年はゴールデンウィークに体調を悪くして入院してしまい、趣味の天文活動も大きく制限されてしまいました。そんな状況の中、何をどれだけできたのか、振り返ってみます。


機材

RedCat51

機材はほとんど更新してません。相変わらずSCA260とε130Dがメインです。そんな中、唯一の新機材が、所属のローカルなアマチュア天文グループの当時の会長が亡くなったときに格安で譲り受けたRedCat51でしょうか。手軽な短焦点鏡筒を狙っていた時にちょうど手に入れることができました。RedCat51は何世代か発売されていて、手に入れたのは初代のもののようなのですが、特に不満もなく、というか十分すぎるほどの星像の鋭さと、さらに手軽さもあって、SWAgTiに載せて使っていて、相当な稼働率になってきています。


SWAgTi

新しい機材というわけではないですが、2023年から着実に進化しているのがSWAgTiです。SWATにAZ-GTiを載せて、SWATの高精度追尾と、AZ-GTiの高機能のいいとこ取りをしていて、オートガイド無しで気軽に長時間撮影できるものです。2024年は、ついにオートガイドなしでディザリングを実現することができ、これで長時間撮影で出てくる縞ノイズを撃退しています。撮影ソフトの対応が鍵になっていて、最初はSharpCapでやっていました。


後にNINAでもガイドなしディザリングができることがわかり、今ではプレートソルブなどで簡単に導入し、数時間以上の長時間撮影が安定してできるようになっています。


極軸微動ユニットも装備して、シンプル構成を壊さない範囲でハード的にも少しずつ進化しています。


このセットアップ、あまりにも手軽に十分すぎる精度が出るので、最近は軽い鏡筒は全てSWAgTiに載せています。テスト撮影でM27: 亜鈴状星雲を長時間露光で羽付きで、さらにテストでM20: 三裂星雲、その後実撮影で紫金山アトラス彗星、NINAに撮影環境を移してからはパックマン星雲馬頭星雲と燃える木M31: アンドロメダ星雲M45:プレアデス星団と短期間に数をこなしています。

RedCat51とSWAgTiの簡単セットアップで撮影したものが、過去に本格的な機材で撮ったものにどこまで迫れるのか、全部撮り直したくなってきます。


2025年の目標

昨年の目標で
  1. SCA260(1300mm)+ASI294MM Pro(マイクロフォーサーズ) = 2380mm (フルサイズ換算) 
  2. ε130D(430mm)+ASI6200MM Pro(フルサイズ) = 430mm (フルサイズ換算)
の間の焦点距離を探ることを考えていましたが、結局ほとんど進展無しです。鏡筒とカメラの組み合わせを入れ替えるのが一つのアイデアですが、ホコリが入るのと、フラットの取り直しが嫌で、結局躊躇しています。SCA260については、2024年夏くらいに申し込みがあった内部のバッフル交換のアップグレードサービスでカメラを外して以来、いまだにカメラを外しっぱなしなので、この機に大口径を生かして何かできないか、一つアイデアを考えています。自宅の光害地での撮影が基本なので、できるだけ明るく撮影したいという方向なのですが、また試してうまくいったら報告したいと思います。

撮影鏡筒の数を増やすことも考えていたのですが、撮影用の鏡筒と考えるとカメラはつけっぱなしで外したくなくなるので、カメラも追加が必要になりそうです。本格的にはフィルターを使いたいので、モノクロカメラに、EWFとLRGBとナロー3種と、かなりの金額になってしまいます。それよりも今使っているRedCat51では、カメラは取り外しも変更も自由にしていて、基本カラーで楽なので、これとうまく組み合わせることで運用できたらと今は思っています。

あと、機材というよりは画像処理になるのですが、モザイク撮影も焦点距離の間を繋ぐ一つの方法です。例えば上のSCA260+ASI294MM Proで4枚モザイクをしたら焦点距離1200mm相当になります。モザイクはこれまで少しだけ試したことがるのですが、画像間の接続があまりうまくいかなくて今までのものは全部お蔵入りにしてます。PixInsightのMGCがリリースされたので、画像間の補正をうまく調整できるかもしれません。とりあえず、お蔵入り画像を引っ張り出してきて再処理してもいいかと思っています。

いずれにせよ、焦点距離のバリエーションを増やすというのが課題です。


撮影

2024年に撮影した画像に関しては、既にここにまとめておきました。


上記記事の最後に、まとめとして考えていることはある程度書いたので、ここでは彗星についてのみ書きます。紫金山アトラス彗星は短期間でここまでの大彗星になるとあまり思ってなかったので、自分的にはギリギリになって盛り上がってきました。今回は特にアンチテイルの中にネックライン構造と呼ばれる、まっすぐな鋭い輝線が見えたのが面白かったです。さらに、核の拡大撮影でLarson-Sekaninaフィルターを適用し、回転と見られる構造が浮かび上がってきたのも面白かったです。何年かの一度の大彗星自体がチャンスで、それ自身ももちろん面白いのですが、今回の彗星撮影では単に写すだけでなく、そこからこれまで見たことがなかったものが現れてくるものあるというのが分かっただけでも、得るものが多かったです。


目標

体調もある程度は戻ってきているので、2025年はもう少し撮影チャンスを増やせたらと思っています。SWAgTiでの簡単撮影と、SCA260やε130Dでのフィルターを駆使した長時間本格撮影という二極的な方向はそのまま続けるのかと思います。特に簡単撮影の方は枚数も稼げるし、画像処理も簡単だし、楽しいしで、こっちの方がメインになるのかもしれません。本格撮影は自宅撮影だとどうしても光害で限界があります。あまりに淡い天体では、明るい自宅での撮影は意味がないと思えてきたので、その場合は遠征を考えますが、これは体調と相談してになるのかと思います。自宅からも狙えるような、そこまで淡くない分子雲などは楽しそうなので、もう少し進めていこうと思います。


画像処理

2023年のスパゲッティ星雲くらいから、淡いところに関しては2024年も引き続いてかなり攻め込みました。ダイオウイカ星雲は自宅から出すにはちょっと無理がありましたが、それでも分離だけはできたので画像処理で強引に引き出しています。イルカ星雲は画像処理がかなり活きて、とても楽しかったです。イルカ本体の内部のHαの構造を、DrizzleとBXTでの分解能もあわせてどこまで出るか挑戦しました。イルカ星雲も一般的には淡い方と言われていますが、ダイオウイカ星雲に比べたら遥かに明るくて素直で、自宅の場合ここら辺までの淡さの天体をターゲットにすると幸せになりそうです。さらに明るいカモメ星雲は無理せずに出せるので、色々試すことができて、こちらもかなり楽しかったです。

M31の背景のHαを出そうとしましたが、これはまだ今後の挑戦でしょう。今回はε130Dで試しましたが、露光時間は全然足りないでしょう。暗い場所へ行ったほうがいいかどうかは要検討です。ナローバンドなので多少の光害地でも大丈夫なのか、それともナローバンドといえども明らかに光害の影響があるのか、数値で示してから判断したいと思います。必要なら3nmクラスのHαフィルターの検討をしてもいいかもしれません。今回は何か構造は出ましたが、もう少し根本的に方法を考えたいです。

この記事の直前にまとめた網状星雲も同様でしょう。RGBでしか出ない分子雲の淡いところと、Hαの淡い細かい模様を両立するのはかなり難しく、今回は何か見えるところまではいったのですが、今後もっと精度を上げていければと思います。

アンドロメダ銀河がそうだったのですが、明るい銀河本体はRedCat51とSWAgTiで気軽に撮影し、背景のように特定の出にくいところを狙って集中して撮影するなど、機材やフィルター設定が違うものを合わせることで、効率よく攻めの姿勢を貫けるのかと思っています。


も一つの挑戦は、M104で微恒星がどこまで出るかでした。銀河本体は中のモジャモジャも含めてなんとか出てきたと思っています。でも周りの微恒星はハッブル画像と比べると見るも無惨で全く追いつけていません。その問題点の一つがBXTです。BXTに恒星として認識されるかどうかで、点像に近い星として補正されるか、ボヤボヤのシミとしてしか見えないか、閾値の上下で差が広がりすぎるのです。


銀河、恒星についても暗いところに行ってノイズの影響をなくしたほうがいいのか、、単に焦点距離を伸ばしたほうがいいのか、今後の課題としたいと思います。

BXTが今後どう発展していくのか、またつい先週にリリースされたNXTの新バージョンも期待できそうです。ソフトの進歩はまだまだ進むでしょう。2025年以降も画像処理方法の進化の影響が大きくなってくると思います。その進化をリアルタイムに味わうことができる、とてもいい時代だと思います。


電視観望

電視観望ですが、観望会では普通に使っていますし、色々テストもしています。ブログの記事化をしていないものもいくつかあるので、記録を見て回数を数えたら19回でした。2023年が15回なので、2024年が体調が悪くてある時期は全く何もできなかったことも考えたら、結構増えているのかと思います。

その中で、独立した記事として書いた新しいネタとしては以下の3つでした。

一つはCP+でお会いしたMACHOさんのご好意で、チリのドームを使わさせて頂いての電視観望です。これはその後、東京で実際にMACHOにお会いしたり(これも未記事化です)、本格撮影にまで繋がりました。


もう一つは、M1 Mac上で仮想のWindows11を立ち上げて、その上で動くSharpCapで電視観望をやってみたことです。昔のIntel時代のMACはbootcampで普通にできたことが、M1以降になってできなくなったので、電視観望用に別のノートのWindows PCを用意していたのですが、Arm Windows用のカメラドライバーも徐々に整備されてきて、ある程度M1 Macでの電視観望も実用になってきたというものです。でもドライバーのインストールは相当なれた人でも大変だと思うので、まだ一般的にお勧めできるレベルとは言えませんが、それでも自分の環境でPCを一台減らせるというのは大きな利点です。


福島の星まつりで、北軽井沢観測所のアイピースを使った縮小光学系での短時間露光でのリアルタイム電視観望を紹介され、私も早速同じセットアップを購入して試したものです。

このシリーズもっと続けたいと思っています。上のセットアップでもまだまだ検証不足ですし、SkyWatcherのHAC125などの安価なF2台の鏡筒も出てきています。動画クラスの露光時間でリアルタイムで見えるDSOの電視観望というのは、ある意味究極の電視観望とも言えるので、今後のカメラの進化も期待しながら続けていきたいです。


観望会など

飛騨コスモスの観望会は記事にしたのは7月と9月の分の2回で、記事にしていないのが1回の計3回の参加です。観望会自体は夏のペルセウス座流星群の観望もあわせて7回あったのですが、体調が悪くて行けなかったのが1回と、あとは他の予定と重なってしまいました。



加えてあと1回、10月にドーム修理を完了したのですが、その時のことは記事にしていないです。多分当時は力尽きていたのだと思います。

富山市科学博物館の観望会も天気がいい時をみて、5回ほど行きました。こちらはすぐ近くなので、行こうと思ったらすぐに行けて気軽に参加できます。




特に、10月の観望会は富山県天文学会 (県天) の集まりも兼ねています。その時は電視観望の話をメンバー向けにしましたが、地元の油断でしょうか、内部で電視観望の話をするのはこの時が初めてでした。

県天関連の観望会で、今年はゲリラ観望会を2回行いました。5月は退院直後で参加できるか心配でしたが、近くで機材も軽いものなのでまあなんとかなりましたが、流石にちょっと無理しすぎたかもしれません。



他にも8月に高岡市でやった観望会があるのですが、天気が良くなくてほとんど何も見えなくて撤収でした。人はかなり集まっていたので、その場の天文トークで盛り上がったので、ブログ記事も途中まで書いたのですが、結局最後まで辿り着かずに記事はお蔵入りとなってしまいました。

飛騨コスモスの観望会もそうですが、2024年は本来書き留めておくべき記事をいくつかお蔵入りさせてしまっています。次の星まつりも、実は胎内の分は書いてなかったりします。体調不良の影響がこういうところに出てしまっています。


星まつりとかのイベント

2024年ですが、例年に比べてイベント参加の数はかなり少ないです。CP+はセミナーで話もしてもいますが、大きな天文イベントの一つだと思います。もちろん実際は天文イベントではなくカメライベントなのですが、何がいいって、横浜という関東の街中で行われることです。関東在住の天文民が集まりやすいので、下手をすると普通の星まつりよりも天文マニアの集まりがいいかもしれません。しかも、販売ではなくて基本は展示で買い物をしなくてよく、しかも星を見ることもないので自分の機材を出さないとなると、自然と会話が弾みます。サイトロンブースが大きいので結構溜まり場になっていました。



福島の星まつりは、体調を悪くして入院して、退院直後に無理して行った覚えがあります。日帰りで、朝もそこまで早く出ることなく、短時間滞在で済ませたことと、今思うとここから夏に向けてどんどん体調が悪くなっていったので、まだこの時はマシだったのかもしれません。


胎内は記事にしませんでしたが、少しだけ参加していました。ホントにわずか数時間の滞在でした。私の体調を知っている方から「無理をするな、大人しくしてろ」と怒られて反省しました。

9月の星もとは、SWAgTiの展示があるので、これだけはどうしても頑張って参加しました。ユニテックさんの、何とアウトドア用のクーラー付きのブース内に居候させてもらったので、あまり無理することなく過ごせました。それでも色々とご心配をおかけしてしまったかもしれません。やはり泊まりはきつそうだったので、日帰りでした。運転とか、座っている分には大丈夫なのですが、寝るときにかなり気を使い、環境が違うと寝られなくなってしまって疲れてしまうのです。


イベントはこれくらいでしょうか。原村はもう星まつりとは言えないようですし、後は小海くらいです。小海は直前に絶不調になってしまい参加できなかったので、とても残念でした。天気がとても良かったとのことで、悔しい思いをしていました。でも泊まりが難しいので、天気が良くても厳しかったかもしれません。


プラネタリウムとか、観光とか

観光記事っぽいのは3本です。実家の名古屋のプラネタリウムと、天文と関係ないですが東京青梅のマイコン博物館です。



コニカミノルタのプラネタリウムですが、初めて行ったのが2022年。その後、記事にしないですが何度か行っています。あまり目立たないのですが、細かく見てるとソフト的には着実に進化しているのがわかります。例えば最初は天球が回転しませんでしたが、今では普通に回転しています。LEDでは分解能的に不利なはずなのに、どうやってスムーズに星を動かしているのでしょうか?さらに、12月の富山市科学博物館で行われたプラネタリウム研修会で、コニカミノルタプラネタリウムの開発関連の方とお会いすることができました。時間が許すのなら、もっとお話ししたかったです。ターゲットのお客さんはカップルのデートコースとかがメインだと思うので、なかなか天文マニアが望むものを実現するのは難しいと思いますが、それでもコントラストを生かしてどこまで本物の空に迫れるかというプラネタリウムの本来の目的に、少しでも方向づけして頂ければと期待してしまいます。

天文ではないですが、マイコン博物館が面白かったので、ブログ記事にしました。

マイコン博物館の館長さんは元々天文少年で、天リフ編集長も以前に訪れていたというのがかろうじて天文つながりでしょうか。こんなふうに、たまには天文以外の記事も気分転換になるので、今後も増やしていこうと思います。


セミナー、講演など

2024年は、講演関連は圧倒的に少なくなりました。体調が悪くなる前半のものと、後半は一年前とかの相当以前から依頼されていたものだけです。

毎年恒例のCP+ですが、2023年に引き続き現地会場での対面でのセミナーとなりました。


CP+の連動企画として、StarAdventureを使ってどこまで撮影できるかを事前にブログ記事で示して、当日に画像処理をするという試みで、かなり大型の企画になったかと思います。

今でもこのブログ記事を見てくれている方は結構いるようで、初心者が本格撮影を目指すときの指標になればいいなと思っています。

3月は「なゆた」のある兵庫の西はりま天文台で開かれた「星仲間の集い」で電視観望についてお話しさせていただきました。とても楽しい集まりで、夜中まで話し込んでいました。


この後は体調を崩してしまい、メインの夏のシーズンはひたすら大人しくしていました。日帰りはまだいいのですが、泊まりだと全然体力がもたなかったのです。それでも11月の「長野県は宇宙県」のミーティングは1年ほど前に頼まれていて、そのころにはだいぶん体力も回復していたので泊まりで参加することにしました。

「長野県は宇宙県」は特定の集まりというよりは、それぞれのメンバーはそれぞれのローカルな天文グループなどに属している方が多く、とにかく長野は活発な方が多い!という印象でした。古民家を再生した一棟を借り切って宿泊し、夜中まで暖炉の脇で話していたのですが、とても楽しかったです。でもやはり泊まりで少し無理をしたのか、その後体調を崩してしまい、次の週にあった小海の星と自然のフェスタの参加はもう泣く泣く諦めることになりました。

富山市科学博物館で行われた全国プラネタリウム研修会での講演も、1年以上前から頼まれていたものです。自宅から近くで日帰りなので、こちらは体調に関係なく気軽に参加でき、研修会後に行われた飲み会も十分楽しむことができました。普段なかなか話す機会のない学芸員やプラネタリウム関係者とかの、一般の人に天文のことを伝えるプロの方達と、貴重な時間を過ごすことができました。


体調は良くなったり悪くなったりを繰り返しながらも、全体的には確実に良くなってきているので、2025年はまた機会があれば、私が話せる範囲でお伝えできることがあればと思います。とりあえず、2月のCP+で昨年に続きサイトロンブースでお話しさせて頂くことになり、太陽望遠鏡関連のことを話そうと思っています。今回は、太陽望遠鏡で一番謎の部分の、エタロンフィルターのことを掘り下げて話すことができたらと思っています。


技術的な記事

ハード面、ソフト面で技術的な記事も書いています。と言っても2024年はあまり多くはなく、しかもハード面は細かいことばかりです。この他にも色々役立つと思うことも書いてるのですが、多くは普段の撮影とかの記事に紛れて書いてしまっているので、一つの独立した記事にすることはあまりなく、本数としてはこれくらいになります。本当は、こうやって独立した記事にした方が読みやすいだろうし、実際アクセス数も多いので、今後はこの方向でいこうかなあと迷っています。でも撮影とかに絡む細かいテクニックは実際の撮影例で示した方がわかりやすいんですよね。やっぱりある程度大きいトピックだけ独立さるほうが楽そうです。




下の記事なんかは、あるソフトのある新機能を解説しているだけなのですが、こういった簡単な解説記事が以外に反応が大きかったりします。

これくらいシンプルにしたほうがいいということでしょうか。言い換えると、普段の記事はやはり長すぎるということでしょうか...。

ソフト面ですが、無料の画像処理というのでまとめた記事が反応が良かったです。初心者の方は、最初は有料ソフトは躊躇してしまうのかと思います。ベテランになってくると、機材の値段から見たらソフトの値段は誤差みたいになってくるので、気にならなくなるのかと思います。

無料ソフトでの画像処理でも、相当有料のものにせませれることは示しましたが、実際有料のPixInsightなどを触るとわかるように、明らかに投資に見合った画像処理結果になることも事実です。ある程度この趣味にどっぷり浸かるのなら、機材も含めて少しづつソフトにも投資していくと、より楽しくなっていくのかと思います。

下の記事みたいに、ソフト自身の解説なんかも書きますが、自分用のメモと、あとは他の人が見ても役に立つかと思った時に記事化するようにしています。

でもこの後、StarNetの方もPixInsightのレポジトリでアップデートできるようになったみたいなので、すでにもう役に立たない記事なのかもしれません。でもまだ私はレポジトリでアップデートはしていないので、自分で試してみてその時の情報が有用そうなら、またレポジトリアップデートで記事にするかもしれません。


アイデア、解析とか

こっちはもっとコテコテの計算とかです。

まずはライフワークみたいになっている、カメラのノイズ評価ですが、前半の元気な頃にそこそこ解析計算までして、その後は止まってしまっています。本当はここから具体例を出して、どんな状況の時にどんなノイズになって、どんな改善策をすればいいのかというのを、いろんな例で示していこうと思っていました。結構エグい計算量になりそうで、まだそこまで気合が入っていません。でものんびりでも進めていこうと思っています。



ダークノイズの影響ですが、SWAgTiで一つ気付かされました。ディザリングがいかに大切かということです。ディザリングでホットピクセルとかが散らされる効果はよく知られていますが、ランダムノイズであるダークノイズ自身もディザリングで軽減されることに気付かされたというわけです。1枚1枚のRAWライトフレームからマスターダークを引いてライトフレームをスタックするのも、ライトフレームをスタックしてからダーク補正をしても、ランダムなダークノイズが2乗和のルートで加算されるというのは、数学的に同じと示されます。ただしここにディザリングの効果を考えると、マスターダークフレームの重なり具合も散らされるので、実質的に得をします。これは「ダークファイルの撮影枚数を減らしてもいい」という実際の効果として現れます。

調べた限り、ダークノイズへのディザリングの効果のような話をしているページを見つけることはできなかったので、これまであまり考えられてこなかったのだと思います。こんなふうに、天文趣味ではまだまだ気づいていないことが出てくるのは、自分的にはかなり楽しいです。

太陽関連も少し考えてみました。太陽望遠鏡で最も謎の部分のエタロンについてです。性能の違うエタロンでダブルスタックした場合の改善についての、定量的な評価の例です。


エタロン関係は結局アマチュアレベルでは調整などを含めてどうこうできるレベルではなく、メーカーが提供してくれた民生クラスの安価なエタロンがどこまでの性能になるかにかかっているので、ユーザーの理解もなかなか進まないのかと思います。上にも書きましたが、今年2025年のCP+で、太陽関連について話す予定で、エタロンについてできるだけ掘り下げてみようと思っています。


ブログ

ブログについては2024年はできる範囲で書きました。上にも書きましたが、本来記事化すべきことがいくつかお蔵入りになってしまったのが残念です。記事の本数ですが、1月1日から12月31日までで73本で、なんと去年の74本に1本届かないだけでした。もっと少なくなっていたと思っていましたが、意外に書いていたようです。短い記事で本数を稼いだかとも思ったのですが、今ざっと見返してみてもクドイくらいに長い記事が多いです...。ブログ記事に関してはそこまでペースが落ちなかったようです。多分、体力が落ちて外には出れなくて、時間が余った時にちょこちょこ書いていたような気がします。あと、CP+連動の記事だとか、ソンブレロ銀河の記事だとか、連続記事で本数を稼いでいたようです。でも連続記事でも一本一本が長い長い...。

毎年記事を短くするのを目標にするとか言っていますが、全然達成できていません。


まとめ

体調不良で後半はかなり制限されましたが、それでもじっとしている事に耐えられなくて、近場とか日帰りで済むのは体調に応じて活動していました。今ここで振り返ってみても、なんだかんだ言って思ったより何かしていたようです。でもそれでまた調子が悪くなってしばらく大人しくというのを、特に夏の間は繰り返していた気がします。

体調が悪くなると、外での活動どころか、画像処理とかも全くできなくなって、休日は昼間中寝ていたり、平日も休んだり、仕事を終えてかなり早く寝るとかになってしまいます。秋から冬にかけて病院で新しい薬を出してもらって、それが結構体に合っていたみたいで、体調もだいぶん良くなってきました。2025年は、あまり無理をしない範囲で、頑張って色々活動したいと思っています。


友人が撮影した北アメリカ星雲の画像を触る機会がありました。画像処理は初心者で、有料のソフトは使っていないとのことです。あらかじめ画像をダウンロードさせてもらって、事前に処理しておいて、その結果を元に時間が合う時にZoomで繋いで画面共有しながら画像処理について検討します。

私としてはいい機会だったので、普段とは違う画像処理を試しました。というわけで、今回のブログ記事のお題は「全て無料の画像処理ソフトで進めた場合、有料のものにどこまで迫れるか」としてみます。

といっても、忘備録がわりの自分のメモ用の側面が強いので、あまり初心者向けの記事にはなっていません。需要があるとしたら、普段PixInsightとか使っていて、他の無料ソフトを試してみようかとか思うような、ちょっと珍しい人向けです。


有料/無料画像処理ソフト

ダウンロードした画像を、まず最初はいつも通りPixInsightとPhotoshopで進めます。撮影されたファイルはライトファイルとダークファイルです。フラットファイル、バイアスファイルはなしです。
  1. WBPPでダーク補正とスタック
  2. ABEの4次でカブリ取り
  3. SPCCで色合わせ
  4. BXTで星を小さくし
  5. GHSでストレッチ
  6. NXTでノイズ除去
  7. StarNetで恒星と背景を分離
  8. その後Photoshopに送り、仕上げ
となります。この流れはいつものことなので、詳しい処理内容は省きます。できた画像は以下のようになります。

masterLight_60_00s_ABE_BXTc_SPCC_BXT_GHSx2_NXT3_cut

一方、無料ソフトに制限すると、最近の状況を見るに、以下の選択肢が現実的ではないかとでは思っています。
  1. ダーク補正してスタックするのにSiril
  2. 同じくSiri上で色合わせとDeconvolution
  3. GraXpertに移ってフラット化とストレッチとdenoise
  4. StarNetで恒星と背景を分離
  5. その後GIMPに移って仕上げ
できた画像は以下のとおりです。

starless_result_PCC_deconv_stretched_GraXpert_cut

鮮やかさは誤差の範囲として、恒星の大きさ、背景のノイズ、明るいところの細かい構造などが大きな違いでしょうか。淡いところの構造は、無料の方が出ているかと思います。こうやってみると、有料ソフトと比べても、全然遜色なく、十分処理できていると思います。

各ソフトの詳しい操作などは他の解説にゆずるとして、ポイントのみ書いておきます。


まずはSiril



このブログではこれまでSirilについて述べたことはほとんどないのですが、最近のSirilはかなり使えるようになっていると思います。一時期試しに少し使ったことがあるのですが、結構頻繁に落ちて不安定なイメージでした。でも今は、少なくとも落ちるようなことはまずなく、普通に処理ができます。この「普通に」というのは結構重要です。まずストレスがなくなりますし、特に初心者にとっては自分の操作がダメなのかソフトのトラブルなのかの見分けがつきにくいと思うので、普通に安定に動くというのは目立たないけどとても大切なのかと思います。

いつもはPixInsightなので、Sirilの操作に慣れてはいなくてとまどうことはありましたが、検索すると解説記事などすぐに見つかり、その通りに進めれば簡単にスタックまで終えることができると思います。気がついたことのみ書いておきます。
  • 最初にワーキングディレクトリを決めること。画面左上の家マークのアイコンを押して指定してやることでしていできます。処理画像のたびに指定してやる必要があります。
  • 指定したホームディレクトリの下に、lights、darks、flats、biasesとフォルダを作って、撮影したRAWファイルをその中に分類して入れます。フォルダ名の複数のsとか、きちんと指定しないと「ファイルがみつからない」とかのエラーになってうまく処理されません。
  • スタックをするためには、左上の「スクリプト」タブを押して、処理したいプロセスを選びます。今回はライトとダークファイルのみだったので、それに合わせたスクリプトがありませんでした。実際スクリプトを進めようとするとヘルプが出てきますが、英語なのでちょっと面倒かもしれません。とりあえず書いてあることはhttps://gitlab.com/free-astro/siril-scriptsを開いて、必要なスクリプトをダウンロードせよということです。prepcocessingを開き、今回必要なフラット補正を省いた処理(バイアス補正も無いようです)「OSC_Preprocessing_WithoutFlat.ssf」を選び、ダウンロードします。
  • 問題は、これのスクリプトファイルをどこに置くかです。Windows版は説明が普通にすぐ見つかるのですが、Mac版の場合どこに置けばいいか迷いました。結局、Sirilのメニューの設定からスクリプトタブを選び、そこに書かれているフォルダ内にダウンロードしたスクリプトを置いてやれば認識されることがわかりました。ただ、そこに書かれているフォルダがそもそも存在していないことが多いので、改めて自分でフォルダを作ってやる必要があります。
  • スクリプトが認識されたら、左上の「スクリプト」タブを押して、今回落としたプロセスを選びます。すると処理が始まり、スタックされた画像が保存されます。
Sirilは、PixInsightに比べると指定できるオプションは圧倒的に少ないですが、むしろPixInsightの設定項目は多すぎて使いこなせていない方も多いと思います。初心者ならあえて迷うことがないSirilにするというのはありだと思います。PixInsightの方が細かい設定ができるので、いつかSiriで処理結果に不満が出てきたなら、PixInsightに移行することを考えるという道を辿ったほうが迷いが少ないかもしれません。

スタックまでに関していえば、有料のPixInsightだろうがステライメージだろうが、無料のSirilだろうがもっとシンプルなDSSだろが、結果に大きな違いはあまり出ない気がします。撮影ファイルの条件によっては、色々トリッキーなオプションがあるPIが有利とかはあるかもしれませんが、そこで出てくるような差があるなら撮影条件を見直してきちんとしたRAW画像を得る方が真っ当な気がします。なので、個人的な意見としては、スタックまでは有料無料の差はそこまで無いのではないかというのが今回の感想です。

違いが出るのはスタック後のリニア処理でしょうか。そもそもリニア処理というのも元々PI用語と言ってしまっていいのかもしれません。PixInsightでは例えば色合わせは、PCC、SPCCなどと進化してきました。Sirilにも同様のPCC (Photometric Color Calibration)があり、その際に恒星の認識できちんと位置合わせもします。なのでコンセプトはどんどんPIに近くなっていると言っていいのでしょう。ただ、やはり細かい設定とか、SPCCで基準フィルターまで考慮するとかなど、PIにまだ一日の長があるかと思いました。色合わせした結果だけ見ると、PIのPCCとSPCCでもそこまで差が出ないように、Sirilでも特に不満はありません。むしろ無料でここまでできることを素直に評価すべきだと思います。

決定的に違うのはBXT(BlurXTerminatot)の存在でしょう。収差、四隅のズレ、ピンボケ、ガイド流れなど、BXT以前では鏡筒や赤道儀の制御など、ハードウェアで改善するしかなかった高度な調整を、ソフトで相当なレベルまで補正してしまいます。また、星雲本体などの細部出しにもかなり有用です。特に入門用撮影鏡筒と高性能撮影鏡筒との差をかなり縮めてくれるので、初心者にむしろ使って欲しいところなのですが、今のところBXTはPIの上でしか動かすことができず、無料ソフトでは到底太刀打ちできません。BXTが単体で動くようになればいいのですが、BXTの為だけにPIを導入するのもアリなレベルかと思います。ただしPIと合わせると値段が...。


GraXpert

次のフラット化ソフトですが、有料ソフトでも未だ決定打はないのかと思っています。光学的なフラット補正は当然するのですが、それでも不十分な場合が多くて、 淡いところを引き出し切るにはさらにソフト的にフラット化をするのが必須になっています。

PixInsightだと、ABE、DBE、GC(GradientCorrectiopn)など、選択肢はそこそこあります。単純なフラット化は何を使ってもそこそこうまくいくのですが、画面一面分子雲で埋もれているような場合には、複数のフラット化処理をしたり微調整をすることなども含めて、かなり手間です。また、PI以外では有料ソフトも含めてフラット化に関する補正はあまり開発されていなくて、昔からPhotoshopなどを利用して画像全体をぼかして大まかな勾配を作り出しそれで補正するなどの手がとられてきました。PixInsight無しできちんとフラット化しようとすると、かなり手間がかかる割に、淡いところを引き出し切るのにはまだまだ不十分な印象です。


ここで出てくる、ある意味決定打に近いものが無料のGraXpertです。


GraXpertについては以前CP+の時に解説しました。

よかったら、リンク先の動画と共に以下お読みください。

GraXpertを使うと、あまりに簡単にフラット化できてしまって、かつ設定項目が少なくて細かい調整ができないので、私は普段はあまり使わないのですが、今回比較してみてびっくりしました。PIでかなり気合を入れて調整をし無い限り、淡い部分に関してはGraXpertが圧勝です。私は基本的GraXpertのエンジンにはKrigingを使います。他も試しましたが、少し時間はかかってもこれが一番良い結果を生むことが多いです。PixInsightで今検討されている、バックグラウンドまで参照データと比較するMARS機能が出たらまたわかりませんが、もう相当レベルまでGraXpertだけで良い気がしました。これで不満が出るならPixInsigtの各ツールを駆使するのが次の手ですが、はるかに時間もかかり結果を出すのも結構大変だと思います。

ストレッチに関しても未だに決定打はないと思っていて、PixInsightではHistgramTransformation、ArcsinhStretch、MaskedStrerchなどがあり、最近はGHS (GeneralizedHyperbolicStrertch)がでてこれが決定打かと言われています。またPixInsightのユーザーが作成しているスクリプトレベルでは、iHDRという輝度差が激しい天体に適用できるものが提供されたりもしています。でも選択肢がこれだけあるということは、ある意味決定打になっていないということでもあるわけです。GHSはかなりいいですが、操作がちょっと複雑で、初心者がいきなりこれを触るとあまりうまくいかないのではないかと思います。

ステライメージはほぼデジタル現像一択ですね。こちらはある意味迷うことはほとんどないのと、全て日本語で操作できるので初心者にも優しいのかもしれません。ただ、数学的にはデジタル現像はGHSのかなり限られた条件下での変換ということが蒼月城さんによって指摘されていますし、(私はまだ使っていませんが) SirilにもGHSがあることを考えると、今の時代有料ソフトならではのストレッチ方法をもっと提案して欲しいとも思ってしまいます。

そういう意味でGraXpertのストレッチを考えてみます。選択肢はどれくらいあるかというと、大まかなところではどれくらい適用するかの「強さ」くらいしかないので、これまたとんでもなく楽です。無料である程度のストレッチが簡単にできるということは、やはり特筆すべきです。というか、GraXpertはフラット化とストレッチと、次のDenoiseが3つセットになっているようなものなので、一緒にストレッチも使わない手はありません。でもGraXpertのストレッチが決定打というわけでは全然ありません。有料、無料ソフトともに、将来もっと発展するであろう部分の一つだと思います。

ノイズ除去も無料ソフトだけだとかなり限られてしまいます。BXTに続いて有料と無料で差が出るところでしょうか。有料での決定打はNXT(Noise XTerminator)かと思います。単なるノイズ除去ソフトやプラグインはAI対応も含めて数多く存在しますが、鋭い恒星を多数含む天体画像処理に使えるものは本当に限られています。一般のものでは遠目で見ると一見ノイズが小さくなるように見えるのですが、その弊害として恒星の形が大きく崩れることが多くて、ほとんどが使い物になりません。PIでも昔ながらのノイズ除去ツールは用意されていますが、今時のAIを考慮したノイズ除去ツールに比べると、少し見劣りしてしまいます。

GraXpertのDenoiseはそんな中でも数少ない、恒星とともに使えるノイズ除去です。しかも無料です。効果はNTXと比べると多少劣る感はありますが、そこそこ十分なレベルかと思います。少なくともGraXpertを使うついでなので、無料の中での選択肢を考えると、Denoise機能を使わない手はないと思います。

ノイズ除去ですが、次の恒星と背景と分離するツール、無料の場合は「StarNet」を使うと状況が一変します。恒星を分離して背景だけにすれば、あとは恒星の崩れを気にしなくて良くなるので、一般的なノイズ除去ツールを使いたい放題になります。ただ、言うまでも無いですが、過剰なAIツールの使用や、例えクラシカルなノイズ除去ツールだとしても、過度なパラメータなどは偽の構造や線、見た目に不自然な模様などを作りかねないので、程々に使うのがいいのかと思います。


StarNet



恒星と背景を分離するツールとしては、有料がSXT(StarXTerminator)、無料だとStarNet V2があります。私はSXTは試用で使っただけです。結果だけ見るとStarNetとそこまでの差はなかったので、無料で十分だと言う判断でした。でも、SXTの方が細かいところでいい結果だという意見も結構あるようなのと、そこまで高いソフトではなくて買い切りでアップデートもできるので、最初からSXTという手もありかもしれません。ただSXTは、PixInsightからか、Photoshop、Affinity Photoからしか動かないので、動かすための環境も有料になります。

それよりも、メンテナンス環境に無料と有料の差がかなりあります。StarNetは使うのが結構面倒です。Macだとはコマンドライン版しかないので、毎回ターミナルから走らせてコマンドを打って走らせる必要用があります。PixInsightを使うと、PixInsight内からStarNetを呼び出すことができるのである意味GUIになるのですが、PixInsightの大型アップデートのたびにインストールし直しに近い状態でセットアップする必要があります。Sirilからも呼び出せるので、こちらもGUIのように扱うことができます。コマンドライン版のStarNetをきちんと設定したとに、Sirilの設定の
siril_starnet
で、StarNetの実行ファイルを設定し、Sirilの「画像処理」->「Star Processing」->「StarNet Star Removal」から実行します。

元々のStarNetは天体画像ファイルから背景のみを作り出すという機能しかありません。PixInsightを使うとそれをPixInsight側で拡張して、恒星のみの画像ファイルも同時に作ってくれます。Sirilでも恒星画像も作ってくれるオプション(Generate star mask)があるので、こちらも便利です。

一方、Windows版のStarNetにはGUI版があるようです。私はWindows版は使ったことがないのですが、GUI単体で動くので便利なようです。ただし、このGUIは背景画像は作ってくれるのですが、恒星のみの画像を作ってくれません。しかもSirilから呼び出すと、このGUI版が直接呼び出されるだけで、やはり恒星のみの画像を作ることができません。おそらくWindowsでもコマンドライン版をインストールして、それをSirilから呼び出すようにすれば、恒星のみの画像を作るオプションが出てくると思われますが、私は今回は試せていません。

と、StarNetは結構面倒だったりします。この面倒さを回避するためだけに有料のSXTを使うというので、十分元を取ることができる気がします。ただ繰り返しになりますが、呼び出す環境も有料ソフトからになるので、ある程度の出費を覚悟する必要があります。


GIMPで仕上げ

恒星と背景を分離したら、あとは最後の仕上げや微調整です。個性を出すところでもあります。

有料だと仕上げまでPixInsightでやってしまう方も一定数いるかと思いますが、それでも最後はレタッチソフトを使うという方の方がまだ多いでしょう。Sirilだけで終えることができるかどうかはまだ私は試していませんが、そういった強者もすでにいるのかと思います。

レタッチソフトの有料版は、Photoshopがメジャーで、最近Affinity Photoが天体用にも話題になっています。Affinity Photoは結構良いという評判だったので、私も少し試用してから、締め切りが近くなった半額セールに負けて買ってしまいました。

Affinity PhotoはPhotoshopと違い買い切りでアップデートまでできるので、値段的にはかなり安くなります。機能的にもPhotoshopにかなり迫ることができますが、やはりこなれ具合など、まだPhotoshopの方がいい印象です。ただ個人の慣れもあるので、値段も考えると評価としてはトントンでしょうか。

Affinity Photoの方がいいところもあります。Photoshopは画像の処理過程の履歴を永続的に残すことができなくて、処理している最中はまだ元に戻れるのですが、ファイルを一旦閉じてしまうと、それまでにやって履歴は全てクリアされてしまいます。ファイルの中に記録するような手段は調べた限りないようです。どうしても作業を残したい時はレイヤーを多数使うなど、ユーザー側で何か工夫する必要がありますが、全部を残すのは現実的でないので、履歴は基本残せないと言ってしまっていいでしょう。一方、Affinity Photoはオプションで履歴を残すことができます。わざわざオプションで指定しなくてはダメですが、それでも手段があるとないとでは大きく違います。Photoshop用のプラグインも、昔のもので使えないものもありましたが、手持ちで最新のものにアップデートしているものは全てAffinity Photoでも使えています。

すみません、この記事は無料ソフトの検証なのにちょっと脱線してしまいました。Photoshopに相当する無料ソフトはGIMP一択でしょうか。


基本的なことは問題なくできます。操作性が少し劣る印象ですが、これは慣れもあるので個人的な感想の範疇かもしれません。それでもやはり有料ものと比べると差があるという感想です。

明らかに不利なところは、ノイズ処理があまりに貧弱なことと、Photoshopのプラグインが使えないことでしょう。あと、領域選択もPhotoshopのほうがかなり高機能で、いろんな手段があります。星雲の構造を出したいとかで、選択方法が限られると少し差が出るかもしれません。

GIMPでも基本的なことはできるので、天体画像処理も凝ったことをしなければ大丈夫です。よく使う機能といえば、レベル補正、トーンカーブ、彩度調整などでしょうか。レイヤー機能もあるので、恒星と背景に分離した画像の再合成もレイヤーを使うと簡単に「リアルタイムで見ながら」調整できます。

またちょっと脱線になりますが、私が画像処理をPixInsightで閉じてしまわずにPhotoshopに持っていくのは、このレイヤー機能があるからです。例えばStarNetで分離した恒星と背景画像の合成は、PixInsightだとPixelMathなどを使いますが、その都度計算させて結果を確認する必要があり、リアルタイムで見ながら調整というのからは程遠いです。一方、PhotoshopやGIMPなど、レイヤーがあればその場で見ながらリアルタイムで調整ができます。このレイヤー機能での差がある限り、PixInsightだけで閉じて画像処理を終えることは当分ないと思います。その意味ではレイヤー機能があるGIMPも十分使えることになります。

GIMPには、Photoshopで便利なCameraRAWフィルターに相当するのがないのが痛いです。ストレッチする前のリニア処理では人によってあまり差が出ないと思うのですが、ノンリニア処理では好みを入れたりして人によって仕上がり具合も変わってくるのかと思います。そこにこのCameraRAWフィルターの各種便利な機能を使うことで、簡単に効果的に調整を効かせられるので、好みや個性を出しやすいのかと思います。便利な機能なので、その反面、簡単に客観性や一般性を失うこともあります。それでも趣味としてはやはり楽しいのが一番だと思うので、加減しながら自分の好みで仕上げるのがいいのかと思います。GIMPにはこれに相当する便利な機能はなく、基本操作の組み合わせで工夫することになり、よりテクニックが必要なので、初心者には少し辛くなるのかと思います。


Zoomでの画像処理の様子

実際のZoomでの画像処理検討会は、上のようなことを試しながら説明して進めていったのですが、今回は特にどんな点に関して注目したかを書いておこうと思います。


1. ピント関連

まずダウンロードした画像では、少しピントがずれていたために、恒星が多少大きくなってしまっていて、真ん中が少し抜けてしまっていました。これは事前画像処理で試したところ、BXTを通すことで劇的に改善したので、無料ソフトに限るとなかなか手がありません。やはり大原則は、撮影時にできるだけきちんとピントを合わせるのが大事なのかと思います。せっかくの機会なので、私がよくやっている手動でのピントの合わせ方を説明しました。といっても大したことは言ってなくて、
  1. ピントを合わせる時に、一旦恒星が最小になったところを通り抜けて、再び大きくなるまで移動すること。
  2. 最小になった位置からどれくら移動したかを、指先でタッチした感触は、つまみを触った回数を数えるなどして、量として覚えておくこと。
  3. その覚えた量の分だけ逆方向に戻ること。
  4. 最小を通り抜ける時に、最小時の恒星の大きさを覚えておいて、それと比較して大きくなっていないかを、最後合わせこむ。
などです。


2. ディザリング

ダーク補正でのホット/コールドピクセルの処理のあとが、一部黒い点になって残ってしまいました。縞ノイズはほぼ何も出ていなかったようなので、ガイドはかなりうまくいっていたようです。その一方、ディザリングをしなかったので、こういった欠損的なものを散らすことができなかったようです。ディザリングは縞ノイズや各種欠点をうまく散らしてくれる、天体写真撮影ではある意味もう必須と言っていいくらいの標準的な機能なのですが、その貢献度があまり目立たないために軽視されることがあります。ディザーがないと画像処理に際して思わぬところで困ったりして、しかも縞ノイズとか今回の欠損のように、画像処理だと補正しきれないことに繋がることが多いです。「次回以降はディザリングをした方がいい」とアドバイスしましたが、「今の赤道儀だと外部ディザー信号を入れることができなかったり、たとえ外部信号を入れれたとしても、ディザー中にガイドを止めることができない」とのことで、難しいとのことでした。


3. トーンカーブのアンカー

トーンカーブでアンカーの使い方を説明しました。背景の色バランスはグレーに保ったまま、例えば今回のHαの淡いところを出したい場合などです。
  1. トーンカーブを赤だけが調整できるようにRを選択します。
  2. トーンカーブの山のピークの左側の斜右上がりの直線上にいくつか、複数の点を打ちます。これがアンカーになります。
  3. アンカーは、入力と出力が同じになるように、ちょうど直線の上に打ちますが、ずれた場合は入出力が同じになるように数値を見ながら調整します。トーンカーブの明るいところをいじっても、背景(山のピークの左側)の明るさが変わらないように留めておくという意味で、アンカーというわけです。
  4. あとは山のピークの少し右側を持ち上げると、アンカーのおかげで背景の色バランスは変わらずに、淡い赤い部分だけを持ち上げることができます。
アンカーはトーンカーブの右側にも何点か打って、明るい部分が持ち上がりすぎて白飛びしないようにするなどしてもいいでしょう。


5. フィルターと青成分

これは使っている光害防止フィルターに依ると思うのですが、多少なりとも青成分があれば、好みによってはトーンカーブなどで青をあえて持ち上げることで、諧調豊かな北アメリカ星雲にすることもできるでしょう。ただ、今回は上で説明したアンカーを使って青を持ち上げても、見た目ほぼ何も変化がなかったので、青成分のヒストグラムを見てみましたが、山の右側より明るいところにほとんど青成分が含まれてませんでした。今回のフィルターは2波長に絞ったかなり強いものなので、「もう少し青成分を通す弱いフィルターでもいいのではないか」という提案をしました。


6. 撮影時間とノイズ

今回はマスク処理に関しては説明しませんでした。ちょっと高度なことと、私自身がSirilでうまくマスクを作る方法と、GIMPでマスクを簡単に扱う方法を、よく知らないからです。マスクに関しては次回以降の課題としました。

私が事前に有料ソフトで処理したものはマスク処理も含んでいる(PixInsightでマスクを作り、Photoshopで適用)ために、背景の淡い構造があるところのノイズを目立たなくする目的で、星雲本体にマスクをかけて、背景のみに結構強めのノイズ処理をしています。その一方、無料ソフトだけの場合はマスク処理はしていないので、背景のノイズ処理は大したことをしていません。でも両者を比べると、背景のノイズ処理はあまりしない方が自然に見えているので、無理にマスク処理とかしなかった方がよかったのかもしれません。

そう言った意味で、「淡いところのノイズを減らすためには撮影時間を伸ばすことが重要」という説明をしました。特に今回の鏡筒がFMA135ということで口径わずか3cmなので、口径を大きくすることも背景のノイズを改善することになるかと思います。


と、大きくはこれら6つのことを言ったかと思います。改善につながる余地があるところです。その他は基本的なことも含めて、すでにかなり勉強して理解していたので、検討会も順調に進み、19時半に初めて22時前くらいまでの2時間強で色々議論できたのかと思います。


まとめ

少し長くなったのでまとめます。
  • 無料ソフトに限った画像処理でも、かなり有料ソフトに迫ることができる。
  • 具体的には、スタックと色合わせまではSiril、フラット化とストレッチとノイズ除去はGraXpert、仕上げはGIMPなどが使える。
  • ただし、恒星の補正と背景の細部出しに有利なBXTは、有料ソフトであるがかなり強力で、無料ソフトの使用だけに限ってしまうと、BXTの有り無しで大きな差が出る。特に高価な機材を使う機会が限られている初心者にこそBXTを使ってもらうことで、機材や画像処理テクニックの差を縮めてもらいたい。
  • 恒星を含む天体画像専用のノイズ除去に関しては、有料の方が有利であるが、無料だとGraXpertが使える。恒星と背景を分離して背景のみに適用するなら、天体画像専用でない一般的なノイズ除去ソフトが使える。
まずは余分なお金を使わないで無料ソフトで画像処理を進めても、もう全然良い時代になっているのかと思います。最近はSirilとGraXpertがその牽引役なのでしょう。あとはBXT相当の無料版があれば...。

ここしばらくは別の記事でしたが、再び実画像のノイズ解析です。前回の記事はこちらになります。


ここまでで、画像1枚の中にある各ノイズの貢献度が定量的にわかるようになりました。


また天体部分の信号にあたる大きさも定量的に評価でき、S/Nが評価できるようになりました。


S/Nは1枚画像では評価しきれなかったので、スタック画像で評価しましたが、あくまで簡易的な評価にすぎません。簡易的という意味は、ダーク補正はフラット補正でノイズの貢献度がどうなるかをまだ評価できていないということです。

今回の記事では、ダーク補正やフラット補正で画像の中にあるノイズがどうなるかを評価し、他数枚をインテグレートしたときに信号やノイズがどうなるのかを議論してみたいと思います。


スタック(インテグレーション)

そもそも、天体写真の画像処理で言うスタック(PixInsightではインテグレーションですね)とはどういったことなのでしょうか?

基本的には以下のように、重ね合わせる枚数に応じて、信号SとノイズNで、それぞれ個別に考えることができます。
  1. 画像の天体などの「信号部分」Sに関しては、多数枚の画像同士で相関がある(コヒーレントである)ので、そのまま足し合わされるために、信号Sは枚数に比例して増えます。
  2. 画像の天体以外の「ノイズ部分」Nに関しては多数枚の画像同士で相関がない(インコヒーレントである、コヒーレンスが無い)ので、統計的には2乗和のルートで重なっていきます。例えば5枚のノイズNがあるなら、sqrt(N^2 + N^2 + N^2 + N^2 + N^2) = sqrt(5) x Nとなるので、√5倍となるわけです。
そのSとNの比(S/N、SN比、SNR (Signal to Noise ratio))を取ることで、スタックされた画像がどれくらいの質かを評価することができます。S/N等は技術用語ですが、ある特殊分野の技術単語というわけではなく、かなり一般的な単語と言っていいかと思います。

n枚の画像をスタックすると、1の信号Sのn倍と、2のノイズNの√n倍の比を取ると、
  • S/N = n/sqrt(n) = sqrt(n)
と√n倍改善されるということです。

よくある誤解で、スタックすることでノイズが小さくなるという記述を見かけることがあります。ですが上の議論からもわかるように、ノイズが小さくなっているわけではなく、実際には大きくなっています。ノイズの増加以上に信号が増えるのでS/Nがよくなるということです。また、スタックするという言葉の中には、足し合わせた輝度をスタックした枚数で割るという意味も含まれていることが多いです。S/Nが良くなった画像をスタックした枚数で割ることで1枚画像と同じ輝度にした結果、1枚画像と比較してノイズが小さい画像が得られたということです。

もちろん、こういったことをきちんと理解して「スタックすることでノイズが小さくなる」と略して言うことは全く構わないと思います。ただ、定性的にでもいいので、どういった過程でスタックが効いてくるのかは、理解していた方が得することが多いと思います。


ダーク補正

天体写真の画像処理でも一般的な「ダーク補正」。一番の目的はホットピクセルやアンプグローなど固定ノイズの除去です。ホットピクセルは、センサーがある温度の時に撮影すると、いつも決まった位置に飽和状態に近い輝度のピクセルが現れることです。ホットピクセルの数は温度とともに多くなると思われます。アンプグローはセンサーの回路の配置に依存するようです。これが温度とどう関係があるかはほとんど記述がなく、よくわかっていません。ホットピクセルやアンプグローなどは、どのような過程、どのような頻度で出るのかなど、カメラに依存するところも多くあり、私自身あまりよくわかっていないので、今回は詳しくは扱いません。いつか温度とホットピクセルの関係は実測してみたいと思います。

ダーク補正でダークノイズは「増える」:
これまたよくある誤解が、ダーク補正をするとダークノイズが小さくなると思われていることです。ここで言うダークノイズとは、ダークカレント(暗電流)がばらつくことが起因で出てくるノイズのことです。ダークカレントとは、センサーに蓋をするなどしていくら真っ暗にしても出てくる一定の電流からの信号のことで、センサーの温度によって単位時間あたりの大きさが決まります。この信号のバラツキがダークノイズとなります。最近はメーカのカメラのところにデータが掲載されているので、そこからダークカレントを読み取ることができ、これまでもその値からダークノイズを計算し、実測のダークノイズと比較して正しいかどうか検証してきました。

何が言いたいかというと、ダーク補正をするとホットピクセルは除去できるが、ダーク補正ではどうやってもダークフレームが持っているダークノイズ(ホットピクセルでないラインダムなノイズの方)は消すことができなくてむしろ必ず増えるということです。

さらにいうと、個々のダークファイルには当然読み出しノイズ(Read noise)も含まれているので、ダーク補正時に読み出しノイズも増やしてしまうことにも注意です。読み出しノイズの増加については、次回以降「バイアスノイズ」という記事で、独立して説明します。

コヒーレンス(相関)があるかないか:
ホットピクセルは、個々のダークファイルに全て(ほぼ)同じ位置、(ほぼ)同じ明るさで出てくる、輝度が飽和しかけているピクセルのことです。アンプグローもカメラが決まれば同じ位置が光ます。どのファイルにも同じように明るく出てくるので、ばらつき具合は(中間輝度を基準とすると)全て正の方向で、互いに正の相関があり ( =「相関がある」、「コヒーレンスがある」、「コヒーレント」などとも言う)、全て足し合わされます。

一方、ダークカレンと起因のダークノイズはランダムなノイズです。個々のダークファイルのある一つのピクセルに注目して、全てのファイルの同じ位置のピクセルの値を見てみると、全ファイルのそのピクセルの輝度の平均値を基準として、個々のファイルの輝度の値は正負がバラバラになります。このことを相関がない ( =「無相関」、「コヒーレンスがない」、「インコヒーレント」などとも言う)といい、それらの値を全て足し合わせると正負なのである程度打ち消しすことになります。

ノイズの数学的な定義:
個々のダークファイルの画像のある面積を考えてみましょう。その面積の中の輝度も、平均値を中心に正負がバラバラで、その大きさも「ばらつき」があります。この「ばらつき具合」がノイズそのものです。数学的には面積内の各ピクセルの値から平均値を引いて、2乗して足し合わせたものを統計用語として「分散」と呼び、そのルートを「標準偏差」と呼びます。この標準偏差をここではノイズと呼ぶことにしましょう。

ここで注意ですが、ある面積を選ぶ時にはホットピクセルやアンプグローを含めてはいけません。ホットピクセルやアンプグローは背景のダークに比べて格段に明るく、特にホットピクセルは飽和気味の場合も多いのでで、そもそもここで考えている統計に従いません。ホットピクセルやアンプグローなどの明るい固定ノイズを除いた領域でダークノイズを測定する必要があります。ちなみに、飽和気味のホットピクセルを含んで測定してしまうと、とんでもなくばらついているようなものなので、結果はノイズがとんでもなく大きく出てしまうということは、言うまでもありませんね。

ノイズの重ね合わせの直感的なイメージ:
あるダーク画像1枚のある面積のノイズがNだったとします。他のダーク画像も同様にノイズNがあるとします。このダーク画像を例えば2枚足し合わせると、個々のピクセルは正負バラバラなのである程度打ち消します。その打ち消し具合は統計的には無相関の場合は「2乗和のルート」で合わさることになります。この場合2枚なので、
  • sqrt(N^2+N^2) = √2 x N
とルート2倍になります。正負で打ち消すということで、2倍にはならずに、元から減ることもなく1倍以下にもならなくて、結局その中間くらいということは直感的にイメージできるかと思います。

負の相関について:
あと、負の相関も考えておきましょう。ある画像で特徴的な形で明るい部分があるとします。もう一枚の画像では同じ形ですが、1枚目の明るさを打ち消すようにちょうど逆の暗い輝度を持っているとします。2枚の画像を足し合わせると、正負で、しかも明るさの絶対値は同じなので、ちょうど打ち消すことができます。このようなことを互いに「負の相関がある」と言います。でも天体写真の画像処理の範疇ではあまりない現象なのかと思います。


ダーク補正の定量的な扱い:
実際の画像処理では、ダーク補正というのはライト画像からマスターダーク画像引くことです。マスターダークファイルとは、個々のダークファイルを複数枚重ねて、輝度を元と同じになるように枚数で割ったものですから、 個々のダークノイズをNとして、n枚重ねて、輝度を枚数nで割ったとすると、マスターダークファイルのダークノイズ
  • N_ masterはsqrt(n x N^2) / n = 1/√n x N
となり、元のノイズのルートn分の1になります。

各ライトフレームにも当然ダークノイズは含まれています。ダーク補正をする際に、各ライトフレームのダークノイズと、マスターダークファイルに含まれるダークノイズは、ここまでの議論から2乗和のルートで「増える」ことになります。

1枚のライトフレームのダーク補正:
個々のライトフレームがマスターダークファイルで補正されると、補正後のダークノイズは
  • sqrt(N^2+N_ master^2) = sqrt(N^2+(1/√n x N)^2) = N x sqrt(1+1/n)
となり、sqrt(1+1/n) 倍にごく僅か増えます。

ダーク補正されたライトフレームのスタック:
これらのダーク補正されたライトフレームをスタックします。スタックの際、ライトフレームに元々あったダークノイズは個々の補正されたライトフレームでランダムに(無相関に)存在するので2乗和のルートで合わさり、輝度を揃えるために最後にライトフレームの枚数で割るとします。

マスターダークファイルで足された(ルートn分の1の小さい)ダークノイズは、スタックされる際に「(同じマスターダークファイルを使い続けるために)正の相関を持っている」ことに注意です。

2枚のスタック:
  • sqrt([sqrt(N^2+N^2)]^2 + [N/sqrt(n)+N/sqrt(n)]^2) = N sqrt(sqrt(2)^2 + [(2/sqrt(n)]^2) = N sqrt(2 + (2^2)/n) 
大外のsqrtの中の、1項目が無相関で2乗和のルートで足し合わさるノイズ。2項目が正の相関を持ってそのまま足し合わさるノイズ。それぞれがさらに2乗和となり大外のsqrtでルートになるというわけです。

3枚のスタック:
  • sqrt([sqrt(N^2+N^2+N^2)]^2 + [N/sqrt(n)+N/sqrt(n)+N/sqrt(n)]^2) = N sqrt([sqrt(3)^2 + (3/sqrt(n)]^2) = N sqrt(3 + (3^2)/n)

ライトフレームの枚数をnl枚として、
nl枚をスタックすると:
  • N sqrt([sqrt(nl)^2 + (3/sqrt(nl)]^2) = N sqrt(nl + (nl ^2)/n)

スタックされたライトフレームの輝度を、1枚の時の輝度と合わせるためにnlで割ると、上の式は少し簡単になって:
  • N sqrt(nl + (nl ^2)/n) /nl = N sqrt(1/nl + 1/n)
と ライトフレームの枚数nl分の1とダークフレームの枚数n分の1の和のルートで書ける、直感的にもわかりやすい形となります。

簡単のため、個々のライトフレームの枚数と、個々のダークフレームの枚数は同じnとしてみましょう。
n枚のスタックは:
  • N sqrt([sqrt(n)^2 + (n/sqrt(n)]^2) = N sqrt(n + (n^2)/n) = N sqrt(n + n) = N sqrt(2n)

となり、結局は「1枚当たりのライトフレームのダークノイズNがn枚」と「1枚当たりのダークフレームのダークノイズNがn枚」合わさったものと同じで、√2n倍のノイズとなります。

マスターダークを考えずに、ダーク補正をまとめて考える:
これは直接「n枚のライトフレーム」と「n枚のダークフレーム」のダークノイズを全て足し合わせたものを考えることと同等で、実際に計算してみると
  • sqrt(n x N^2 + n x N^2) =  N sqrt(2n)
と、1枚1枚処理した場合と同じなります。数学的には
  1. 事前にマスターダークを作ってから個々のライトフレームに適用しても、
  2. 全てのダークノイズをライトフレーム分とダークフレーム分を一度に足しても
同じ結果になるということです。これは直感的にわかりやすい結果ですね。

重要なことは、たとえ頑張ってライトフレームと同じ枚数のダークフレームを撮影して補正しても、補正しない場合に比べてノイズは1.4倍くらい増えてしまっているということです。もっと言うと、補正しない半分の数のライトフレームで処理したものと同等のダークノイズになってしまういうことです。ホットピクセルを減らすためだけに、かなりの犠牲を伴っていますね。

枚数が違うダークフレームでの補正:
例えばある枚数のライトフレームを枚数が違うダークフレームで補正する場合を具体的に考えてみます。

例えば10枚のライトフレームと、同じ露光時間とゲインのダークフレームが10倍の100枚あるとするとします。ダークノイズ起因のS/Nはライトフレームは1/√10=0.316となり、ダークフレームでは1/√100 =1/10となります。ダーク補正したライトフレームは
  • sqrt(1/10+1/100)=sqrt(11/100)=√10/10=0.332
となり、ダーク補正する前の0.316よりほんの少し悪くなる程度に抑えることができます。同様の計算で、2倍のダークフレームだと約4分の1のノイズ増加、3倍のダークフレームがあれば約10分の1のノイズ増加に抑えられます。

では闇雲にダークフレームの数を増やせばいいかというと、それだけでは意味がなくて、他のノイズとの兼ね合いになります。画面のノイズがダークノイズで制限されていいればどの通りなのですが、例えば明るい空で撮影した場合にはノイズ全体がスカイノイズに支配されていることも多く、こんな場合にはダークフレームの枚数は少なくても、それによるノイズの増加は無視できるということです。


フラット補正

フラットフレームは一般的にライトフレームと同じゲインですが、露光時間は異なることが普通です。そのためフラット補正を真面目に計算すると、ダーク補正よりもさらに複雑になります。

ただし、ライトフレームの輝度はライトフレームの背景よりもはるかに明るいことが条件として挙げられるので、補正の際にフラットフレームの輝度を、ライトフレームの背景の輝度に合わせるように規格化する(割る)ので、ノイズに関してもその分割られて効きが小さくなると考えられます。

その比はざっくりフラットフレームの露光時間とライトフレームの露光時間の比くらいになると考えていいでしょう。最近の私の撮影ではライトフレームが300秒露光、フラットフレームが最も長くても10秒露光程度で、通常は1秒以下です。ノイズ比が30分の1以下の場合、2乗和のルートとなると1000分の1以下となるので、実際にはほとんど効いてきません。さらにフラットファイルも多数枚をスタックするので、スタックされたライトフレームと比べても、効きは十分小さく、無視できると考えてしまっていいでしょう。

ただし、暗い中でフラットフレームを作る場合はその限りではなく、ノイジーなフラットフレームで補正をすることと同義になるので、注意が必要です。ここでは、フラットフレームは十分明るい状態で撮影し、フラット補正で加わるノイズは無視できるとします。


まとめ

スタックとダーク補正でノイズがどうなるか計算してみました。理屈に特に目新しいところはないですが、式で確かめておくと後から楽になるはずです。

今回は計算だけの記事で、しかもスタックを1枚づつ追って計算しているので、無駄に長く見えるような記事になってしまいました。でもこの計算が次のバイアス補正のところで効いてきます。ちょっと前にX上で黒天リフさんがバイスについて疑問を呈していましたが、そこらへんに答えることができればと思っています。










CP+のセミナー、いかがでしたでしょうか?細かい操作も多かったので、その場では少し見にくいところなどもあったかもしれません。すでに動画配信が用意されているので、わかりにくかったところは繰り返しチェックしてみてください。

 

今回の記事は、動画配信を元に、わかりにくかったところの補足をしようと思います。


処理画像の準備

セミナーの中で話した、撮影までの状況と、SharpCapでの再ライブスタックは、これまでの記事で書かれています。







今回の記事は、セミナーで示した中でも、特に画像処理の部分について補足していきたいと思います。「なぜ」この操作をするべきなのかという意味を伝えることができればと思います。

セミナーは
  1. (23:50) 入門用にMacの「プレビュー」を使って、その場で処理
  2. (27:05) 初心者用にPhotoshopを使って、その場で処理
  3. (32:40) 中級者用に「GraXpert」とPhotoshopを使って、その場で処理
  4. (41:50) 上級者用に「PixInsight」をあらかじめ使った処理の結果を流れだけ
という内容 (括弧内の時間は配信動画での位置) でした。

使用した画像は、SharpCapで1分露光で撮影したオリオン大星雲を60枚したものです。これを、上の1と2はオートストレッチしたものをPNGフォーマットで8ビットで保存されてもの、3と4はRAW画像のfitsフォーマットで16ビットで保存されたものです。

オートストレッチで保存できるのは2種類あって
  1. 「Save with Adjustments」を選ぶ、LiveStackでのオートストレッチのみかかったもの
  2. 「Save exactlly as seen」を選ぶ、LiveStackでのオートストレッチに、さらに右パネルのオートストレッチが重ねてかけられてもの
です。今回は後者の2の保存画像を元に画像処理を始めます。いかが、SharpCapで保存されたライブスタック済み、オートストレッチ済みの初期画像です。

ここでオートストレッチについては少し注意が必要で、何度か試したのですが、ホワイトバランスや輝度が必ずしも一定にならないことがわかりました。全く同じRAWファイルをスタックした場合は同じ結果になるのですが、スタック枚数が変わったり、別のファイルをスタックしたりすると、見た目に色や明るさが変わることがあります。どうも比較的暗いファイルでこれが起こるようで、ノイズの入り具合で左右されるようです。明るさはまだ自分でヒストグラムの黄色の点線を移動することで調整できるのですが、RGBのバランスは大まかにはできますが、極端に暗い画像をストレッチするときの微妙な調整はSharpCap上ではできないようです。Photoshopでは背景と星雲本体を個別に色合わせできるのでいいのですが、WindowsのフォトやMacのプレビューでは背景も星雲本体も同じように色バランスを変えてしまいます。このことを念頭においてください。


Windowsのフォトでの簡易画像処理

まず、入門用のOSに付いている簡易なアプリを使っての画像処理です。

セミナー当日はMacとWindowsの接続が不調で、SharpCapのライブスタックとWindowsのフォトでの加工をお見せすることができませんでした。手持ちの携帯Wi-FiルーターでMacからWindowsにリモートデスクトップで接続しようとしたのですが、2.4GHzの信号が飛び交い過ぎていたようで、遅すぎで使い物になりませんでした。あらかじめテストはしていたのですが、本番でこんなに変わるとは思ってませんでした。

お詫びではないですが、Windowsのフォトについては、配信動画の代わりに、ここでパラメータと結果画面を追加しておきます。画像処理前の、SharpCapのオートストレッチで保存された画像は以下のものとします。

Stack_60frames_3600s_20_34_59_WithDisplayStretch

これをWindowsのフォトで処理します。
  1. WindowsではPNGファイルをダブルクリックすると、フォトが立ち上がります。画像処理をするには、上部真ん中にあるアイコン群のうち、左端の「画像の編集」アイコンをクリックします。
  2. 上部に出てくるメニューの「調整」を押します。
  3. フォトの弱点は、背景を暗くするのがしにくいことでしょうか。今回は「コントラスト」を右に寄せることで背景を暗くします。
  4. 星雲中心部が明るくなりすぎてます。トラペジウムを残したいので「強調表示」を左にして明るい部分を暗くします。
  5. 色バランスは「暖かさ」と「濃淡」で整えます。「暖かさ」左に寄せて青を出し。「濃淡」を右に移動しバランスを整えます。
  6. 「彩度」をあげて、鮮やかにします。
setting

画面が暗い場合は「露出」を少し上げるといいかもしれません。「明るさ」は変化が大きすぎるので使いにくいです。

上のパラメータを適用すると、結果は以下のようになります。
photo

たったこれだけの画像処理でも、見栄えは大きく変わることがわかると思います。


Macのプレビューでの簡易画像処理

Macのプレビューでの画像処理過程はセミナー中に見せることができました。でも今動画を見直していたら、どうも本来処理すべき初期画像を間違えていたようです。

Windowsとの接続がうまくいかなくて、内心かなり焦っていたようで、本来は上のフォトで示した初期画像にすべきだったのですが、間違えて出してしまったのがすでに加工済みの下の画像で、これを元に画像処理を進めてしまいました。焦っていたとはいえ、これは完全に私のミスです。本当に申し訳ありませんでした。
Stack_60frames_3600s_20_34_59_WithDisplayStretch 2

ここでは、改めて本来加工するはずの下の画像で進めようと思います。フォトで使ったものと同じものです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch

最終的なパラメータはこれくらいでしょうか。一つづつ説明してきます。
setting
  1. オートストレッチで星雲本体を炙り出た状態だと、星雲中心部が明るくなりすぎます。トラペジウムを残したいので「ハイライト」を下げます。
  2. 背景が明るすぎるので、上のヒストグラムの左のマークを右に動かします。星雲本体を炙り出すために、真ん中のマークを左に少し寄せます。これは後のPhotoshopの「レベル補正」に相当します。
  3. 色バランスは「色温度」と「色合い」で揃えるしかないようです。「色濃度」は左に動かすと青っぽくなります。「色合い」は右に動かすとバランスが整います。最後は画面を見ながら微調整します。
  4. 「シャープネス」を右に寄せると、細部を少し出すことができますが、今回はノイズがより目立ってしまうので、ほとんどいじっていません。

結果は以下のようになりました。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
これをみると、セミナー本番中にプレビューで処理を開始したものとよく似ているかと思います。要するに、練習でプレビューで処理をしたものを間違えて開いてしまったと言うわけです。こんなことも気づかないとは、やはりその時はかなり焦っていたんですね。それでも次のPhotoshopの処理はそれに気づいて、SharpCapから直接保存されたものを処理に使っています。


Windowsのフォトも、Macのプレビューも、いじることができるパラメータはそう多くはないので、解はある程度一意に決まります。むしろパラメータは画像処理を始めるときの初期のホワイトバランスと、初期の背景の明るさに依りますでしょうか?これはSharpCapの保存時に決まるのですが、保存時に細かい調整ができないのが問題です。それでも、方針さえしっかりしていれば、パラメータに関してはここら辺しかありえないというのがわかるかと思います。繰り返して試してみるといいかと思います。


Photoshopを使った画像処理

次はPhotoshopです。こちらはできることが一気に増えるので、パラメータ決定の際に迷うかもしれません。それでも方針をしっかり立てることで、かなり絞り込むことができるはずです。

初期画像は上と同じもので、SharpCapでストレッチされたPNGファイルです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
  1. (27:10) まず、背景の色バランスの調整です。これはPhotoshopのメニューから「イメージ」「色調補正」「レベル補正」を使うと楽でしょう。RGBの各色をそれぞれ個別に調整して、まずは各色の山のピーク位置と、各色の山の幅を調整します。調整の様子は動画で確認してみてください。山の位置が揃うと、背景の色バランスがとれたことになります。
  2. (27:40) 次に動画では、同じ「レベル補正」を使って背景を暗くしています。左の三角を少し右に移動します。暗くしすぎると、後から分子雲が出にくくなるので、これはもしかしたら必要無かったかもしれません。
  3. (27:55) 次に、青を少し強調します。一般的に星雲本体の青は出にくかったりします。特に今回は光害防止フィルターでQBP IIIを使っているので、そのまま処理すると、赤でのっぺりした星雲になりがちです。「イメージ」「色調補正」「トーンカーブ」と行って、「ブルー」を選び、ここは慎重に真ん中ら辺を少しだけ上げます。トーンカーブは左の方が暗い背景に相当し、真ん中ら辺が星雲の淡いところ、右が星雲の明るいところや、恒星に相当します。
  4. ただし真ん中を上げると、せっかくバランスをとった背景も青くなってしまうので、トーンカーブの線上の左の方をクリックしてアンカーを打ち、暗い背景部分があまり変わらないようにします。アンカーの部分だけが動かなくなるので、アンカーの右の方の線を動かすと、アンカーの左側も変わってしまって背景のバランスが崩れることがあります。そんな時は、左の方にアンカーを複数打って、背景バランスが崩れないようにしてください。
  5. (28:20) 少し地味なので、彩度を上げて各色の諧調が豊かな、見栄えがする画像にします。「イメージ」「色調補正」「自然な彩度」と選びます。その中に2つ触れるパラメータがありますが、「彩度」の方はかなり大きく変わってしまうので、私は「自然な彩度」の方を触ることが多いです。
  6. 補足ですが、色を出そうとしてよくあることなのですが、彩度を単体であげるとくすんだような俗にいう「眠い」画像になります。そんな時はまずは輝度を上げるようにしてください。輝度に関しては、画面に集中してしまうと、暗い状態でもいいと思ってしまうことがよくあります。一度ネットなどで自分が一番いいと思う画像をブラウザ上で見て、そのすぐ横に今編集している画像を並べてみてください。思ったより明るさも色も出ていないことに気づくかもしれません。客観的になるのは難しいですよね。並べて比べながら、まずは一番いいと思う画像くらいになるように明るさや彩度を出してみるのがいいのかと思います。
  7. (28:40) Photoshopで便利な機能が、「フィルター」の中の「CameraRawフィルター」です。まずは「ライト」の中の「ハイライト」を下げることでトラペジウムを守ってやります。
  8. (29:10) 次に、背景に含まれる分子雲を引き出すために「ブラック」を右に振り、「シャドウ」を左に振ります。ブラックとシャドウはよく似ていますが、逆にブラックを左にシャドウを右に振ってやると、似て非なるものだとわかるでしょう。この分子雲の炙り出しは、「効果」の「明瞭度」も効き目があります。セミナーでは説明しませんでしたが、「コントラスト」も同じような効果がありますが、こちらは強すぎる感があるので、使うとしても微妙に調整します。
  9. セミナーでは説明しませんでしたが、細部は「効果」の「テクスチャ」である程度出すことができます。同時に背景のノイズや不自然な大きな構造も出すことになるので、かけすぎには注意が必要です。
  10. (29:35) ここまで分子雲をかなりあぶり出してきたことになるので、かなりノイズが目立っていると思います。Photoshopでも簡単なノイズ処理ができます。その一つが「CameraRawフィルター」の「ディテール」の「ノイズ軽減」です。ノイズの具合に応じて、50とか、最大の100とかに振ってやります。同時に「カラーノイズ」も除去してしまいましょう。カラーノイズは画像を拡大すると、RGBの細かい色違いのノイズがあるのがわかると思います。拡大しながらカラーノイズが除去されるのを確認してみるといいかと思います。
  11. (30:45) ノイズを除去すると、どうしても細部が鈍ってしまいます。これは同じところの「シャープ」を上げてある程度回避できますが、完全に戻すことはPhotoshop単体ではできないかと思います。ノイズ処理に関してはここら辺がPhotoshopの限界でしょうか。
  12. (31:15) 最後に仕上げで再びトーンカーブをいじっています。ここら辺は好みでいいと思いますが、今回はまだ青が足りないのでBのを少し上げました。派手さは赤色で決まるので、Rも少し上げます。緑は自然さを調整します。赤とか青が強くて、全体に紫っぽくて人工的な気がする場合は、Gをトーンカーブで気持ち上げると自然に見えたりします。セミナーでは説明しませんでしたが、必要ならばトーンカーブの右側にも適時アンカーを打って、明るい部分が明るすぎにならないようにします。特にせっかく撮影時に残ったトラペジウムを、明るくしすぎて消さないようにします。
Photoshop

こんなところで完成としましたが、いずれにせよここでは、背景と星雲本体を個別に色バランスをとりつつ、背景を炙り出し、コントラストを上げることが重要です。背景はそもそも暗いためにノイズが多く、分子雲を炙り出すとどうしてもノイズが目立つようになるので、何らかのノイズ処理が必要になってきます。

WindowsのフォトやMacのプレビューだけで処理したものと比べると、背景と本体のバランスがとれていて、それらしい画像になってきたのかと思います。


GraXpert

ただし、Photoshopでの処理だけだと、背景の分子雲はまだあまり見えていないですね。この淡いところを出すにはどうしたらいいでしょうか?基本は、星雲本体と背景の輝度差をなくすことです。特に、画面全体に広がるような大きな構造(「空間周波数が低い」などと言います)での輝度差をなくすことが重要です。ここでは「GraXpert」という無料のアプリを使います。WindowsにもMacにも対応しています。

GraXpertは操作がそれほど多くないので複雑ではないのですが、少しクセがあります。

1. (32:35) GraXpertにストレッチ機能があるので、今回はすでにストレッチされたPNGではなく、暗いままのRAWフォーマットのFITSファイルを使いましょう。ストレッチされてない画像なので。最初にGraXpertの「1」の「Load Image」で開くとこんなふうに真っ暗に見えるかと思います。
Stack_16bits_60frames_3600s_20_21_42_fits_nostretch

2. (33:05) GraXpertの「2」の「Stretch Options」で何か選ぶと、明るい画像になるかと思います。ここでは見やすくするために「30% Bg」を選びます。

3. (33:15) 画像の周りに黒いスジなどある場合はフラット化がうまくいきません。ライブスタックの時にディザリングなどで少しづつ画像がずれていくと、黒い筋になったりするので、まずはそれを左メニュー一番上の「Crop」の横の「+」を押して、出てきた「Crop mode on/off」を押します。黒い筋を省くように選択して、クロップして取り除きます。クロップ機能がGraXpertにあるのは、画像周辺の情報の欠落に敏感だからなのでしょうね。実際の取り除きの様子は配信動画を参考にしてください。

4. 「Saturation」は彩度のことなので、少し上げておくと後から彩度を出すのが楽になるかもしれません。今回は1.5を選びました。

5. (33:48) 「3」の「Points per row」と「Grid Tolerance」は画像によって適時調整してください。「Create Grid」を押します。目安は星雲本体が黄色の枠で選択されないくらいです。ここであまり神経質にならなくてもいいのがGraXpertのいいところでしょうか。

6. (34:00) 「Interporation Method」ですが、これは4種類ありますが、各自試してみてください。場合によって適不適があります。私はKriging>RBF>AI>Splineくらいの印象でしょうか?セミナーでは時間のかからないRBFを選びました。Methodによっては差が出る場合もありますが、ほとんど差が出ない場合もあります。

7. (34:25) しばらく待って結果が出たら、画面真ん中上の「Processed」と「Original」で比較してみるといいでしょう。その差が「Background」で見ることができます。
bg
こうやってみると、左が緑に寄っていて、右が赤に寄っていたことがわかります。

8. (35:28)できた画像をこのまま保存すると、ストレッチがかかりすぎているので、「Stretch Options」で「10% Bg」程度を再度選びます。その後「5」の「Saving」で「16bit TIFF」を選択し、「Save Stretched & Processed」を押して、ファイルを保存します。

TIFFファイルはサイズが大きくなるので、ここではTIFFファイルをjpgに変換したものを表示しておきます。
Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert

9. (36:14) 保存されたTIFFファイルをPhotoshopで開き、あとは上でPhotoshopで処理したものとほぼ同様に進めます。

10. (36:20) 今回の場合、ヒストグラムで全ての山がそろっています。GraXpertで背景のホワイトバランスも合わせてくれています。

11. (36:28) 背景が暗いのですが、中心部は明るいので、Camera RAWフィルターで、ハイライトを下げ、黒レベルを上げ、さらに露光を少し上げると、背景の分子雲がPhotoshop単体で出したものよりも、すでに黙々しているのがわかります。これがGraXpertのフラット化の効果です。

12. (37:17) あとは同様にトーンカーブで青を少し出します。

13. (37:35) GraXpertのフラット化の弊害として、色が出にくいというのがあります。彩度を少し強調するといいでしょう。

14. (38:15) Camera RAWフィルターの「ディテール」の「ノイズ軽減」でノイズが目立ちにくくなります。ここまでの完成画像を示します。

Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert_final

明らかにPhotoshop単体より、GraXpertでフラット化することにより、背景の分子雲が出たのかと思います。

よりあぶり出せたのはいいのですが、その分ノイズが目立つと思います。そのため、動画では (40:13)あたりで DeNoise AIを紹介しています。これはAIを利用したノイズ除去ツールで、非常に強力なのですが、恒星の処理が苦手で、星が崩れたりしてしまいます。今回は中心が抜けたような星になってしまいました。

これは次に話すように、星と背景を分離するなどして、背景のみに実行することでうまく使うことができますが、ここまで来ると今回の範囲を超えてくるので、参考までにノイズツールはこのようなものもあるということだけ認識しておいてください。


PixInsight

セミナーでは最後にPixInsightでの処理を紹介しましたが、これは今回の目的の範囲を超えていると思いますので、参考程度に処理したものを順に示すだけにしました。なのでここでも詳細な解説は控えておきます。というか、これを解説し出すとこの一記事では到底収まりきりません。

ポイントは
  1. (42:40) BlurXTerminatorで収差を改善し星を小さくシャープにすること
  2. (44:47) 星と背景を分離すること
でしょうか。これらはPhotoshopでの処理とは全く異なり、天体画像処理専用ソフトの強いところです。最初からここまで手を出す必要は全くないと思いますが、いつか自分の処理が不満になった時に、こんな手法もあるということくらいを頭の片隅に入れておけばいいでしょう。


比較

最後に、今回それぞれで画像処理をした
  1. Macのプレビュー
  2. Photoshotp
  3. Graxpert
  4. PixInsight
の4枚を並べて比べてみます。左上からZの字を書くように、上の1、2、3、4と配置しています。

all

Macのプレビューだと、背景と星雲本体を別々に色合わせできなかったことがよくわかります。Photoshopになると、色がある程度バランスよくなっています。分子雲のモクモクはGraXpertが一番出ているでしょうか?

セミナー当日見せるのを忘れてしまいましたが、同じ4枚を拡大したものも比較してみます。
all_magnified

Macのプレビューはノイズ処理がないので、やはりノイジーです。拡大すると、PhotoshopのみとGraXpertが入った時の違いもよくわかります。モクモクのあぶり出しと同時に、細部もでています。それでも細部はPixInsightがBXTのおかげで圧倒的でしょうか。

セミナーの最後でも言いましたが、4枚目でも情報を引き出し切ったかというと、かなりいいところまで入っていると思いますが、まだ少し余地が残っていると思います。マスクを使ったりすることで、ノイズ処理やあぶり出しをもう少し改善することはできるかと思います。


まとめ

さて、今回のセミナーと合わせての一連のブログ記事いかがだったでしょうか?電視観望から始まり、撮影に発展し、画像処理までを解説してきました。セミナー本番は少し詰め込みすぎたかもしれませんが、後の配信を前提に動作を示すことを中心としたので、よろしければ動画を繰り返し見ながら確認して頂ければと思います。皆さんの画像処理の何かのヒントになるのなら、今回のセミナーを引き受けた甲斐が十分にあるというものです。

画像処理はとても奥深いところがあり、今回示したBlurXterminatorもそうですが、まだまだ今後ソフトや技術も進化していくはずです。大切なことは、ここまで説明したことの繰り返しになるかもしれませんが、闇雲に処理を進めるのではなく、何が問題で、どうすれば解決するかの方針を立てて、手持ちの技術で実際に進めていくことかと思います。画像処理といっても、いわゆる普通の問題解決プロセスと同じですね。

今回色々な手法を示しましたが、これが唯一の方法だなんてことは口が裂けても言えませんし、正しい方法かどうかもわかりません。あくまで一例で、他の方法もそれぞれ皆さんで、試行錯誤もあるかと思いますが、いろいろ編み出して頂ければと思います。











このページのトップヘ