ほしぞloveログ

天体観測始めました。

タグ:SWAgTi

最近ずっと太陽の記事ばかりですが、夜の撮影も多少進めています。試したのは3月21日と23日で、SWAgTiでモンキー星雲を撮影してみました。


春霞がひどい

3月21日はひどい春霞でした。黄砂も来ていたらしいです。雲は見えないのに星も見えないという、訳のわからない日でした。明るい星がかろうじて数個見えるくらいです。しかも家の中にいても風がビュービュー吹く音が聞こえるほど強くて、決して撮影に適した日とはは言えませんでした。でも久しぶりの晴れだったので、とにかく何か撮ってみようと試してみたというわけです。

IMG_1076


機材は簡単に、RedCat51 + Uranus-C Pro + CBP+ SWAgTiです。CBPはあまり強くないフィルターですが、モンキー星雲なら電視観望で数秒露光でも普通は何か見えます。でもこの日はPCの画面で見ても限りなく淡です。結局この日は3分露光で66枚撮影しましたが、後から見たら風のせいでブレブレで、使えそうなものは約半分の32枚でした。しかも、過去が画像のモンキー星雲のRAWファイルと比べても淡いです。

気を取り直して2日後の3月23日、撮り増しすることにしました。というか、21日の画像が淡すぎたので、できれば一から撮り直したいと思っていました。でもこの日も霞がすごかったです。黄砂予報は少し緩和されたので多少マシかと思っていましたが、後で比べたら結局同じくらいの淡さでした。もしかしたら何か機器の方に問題があるかと思ったくらいです。ちなみに、23日にはε130Dでばら星雲も撮影していますが、こちらはまだ明るい機材のせいか、多少マシなようです。それでも普通から考えたらかなり淡かったです。2つの機器で淡いので、やはりこれは機材のせいではなく、単に春霞がひどいのでしょう。

天体撮影では天気だけはどうしようもないので、この23日もそのまま撮影を続行し、71枚撮って56枚を使うことにしました。21日の画像を比べてもほとんど変わりないくらい淡かったのと、すでに7時間撮影していて、使わないファイルを除いても4時間半分くらいあること、その後の天気があまり良くなかったので、もう諦めて画像処理に進むことにしました。


画像処理

撮影後の画像処理はすぐに始めたのですが、MGCでストップしてしまいました。フィルターにCBPを使っているのである意味ナローバンド撮影といっていいのでしょうか、MGCを適用すると補正画像がこんなふうになってしまいます。

integration_ABE_MGC_gradient_model

これだと肝心のモンキー星雲本体が大きく補正されて、かなり暗くなってしまいます。この時はSPCCやSPFCのフィルターをありあわせのもので適当に済ませてしまっていたので、これを直せばなんとかなるかと思い、この時点でしばらくお蔵入りになってしまっていました。

先週末までで太陽のブログ記事を書くのもすこし落ち着いたので、モンキー星雲の画像処理を再開しました。やったことはSPCC用のCBPと、Uranuns-Cのフィルターを作ることです。CBPはだいこもんさんが作ってくれたものを使い、Uranus-C用のIMX585のカラーレスポンスは以前作っていたので、グラフを読み取るとかの手間はなく、ただ単にCBPとIMX585のフィルター情報をFilterManager上で重ね合わせるだけでした。


MGCのバージョンアップ

でも結局フィルターを正しくしてもMGCの補正はほとんど変わりませんでした。MGCはちょうど3月21日ににバージョンアップしていて、MARS DR1 Database Version 1.1が使えるようになっています。


このバージョンアップはかなりの進化で、オリオン領域の露光時間を10倍くらいにしたとか、これまでのHαに加えてOIIIに対応したというアナウンスがされていてAOO画像に対応、さらにSIIもRを代用すればなんとかなるかもということです。

それならばCBPでも対応できるのかと思っていたのですが、フィルターをCBP+IMX585にしても、MGCでナローバンドを設定しても、結局はだめでした。ナローバンドの設定は、例えばBをOIIIにすると青の補正が全くされないとかです。補正するのところをナローに変えると補正されなくなるようなので、例えばRをHα、GをOIII、BをOIIIとかにすると、補正画像側の星雲本体部分が真っ暗で、暗い黒で補正するので星雲本体が明るくボケボケになってしまうような状況でした。

まだ探りきれていないのかもしれませんが、ナローバンド、特に今回のようなワンショットナローバンド画像は、もう少しこなれるのを待っていた方がいいのかと思います。

MGCでの補正はあきらめ、あとは普通通り処理しました。

(2025/4.29: 追記) MGCで星雲本体が補正される問題は、結局Gradient Scaleが小さすぎたことでした。以前勾玉星雲の時にGradient Scaleの値を探っています。ε130Dの迷光の跡を消そうとしてGradient Scaleを小さくして、そのときは256が一番結果が良かったので、そのまま鵜呑みをしてモンキー星雲にも256を使っていました。今回のような大きな星雲が真ん中にドンとあるときは、Gradient Scaleを小さくするのは過補正になる可能性があるということです。実際、Gradient Scaleを1024にすると補正画像からモンキー星雲本体の形が完全に消え、1段階小さい768だともう星雲本体が補正されてしまいます。元々のMGCの目的から考えると、大きな構造を補正する目的なので、細かすぎる補正は目的にそぐわないといっても良いのかと思います。臨機応変に対応しなければと、改めて反省しました。(追記終り)

あ、そういえば今回はセンサー面の埃が目立っていて、星雲本体の上に大きな丸が乗っかってしまっていました。
IMG_1075

なのでお気楽撮影という方針には反するのですが、フラット撮影して補正するという手間をかけてしまいました。といっても、自宅で明るい昼間に部屋の中の白い壁を写すだけなので、まあ大した手間ではありません。フラットはフラットダークを撮らないと色々面倒なことが起こる可能性が高いので、フラットダークも撮影しています。フラットもフラットダークも1枚あたり30ミリ秒秒とかなので、大した時間はかかりません。その一方、ダークファイルは撮影に時間がかかるので、今回もダーク補正は無しです。ここら辺はSWAgTiのお気楽撮影を守りたいと思っています。


結果は...

さて、結果です。

「NGC2174:モンキー星雲」
Image15_DBE_cut
  • 撮影日: 2025321203分-225620253231946分-2324
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: William Optics RedCat51(f250mm、F4.9)
  • フィルター: なし
  • 赤道儀: SWAgTi (SWAT-350V-spec Premium + AZ-GTi)
  • カメラ: Player One Uranus-C Pro(-10℃)
  • ガイド: なし
  • 撮影: NINA、Gain 120、露光時間3分 x 88枚 = 264分 = 4時間24
  • Dark: なし、Flat, Flatdark: Gain 220, 露光時間0.03秒x128枚
  • 画像処理: PixInsight、Photoshop CC

星雲本体の色は出ていますが、まわりの分子雲みたいなのは皆無です。と思って調べたのですが、モンキー星雲の周りってあまり分子運ないみたいなんですよね。その代わりに、モンキーの右下に青い丸ポチがある画像をいくつか見つけました。この青丸、出てる画像と出てないな画像に分かれるみたいです。出ている画像はRGBで、出ていない画像はナローでした。そう言った目で見てみると、ごくわずかですが青っぽい色が出ています。これは比較的弱いCBPを使ったからかと思います。特にCBPは青色領域を結構通すので、色が自然に近くなり処理がしやすく、私は結構好んで使っています。でもいつか、本当のBで撮影したいと思ったのですが、もう季節は過ぎてしまったので、来シーズンの課題とします。

恒例のアノテーションです。結構斜めになってしまっています。玄関に置いてあるのを出してそのまま撮影するので、あまり真面目にセットしていないのがこんなところからもわかってしまいます。
Image01_Annotated


過去画像との比較

比較のために、
以前撮影したモンキー星雲を再掲載します。6年前の2019年1月にFS-60QにEOS 6Dで撮影しています。約2年後の2020年12月にDeNoise AIが出た頃に、一度再処理しています。

light_BINNING_1_integration_DBE_PCC_HSVRepair_AS_all4_cut

色に関しては星雲も恒星も含めて今回の方が階調も出ているのでまだいいのですが、恒星の分解能はそれほど変わらず、星雲の分解能は以前よりも劣っていると言っていいでしょうか。これではベスト更新と言っていいのかどうか?

原因ははっきりとしていて、春霞で暗くてボケボケ、むしろよくここまで出たと言ってもいいくらいです。この撮影を通して思ったことは、やはり条件の悪い時は無理してももうどうしようもないと。その一方、機材や技術の進化で、昔の条件のいい時に撮ったものと、今の条件の悪い時に時に撮ったものが、まあ同じくらいの土俵に上がるので、実際にいろいろ進歩はしているはずです。


まとめ

北陸の晴れは貴重なので、春霞の中で無理をしてモンキー星雲を撮影しました。やっぱり晴れというだけではダメですね。私は機材とか画像処理とかに進歩があって、その結果を撮影して確認したいクチなので、ベスト更新ができないとかなり凹むこともわかりました。これからもう少し条件が良くなっていくと思うので、また別天体で今後梅雨までの期間を期待したいと思います。

でも、昼間の太陽撮影と夜の天体撮影はかなりきついです。まず、睡眠時間がとれません。撮影の日はやはり遅くまで起きてますし、太陽は朝の方が条件が良さそうなので早く起きます。昼寝とかすればいいのですが、太陽の画像処理は早めにやりたいし、その合間で夜の撮影の方の画像処理も進めます。さらにブログ記事まで書きたいので、流石にちょっと大変です。

性格的にやりたいことがあると延々と作業してしまうので、意識的に他のことをしないとダメみたいです。まだバラ星雲、M101、猫の手星雲、獅子座の銀河あたりの画像処理が残ってます。太陽も土日で大量に撮影とテストをしたので、まとめが全然追いついてません。ちょっとペースを落とした方がいいのかもしれません。


SWAT + AZ-GTi = SWgTi (スワッティ, gは発音せず)の開発の過程のまとめです。


SWAgTi始動

アイデアが出てから、実際の撮影に至るまでです。ディザーに挑戦しましたが、この時はまだ成功しませんでした。







番外編

プレートソルブなど、SWAgTiに付随する機能のテストです。







開発第2期

2023年の初期開発からおよそ1年経って、やっとディザー撮影に成功し、縞ノイズの回避に成功しました。しかも、オートガイドなしという手軽さは保っています。








SWAgTiの撮影例

オートガイドなしでも十分精度が出るSWAgTiの気軽な特徴を活かし、撮影が進みます。










星まつりでのデモ

Unitecさんのご好意で、星まつりで紹介させていただきました。







2024年12月2日、前回のM31 アンドロメダ銀河に続いて、同じくSWAgTiを使ってM45 プレアデス星団 (すばる) を自宅で撮影しました。画像処理もサクサク進んだので、早速記事にしておきます。

これまでM45に関しては二度撮影しています。前回は4年前の2020年で、TSA120での撮影になります。


masterLight_integration_DBE1_PCC_HSV_AS_PIP_all6_cut

この時は2週に続けて撮影しましたが、1週目はFC-76で、多分結露か何かでおかしな画像になり、2週目にリベンジしたのですが、今思い出すと画像処理に疲れて途中で投げ出したような気がします。これは今の技術ならもっとよく出るのかと思います。

一度目は更に4年前の2016年11月に、牛岳での撮影です。前回の記事でM31も4年周期で撮影と書きましたが、M45も全く同じく4年周期ということになります。特に狙っていたわけではないのですが、それもそのはずで、2016年11月はM31もM45も同じ日に2対象で撮影しています。この時初めてオートガイド撮影が成功して喜んでいた覚えがありますが、回り回って今回はSWAgTiでガイド無し撮影になったので、進化なんだか退化なんだか...。まあ、研ぎ澄まされた退化とでもしておきましょうか。

と思って過去記事を調べていたら実は更に前に一度、これも2016年11月ですが、上の撮影より一週前にM31とM45を同じ日に2対象で撮影しています。


M45up

まだノータッチガイド(死語)で露光時間も伸ばせなかったことですが、画像処理に初めて有料ソフトしてステライメージを使ったので、私の中では本格DSO撮影の最も初期にあたります。

M31とM45は今後の撮影技術の進化の指標ともなるいい選択なのかと思います。前回までは私としては珍しく牛岳、数河高原と、自宅でない暗い環境での撮影です。今回は自宅なのではるかに光害の多いはずです。しかも前回のM31の撮影では使っていたUV/IRカットフィルターも外して、完全ノーフィルターです。すばるの青い淡いところが、この厳しい環境でどこまで出るのか?挑戦のしがいがあります。

といっても、以前半分遊びで企画したSCA260の拡大撮影で、自宅でM45を撮影しています。F5でそこそこ青も出ることは確証を得ているので、同じF5鏡筒のRedCat51でも同じくらいは出るのではないかと期待しています。



Image06_PCC3_cut


SWAgTiでの撮影

長い振り返りになってしまいました。とにかくポイントは、自宅で青い星雲がどこまで出るかの挑戦です。

北陸の天気はもう冬型になっていて、晴れの日はとても貴重です。月曜でしたが、天気予報ではほぼ一晩中晴れ。このチャンスを逃す手はないのですが、問題はかなりの強風だったことです。撮影開始時はまだましでしたが、夜中寝ている頃に風の音で何度が起きるくらいだったので、相当な強風だったと思います。撮影後の画像を見ても、基本的に星像は小さくなく、一方向にぶれている画像もたくさんあり、あからさまな雲を除くと、143枚中16枚撮影をブレで落としています。その16枚も結構甘く見積ったので、もう少し落とすべきだったかもしれませんが、今回星像はあきらめてBXTの力に期待することにしました。

機材は
  • SWAT350 V-Spec Premium + AZ-ZTiのSWAgTi。
  • 三脚はGitzo GT3840Cをシステマティック化したもの。
  • 鏡筒はRedCat51。
  • カメラはM45がちょうど入る画角ということで前回交換したASI204MC Proから今回はUranus-C Proにまた戻しています。ゲインはHCGがオンになる220としました。オフセットは定番の40です。露光時間は3分としました。
  • 極軸調整用にUnitecの極軸微動ユニット2を三脚とSWAgTiの間に挟んでいます。SharpCapの極軸調整機能とこの極軸微動ユニット2で簡単に極軸を取ることができます。
  • ハロなどを避けるために、今回はUV/IRカットも含めて、フィルター無しです。

撮影ソフトと手順は、
  1. 極軸調整とピント合わせ、カメラ回転角調整にSharpCapを使います。極軸調整はガイド鏡がないので、主鏡とメインカメラをそのまま使ってしまいますが、特に問題はありません。
  2. AZ-GTiの操作としてPCにインストールしたSynScan ProをWi-FiでAZ-GTi接続。初期アラインメントと、SynScan ProのSynMatrix AutoAlign機能を使いプレートソルブまでしてしまいます。プレードソルブが終われば、SynScan Proで初期導入まで済ませます。
  3. ここでSharpCapからNINAに切り替えて、カメラを接続し冷却開始。オートガイド無しでディザーのみ使うために、ガイドソフトとして「Direct Guider」を選択します。
  4. NINAのシーケンサーで露光時間や枚数などを設定後、撮影開始とともに、自動追尾をSynScan Pro (恒星追尾をオフにする) からSWAT (追尾モードを「DEC」から「STAR」に切り替える) に移し替えます。
  5. 最終的な画角をSynScan ProやNINAの望遠鏡の矢印ボタンなどで微調整します。
  6. 露光を開始します。

12月で新月期なので夜が長いです。天文薄明終了から開始までの撮影は11時間7分も取れるとのことでしたが、カメラ交換などで戸惑って撮影開始は19時56分だったので、2時間くらいロスしています。終わりも途中から雲が出てきて、午前3時38分までの画像が使えました。雲を除くと、合計で143枚撮影し、127枚使ったので、採択率は89.9%でした。除いた16枚は全て強風でのブレです。


SWAgTiでの子午線反転

今回の撮影は長時間に渡ったので、SWAgTiにとってはある特殊なことが必要でした。そうです、子午線反転です。なぜこれが特殊になるかというと、SWAgTiでは恒星追尾を精度の良いSWATに任せるために、AZ-GTiでの追尾を止めて撮影します。そのため、AZ-GTは自分ではもう追尾をしていないと思い込んでいるわけです。

この状態でもNINAとは「望遠鏡」として接続されていて、NINAからAZ-GTiに信号を送り赤経、赤緯とも動かすことはできます。でも天体が子午線近くになり、そのまま子午線反転してしまうと、AZ-GTiは撮影開始位置に留まっていると勘違いしているので、全然明後日の方向に向かって導入してしまうというわけです。

実際に試してみました。
  1. M45が子午線近くに達したので、撮影のための露光をストップします。その後、試しにSynScan ProでM45を導入してみました。
  2. AZ-GTiで自動導入すると、対象まであとどれくらいの角度があるかが表示されます。子午線反転にあたるので、自動導入直後は本来180度くらいずれていると表示されるはずです。でも表示されたずれは50度くらい。これは20時頃に撮影を開始した位置からAZ-GTiが動いていないと思っているため、正しい値と思われます。(実際にはさらに180度ズレるはずですが、どうも180度以上になると180度を引いた値が表示されていると思われますが、ちょっと不明です。)
  3. その結果、鏡筒は明後日の方向を向きます。同時に、SynScan Proの恒星追尾が自動的にオンになってしまいますが、これは仕様のようです。その結果、SWATの自動追尾と二重で追尾することになるので、星がずれていきます。ここで一旦SWATの自動追尾モードを「DEC」に戻して切ります。
  4. ここでおもむろに、再度SynScan ProのSynMatrix AutoAlign機能を使い、アラインメントし直します。これがかなり強力みたいで、数10度とかのオーダーで全然ずれていても、強制的にきちんとしたアラインメントに戻してくれます。しかも、今回2ポイントでアラインメントして、そのうち2ポイント目が建物の方を指してしまい星が何も写らなかったのですが、1枚目のプレートソルブだけで「完了した」と表示されました。
  5. その後、再びSynScan ProでM45を自動導入すると、かなり真ん中に近いところに導入されました。
  6. ふたたび、AZ-GTiの恒星追尾をオフにして、SWATの追尾モードを「STAR」に切り替えオンにします。
  7. 最終的な画角をSynScan ProやNINAの望遠鏡の矢印ボタンなどで微調整します。
  8. 露光を再開します。

これは大きな収穫でした。AZ-GTiから自動追尾をSWATに受け渡しているのは、SWAgTiで天体を再導入する時に原理的な弱点になります。今回のような子午線反転や、一晩に複数の天体を撮影する場合は、どうしても撮影中断時にアラインメント情報を失ってしまっているのです。これまでは一旦ホームポジションに戻して一から初期アラインメントをするなどして、対処療法的に回避していましたが、このSynMatrix AutoAlign機能を使うことで、いつでもSWAgTiとしてののアラインメント情報を再取得できることになります。


画像処理と結果

風は仕方ないのですが、子午線反転を含めて撮影は極めて安定でした。ShapCapを使い極軸をかなり正確に合わせてあるので、8時間程度の撮影でもドリフト(画像の一方向のずれ)も全く許容範囲内です。NINAでのガイド無しディザーも問題なく適用されています。

画像処理は、これもお気軽SWAgTi定番の、ダーク補正無し、フラット補正無し、バイアス補正無しです。今回、センサー面にホコリが付いてしまっていて、少しリング状の模様が出ましたが、そこまで深刻ではなかったので、淡いところを出しすぎない目立たない範囲での画像処理に抑えました。センサーを綺麗に保つことは、画像処理を楽する上でかなり重要だと再認識しました。センサー面を綺麗に保てないなら、お気軽画像処理は諦めてフラット補正は必須になります。

さて、お楽しみの結果ですが、どうでしょうか?

「M45: プレアデス星団 (和名: すばる)」
3856x2180_180.00s_RGB_GC_SPCC_BXT_AS_MS_NXT5_cut
  • 撮影日: 2024年12月2日19時56分-3時38分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: William Optics RedCat51(f250mm、F4.9)
  • フィルター: なし
  • 赤道儀: SWAgTi (SWAT-350V-spec Premium + AZ-GTi)
  • カメラ: Player One Uranus-C Pro(-10℃)
  • ガイド:  なし
  • 撮影: NINA、Gain 120、露光時間3分 x 127枚 = 381分 = 6時間21分
  • Dark, Flat: なし
  • 画像処理: PixInsight、Photoshop CC

自宅で光害防止フィルター無しでここまで青が出たことに、まずは驚きです。これまで牛岳、数河高原と暗いところに行って撮影したものより、はるかに淡いところまで出ています。刷毛ではいたような模様もよく見えていて、背景の淡いところもそこそこ出ています。

アノテーションです。
_3856x2180_180_00s_RGB_GC_SPCC_BXT_AS_MS_NXT5_cut_Annotated1


自宅撮影は不利ではないのか?

今回の方が光害は酷いはずなのに、なぜここまで出たのか?少し冷静になって考えてみました。
  • 鏡筒は4年前のTSA120がF7.5で、今回のRedCat51がF4.9なので、今回の方が有利です。でも明るさで高々(7.5/4.9)^2 = 2.3倍です。
  • S/Nは口径もセンサーサイズも関係無いのは前回のアンドロメダの時にも書きましたが、それよりも1ピクセルのサイズが重要で、6Dが1辺6.5μmでUranus-C Proが2.9μmなので明るさ比較で(6.5/2.9)^2 = 5.0倍前回の方が有利。
  • 露光時間は前回4時間15分で、今回6時間21分で、(381/255) = 1.5倍今回の方が有利。
機材としては明るさ比較で5/2.3/1.5 = 1.4倍なので、S/Nだと更にルートで高々1.2倍前回の方が有利なだけで、あまり差がありません。

空の明るさを考えると、
  • 数河高原は天の川が普通に見えるので、6等星は見えるとしましょう。
  • 一方自宅は、北極星はたまに見えない時もありますが、大抵見えます。こと座の形やはくちょう座の形はたまに見えるときがあり、年に1-2回ものすごく透明度のいい日に天の川がうっすら見えるくらいです。普通の日は3等星が見えるくらいと思っていいでしょう。
ざっくり3等分の差があるとすると、1等ぶんで2.5倍明るさが違うので、2.5^3で16倍くらい前回の方が有利になるはずです。スカイノイズの差と考えるとS/Nはやはりルートで効いてきて、√16 = 4倍くらい差が出ます。これは無視できない有意な差で、前回の方が有利で、今回の方が不利ということです。

こう考えると圧倒的に前回の方が有利なのです。この差を覆るものが何かと考えると、画像処理と考えることもできますが、今は私としてはカメラの違いだと考えています。前回まで使っていたEOS 6Dは低ノイズの一眼レフカメラで長らく天体写真に適したカメラとして使われていますが、発売開始が2012年でもう12年も前のことになります。ここを見ると分かりますが、撮影時のISO1600だとダイナミックレンジは11bitを切っています。


一方、最新のCMOSカメラに近いUranus-C Proはここにある通り、HCGでダイナミックレンジは12bit近くになります。


ホットピクセルやアンプグローなど、新しいセンサーではグラフに出てこない有利な点がかなりあるのかと推測できます。というのも、最新カメラに近いASI2400MC Proで青い馬星雲を撮影したときも、ノイズ処理が楽で、データだけでは説明しきれないような有利さがあったと感じました。

分かりやすい例はEOS 6Dで自宅で撮影した青い馬星雲です。光害地の自宅で6Dだと、どうしようもない限界を感じましたが、


牛岳でASI2400MC Proで撮影した青い馬星雲はもう雲泥の差で、もちろん牛岳の空が暗いのはありますが、カメラの根本的な性能差を実感して、この時にはじめてフルサイズ6DをフルサイズCMOSカメラに代えてもいいかと思いました、


結局フルサイズのカラーCMOSカメラはまだ手に入れていないのですが、サイズこそ違えど最新のCMOSカメラはさすがに10年以上前の一眼レフカメラとは一線を画す性能と思って良さそうです。

というか、これくらいしか今回自宅でM45がここまで出る理由が思いつきません。その一方、もちろんセンサーサイズが小さいので解像度は出ないのですが、すばるの大きな模様の変化を見るにはこれでも十分な気がします。drizzleなどを使う手もあるかと思いますが、お気軽撮影とお気軽画像処理も捨て難いので、ここまで出るならもう十分なのかと思っています。


まとめ

自宅で綺麗な青を出すのは、ある意味一つの目標でした。

SCA260のM45のRGBでの拡大撮影である程度出ていたのですが、今回こんなシンプルな機材で、ここまで青がきれいに出るとはあまり予想していませんでした。出にくい青と言っても、M45くらい明るくて、撮影時間さえ十分に確保できてS/Nが取れるなら、無理してあまり暗いところに行かなくてもいいのかもしれません。星を始めた時の「自宅でそこそこ写せたらいいなあ」というのが、やっと実現できてきた気がします。

「そこそこ」の中には、あまり無理をしないでという意味も入っていて、今回のSWAgTiはガイドやダーク、フラット補正を省いたりして簡略化できているので、その意味でも「そこそこ」がやっと本当に実現できてきたのかなと思っています。


前回までの紫金山アトラス彗星もやっと落ち着きましたが、その後は天気がずっと悪かったり、忙しかったり、イマイチ盛り上がらなかったりで、ブログ記事はしばらく休んでいて、少しのんびり画像処理を進めていました。今回は10月にSWAgTiで撮影したM31アンドロメダ銀河についてです。


自宅に着いてから、さらに撮影

10月12日、昨日の馬頭星雲の撮影に引き続き、まだ天気が良さそうだったのでそのままのセットアップで撮影続行です。昼間は置きっぱなましだったので、極軸を取り直さなくていいので楽でした。

この日はアンドロメダ銀河狙いです。実はこの日は2セット出していて、RedCat51+ASI294MC Pro+SWAgTiでカラー、ε130D+ASI6200MM Pro+CGEM IIでHαで、後で合成する予定ですが、まずは今回は簡単なカラー画像のみの処理までです。

アンドロメダ銀河は結構大きいので、SWAgTi撮影の方の画角を少し広げたくて、カメラをこれまでの1/1.2インチのUranus-C Proからフォーサーズの上記ASI294MC Proに変更しました。あと、銀河なので、これまで入っていた2インチのDBPを外して、同じく2インチのUV/IRカットに変更しました。

SWAgTiを含む架台側のセットアップはそのままでよかったのですが、鏡筒の方を色々いじっていたら結構時間が経っていて、月が沈む0時過ぎをとっくに超えてしまい、撮影開始は午前1時過ぎになってしまいました。

IMG_0177
朝、片付け前の様子。

撮影ソフトはNINAで、ガイドなしでディザーありのSWAgTi特有の「お気楽、でも縞ノイズは出ないよ」撮影になります。撮影時のミスを避けるなどを考えると、SharpCapよりもNINAの方が圧倒的に気を遣わなくて楽で、SWAgTiではこの「NINA、ガイドなし、ディザーあり」がほぼデフォルトになってきました。

RedCat51にASI294MC Proを付けての初撮影だったので露光時間を少し迷いましたが、とりあえず1枚あたり3分としました。3分露光だと、250mmくらいの焦点距離でも、普通の赤道儀ではピリオディックモーションが避けきれなくて採択率が下がってしまうおそれがあります。ここはSWAT350 V-SPEC Premiumの高精度追尾のおかげで普通に100%の採択率を目指すことができます。

ゲインはHCGがオンになる120一択です。HCGのおかげで13stopsくらいのダイナミックレンジを取ることができます。stopsはbitと同じで、2の13乗 = 8192階調で輝度を表すことができるということです。

ゲイン120一択と言いましたが、選択できるゲインは露光時間と密接な関係があります。もし高精度追尾が無ければ、露光時間を十分に伸ばすことができないので、対象天体の淡いところを出そうとすると、その分ゲインを上げなくてはいけません。ゲインを上げることで淡いところの輝度を読み出しノイズより大きくして撮影する必要があるからです。ゲインというのは、「露光時間を延ばせない環境下において、淡い部分を読み出しノイズ以上に持ち上げてダイナミックレンジ内に入れる」という、非常に便利な機能であると考えることもできます。その一方、ゲインを高くすると、当然「ダイナミックレンジを犠牲にしてしまう」ので、恒星などが飽和する可能性が高くなってしまいます。

このように考えると、SWAT350 V-SPEC Premiumの高精度追尾は単にガイド無しで1枚あたりの露光時間が延ばせるだけでなく、「最適なゲインを選ぶ選択肢を持てる」ということが利点の一つになるのかと思います。ただし単に1枚あたりの露光時間だけ伸ばすことができても、トータルで長時間露光を目指すと縞ノイズがどうしてもついて回るので、SWAgTi特有のガイド無しディザーで縞ノイズを避けるというわけです。改めて考えてみても、SWAgTiはかなり理にかなっているのかと思います。

さて、こんなSWAgTiですが、撮影が一旦始まってえば、あとは基本放置で楽なものです。今回の撮影は0時46分スタートで、午前5時1分終了でした。といっても、自宅なので寝ていただけで、後でチェックしたら天文薄明開始の午前4時半頃からあきらかに明るくなっているのでカット。それ以外で省いたものは合計7枚で、7枚のうち4枚は人工衛星がかなり明るく写っていたので、Integration時のsigma clippingなどで綺麗に取り除けない可能性を考えて除きました。残り3枚は連続していて、どれも赤径方向の星像のジャンプで、特にそのうちの1枚はかなり大きなジャンプでした。原因は不明ですが、機材トラブル、風、地震、周りに車や人がいたなどの可能性が考えられます。結局使えたのは全80枚のうち64枚で合計3時間12分です。あえて除いた天文薄明と人工衛星を無視すると67枚のうち64枚なので、96%程度の採択率が今回のSWAgTiの実力と言っていいでしょうか。


画像処理

下は、3時間12分の画像をPixInsightでスタックまでしてオートストレッチだけの画像です。色などは何もいじっていません。例の如く、お気軽撮影を目指しているので、ダーク補正もフラット補正もバイアス補正も無しです。

masterLight_BIN-1_4144x2822_EXPOSURE-180.00s_FILTER-NoFilter_RGB

まず心配だったのは、ダーク補正をしないことによるIMX294センサー特有のアンプグローです。実際に右上に少しだけ明るい部分が見えていますが、高々この程度です。これを消すためにダークフレームを撮影して、ダーク補正するという手間をかけて、かつダークカレント起因のダークノイズを増やしてしまうことを考えると、ASI294MC Proでもダーク補正をあえてする必要もないかと思います。

1/1.2インチのUranus-C ProよりもフォーサーズのASI294MC Proの方がセンサー面積が大きくなったので、周辺減光も少し心配でした。フラットフレームを撮影していないので、かなり大雑把な見積もりですが、ABEの2次と4次で補正した時のbackground画像の輝度から推測するに、最大でも4%程でした。この程度なら、ホコリなどの局所的な欠損さえ無ければ、光学的なフラット補正はなくても十分なのかと思います。

繰り返しになりますが、上の画像はスタック直後にオートストレッチだけしたもので、彩度アップなどの色調も何もいじっていないです。それでも星の色も分かりますし、M31本体の色もある程度出ています。簡単セットアップで、3時間放っておくだけで、スタック以外特に画像処理もせずにこれだけの画像が撮れるなら、SWAgTiでのこのセットアップはかなりすごいのかと思います。

次が、PixInsightでABEの4次、SPCC、BXT、MaskedStrerch、NXTをかけたものです。次のPhotoshopでの処理のために、輝度は少し抑えています。

4144x2822_180_00s_RGB_integration_ABE4_SPCC_BXT_AS_MS_NXT

こちらも色調整はSPCCのみで、あえて彩度はいじっていませんが、更に色がはっきりしてきています。


仕上げの色使い

もう上の画像でも十分かと思いますが、最後にPhotoshopに持っていって、少しだけ仕上げします。

仕上げはかなり迷いました。アンドロメダ銀河の色って、人によって本当に千差万別ですね。AstrobinのM31で検索した結果を見ると何が標準か全くわからなくなります。派手なものは真ん中が金色に輝いていて、端の方はかなり青に寄っています。地味なのは全体に緑色っぽいものでしょうか。上の画像だとかなり地味な色居合いになります。緑の代わりに黒と白でモノクロっぽくして、あえて赤ポチを目出させているようなカッコイイものもあります。

前回のM31の撮影は4年前の2020年でFC-76とEOS 6Dを使っています。


4年前の時も4年ぶりの撮影とか言っているので、4年枚にメジャー天体を撮影し直すようなペースになっているということでしょうか。6Dのカラー撮影で赤ポチを少しでも表現しようとするような無理をしている感じで、かなり派手目な色使いになっています。今回はHαは別撮りのものがあるので、ここでは比較的シンプルな銀河っぽい感じにしてみました。

「M31: アンドロメダ銀河」
4144x2822_180_00s_RGB_integration_ABE4_SPCC_BXT5_cut
  • 撮影日: 2024年10月13日0時46分-4時33分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: William Optics RedCat51(f250mm、F4.9)
  • フィルター: UV/IR cut
  • 赤道儀: SWAgTi (SWAT-350V-spec Premium + AZ-GTi)
  • カメラ: ZWO ASI294MC Pro (-10℃)
  • ガイド:  なし
  • 撮影: NINA、Gain 120、露光時間3分 x 64枚 = 192分 = 3時間12分
  • Dark, Flat: なし
  • 画像処理: PixInsight、Photoshop CC

銀河のシンプルさに比べて、恒星の色をある程度出しました。上にある明るい青い恒星と、散りばめられたオレンジの恒星のおかげで、寂しさはあまり感じられないと思います。

銀河中心が飽和しないように、また腕の構造がある程度はっきり出るようにしてみました。色は私の中ではかなりおとなしめですが、これはのちの赤ポチで派手になることも見越して少し抑えています。


恒例のアノテーションです。周りにすごい数の銀河があることがわかります。
_4144x2822_180_00s_RGB_integration_ABE4_SPCC_BXT5_cut_Annotated

PGCを無くしたこっちの方がシンプルでいいでしょうか?でもちょっと寂しぎですかね?
_4144x2822_180_00s_RGB_integration_ABE4_SPCC_BXT5_cut_Annotated1


過去画像との比較

ちなみに4年前の画像を再掲載しておきます。
masterLight_DBE1_PCC_AS_all4

今回のものと比較してみると、やはり見た目が全然派手です。あと、私はもともと恒星の処理が苦手で、この頃はまだStarNetで恒星分離ができ始めた頃で試行錯誤をしている最中で、今見るとかなり酷いです。さらに今回はBXTも使えるので、恒星に関しては進歩があったのかと思います。

機材でいうと、口径は76mmから51mmに減っていますが、F値では8から4.9になっているので、単位面積あたりの光子数が多くなっていて、今回の方が有利になります。画角はほぼ同じ(微妙に今回の方が広角)なので、その分センサー全体の大きさは違いますが、S/Nは単位面積あたりの光子数で決まるので、S/N比較ではあまり関係ないです。S/Nはピクセルサイズと密接に関係があり、6Dの6.5μmとASI294MCの4.6μmなので、信号が1ピクセルの面積に比例し、1ピクセルあたりの読み出しノイズは同じと仮定して、その他ノイズを無視してS/Nを考えると、計算上では(8/4.9) / (6.5/4.6) = 1.15とほとんど差は無くなってしまいます。

仮にトータル露光時間が同じとすると、信号Sが1.15^2倍前回の方が今回大きく、ノイズNが1.15倍だけ今回増えるので、S/Nは前回よりも今回の方が1.15倍いいことになるということで、機材としては今回の方が有利ということです。その代わりに分解能が前回の5472×3648から、今回は4144×2822と悪くなっています。S/Nをとるか、分解能を取るかですが、それぞれ別個のパラメータで、このように数値的に比較ができるものなので、画像と合わせてどちらをとるか考えればいいのかと思います。

実際には前回の露光時間が4時間35分で、今回が3時間12分なので、Sqrt(275/192)=1.20となり前回の方が有利なので、先の1.15倍と相殺してS/Nはほぼ同じと思っていいでしょう。分解能は6Dの方がいいので、機材と撮影条件では前回の方が良かったということになります。

それでも見かけでは今回の方がかなり良く見えるのかと思いますが、この違いは鏡筒自身の性能の差、さらにはカメラ自身の性能の差、あとは主に画像処理によるものかと思います。画像処理はBXTなどの分解能をソフト的に上げる効果もあるので、そこら辺も効いているのかと思います。


まとめ

4年ぶりのアンドロメダ銀河の撮影でしたが、機材はSWAgTiのおかげもあり鏡筒と合わせて軽くシンプルになり、撮影もガイドなしでかなり楽でした。ある意味、ここが一番大きな進化だと思います。実際の仕上がりの差はすでに出ていますが、L画像を別途撮影してさらに分解能を増すという手もあるかと思います。

SWAgTiは私の環境ではサブの標準機材としての位置を完全に確立しました。手軽だけれど信頼度は十分です。最近はずっと天気が悪いのですが、冬の星座も出てきているので、天気がいい機会があればパッと出して貪欲に狙っていきたいと思います。



日記: 金沢星の会70周年記念展示会@21世紀美術館

昨日の土曜日、午前中に金沢で用事があったので、午後から21世紀美術館に行って、金沢星の会の70周年記念の展示会に顔を出してきました。

IMG_0521

たまたま私の顔に気づいたNさんが声をかけてきてくださって、いろいろ案内してもらえました。今回70枚展示したとのことですが、70周年で70枚で、狙っていたわけではないですが圧巻でした。というのも、21世紀美術館は北陸では随一の規模を誇る美術館で、集客量もすごくて、今回訪れている間もひっきりなしにお客さんが訪れています。来ている方は星好きというよりは、ごく一般の方がほとんどのような印象でした。このような大きな場所での展示会はかなりインパクトがあり、参考にできるところが数多くありました。準備などもかなり大変だったと想像しますが、それだけの価値があるものだと思います。

展示は星景、季節ごとのDSO、太陽、月、惑星、彗星など多岐に渡り、奥の部屋ではタイムラプス映像を常時流していました。その部屋にも壁に写真が飾られていて、テーマは「能登の天体写真」ということです。今年初めの能登半島地震からの復興を意識しているのかと思います。これも全国から観光に訪れる金沢で、代表的な観光スポットにもなっている21世紀美術館で展示会を開くことが、意義に繋がっているのだと思いました。

天体写真は会員の方達の個性がとても出ていて、撮影者の名前を見ていると、この人はこんな傾向だとか、この人はこんな色使いが好きなんだなとか、いろいろ楽しむことができました。今回の記事と同じアンドロメダ銀河も大きなパネルに引き伸ばして飾ってあり、とても綺麗でした。ちょうど会場にアンドロメダ銀河を撮影した方が来ていたので、話をすることができましたが、ε160と6Dで撮影したとのことで、自分の環境と比較できるので面白かったです。

自分が所属する富山県天文学会も長い歴史があるので、今後何十周年とかなる時には、今回の展示会を参考にできればと思いました。

先週から体調がかなり悪くて、週末の小海の星フェスは泣く泣く諦めました。2日とも天気が良かったようで、Xの投稿を見ながら楽しそうでいいなあと思いつつ、体力が持ちそうにないことはわかっていたので、自宅で大人しくしていました。自宅の富山でも天気は良くて、月が出ていない時間も長く透明度も良かったのですが、夜に撮影どころか起きている元気もなくて、かなり悔しい思いをしていました。

時間だけはあったので、やっと彗星画像の処理に取り掛かれました。撮影日はもうだいぶ前の10月20日になります。


3つも機材を展開してパニックに近かったのですが、タイムラプス映像はすでに処理済みです。


彗星画像処理

今回は、3つの機材のうちの2つ目、RedCat51に、最近手に入れた2台目の6Dを取り付けて撮影した画像の処理になります。30秒露光で使えるものは47枚ありました。総露光時間は23分半になって、ネオワイズ彗星の時が80秒8分だったので、そこから見ても長くなっています。

その一方、撮影時間が長い分だけあって、恒星に対する彗星の移動が無視できないため、これまでのように恒星合わせでスタックすると、どうしても彗星がずれてしまいます。試しにWBPPしてみます。画像処理には、ダーク、フラット、フラットダークと後日別途撮影ファイルも使います。

5496x3670_EXPOSURE-30.00s_RGB_cut
核の部分の拡大。星の位置に合わせてスタックすると、彗星はずれていきます。

核を見てみると、彗星が25分程度の間に移動していく様子がよくわかります。でもこれだと彗星の正確な形がわからないので、彗星のみ別途処理する必要があります。でもその前に、とりあえずここで作った画像をStarNetで、恒星画像を分離して保存しておきます。後で彗星画像と合成するために使うことになります。

彗星核の位置を合わせるようにスタックするのは、PixInsightのCometAlignmentで簡単にできます。その代わりに当然ですが、恒星が流れてしまいます。
comet_alignment_integration
こうやってみると、30分クラスの撮影になるとかなりずれるのがよくわかります。

恒星をここから消すのは、ちょっとめんどくさくて、少なくとも上記の星が流れている画像でStarNetは全くうまくいきませんでした。しかたないので、一枚一枚のRAW画像にImageContainerを使ってStarNetを適用します。StarNetは1枚処理するのにもそこそこ時間がかかるので、47枚だと2時間くらいを要しました。

その後は再びCometAlignmentで核の位置を認識して重ね合わせますが、ここからが大変でした。星消し画像を彗星基準で重ねると、星を消した跡が軌跡となって残ってしまうのです。言うなれば一方向に流れた時に出る縞ノイズのようなものなので、途中ディザリングをすればよかったのかもしれません。
integration_ABE4_ABE4_ABE4

その後、ダーク補正なしとか、フラット補正なしとか、フラットダーク補正なしのフラット補正だけとか、色々試しましたがどれも残った軌跡をうまく消すことはできませんでした。少しネットで調べると、niwaさんの記事にIntegration時にCombinationをAverageからMedianに変更するといいとありました。そうするとrejectionで明るいところを弾けるとのことで、いくつかパラメータを試して、今回はhigh側を0.5σまで落としました。

この原理は、以前PixInsightを使い始めた頃にM33を処理して、縞ノイズを回避しようと試みたことに似ています。あの時はクールピクセルをCombinationをMaximumにすることで回避できました。当時は理由がはっきりわからなかったのですが、今ならはっきりと理由がわかります。縞ノイズは一旦発生すると相当厄介なので、Integrataionのオプションで多少は改善できることは、覚えておいてもいいのかと思います。

ただ、今回の0.5σというかなりきついhighリジェクションでも、まだ星の軌跡は少し残るのですが、テイルを除去しないためにはここら辺がもう限界でしょう。

ここでできた背景画像をPhotoshopに渡して、先に作った恒星画像を合成し、画像処理を進めたものが以下になります。淡い尾の構造を見たかったので、背景はABEを使いかなり平坦化しています。淡いところを強調したので、まだ星の軌跡は少し出てきてしまうのですが、上の画像から見たらかなりマシなので、まあよしとします。

integration_ABE4_ABE4_ABE4_comet_star_SPCC_MS_HT3
  • 撮影日: 2024年10月20日18時49分-19時21分
  • 撮影場所: 富山県富山市
  • 鏡筒: William Optics RedCat51(f250mm、F4.9)
  • フィルター: UV/IRカット
  • 赤道儀: SWAgTi (SWAT-350V-spec Premium + AZ-GTi)
  • カメラ: Canon EOS 6D(天体改造)
  • ガイド:  なし
  • 撮影: BackYard EOS、ISO1600、露光時間30秒 x 47枚 = 23分30秒
  • Dark: ISO1600、露光時間30秒 x 32枚、Flat, FlatDark: ISO1600、1/50秒 x 32枚
  • 画像処理: PixInsight、Photoshop CC

淡い尾が画面いっぱいまで広がってます。この画像の画角は横幅約8度に相当します。それ以上には余裕でありそうなので、まだこの時期だと少なくとも10度程度には広がっていたことがわかります。

10月14日の彗星にはかなり鋭い中心線となっていたネックライン構造ですが、20日のこの画像では鋭さはだいぶなくなっていて、明るいところも中心からずれています。視野方向が軌道面から少しずれてきたということなのでしょうか。

テイル部分は濃いところと薄い所で段になっているのがわかります。濃いところがイオインテイルに相当するのでしょうか?今回は軌道にかなり平行になっているからでしょうか、テイルもまっすぐで、前回見たネオワイズ彗星のように弧を描くようなテイルにはならないみたいです。

この画像は、これまでのネオワイズ彗星の画像に変わって、スマホの背景にしようと思っています。


核の回転

後半の処理は、同じ画像から核の部分を拡大して、ここにLarson-Sekanina フィルターを適用してみました。

これは、3つ目のセットアップのSCA260とASI29MCでの核の部分の拡大撮影の練習になります。ただし、このSCA260の画像、改造でシュミットに送り返してから何も調整せずに、しかも天板のプレートを自分で少し付け替えてしまっていて、現場で見ていると星像がかなり肥大化してしまっていました。もしかしたら解像度があまり出なくて、核の拡大画像としては使い物にならないかもしれません。

さて、上で作った恒星と背景画像をPixInsightの PixelMathで合成し、ここにPixInsightに標準で搭載されているLarson-Sekanina フィルターを適用してみます。Larson-SekaninaフィルターはRotation Gradientという名前でSirilにも搭載されているようなので、無料ソフト環境でも使うことができるようです。興味がある方は試してみるといいかもしれません。今回の画像のように、拡大するとかなり粗い画像でも結構面白い結果が得られます。

Larson-Sekaninaフィルターは彗星の核の周りの角度方向の輝度の違いなどを見やすくするために、以前からよく使われているとのことですが、数学的には特に難しいことをしているわけではありません。簡単にいうと、古文書の画像解析で文字をずらして見やすくするようなイメージでしょうか?ちょうどこの間の探偵ナイトスクープの西田局長の追悼回で、古いハガキのかすれた文書を読むのに使われれたので、見た方も多いかと思いますが、あの文字ずらしを極座標系でやっているようなものです。

具体的には、例えばPixInsightの場合には、中心を核の座標に指定し、距離と回転角でどれだけずらすかを、ピクセル単位と度単位で指定するだけです。Larson-Sekaninaフィルターの元の式を見るとわかりますが、距離はマイナス方向だけに、角度はプラスとマイナスの両方向に変化させています。距離がマイナスだけなのはプラスに動かすと、中心に空いたところに何を埋めればいいのかわからないからでしょう。このフィルターは1984年のかなり昔に提唱されたものなので、今ならアイデア次第でもっと複雑な変換を試してもいいのかもしれません。PythonやMatlabなどで画像を直接解析できるなら、実装もそれほど難しくはないでしょう。

PixInsightに搭載されているLarson-Sekaninaフィルターには、距離と角度の他に、もう一つamountというパラメータがあります。これが何を意味するのかよくわからないのですが、結果にはかなり大きく効きました。今回は距離: 2.5pixel、角度: 5度、amount: 0.05で、意味のありそうな構造が出てきました。

下が結果になります。見えやすいように輝度を反転しています。くるっと回っているような模様が見えると思います。

comet_star_SPCC_MS_25_5_004_035_inv_cut_L_cut

ですが、ここから何か意味を引き出そうとすると、とたんに難しくなります。そもそもLarson-Sekaninaフィルターの意義は「見やすくする」というものなので、そこから意味を引き出すのは別の話になります。意味を引き出すには、彗星がどういうものなのか、もっと知る必要がありそうです。今後の課題とします。


まとめ

彗星の画像処理はあまり慣れていないので、なかなか思うように進みませんが、やっとゴールが見え始めてきました。今回の紫金山アトラス彗星は、ネオワイズ彗星以来の大彗星で、そもそもやっと長時間での撮影ができたくらいです。Larson-Sekaninaフィルターもやっと試すことができたくらいです。

星を始めて8年半になりますが、これまで大彗星と呼ぶにふさわしいものはネオワイズを含めて2つだけです。ということはざっくり4年に1回というペースなのでしょうか。Wikipediaで大彗星で調べてみると、ネオワイズ彗星も紫金山アトラス彗星も大彗星に含めて、ここ50年ではわずか7つなので、実際には4年に1回よりは長そうで、むしろ4年に1度見えているのはラッキーなのかもしれません。

ネオワイズ彗星の時から考えてみても、今回は色々な進化がありました。次の大彗星ではどんな手法で撮影や画像処理を進めることができるのか、かなり楽しみです。


少し間が空いてしまいましたが、SWAgTiで撮影したパックマン星雲について補足です。


実は上の記事にする前に、画像処理ははるか以前に終わっていたんです。でもダーク補正の有り無しで比較した時のノイズの大きさが、理論と全然合わなくて、ずっと検証していました。その結果、かなり面白い考察となったので、その経緯を書いておきます。


ダーク補正ありなしの、数値的な比較

前回示した記事の繰り返しですが見た目ではダーク補正の有り無しは差がわからないようです。

comp_dark

ちなみに左がダーク補正無し、右がダーク補正ありですが、差はあったとしても本当にごくわずかでしょう。でも、ノイズを実際に測定しても同じくらいなのでしょうか?数値で見てみましょう。

ノイズの測定には、いつものようにPixInsightのImageInspectionのStatisticsを使います。各画像で「プレビュー」で
  1. 恒星が入っていない
  2. 背景に近い一番暗い部分
を、小さな領域でいいので選びます。そのプレビュー画面をStatistics上で選択肢、「stdDev」を見ます。stdDevなど、見たい情報の項目が出ていない場合は、スパナマークのアイコンを押して必要な項目を選択してください。その際、左上の単位がきちんとカメラと合っているか確認してください。今回の場合、カメラが14bitなので、「14bit [0,16383]」を選びます。単位は [ct] すなわち、ADCのカウントになります。コンバージョンファクターがわかっていれば、これを電荷の[e]に変換することができます。

上のエリアを選ぶ二つのことは、ノイズを正確に、安定に測定するために必要な条件です。

恒星が入っていると、恒星は飛び抜けて明るいので、バラツキ(=ノイズそのもの)が大きくなり、本来より大きなノイズの値が出てしまいます。

一番暗い部分を選ばないということは、何らかの天体などの明るさを測定していることになります。明るさがあると、そのバラツキからくるショットノイズが大きくなり、本来見たいダークノイズや読み出しノイズが隠れてしまう可能性があります。

これらのことは基本なのですが、その他にも注意すべきことがあります。今回の測定中にやらかした失敗も含めて、反省の意味も込めて今後の測定のために細かく書いておきます。


撮影と画像処理の条件

前の記事の繰り返しになりますが、一応撮影と画像処理の条件も書いておきます。

撮影はRedCat51+DBPでカメラはUranus-C Proで-10℃に冷やしています。架台はSWAgTi (SWAT350 V-SPEC PremiumにAZ-GTiを載せたもの)で、撮影ソフトはNINA。ガイドは無しで、NINAの特殊機能のガイド無しディザーで最初のうちだけ1枚に一回、途中から3枚に1回ディザリングしています。

ライトフレームは露光時間が1枚当たり3分で、カメラのゲインは100、オフセットは40で撮影しています。94枚画像処理に回したので、合計282分 = 4時間42分ぶんです。この間、NINAでも順調に動いて、特にSWAgTiの長時間撮影で縞ノイズを避けるために必須であるディザリングも問題なく動いていました。ライトフレームは10月9日に合計139枚撮影しそのうち94枚を使い、ダーク補正比較のためのダークフレームは後日77枚撮影して使いました。
がそう処理は、SWAgTiの簡単撮影の特徴を活かすために、バイアス補正、フラット補正などは無しです。解像度を上げたいので、drizzle x2を選択しておきます。

というような条件で、この記事ではダーク補正の有り無しを比較します。


測定失敗1

「Bayer配列画像はノイズ測定に用いるべきではない。」

  1. まず正しくスタックされているかどうか確かめるために、ライトフレームのRAW画像1枚のノイズを測定します。結果は12.5 [ct]でした。
  2. 次に、スタック後のダーク補正なしのマスターライト画像のノイズを測定します。予測だと94枚スタックした場合、ノイズが1/√94 = 0.103倍に近い値の12.5 x 0.103 = 1.29程度になるはずです。でも実際測定してみると、1.08 [ct]と予想よりかなり小さい値になってしまいます。
でもこれはすぐに気づきました。1枚画像はBayer配列のままなので、RGGBでそれぞれ平均値が違ってしまっているために、その平均値のばらつきでノイズが大きいと勘違いしてしまっているのです。解決策としては、Debayerしてからノイズを測ります。PIでDebayerして、再度Statisticで恒星のない部分のノイズを測定すると、6.44[ct]となり、これを0.103倍すると0.663[ct]となります。でもまだマスターライトファイルのノイズ1.08[ct]とはかけ離れています。


測定失敗2

「Drizzle画像はノイズ測定に用いるべきではない。」

Debayer同士で比べているのに、なぜスタック後のノイズが予想より大きすぎるのか?これも少し考えてすぐにわかりました。Drizzleした画像は微妙にずらして重ねたりして解像度を増やしているので、そもそもノイズがどうなっているのかよくわかりません。ここはDrizzle前の画像で評価すべきでしょう。Drizzleはオプションなので、Drizzle前のマスターファイルもきちんと保存されています。Drizzle前のマスターファイルのノイズを測定すると、0.620[ct]で、今度は予測値の0.663[ct]とほぼ一致しました。

これで少なくともダーク補正なしで1枚画像を94枚スタックした場合、ノイズが理論通りの1/√94 = 0.103倍に近い値になることがわかりました。


ダーク補正でノイズは数値でどうなるか

さて、いよいよ別途77枚のダークファイルで作ったマスターダークファイルを使って、各ライトフレームをダーク補正して、WBPPでスタックまでしてマスターライトファイルのノイズを測定します。今回は最初からDrizzleされていない方を選び、Preview機能で恒星がない部分のノイズを測定します。結果は、目で見て比べた時と同様に、ノイズの値はダーク補正がない時の0.620[ct]と比べて、ダーク補正ありだと0.625[ct]となり、ほとんど同じなのでものの見事に一致したと言っていいでしょう。

結論としては、ダーク補正ありでも無しでも、ノイズはほとんど変わらないというのが今回の結果から言えることです。

見た目でダーク有無でほとんど差がないのが、数値でも同様に、ほとんど差がないと示されたわけです。


本当にダーク補正の影響はないの?
.
.
.
え???
.
.
.
でも、

なんでここまで同じなの?ダーク補正の影響は全くないの?

ランダムノイズであるダークノイズを持つ画像で補正しているわけです。ランダムなので引こうが足そうが、補正すればノイズは必ず2乗和のルートで「増える」はずでは?何も増えないのは少なくともおかしいのでは?

とここから長い迷走が始まりました。


スカイノイズが大きいのでダーク補正のノイズ増加が無視できる?

パッと考えられることは、明るい環境で撮っているので、スカイノイズが大きすぎてダークノイズが無視でき、たとえダーク補正してもほとんど影響がないというシナリオです。でも今回はサイトロンのDBPを使っているので、光害はかなり軽減されているはずで、スカイショットのいずの影響は少ないはずです。もしかして、DBPを入れていてもスカイノイズが大きすぎるくらい明るい環境なのでしょうか?

こちらも定量的にきちんと比較してみましょう。そのためにはライトフレームの背景領域の全ノイズに比べて、ダークノイズがどれくらい貢献しているかを比較すればわかるはずです。簡単のために、1枚撮影したファイルで比較します。

まずはダークフレームのノイズですが、今回もきちんとDebayerすることを忘れずに、これまでと同様にPreviewで領域を選択して、Statisticで測定します。結果は5.30[ct]でした。ここにはダークノイズと、バイスノイズ(読み出しノイズ)が含まれていることに注意です。

一方、ライトフレームの1枚画像のノイズは上の測定でわかっていて、6.44[ct] 程度です。

5.30[ct] と6.44[ct] なので、少なくともダークノイズと読み出しノイズが含まれたものは、ライトフレームに含まれるスカイノイズ(+ダークノイズ+読み出しノイズ)に比べて、無視できるくらい小さなものではないことがわかります。

ライトフレームは94枚、ダークノイズは77枚でスタックするので、予測では
  1. ダーク補正無しだと6.44 x1/√94 = 6.44 x 0.103 = 0.663[ct]というノイズと、
  2. ダークフレームの5.30 x 1/√77= 5.30 x 0.114 = 0.60のノイズが2乗和のルートで加わるため、
  3. sqrt(0.663^2 + 0.60^2) = 0.90[ct]
程度になるはずです。でも実測は0.625[ct]と、予想の0.90[ct]1.5分の1くらいで、これは有意に小さすぎます。この矛盾を見つけるのに、相当な時間がかかってしまいました。


なぜダークノイズは増加しない?

1週間以上考えていたでしょうか。答えがわかったあとは、まあ当たり前のことでしたが、これまであまり考えたことはありませんでした。いや、概念としてはおそらく考えていましたが、どう適用するとか、数値で確かめるというようなことは全くしてきませんでした。他に同じようなことを考えた例はないかと思って検索しましたが、定量的な評価はおろか、それに関する記述も見つけることができませんでした。

さてここでクイズです。

今回、なぜダーク補正しても
背景のノイズが増えなかったのでしょうか?

一見不思議ですが、きちんと説明することができます。答えは下の方に書いていますので、自分で考えてみたい方は、ここでスクロールするのを一旦止めてください。答えに必要な条件は上の「撮影と画像処理の条件」のところに全て書いてあります。

答えがまとまった、もしくは答えを見てみたい場合は、下に進んでください。
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
と、答えに行く前に、一つヒントを出します。ヒントはディザリングです。これで答えに辿り着きますでしょうか?

答えがまとまったら、さらにスクロールしてみてください。
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

はい、もうわかりましたでしょうか?答えは「マスターダークファイルも、ディザリングでノイズが散らされる」からですよね。

まだ、ちょっと言葉足らずかもしれません。そもそも今回はPIのWBPP処理に則っているので、先にマスターダークファイルを作って、それを各1枚1枚のライトフレームにおいてそれぞれダーク補正しています。マスターダークファイルを使っての補正の効果は、個々のライトフレームで補正してから重ね合わせても、ライトフレームを(位置がズレることなく)重ね合わせてからマスターダークファイルで補正しても、数学的には同じことです。証明はここ


「ダーク補正の定量的な扱い」あたりから読んでもらえるとわかるかと思います。

ところが実際の撮影では、それぞれのライトフレームは、ディザーをしてライトフレーム時に画面を少し散らして撮影しているので、画像処理の際に「星の位置が合うように」重ね合わると、当然背景はディザーの分だけ散らして重ね合わせられます。個々に補正したマスターダークファイルが、全く位置をずらさずに重ね合わせられるなら、先ほどいった数学的な証明の通り、マスターダークファイルのノイズが2乗和のルートで増えます。ところが、マスターダークファイルがディザーの効果でずれて重ねあってしまうと、個々のライトフレームで補正されたマスターダークファイルのノイズはコヒーレントに重なることはなく、ランダムに重なってしまうことになります。そのため、個々のライトフレームに対して、マスターダークファイル1枚(元のダークノイズの)のノイズ分増加したものが、ライトフレームの枚数のルート分軽減されてしまうのと同じことにになるので、今回の場合さらに1/√94 = 0.103倍となり、ほぼ無視できてしまうというわけです。

実際に、マスターダークファイルで補正した個々のライトフレームを、星の位置合わせをせずに、重ねただけの画像を示します。
integration

小さな揺れが見えることからディザーはされているのはわかりますが、7時間にわたる長時間露光なので、一方向にドリフトしていっている様子も伺えます。この画像の恒星の無いところの背景ノイズを測定してみると、0.938 [ct]となり、見事に予測値の0.90[ct]とかなり近い値で一致します。


結論

というわけで、「ディザーをしているために、マスターダークファイルを使ったダーク補正では、マスターダークファイルの相関のある部分が散らされすために、補正後のダークノイズが増えることはない」というのが今回の結論です。

また、そもそものダーク補正の目的であるホットピクセルですが、
  • Uranus-C ProはDPS (Dead Pixel Suppression)機能のために元々ホットピクセルが緩和されていること
  • PixInsightでCosmeticCorrectionでホット/クールピクセルが緩和されること
と2つの効果で、実際の画像比較でもダーク補正の本来のホットピクセルの緩和の効果がほとんどわからないのかと思われます。


少し見直し

以前の解析で、ライトフレームに対して、ダークフレームは何枚くらい撮影したらいいかを検討していますが、


ディザリングの効果を考慮考えるとこのダークフレームの必要枚数の条件は遥かに緩和されることになります。これを数学的にどう表せばいいのか?ディザリングでどれくらい散らされるかに依るので、統計的な表現が必要になりそうです。かなり複雑になりそうなので、ここではこれ以上の計算はちょっと諦めます。

ただし、このディザリングがあればダークフレームの枚数を減らすことができるというのも、ある程度の制限があるはずで、例えばライトフレームの背景のノイズが、ダークノイズが支配的な場合は、少ない枚数のダークフレームで補正すると、今回考えたようなディザリングによる散らしの効果はあまり聞かなくなるはずです。

極端な例を示します。非常に暗い空で超長時間露光などして、ライトフレームがダークノイズに比べて読み出しノイズも背景のスカイノイズも無視できるとします。ダークフレームは1枚だけ撮影し、それでライトフレームを補正します。個々のライトフレームのダークノイズは√2~1.4倍になります。ライトフレームをスタックする際に、ディザリング効果でどう散らそうが、ダーク補正によって加えられたダークノイズはスタック枚数のルートで軽減されるだけで、ライトフレームに元々あったダークノイズのスタックによる軽減と同じ効果なので、結局のところダーク補正をした場合はダーク補正しない場合に比べて1.4倍程度ノイジーになります。

もしディザーしなかった場合は、ダーク補正によって加えられたダークノイズは、スタックによって軽減されないので、スタック枚数のルート倍大きくまります。例えば、100枚ライトフレームをスタックすると、ダーク補正しない場合に比べて10倍ダークノイズが大きくなります。

極端な場合の比較ですが、ディザーの有り無しで、1.4倍の悪化から10倍の悪化までと、非常に大きな差が出ます。必要ダークフレームの枚数に対して、ディザリングの効果が相当影響すると思っていいでしょう。

ネットを検索すると、ディザリングでホットピクセルが散らされて軽減されるというような記述はたくさん見つかりましたが、調べた限り、ディザリングがマスターダークフレームを散らすので、ダークフレームの枚数を減らすことができるというような記述を見つけることはできませんでした。定性的に考えたら至極当たり前だと直感的にもわかるのですが、定量的な話はおろか、定性的な話もこれまでほとんど言及されてこなかったようです。今後興味があるのは、これをどう定量的に示すかです。言い換えると、ディザリングの効果をどう数学的に記述するかです。また機会があれば考えてみたいと思います。


ダークノイズについて

天文関連の画像処理のページを検索すると、所々に、ダークノイズ = ホットピクセルとか、ダークノイズにはホットピクセルやクールピクセルのような固定ノイズと、ランダムなノイズがあるというような表現を見かけます。私も後者のような表現を使ってきました。でも、ダークノイズというのは本来はダークカレント(暗電流)の揺らぎが起因のノイズのはずです。ダークカレントも、ホットピクセルも、温度の増加とともに増えてくるものですが、ホットピクセル自身がダークノイズというのは、やはり少し強引な気がします。

「ダークフレームを撮影すると、(ランダムに振る舞う) ダークノイズとともに、ホットピクセルも顕著に見えるようになり、そのダークフレームを使うことで固定ノイズであるホットピクセルをライトフレームから除去することができるが、ダークノイズはランダムに揺らぐ(インコヒーレントな、コヒーレントでない、相関の無い) 「ノイズ、揺らぎ」なので、引くことはできずに、必ず2乗和のルートで増える。」

というのがある程度正確な記述かと思います。ホットピクセルはダークカレント起因ではないはずなので、やはりダークノイズとははっきり区別した方がいいのではないでしょうか?


まとめと日記

ここしばらく悩んでいたことが、やっと解決して、ブログ記事にまでまとめることができました。つうじょうに撮影していて、ディザリングもしていて、ダーク補正されている方は、ダークフレームの枚数がより少なくてもいいという話なので、これまで特に問題がないようならば、今回の話は特に気にする必要はないです。でもこういった解析はやはりしておくべきだと思います。しかも、できるだけ定量的に評価できるようにというのが重要だと思います。こういった積み重ねが、どんなノイズが支配的で、どこを改善すればより良くなるかなどに、効率的につながっていくのかと思います。ディザリングの数学的な表現をどうすればいいのか、今後の課題です。

ついでに日記です。今日11月8日(金)から小海において星フェスが開催されています。例年だと諸手を挙げて参加なのですが、今年は体調があまり良くなく、全然予定が立っていませんでした。ここしばらく調子は良かったのですが、先週の長野の泊まりで少し疲れてしまって、今週はあまり調子が良くありません。明日の朝起きて、調子が良ければあまり長居しない程度で行こうと思っています。天気はすごくいいみたいなので、できれば行きたいのですが...。


このページのトップヘ