ほしぞloveログ

天体観測始めました。

タグ:プロミネンス

6月1日の記事で書いたエタロン改善ですが、最後に少し謎が残っていました。
  1. なぜエタロンとカメラの間の距離を長くすると、両像範囲が拡大するのか?
  2. なぜエタロンとカメラの間の距離を長くすると、画面が暗くなるのか?
  3. なぜエタロンとカメラの間の距離を長くすると、分解能が良くなったように見えるのは気のせいか?
などです。その後、少し検証しました。


暗くなる理由

6月5日、平日ですが朝早くから試したところで、2の原因の一部は理由がわかりました。前の記事で推測はしていたのですが、先に答えだけ言ってしまうと、接眼部についているBF(ブロッキングフィルター)と呼ばれている、直径5mmの径の小ささが原因でした。

試したことは、まずは前回のようにカメラをできるだけPSTのアイピース口に対して浅く取り付けて、エタロンとセンサー面の距離を長くとります。具体的な順序は

PST -> BF+アイピース取り付け口 -> アイピース口延長筒(手持ちのVixen製のもの) -> カメラ(G3M678M)

となります。ピントが出るように、C8の主鏡位置移動のつまみを回して合わせます。前回同様に距離が短い場合に比べて画面全体が暗くなるので、再現性はあります。
スクリーンショット 2025-06-05 073153_01_75mm_PST_BF_VIXENextender

次に、接続順序を以下のように変更します。

PST -> アイピース口延長筒(PSTに付属していたもの) -> BF+アイピース取り付け口 -> カメラ(G3M678M)

スクリーンショット 2025-06-05 07375702_75mm_PST_extender_BF_camera

ようするに、エタ論とカメラ間の全体の距離を保ちながら、Vixen製の延長筒を外しBFとカメラセンサー面の相対距離を縮めたわけです。全体長を保つために、BFの手前に別途延長筒を取り付けています。ピントは、C8の調整つまみを回すのではなく、カメラをアイピース口に出し入れすることで調整しています。カメラ位置を変えることでピントが出たなら、そこは全長が同じだった位置ということになります。

視野の大きさや、分解能に見た目の変化はほとんどないですが、明るさだけは倍程度になりました。(見かけの明るさはヒストグラムに応じてオートストレッチしているので同じようになりますが、ヒストグラムの山の位置は変わっているので実際の明るさは変化しています。) これはBFの小径が通る光を制限していたことになり、BFの位置がより焦点近くに移動したために、BFでの光束径が小さくなり、より多くの光が通ることになったのかと思われます。

この結果を踏まえて、BFとセンサー面の距離がある程度短い方が有利ということで、PSTとBFの間に、PST付属のアイピース口延長筒をもう一つ追加 (PSTが2台あるのでもう一台から奪ってきたもの) しました。それでもまだカメラ位置はエタロンから遠い方が良さそうなので、さらにBFとカメラの間にVixen製のアイピース口延長筒を入れたものをデフォルトの設定としました。


視野が広がる理由がまだわからない

1については考察のみしてみます。

8cm鏡筒でエタロン位置の最適化を探った時、エタロンを対物レンズから遠ざけるほど、カメラ位置はPST側に押し込まなければピントが出なかったという経験をしています。

対物レンズの焦点距離をf1、エタロン手前のレンズの焦点距離をf2として、その2枚で得られる合成焦点距離fは、レンズ間の距離をdとすると
1/f = 1/f1 + 1/f2 - d/(f1 f2)

と書くことができます。エタロン内部で平行光を作る条件は、= ♾️なので、

0 = 1/f1 + 1/f2 - d/(f1 f2)
で両辺にf1 f2をかけて、

0 = f2 + f1 - d
なので

d  = f1 + f2
となる長さで、エタロン内部に平行な光が提供されます。エタロン手前のレンズは凹レンズで焦点距離はf2 = -200 [mm]とわかっているので、例えばよく使っている8cm鏡筒で、対物レンズの焦点距離f= 400 [mm]の場合は、d = 200 [mm]となり、実際にその辺りの距離にエタロンをおいて運用してうまく動いているようなので、間違っていないでしょう。

ここで、エタロン位置を対物レンズから遠ざけるということは、dを大きくするということです。これは合成焦点距離が正の無限大でない数になります。言い換えると、平行光にはならずに、光を有限の距離で収束させる合成レンズになるということです。わかりにくい場合は、具体的に数値を入れてみるといいでしょう。最初の式に、f= 400と f = -200を入れてみると

1/f = 1/400 - 1/200 + d/(400 x 200)
となります。右辺最初の2項を合わせると負になるので、

1/f = -1/400  + d/(400 x 200)

となり、右辺の初項と2項目が等しいとバランスが取れて平行光になります。dは正の数で、増えると2項目が増えて、右辺は正になるので、結局合成焦点距離fも正になり、光を収束することになります。

エタロン後部に置かれた焦点距離 f= 200 [mm]のレンズで集光するのですが、エタロンをより後ろに動かすと、もともとあった平行光が、dが伸びたことでより集光された状態になるので、カメラまでの焦点距離がより短くなる方向になります。なので8cm鏡筒で試したように、現実にカメラをPST側により押し込んだときに焦点が合うというのは、正しいと言えそうです。

以上のことを踏まえて、C8で起こったことを考えます。
  1. 今回は、カメラの位置をPSTから遠ざけるほど視野が広がりました。カメラをPSTから遠ざけてピントを出したということは、上の考察から「エタロンはより対物レンズに近づいた」ということになります。そして、エタロン後部のレンズを出た光が焦点を結ぶ距離は、より後ろに下がったということになります。
  2. その一方、センサー上で見えている太陽表面のエリアは広がりましたが、これは拡大率が変わったわけではなくて、センサー内に映る円の大きさが大きくなったために、より多くの範囲が見えているというだけです。
これら2つのことがどうしても一見対立しているようで、なかなかいい説明ができません。エタロンが相対的に対物レンズ(この場合主鏡)に近づいたということは、レンズ径やエタロン径の制限がより効く方向なので、視野が狭くなると思えるのです。

ここ1週間くらいずっと考えていましたが、いまだに結論は出ていません。


黒点撮影

というわけでまだ謎は残りますが、とりあえずこれで撮影してみます。

まずは黒点AR4100、4101周りです。30秒おきに1ms露光で200フレームづつ、合計60枚で約30分間撮影しました。シーイングはあまりよくなく、その中で一番いいものを画像処理しました。画像処理は、ImPPG、PixInsightのSolarToolbox、Photohopなどです。いつものように、モノクロ、カラー化、さらに反転させたものです。それぞれ端の方を少しクロップしています。

08_56_22_lapl2_ap3397_IP_2_50_mono_cut

08_56_22_lapl2_ap3397_IP_2_50_color_cut

08_56_22_lapl2_ap3397_IP_2_50_color_inv_cut

その後、タイムラプス映像も作りましたが、高々30分であることと、シーイングが良くない時間が多かったので、結構ボケボケです。参考程度に載せておきます。フレアが最後に収まっていくのと、次のフレアが起こる始めくらいが見えています。



プロミネンス撮影

その後、プロミネンスを撮影し、タイムラプス化しました。前回記事の東端9時方向に出ていた大きなものです。カメラの回転角を変えて、長手方向に全体が入るようにしました。30秒おきに1ms露光で200フレームづつ、合計120枚で約1時間撮影しました。最後のffmpegのコマンドだけメモがわりに残しておきます。
  • ffmpeg -y -r 20 -i Blink%05d.png Blink_20.mp4
  • ffmpeg -i .\Blink_20.mp4 -vf "crop=3500:1900:175:125" Blink_20_cut.mp4
  • ffmpeg -i .\Blink_12_cut.mp4 -vf "scale=1920:-1" -vcodec libx264 -pix_fmt yuv420p -strict -2 -acodec aac .\Blink_12_cut_X.mp4


前回記事のものを再掲載しますが、やはり分解能の違いは明白で、全景からの切り出しでは細部を出すのは難しいことがわかります。


一度に全体と細部を撮る方法はないのか?口径が大きく、C8程度の焦点距離に、広い面積に渡り精度のいいエタロンを探して取り付け、ピクセルサイズの小さいフルサイズモノクロセンサーを使うとかでしょうか。まあ、技術的にも予算的にも全然無理な気がします。


カメラをASI290MMに戻すか?

ここまでの調整の甲斐もあり、G3M678Mで撮影範囲も広がり、かつ分解能も上がっています。その一方、今回の画像を見ても、まだ真ん中と端の方では差があり、これはHαの分解能なのか、収差などでピントがあっていないのかまだわかりませんが(エタロンがかなり無理をした位置に置いてあるので、後者の可能性も高いと思います。)、画角的には欲張りすぎな気がしています。

というわけで、カメラをASI290MMに戻すことを考えています。戻すことは結構利点があって
  • 大きな黒点が少なくなってきて、ある程度の狭角で撮らないと迫力が出ない。
  • G3M678Mだと、ワンショットあたりのファイルサイズが3-4GBで、すでに大きすです。ASI290MMだと800MB程度です。ちなみにこの6月5日に撮影したファイルの総量は600GB超えです...
  • G3M678Mのフレームレートが23fpsと結構遅いです。ASI290MMは60-70fpsくらい出ます。
  • 画素数もすでに多すぎる気がします。タイムラプス映像でYouTubeにアップするとしたら、横は1920ピクセルあれば十分です。G3M678Mはいわゆる4Kカメラで横幅3840ピクセルと倍もあり、今回もかなり削って、最後は横が1920ピクセルになるように縮小しています。
  • また、分解能に関してはシーイングの方が効きやすいので、2μmまでは必要ない気もしています。画像処理、特にImPPGでの細部出しの時に、1ピクセルレベルの細部が十分聞いていない気がしています。
  • G3M678Mを今後別目的(分光太陽撮影のための新機材のSGH700)で専用に使いたい、というかそもそもこのカメラを買ったのはSHG700のためです。
などの理由があります。

その一方、ASI290MMに戻すときの問題点がニュートンリングです。G3M678Mでは全く出なくなったニュートンリングですが、ASI290MMではカメラを傾けない限りはまた復活するでしょう。大きな違いはセンサー前の保護ガラスかと思っていて、一度ASI290MMの保護ガラスを外してニュートンリングが出なくなるかどうか見てみようと思います。


まとめ

結局視野が広がる謎は解けていませんし、さらにまだカメラ位置と画角と分解能の関係は印象だけで検証さえもできていませんが、実用的にはやれることは大体やったので、この時点でカメラをASI290MMに戻すことでほぼ問題ないでしょう。少なくとも以前よりは良い状態で撮影できるようになるはずです。

あとはエタロンそのものを探ることですが、これはさらに大変そうなのと、今の状態でも撮影結果にはそこそこ満足できそうなので、しばらく放っておきます。今後は撮影例を増やしていきたいと思います。

さて、いよいよ次回からは新機材、分光で太陽を撮影する「SHG700」の始動です。多分できることがものすごく増えるので、じっくり取り組もうかと思っています。


最近ものすごく忙しくて、土日も仕事のことが多いです。先週末の福島も行けずじまいでした。そんな忙しい状況ですが、先週のある晴れた平日に朝早く起きて、色々と試しました。結局この日は自宅にいたので、セッティングだけして撮影中はほったらかしにしておきます。しばらく梅雨で何もできそうにないので、しばらくこの日にやったことを記事にしていきます。


SharpCapでのリアルタイム処理

最初はSharpCapを使っての太陽全景のタイムラプス映像です。SharpCap単体で、リアルタイムでスタックして細部出し、さらにはカラー化からプロミネンスの炙り出しまでできるので、撮影さえしてしまえば、あとは動画化するだけになります。


上記記事にSharpCapでの太陽全景撮影のための設定は説明していますが、実際の長時間タイムラプス映像はまだ試せていませんでした。なので今回の記事はその続編ということにもなります。


撮影設定など

実際の撮影です。全景撮影で太陽の細かいところまでは見えないためシーイングはあまり関係ないので、午後からの撮影としました。シーイングがいい午前の撮影については、C8で高解像度のテストとしましたが、これについてはまた後日記事にします。

20秒に1枚で、トータル2時間25分の撮影で、数えたら422枚の大量の画像です。枚数は多いですが、ファイル量としてはトータルで高々10GB程度です。同じカメラで動画撮影する200フレームのserファイル換算だと、たった3本分程度です。ちなみに動画の場合は100本レベルで撮影したりしています。しかも処理ずみの画像が保存されるので、それ以上の画像処理も必要なく、心理的にもかなり気楽です。

撮影中はPHD2でのガイドと、SharpCapでのセンタリングを併用しています。SharpCapでの設定内容は以下のようにしました。
スクリーンショット 2025-06-05 150152_cut

以前に示した設定よりも少し凝った設定になっていますが、これでほぼ完全にセンターに保つことができました。後々の位置合わせは全く必要なく、全コマに渡り、見ている限りピッタリ位置が揃っていました。これはすごい。

ただし、このことは快晴だったからというのが大きいと思います。これまで雲がある時にタイムラプス用の連続撮影を試していますが、小さな雲の通過でも影響が大きく、長時間撮影では途中で位置がずれてしまったり、スタックがうまくいかなくなったり、プロミネンスの炙り出しがうまくいかなかったりしていました。なので、このSharpCap単体でのタイムラプス映像のための撮影は(あまり設定にかかわらず
)、本当に雲がないという意味での快晴の時でないと、うまくいかないと思います。


出来上がったタイムラプス映像

繰り返しにもなりますが、今回のやり方の利点をまとめておきます。
  • リアルタイムで、スタック、細部出し、カラー化、プロミネンス炙り出しなど、それ以上の画像処理が必要ないレベルで、画像を保存していくことができる。
  • トータルファイルサイズを節約できる。
  • 各画像の位置合わせの必要が、全くない。
  • あとは、動画化するだけ。
なので、ホントに保存された画像をそのままアニメ化します。今回はPixInsihgtのblinkで動画化しました。blink上でtifから一旦pngにして、mp4で書き出しています。その後、ブログに載せるために以下のコマンドでYoutubeに適したフォーマットにしています。

 ffmpeg -i .\Blink.mp4 -vf "scale=1920:1400" -vcodec libx264 -pix_fmt yuv420p -strict -2 -acodec aac .\Blink_X.mp4

実際に出来たタイムラプス映像です。

見てもらってもわかりますが、はっきり言って全然面白くないんですよね。理由はひとえに動きが少なすぎるからです。でも実際には一部動いていて、たとえば左の大きなプロミネンス部分を拡大してみると以下のようになります。

たしかに動いていはいるのですが、いつものC8のタイムラプス映像と比べると、まあ当然ですが解像度不足なのは否めません。また、拡大して見るレベルだと太陽表面とプロミネンスの境がさすがに不自然です。

全景動画をよく見てみると、まだ他にも動いているところはありますが、上の動画よりはるかに小さな動きでしかありません。

結局、実際に長時間撮影したものをタイムラプス化して面白かったことは、2時間半で太陽の自転がわかったことでしょうか。これはタイムラプスというよりは、最初と最後の画像を比べればいいでしょう。
Blink3

赤道付近の自転の周期が25日程度というので、半回転180度として、それをざっくり12日で回転するとしたら、1日あたり15度、2時間半だと1.5度程度回転するはずです。高々2時間半でこれくらいわかるので、夏場の朝から晩まで、1時間おきくらいに撮影して12時間くらいの自転を見るのも楽しいかもしれません。


問題点

さて、今回長時間撮影してわかった問題点もあります。今後の改善のために列挙しておきます。
  • SharpCapで保存されたtif画像が、階調8ビットで保存されてしまっています。SharpCapのタイムラプスの設定画面の下の方に、画面のストレッチをしたら8bitで保存されると書いてあるので、逆に言うとストレッチしていなければ16bitで保存されるはずなのかと思います。実際、以前PhoenixとASI290MMで撮影した過去画像を調べたらきちんと16bitで保存されていたので、何か方法があるはずです。でも8bitで保存されたとしても、すでにプロミネンスまで炙り出し済みなら、階調は問題でないのかと思います。
  • 黒点やダークフィラメントなど、何か構造が見えるところだけボケてしまっていて、アニメ化するとブレてしまっています。SharpCapから保存されてtifファイルの時点でもうボケが見えているので、スタックの問題か、変なノイズ処理が入っているからとかかと思うのですが、今の所不明です。今回はアニメ化してからこのことに気づきました。次回からは画像をとにかく1枚保存して、きちんと撮れているか確認しようと思います。ちなみに、このボケのため、太陽表面が動いているように見えるものはほとんどフェイクです。
  • 太陽表面の模様があまり出ていない気がします。シーイングがものすごく悪かったのか、設定が悪かったのか、今となっては確認できません。短時間でいいので、serファイルを別途撮影しておけばよかったです。
  • やはり全景では変化がなさすぎてつまらないです。拡大してみるとプロミネンスの変化などがわかるので、拡大を前提に楽しむべきか、それでも拡大するとすぐに分解能の限界でアラが見えるので、どこまで拡大するかのバランスが大事なのかと思います。
  • プロミネンスの境が不自然に見えます。リアルタイム処理なので仕方ないのかもしれません。
  • プロミネンスの境がブレるようです。アニメ化すると目立ちます。

色々問題点もありますが、それでもこれだけ簡単にタイムラプス映像ができるのは、魅力なのかと思います。


まとめ

やっとSharpCapのリアルタイムスタックを利用して長時間のタイムラプス映像まで辿り着きましたが、あまり面白くもないので、これを今後継続するかはちょっと迷っています。ただ、問題点はまだあることはわかったので、もう少しはマシになるはずです。これらの問題点をある程度解決してから判断しようかと思います。

2025年5月18日の日曜日、前日の土曜の天気が悪くて悶々としていたところ、この日は朝から太陽が出ていて、6時頃には起きて早速太陽撮影の準備です。でも肝心の天気はというと、結構雲もあり、晴れ間を見つけて撮影とかになりそうでした。


エタロンの調整


IMG_1372

この日、最初にやりたかったことは、C8でのエタロンの調整です。ここ一か月くらい色々試していて、なかなか結果が出ていないのですが、この日新カメラのG3M678Mを使ったことで、少し進展がありました。ただし、まだ調整の余地がありそうなので、もう少し続けようと思っています。

エタロン調整はまだ結論まで出ていないので、もう少しまとまったら、また別途記事にします。


黒点周りをより広角で

朝の早い時間を利用したかったので、エタロン調整の成果を試すべく、すぐに撮影に入ります。まずは黒点周りです。

1ショットあたり200フレームで、いいシーイングを逃したくなかったので30秒に1回、トータル30分で合計60ショットとしました。30分の短時間にしたもう一つの理由がファイルサイズです。カメラをこれまでのASI290MMかG3M678Mに変えたので、前回計算したとおりピクセル数は約4倍になるため、ファイルサイズも単純に4倍くらいになります。ディスク喰いなので、長時間撮影を何度もできないということに気づきました。

撮影後、全60ショットを仮処理して、細部出しまでしてから改めて分かったのですが、この日は相当シーイングが良かったです。以前のかなりシーイングがいい日と思った日の、1-6までランク付けしたときの基準に合わせてみると、悪い方のランク6と5は皆無、4もほぼないと言っていいでしょうか、全部3以上で、ランク1の枚数が多かったです。ただし晴れ間は続かなくて、撮影したうちの3分の1程度はほぼ真っ暗で捨てることになりました。多少暗くなっているだけのものは残しています。そのうち、ランク1の中で、実際そこまで差はないのですが、一番いいと思われる時間帯の、ほぼ連続した4ショットを処理しました。モノクロ、カラー、カラー反転版を載せておきます。

07_51_59_pipp_lapl3_ap15534_IP

07_51_59_pipp_lapl3_ap15534_IP_color_s

07_51_59_pipp_lapl3_ap15534_IP_color_inv._mod_sjpg
  • 撮影場所: 富山県富山市
  • 撮影時間: 2025年5月18日7時51分
  • 鏡筒: Celestron C8 口径203mm、焦点距離2032mm
  • エタロン: Coronado P.S.T.
  • 赤道儀: Celestron CGEM II
  • カメラ: Touptek G2M678M
  • 撮影ソフト: SharpCap 4.1 (64bit)
  • 画像処理: AS!4にてスタック、ImPPGで細部出し、PixInsightでカラー化など、PhotoshopCCで仕上げ

まず、カメラをこれまでのASI290MMかG3M678Mに変えたので、画角が縦横ともに1.5倍くらい、面積では2倍以上増えています。それでも良像範囲が増えているのは、エタロン調整の効果です。しかも揺れも少なく安定していたせいか、四隅を含めてほぼ全面にわたって使える画像になっています。今回はクロップを何もしていないので、ずれたところも含めて表示していますが、細い枠程度でほとんど影響がないくらいの範囲で収まっているのがわかります。

ピクセルサイズが小さくなったせいなのかわかりませんが、ASI290MMの時に比べて明らかにノイジーになっています。もしかしたら、ImPPGが細かすぎる画像が苦手なことがあるので、その生の可能性もあるかもしれません。ここら辺はもう少し経験を積む必要があるでしょう。

あと、黒点の右側など、まだピントが合っていない部分が変な形であるように見えます。エタロンのせいなのか、C8やカメラのせいなのか、なぜかはまだ謎で、ここら辺をもう少し突き詰めていきたいと思っています。


プロミネンス

次はプロミネンスです。大きなものがいくつか出ていましたが、午後4時半方向の南西に出ているものが大きかったので、それがカメラの長辺になるようにカメラを回転して撮影しました。プロミネンスを撮影したカメラもG3M678Mなので、これまでより広い範囲で撮影ができています。

黒点撮影の時より、さらにシーイングが安定だったみたいで、ほぼ全ての画像でかなりの解像度が出ていました。どれが一番いい画像が選ぶのが難しくて、いっそのことタイムラプスにしてしまおうと、少し処理を進めました。

本当は1時間撮影する予定でしたが、途中で雲が出てしまい、結局連続で使えた部分は午前8時19分から8時46分までのわずか26分間でした。その26分の間も多少雲が通過して少し暗くなってしまったショットもありました。明るさ調整は多少できますし、暗い時に出るノイズもタイムラプスで動画にしてしまうと目立ちにくいので、それでとれる最大の26分を使いました。そうは言っても高々26分の52コマなので、タイムラプスとしては短くて全然期待していなかったのですが、ある程度拡大しているからなのでしょうか、連続で見ると結構動いているのがわかります。

output-palette2

上の動画は、ブログ上で動くのが見やすいようにgifファイルにしていますが、サイズがかなり制限されてしまいます。HDMIサイズにした動画はYoutubeに挙げておきましたので、よかったらご覧ください。

今回はシーイングが相当良かったので、1枚1枚の画像処理をかなり抑えています。多少ノイジーなところは残っていますが、細かい様子も十分残っていて、短時間ながら迫力ある映像になったのではないかと思います。

これだけの良好なシーイングだったので、もしずっと晴れていたらと思うと、とても惜しかったです。


全景

IMG_1377
もうかなり雲が出てきています。この後、全面を覆うようになっていきます。

最後は太陽全景です。この頃には一つ一つの雲が大きくなってきていて、鏡筒を変えて導入するときも、ピントを合わせるときも、一瞬太陽が出たところで素早く合わせていました。時間がたつほど全面が雲に覆われてきて、撮影時はかなり待ちながら本当に一瞬で出たところを何ショットか狙いました。何度かの途中で雲が通る程度での撮影したあと、9時46分に、やっと全く雲が通らない1ショットが撮れて撤収としました。

画像処理はこれまで通りで、こちらもモノクロ、カラー化、反転バージョンを作ってみました。

09_46_31_lapl3_ap2937_out_mono

09_46_31_lapl3_ap2937_out_color

09_46_31_lapl3_ap2937_out_color_inv

PSTでここまで撮れるならかなり満足です。解像度もピクセルサイズが2μmと小さいので、拡大して見てもある程度耐えうるくらいに、十分に出ています。今回の撮影では分解能を出すために、エタロン位置を、8cmの口径が効くように、かなり後ろにしています。後ろにする理由は前回記事をご覧ください。


その後の処理

撮影後は完全に曇ってしまって時間ができたので、画像処理に移りました。

簡単そうなので先に処理を始めた全景は、その日のうちに済んでXに投稿したのですが、C8で撮影した黒点周りとプロミネンスは新カメラということもあり、思ったより時間がかかってしまいました。天気がイマイチで雲が結構な頻度で通り、少し暗くなった画像をどうするか迷ったのと、画角が広くなった分のエタロンの調整がまだ不十分で、どこまで採用するかを迷ってしまったからです。特に、プロミネンスは静止画にするかタイムラプス化するか迷いました。タイムラプスの処理過程は静止画より遥かに複雑で、前にやったものを思い出しながら、しかもカメラが違うのでパラメータも違い、思ったより時間がかかってしまいました。


まとめ

処理した画像は、まだ一部の個所に不満はありますが、全体としてはそこそこ満足です。これはシーイングがかなり良かったのが主な理由です。このクラスのシーイングで、天気が良く、別の大容量外部ディスクなども用意して、思う存分撮影し、処理もルーチン化して慣れた状態で短時間でできるなら、もう夢のようですね。エタロンの調整は、まだ余地があるならもう少し続けたいと思います。



黒点周りのタイムラプス映像のための画像を処理していてい、とても面白いことに気づきました。これは今後の分解能出しに大きく影響しそうです。


短時間で大きく変わる分解能

全く同じ条件で撮影しているのに、1枚1枚の画像の分解能が全然違うのです。例を示します。

こちらはある時刻10時42分のものです。200フレーム撮影したもののうち、AS4!で上位90%をスタックし、ImPPGで細部出しをしています。かなり解像度が出ているのがわかります。
10_42_19_lapl2_ap3983_out

次はその1分後のものです。全く同じ条件でAS4!でスタックし、ImPPGでこれも全く同じパラメータで細部出しをしています。何も変えていないのに、ボケボケです。
10_43_23_lapl2_ap3860_out

次はさらに1分後です。再び解像度は復元しています。
10_44_28_lapl2_ap3962_out

わずか1分でここまで変わっていいのかというくらいの違いです。これらの例の他にも、解像度が悪いのが3枚ほど続き、復帰しているなどもあります。


2時間の中でベストとワースト

120分の中で、ベストの11時46分5秒のものと、ワーストの11時16分55秒のものです。処理条件は上の3枚と全く同じです。ここまで違っていいのかというくらいの違いです。
11_46_05_lapl2_ap3983_IP2_13

11_16_55_lapl2_ap3756_out


分解能が変わる原因

この突発的な解像度の変化の原因は、いくつかの可能性が考えられます。
  • シンチレーションの悪化
  • 風で揺れた
  • 何かの拍子に地面が揺れた
  • たまたま機材の不調などな
などでしょうか。

これらの分解能の違いはリアルタイムで画面を見ていた時は、あまり違いに気づけませんでした。今回、ImPPGで細部出しをして、そこで比較していいものと悪いものを動画に戻って比べて見てみると、ああなるほどと思ったくらいです。

分解能が悪くなるのは、2時間の撮影中のある時間帯だけに起こっているのではなく、最初から最後までバラバラに発生しています。こう考えると、
  • 地面の突発的な揺れがこんなふうにバラバラの時間で満遍なく発生するとはあまり考えられません。
  • また、風の場合は画面が大きく揺れることがわかっていますが、分解能が悪い時の動画を生で見てみると、どうも細かい揺れが多いように見えます。
  • 機材の揺れだと事故的に単発で起こるか、もしくは何かが原因で周期的に起こるかなどです。短髪にしては頻度が多すぎます。また、ばらついてはいるものの、周期的に起こっているわけではないようです。
なので、とりあえず今の所はシーイングの時間変動と考えるのがもっともらしいと思っていますが、もし仮にそうだとしたら、シーイングが分単位でここまで変化するとは本当に驚きです。シーイングが時間で変わることは知識としては知っていましたが、30分とか、せいぜい早くても10分とかいう単位だと思い込んでいました。今の所時間スケールはまだはっきりとはわかりませんが、分かそれ以下の時間でで大きく変わると考えて良さそうです。

こうなると今後の撮影方針はかなり変わってきます。これまではいいシーイングを探して、3-4時間の中で数十分おきに撮影したりしたことはありました。その時は明確な差は判らなかったので、それ以降いいシーイングを探すのはあきらめてしまっていました。今回の結果から考えると、数十分おきとかではいいところを探しきることはできなかったのでしょう。


分解能の時間のばらつき具合

120枚の分解能の内訳ですが、
  1. ベストに近いもの: 5枚
  2. ベストクラスからは劣るけれども、そこそこいいもの: 15枚
  3. 特別いいわけではないけれど、普通にいいもの: 39枚
  4. それより分解能があからさまに劣るもの: 39枚(前々々回のブログ記事で示した、最初の時間の撮影で1000フレームで仕上げたものはこのランクの中の悪い方か、次の5のランクの中のいい方くらいでした)
  5. 仕上げには絶対使いたくないもの: 17枚
  6. ワーストクラス: 5枚
といったところでしょうか。

ベストの5枚の時間はそれぞれ: 
  • 11時5分1秒
  • 11時43分54秒
  • 11時46分5秒
  • 11時55分48秒
  • 12時26分3秒

ワーストの5枚の時間はそれぞれ: 
  • 10時43分23秒
  • 11時16分55秒
  • 11時19分5\4秒
  • 12時27分8秒
  • 12時28分13秒
となっているので、少し近い時間帯もありますが、そこまで偏っているわけではなくて、結構散らばっているのがわかるかと思います。

せっかくなので、典型的な画像も載せておきましょう。順に上の順位の1から6の中で、それぞれ真ん中らへんのものを選んでいます。

1_10_45_33_lapl2_ap3969_out
2_11_11_30_lapl2_ap3983_out
3_12_10_54_lapl2_ap3858_out
4_12_20_38_lapl2_ap3952_out
5_12_08_44_lapl2_ap3915_out
6_11_19_04_lapl2_ap3906_out

ある程度正規分布に従いそうなので、数多く撮影して一番いいものを選ぶというので、これまで適当な時間を一本だけ撮影するよりは、大幅な改善が期待できそうです。


ベストの200フレームの中で

あともう一つ、ベストと思われる11時46分5秒の200フレーム撮影のうち、ベストと思われるものとワーストと思われるものを示しておきます。一本のserファイルを200枚のTIFF形式に分解し、個々の画像にImPPGで細部出しをしてみました。

11_46_05_102_out

11_46_05_182_out

わずか数秒の撮影中にも、分解能のいいもの、悪いものが存在するようです。この200フレームを、いいと思うものと、悪いと思うものの2種類に分けてみたのですが、いい時も悪い時も10枚くらい続くことが多かったです。ということはいい時と悪い時が0.3-0.4秒おきくらいのタイムスケールで替わっていると考えることができます。まだ今回だけの話なので、これがどこまで一般的かはわかりませんが、もしこのタイムスケールが本当だとすると、想像していたよりもはるかに速く入れ替わっているという印象ですです。


4月5日の評価

その後の別の日の連続撮影などから分かったのですが、4月3日は(朝ということもあるでしょうが)基本的に平均してかなり分解能よく撮れた日だったのかと思います。分解能が悪かった日も、機材や画像処理の条件は4月3日と同じで、さらに特に風が強いとかでもなかったので、少なくともシーイングが大きく変わったと考えてよさそうです。このような日の場合は、ほとんどの時間帯の分解能が悪くて、ごくごく稀に分解能がいい時があるというような感じです。これまでたくさん撮影してきましたが、実はほとんどの日は、このようなシーイングがあまりよくない状態だったと思われます。たまによく撮れた日は、平均してシーイングがよかったのでしょう。でもベストでは全然はなかったはずです。

「太陽撮影はシーイングがいい時間帯を見つけて撮影すればいい」というようなことは聞いていたのですが、この意味が実は全くわかっていなかったことが、今回よくわかりました。シーイングが特別いい日でなくても、本当にシーイングがいいかなり短時間の瞬間があるということがやっと理解できました。これまでこんな短い時間で比較して選んだことはなかったので、いい瞬間に巡り会えたことはほぼなかったと思っていいと思います。

4月5日の結果から、シーイングは、1分あればいい状態から悪い状態へとポンポン変化して、さらに突き詰めると、0.1秒とかいうスケールでいい悪いが入れ替わっても全くおかしくないということがわかりました。もう少しサンプル数は増やしたいですが、だいぶん正体が見えてきたので、実際の撮影間隔をどれくらい取ればいいかがある程度決定できそうです。


いいシーイングの威力

2時間の撮影の中でベストを選ぶのと、適当な時間にたまたま撮ったものを比べてみましょう。まず、タイムラプスで撮影した120枚の中で分解能がベストと思える、11時26分5秒のものを処理したものです。露光時間1.25msで、200フレーム撮影したものです。60FPSくらいは出ているので、3-4秒間にわたり撮影したことになります。200フレームのうち、さらに(AS4!の選別がまだ信用できないので)目で91枚を選別したものをスタックしています。
11_46_05_lapl2_ap3963_IP_ST

次に、前々回のブログに載せた、この日の最初の方でに1000フレームで撮影したものを下に再掲載して、比較してみます。露光時間は同じですが、60FPSとすると20秒くらいに渡って撮影しています。そのうちAS4!で上位75%を採用しているので、750枚のスタックになります。
07_52_22_lapl2_ap3839_c

比較すると、上の方がわずか91フレームながら、圧倒的に高解像度なのがわかるかと思います。下の方は塗り絵みたいで気持ち悪いです。でも最初の記事を書いたときはこれでも分解能はいい方だとしんじていました。

もちろんノイズ的には少数フレームの方が不利なので、軽めのノイズ処理をしていますが、仕上がりは比べるまでもないと思います。ベスト画像を選ぶことが、いかに大事かがわかるかと思います。

いい時間を選ぶことでかなりきれいに出たので楽しくなってしまい、91フレームのものを、色反転したもの、さらにモノクロとその反転も作ってみました。
11_46_05_lapl2_ap3963_IP_ST_inv
11_46_05_lapl2_ap3963_IP_ST_mono
11_46_05_lapl2_ap3963_IP_ST_inv_mono

ここまで出ると、こうやっていろんなパターンを作る甲斐もあるというものです。ただ、こうやって見て改めて思うのは、PSTのエタロンの限界です。どの画像もそうなのですが、上の方とか右の方は、やはり波長がずれていて、分解能も落ちてしまっています。分解能が良くなってくると、その差も目立つようです。ここら辺の改善が次の課題でしょうか。でもそんなに簡単ではなさそうです。

同じく、プロミネンスです。こちらは1分おきに200フレームで30分間撮影したものの中から、ベストなものを選び、AS4!で上位90%を選んでスタックしたものです。

08_44_10_lapl3_ap3959_newIP_ST

次が前々々回示したもので、1000フレームを75%スタックしたものです。
08_00_23_lapl2_ap1030_nodot_c_2

プロミネンスだけでなく、太陽表面が全然違います。分解能がいいと、表面に結晶の花が咲いたような模様になります。上の方の画像の画面の右はやはりエタロンのせいで波長がずれてしまっていて、分解能が全く出ていません。ここまで違うと、うまく出ていない所はもうクロップしてしまった方がいいのかと思います。実際、下の画像は目立たないようにクロップしていました。


まとめ

これまで仕上げ用には最低500フレーム、場合によっては2000フレームとか撮影していましたが、大事なのはフレーム数ではなくて、シーイングがいい時間帯をいかに選ぶかということでした。いい時間帯を選んだ上で、仕上げるのには100フレームもあれば十分だということもわかりました。

これまでなかなかいいシーイングの見つけ方がわからなかったのですが、この4月5日は平均してシーイングがいい日だったので、色々検証することができました。今回は、口径20cmで焦点距離2000mmという機材の分解能に制限されない状態だったので、シーイングがいい状況にきちんと対応でき、その違いを知ることができたと考えてもいいと思います。言い換えると、口径20㎝とかを生かそうとしたら、シーイングを相当選ばないと意味がないということです。

そして、シーイングがいい瞬間は確率的に少ないですが、確実に存在はするので、それを取りこぼさないように長時間で何ショットも取り続けて、その中でベストのものを選ぶのがいいのかと思います。こうすることで、これまで本当に運頼みだった良シーイングを、ある程度確実にものにする方法を得たということになります。その代償として失うものは、余分に使う撮影時間とディスク容量といったところでしょうか(笑)。

ただし、静止画の場合はこれでいいのを選べるのですが、タイムラプスだとベストを選び続けるのは不可能です。これは仕方ないのですが、静止画と動画は画像処理も違う手法が取れるので、そこらへんに解があるのかと思っています。





今回はPixInsight上で動く、太陽画像処理用のSolar Toolboxを紹介します。すでに使っている人も多いかと思いますが、日本語の解説はいまだにどこにも見当たらないようです。


PixInsightの太陽画像処理ツール

PixInsight上で動作するSolar Toolboxというスクリプトが、今から1年ほど前の2024年2月にリリースされました。当初から使ってみたいとは思っていたのですが、今のImPPGからPhotshopという流れでそこまで不満ではなかったので、そのままになっていました。

転機になったのは、Astrobinの2025年4月1日のImage of the dayです。恐ろしく精細なプロミネンスのタイムラプスにびっくりしました。とてもじゃないですが、自分ではここまで出せる自信はありません。使っているツールの中にSolar Toolboxという名前を見つけたので、「あ、やっぱりいいんだ」と思ったのがきっかけです。

Solar Toolboxのインストールは

https://www.cosmicphotons.com/pi-modules/solartoolbox/

をPixInsightのレポジトリーに追加し、アップデートをチェックし、その後PIを再起動します。すると、メニューの「Process」の中に「Solar」という項目が作られていて、その中に「SolarToolbox」が追加されています。

Solar Toolboxは、機能的にはストレッチ、プロミネンスの切り分け、プロミネンスのブースト、コントラスト調整、カラー化と、カラー化に際しての色バランスとコントラスト調整、細部出し、デノイズなどがあります。カラーかと細部出しについては、マスク処理もできるようです。これだけ高機能なところをみると、一見他のツールが必要ないようにも思えるかもしれません。一通り試したのですが、決して万能のツールというわけではなく、得意、不得意があるようです。

モードは3つあり、「太陽表面のみ」と「プロミネンスのみ」と「太陽表面とプロミネンス」になります。自分が撮影した画像に応じて選びます。


事前理解と準備

これ以降はできるだけ機能を説明するために「太陽表面とプロミネンス」を前提に話します。他のモードだと、いくつかの機能が使えなくなります。

スクリーンショット 2025-04-15 010102_dialog

ダイアログの右下のDonumentationボタンを押すと、ヘルプファイルが出てきますが、あまり大した説明はないようです。作者によるインストラクション的な動画がアップロードされていて、それを見るのがいいのかもしれませんが、私はあまり動画を見るのが好きでないので、自分で一通り試してみてから、わかりにくいところだけを動画で見てみました。動画は英語なので、英語が苦手な場合は説明を聞くより実際自分でパラメータをいじって何が変わるかを見た方が早いと思います。その上で、今回は私が試した限りで、どの機能が有益で、どの機能はもう少しとかの説明や感想を書いておきます。

そもそも撮影後の、どこまで処理が進んだファイルを読み込ませるかですが、
  • 少なくともAutoStakkert4!などでスタックした後のファイルを使うことになるでしょう。
  • 細部を事前にどこまで出しておくか、プロミネンスの強調やコントラストをどこまでやっておくかは、Solar Toolboxでどれだけ処理をするかに依ります。このSolar Toolboxですが、特に細部出しはあまり強力ではないようなので、少なくとも細部出しはImPPGなどである程度あらかじめすませておいた方がいいのかと思います。
  • プロミネンスとコントラストはSolar Toolboxが結構得意なので、事前に何も弄らなくてもいいでしょう。
  • また、ImPPGなどでヒストグラムの形をいじって暗いところをあらかじめ炙り出しておくのは、やめておいた方が良さそうです。下で説明するプロミネンスのブーストが、事前に炙り出されていないことを前提にしているみたいで、あらかじめ炙り出してあると、明るくなり過ぎたり、特にImPPGで処理するとドット状のノイズが目立ってしまいます。
  • その一方、ヒストグラムの左右を切り詰めておくことは、あらかじめやっておくと楽です。例えばImPPGだとヒストグラムを「見ながら」切り詰めができる一方、Solar Toolbox上だと、切り詰めパラメータを一回入れる毎に、画像の変化をいちいち時間をかけて見なければならないです。効果としては全く同じですが、時間がかかる上に、見通しがとても悪いです。

Solar Toolboxでは、何をするにしてもリアルタイムプレビュー画面を見ながら各機能のパラメータの値をいじるのですが、一つパラメータを変えるたびに結構な時間をかけてプレビュー画面を更新します。全然リアルタイムではないので、できるだけ速いPCを使った方がいいです。


プロミネンスの切り分け機能

まず、一番上のプロミネンスの切り分け機能です。パラメータの微調整がシビアですが、うまく設定すると太陽表面と周辺のプロミネンスを綺麗に分けることができます。デフォルトの0.5を一度大きく変えると何が変わるか見えるので、どんな機能かがわかるかと思います。わかりにくい場合はすぐ下の「Invert」オプションをオンにしてみてください。傾向がわかったら、0.05単位くらいで微調整していけば、好みの切り分けにできるでしょう。

これに相当する機能は、ImPPGでヒストグラムの曲線をいじって、プロミネンス部分と太陽表面部分を切り分けて輝度調整するとかですが、それよりもSolar Toolboxの方がうまく分離できるようです。普通は輝度の違いだけで判断するとあまりうまく分離できないのですが、Solar Toolboxではかなりうまく分離できるので、見ているのは輝度だけはないのかもしれません。一般的には、うまく分離しようとしたらマスク処理が必須となるのですが、マスク無しでうまく分離できるのでかなり便利です。

Solar Toolboxのストレッチは、ブラックポイントとホワイトポイントの切り詰めだけです。この切り詰めはあらかじめImPPGでやっておいた方が、デフォルトのブラックが「0.000」とホワイトが「1.000」をそのまま使えるので楽です。プロミネンスの背景が明るすぎる場合、ブラックポイントを0.01とか、0.02とかに上げて微調整します。プラージュとかの白いところの階調があまり取れていな場合は、ホワイトの値を1.1とか1.2まで上げると、多少階調を改善すことができます。

ImPPGならヒストグラムを見ながら、ガンマ補正や、曲線そのものを任意にいじることができるので、あらかじめいじっておいてもいいですが、今のところSolar Toolboxの使用が前提なら、事前にあまりいじらない方が楽っぽいです。ImPPGでいじって、さらmにSolar Toolboxでいじると、パラメータが多すぎてよくわからなくなることが多いので、私はImPPGでは細部出しと、ブラックとホワイトのと切り詰めをするだけにしています。


プロミネンスのブースト

プロミネンスのブーストは必要十分な機能です。ImPPGの方がヒストグラムで調整できるので、一見高機能に思えますが、再現性や安定度という意味ではSolar Toolboxのシンプルな操作の方が上かと思います。ImPPGでプロミネンスをあぶり出ししていなければ、0.7とか0.8とかの大きな値にしてもいいかと思います。

3D機能は開発者の動画解説によると、周辺のブーストと太陽表面の球のような輝度分布を重ねるような効果だそうです。3D機能を使わないと、太陽全体が見えている時なんかは太陽表面の輝度がフラット化されて、ノペーっとして、3D機能の値を上げると、立体感が増します。太陽表面の印象が印象が変わるので、いろんな値を試して好みを探るといいでしょう。


コントラスト

コントラスト設定はかなりわかりにくいです。まずは左タブの「Histgram equalizatin」で説明します。「Contrast limit」の数字を上げると明るくなって、下げると暗くなるのが基本操作です。「Kernel radius」でどれくらいの粗さかを決めますが、値が100とか小さ過ぎると輝度が大きな範囲で凸凹するようです。私は普段は200以上の大きな値を使っています。

マスク処理は、チェックボックスをオンにしてマスクを表示させながら調整するといいでしょう。「Surface Only」で基本的に太陽表面のみにするか、「None」で全体にするかを分けるものです。「Surface and prom」で好きなところを選べますが、こちらはマスクの状態をよく見ながら、輝度を「Shadow」で合わせる必要があるので、ちょっと面倒です。

結局、「Histgram equalizatin」はかなり扱いにくかったので、隣の「Local contrast」を使った方が楽かと思います。左の「Histgram equalizatin」と右の「Local contrast」は完全に独立な設定で、どちらかを選ぶと、もう一方の設定は全部無視されます。「Local contrast」は数値を大きくすると、特に太陽表面の模様の明るいところと暗いところの差がうまく強調されます。

次のカラー化のところのコントラスト調整と合わせて、この「うまく」コントラストを出すというのが今回のSolar Toolboxを使うことの一番のメリットなのかと思っています。というのも、例えばHα画像をPhotoshopに持っていって、ありとあらゆる調整を試しても、コントラストを素直にうまく改善する機能がほとんど見当たりません。私は普段はImPPGでコントラストを強調してから、Photoshopではほんの微調整くらいしかしませんが、もっと簡単にコントラストを調整できたらとずっと思っていました。そういったい意味で、このSolar Toolboxは非常に優れていると思います。


カラー化

もう一つのSolar Toolboxの利点は、カラー化です。カラー化自身はPhotoshopのレベル補正でなどでもできますが、なかなかいいパラメーターが決まらず、毎回違った設定になって結果も安定な色になりません。

Solar Toolboxのデフォルトの色バランスの設定はかなりうまく選んであって、少し変えてみて結局元のデフォルトの色方が良かったりしたので、ほとんどの場合はデフォルトで処理してしまっています。デフォルトを使うと決めてしまうと、たとえ他の画像を処理しても、かなり安定な色になることが期待できます。もちろんコントラストなどの設定が色味を変えることがあるので、色の微調整はするかもしれませんが、今後画像によって大きくブレるかとは無くなるのかと思っています。

カラー化する場合、その中で2種のコントラスト設定をいじることができます。これらもとてもうまくコントラストを上げてくれるので、下手にPhotoshopなどで自分でやるよりも、簡単に安定して処理してくれるでしょう。ハイライトの方は効果がすぐにわかります。高くすると見栄えが良くなります。通常のコントラストブーストは効果がわかりにくいです。ものすごく大きくしてやるとやっと違いがわかると思います。

ストレッチは0.5から下げると明るくなり、上げると暗くなります。全体の明るさをいじるのはここがメインになります。カラー化する場合はこのストレッチ機能が使えるからいいのですが、モノクロのままだと全体の輝度調整をするのが結構面倒だったりします。モノクロの場合は素直にHistgramTransformationとか使った方が楽かもしれません。

Solar Toolboxダイアログの一番上の「Image type」で「Prominence only」を選ぶと、プロミネンスのマスクが使えるようですが、ここでいうProminence only用の画像とは開発者の解説動画によると、太陽表面が完全に飽和したような画像のことのようです。今回そんな画像は試していないので、ここのマスク機能はまだ使えていません。


細部出し

最後のSharpningは結構微妙です。もちろんシャープにしてくるのですが、こちらはそこまで強力ではなく、ImPPGなどの方がはるかに簡単に強力に処理してくれます。

私が思うImPPGの唯一の欠点は、デノイズ機能がないことです。そのため、ちょっと強力な炙り出し処理をすると、途端に背景とかにツブツブが載ることです。これは月をImPPGで処理すると良くわかります。太陽だとモジャモジャしているところも多いので、背景以外はあまり目立たないのですが、月は表面で滑らかなところがありツブツブが目立ちます。なので、月にはImPPGを使うのを諦めた過去があります。

例えばRegistaxのWaveletや、PIのMultiscaleLinearTransformなどは、細部出しと共にデノイズ機能があるので、ツブツブ感が軽減できるのですが、細部出しそのものについては手軽さまで考えるとImPPGの方が上だと思っています。なので、ImPPGでストレッチと細部出し、少しのプロミネンス強調までして、PIに持っていきMultiscaleLinearTransformでデノイズ処理、その後Solar Toolboxでプロミネンス強調、コントラスト調整、必要ならカラー化とカラー化に伴うコントラスト調整、さらに必要なら細部出しとデノイズを僅かにといったところでしょうか。


タイムラプスへの応用

Solar ToolboxがPixInsightをベースにして動くことで便利なのは、コンテナを使って複数ファイルに自動で同じ処理を適用できることです。今のSolar Toolboxは細部出しが苦手っぽいので、ImPPGを使わざるをえない状況かと思いますが、ImPPGもバッチ処理機能があるので、複数画像に同じ処理を適用できます。連続処理できるツールのみを使うことで、タイムラプスで多数の画像を楽に扱うことができるようになります。


まとめ

Solar Toolboxを一通り試してみましたが、かなり使えます。特にカラー化の安定性と、コントラストを出しやすい点は気に入りました。ただ、Solar Toolbox単体で十分かというと、そういうわけでもないので、他ツールとの併用がいいのかと思います。もう少し使い込んでみようと思います。






前回からの続きで、4月5日の太陽撮影の(その2)になります。


4月5日は快晴で雲のない時間帯が続いたので、大量に撮影したものがあって、その処理が長引いしてまいブログ記事を書く速度が全然追いついていないです。しかもその間に次の週末が来てしまい、新たな撮影が追加されてしまいました。前週のタイムラプス映像の処理がやっと終わったところで一旦記事にしておきます。


プロミネンスのタイムラプス映像

今回は太陽タイムラプスです。前回記事で見せた、太陽表面と周辺の画像撮影をした直後から、プロミネンスの連続撮影を開始しました。機材は前回記事の撮影と同じで、口径20cmのC8にPSTを取り付け、ASI290MMで撮影してます。赤道儀はCGEM IIです。

プロミネンスは大型のものの方が変化が見やすいようです。大型のもので、特に長く伸びている淡いところは変化が激しいと予測し、前回記事にも載せた東端に出ているプロミネンスを引き続き撮影することにしました。今回もカメラの長手方向に収まるように、カメラを90度傾けて撮影し、北が右側、東が上側になるようにしています。

PCの画面を見ると、1枚撮影した時よりも長いプロミネンスが伸びて出ているようなので、早く撮影を始めたいところです。撮影間隔と各撮影でのフレーム数は迷いましたが、1分おきに200フレームとしました。トータル時間もまだ決めてなかったので、とりあえず120枚で2時間としておきました。これは途中でやめる可能性も含めてです。

撮影が始まるとしばらく暇になるので、朝食と、もう一本の太陽望遠鏡を準備してました。ここら辺は前回記事に書いてますね。結局のんびりしていたら2時間が過ぎてしまっていて、PCを見たらすでに撮影が終わっていました。ところが、撮影したものを見てみると、30分を過ぎたあたりから少し雲が出ていて画面が暗くなっていたこと、長く伸びるプロミネンスはわずか30分でほぼ消えたこと、その後のシーイングは少し劣ることなどから、最初30分だけで処理することにしました。やっぱり早く撮影を始めれば良かったとこの時点で反省しました。

このプロミネンスタイムラプスの画像処理は、その後1日くらいで終えることができました。今回は静止画と同じく、見栄えがいいようにカラー化しています。カラー化する際、これまで色がなかなか安定しなかったのですが、静止画でいろいろ試して、やっと安定化する目処がついてきました。ここら辺の処理については別途記事にする予定です。

大まかな処理の流れは
AutoStakkert4! -> ImPPG -> PixInsight -> FIJI->ffmpeg
といったような順です。多数枚の連続処理なので、いつも仕上げに使っているPhotoshopだとちょっと面倒なので、今回はPhotoshopは使わないようにしました。
  1. ImPPGは細部出しと位置合わせをしています。プロミネンスは光球面と周辺部のコントラスト比が高いので、これだけでもある程度位置合わせできます。
  2. PixInsightはSolarToolboxで色出しと、Blinkで連番ファイルの書き出しです。
  3. 連続処理はImageContainereとProcessContainerを使っています。
  4. 位置出しは相変わらずFIJIが最強です。
  5. 動画化はffmpegです。

結果ですが、やはりシンチレーションが良かったのでしょう。動画にしてもそこそこ細部が出ています。


わずか30分ですが、プロミネンスの形も、長く伸びた筋も激しく変化しているのがわかります。ツンツン出ているスピキュールも分単位で出たり消えたりしています。光球面の模様に関しては、まだ精度よく出ているとは言えません。これは今後の課題でしょう。

1分おきでの撮影でしたが、これだけ激しい変化なのでやはり30秒ごと、できれば10秒とか20秒ごとでもいいかもしれません。特にスピキュールの出入りは相当速いようで、1分単位だと明らかに短すぎです。

1枚あたりのフレーム数の200枚ですが、この枚数だとやはり少な過ぎで、ImPPGでの細部出しの際に粒状のノイズが目立ってしまったのが気になります。これはフレーム数を1000枚程度まで増やすとかなり改善することはわかっているのですが、今後数時間単位の撮影を考えると、ディスク容量が足りなくなることは目に見えているので、できれば増やしたくありません。少なくとも今回の200枚では、ノイズ処理が必須でした。逆にノイズ処理を前提とするなら、200枚からどこまで減らせるかの方に興味があります。例えば、SharpCapのリアルタイム処理では100枚でもそこそこ見える画像になります。

フレーム枚数を増やすと、1ショットあたりの撮影時間も伸びるので、撮影間隔をあまり短くできないことも問題です。フレーム枚数を増やしても撮影間隔を短くしても、いずれもファイルの総量は大きくなっていきます。画質とディスク容量のトレードオフなのですが、今後もいい落とし所を探っていこうと思います。


太陽黒点周りのタイムラプス映像

プロミネンスタイムラプスの撮影が終了すると、そのまますぐに黒点周りのタイムラプス撮影に移りました。これも1分おきに200フレームで、2時間分撮影しましたが、こちらはそのうちの最後20枚だけ捨てて、約100枚を使うことにしました。

太陽表面は動きが少ないので2分おきでもいいと思っていましたが、まだよくわからなかったので今回は1分おきにしました。でも結果を見る限りかなり動きが速い部分もあり、1分で良かったと思っています。

プロミネンスとの処理の違いは、各種パラメータくらいで、大まかな行程はほとんど同じです。処理はその後数日けかてやっています。ある程度の時点で一度Xに投稿しましたが、コントラストがあまり高くなくて縞模様の動きがあまり目立っていないがどうしても気に入らなくなり、その後Photoshopのアクションの多数枚処理で色を変えたことが、プロミネンスの時の処理からの大きな違いでしょうか。

結果は以下のようになりました。変化がわかるように、25fpsで動画化してあります。短いので、よかったら繰り返し見てやってください。


出来上がった映像は、自分的にはかなりインパクトがありました。太陽表面はそこまで動いていないと思っていたのですが、一部は非常に激しく動いています。この激しく動いているところは、プロミネンスやダークフィラメントに相当する部分なのでしょうか?同じような模様に見えても、動きの差が場所によって全然違っています。

後半には小さいですが、一部フレアと思われる明るいフラッシュが見えています。フレアだとしたら、私としては初めて撮影できたことになります。


まとめ

今回、処理に思ったより時間がかかりましたが、できた太陽タイムラプス動画はすごいインパクトがありました。ずっと見てても飽きません。特に黒点周りの方は、最初の動画バージョンができた時に1時間くらい見続けていて、どこが面白くてどこの処理を変えたらいいとか、ずっと考えてました。

ちょっとした変更がとても大変だと言うことも今回実感しました。動画にして始めて判断できるところもあり、気に入らなくて途中のパラメータを触ろうとすると、最後までの処理を再び延々とやり直しになります。

今回時間をかけた甲斐もあり、方針も方法も大分見通しがついてきたと思います。今の機材でどこまで出せるのか、もう少し挑戦したいことがあるのでしばらくは太陽を続けようと思います。

ちなみに、この日の撮影だけでファイル総量は181GBにもなってしまいました。使わなかった動画ファイルを捨ててもこの量です。これからずっとタイムラプスを続けるとしたら、ちょっと考えたくなる量です。

次の記事はカラー化のことを書いておこうと思っています。











このページのトップヘ