前記事ではPSTの調整などのことを書きましたが、同日の土曜と次の日の日曜に太陽に対応したPHD2で、実際の太陽オートガイドを試しました。
CP+の講演の中でPHD2の対応対応についてちらっとだけつぶやいたのですが、まだ日本ではほとんど認識されていなかったようで、一部の太陽マニアにはかなり響いたみたいです。その後、実際試された方が何人もいるようです。
それまでは太陽のオートガイドには以前このブログでも紹介した、Lusol-Guideがよく使われていたようです。私も何度が試したのですが、
そんな折、PHD2の太陽版がリリースされたのは2024年の3月頃のことです。その後2024年8月にJun1Watanabeさんがラズパイで太陽の中心を星のように小さく表してPHD2に渡すという独自の太陽ガイドシステムを発表しています。ここ1年で、太陽ガイドに関していくつか選択できるまでになったというのは、とてもありがたいことです。
私はPhoenixが来てからPHD2を簡単に試しただけなのですが、使い勝手もPHD2と本質的に同じで、使いやすく本格的な制御にも対応していて、安定に動かすことができました。今の私 (わたし) 的な再太陽ブームにおける今回の目的は
まず、現在の太陽用のPHD2はいまだに開発バージョンということで、自己責任の範囲で試すべきで、マニュアルやサポートなどは十分でないということを理解しておく必要があります。
2025年3月24日現在の最新バージョンはリリースノートによるとv2.6.13dev7とのことです。
インストール後、カメラや赤道儀などの接続は普通のPHD2と何ら変わりはありません。
ガイド鏡筒ですが、普通に撮影用に使うものを流用すればいいかと思います。太陽は非常明るく、集光した際のエネルギーも大きくなるので、カメラを焼いてしまう恐れがあります。そのため、太陽用のフィルターなどを別途鏡筒前に取り付けるなどして手当てしてやる必要があります。
ガイドカメラはカラーでもモノクロでも構いません。モノクロの方が分解能がいいですが、大きな太陽を円でフィッティングするので、どこまでカメラの分解能が効くかは、別途きちんと検討する必要があるかと思います。
裏技的になりますが、ガイド鏡やガイドカメラを別途用意しなくても、例えばCP+で話したようなPhoenixとApollo-M miniなどの組み合わせで太陽の全景が一度に画面内に入るなら、そのメインの画像をガイドに使うこともできます。ただし、撮影用とガイド用で設定を共有しなければならないなどの制限もあるので、注意が必要です。また、カメラを共有する場合、太陽が全面一度に見えている場合はいいのですが、バローを付けたり、センサー面積の小さいカメラを使って太陽の一部しか見えていない時は、うまくいきませんでした。今回のPHD2の太陽版は、オプションで特徴点を見つけてそれを基準にガイドする機能も持っているのですが、試した限り短時間ガイドはできるのですが、少なくとも安定して長時間稼働させることはできませんでした。
C8のように太陽をかなり拡大して見る場合は、当然全景を見ることはできないで、別途ガイド鏡を用意することにしました。今回とりあえず使ったものはEVOGUIDE 50ED IIとASI178MCです。焦点距離が200mmでカラーですがピクセルサイズが2.4μmなので、かなり分解能良く見えるはずです。
以下、設定方法を書いておきます。
1. PHD2太陽版を立ち上げ、カメラと赤道儀を接続してから、露光を開始します。露光時間が長すぎて明るすぎる画面が見えると思います。
2. 最初にやることが、下の脳みそマークの右にある、太陽の設定ボタンを押します。すると別途設定画面が出てくるので、例えば下の画像のように設定します。この場合、2つ目のオプションがオフになっているので、太陽全体が見えている時の設定になります。

3. まずは露光時間とゲインを設定します。SharpCapできちんと見えるくらいの値にすればいいです。ここでは露光時間2msでゲイン0なので、かなり暗い設定ですが、これくらいでやっと飽和せずに黒点とかも見えました。ちなみに1msとゲイン0が設定できる最小の値なので、それ以上暗くしたいならフィルターを暗いものにするとかしないとダメです。飽和していてもうまく太陽の周りをフィッティングすることはでき、太陽中心はきちんと出るので、実際にはもう少し明るい設定にしても大丈夫です。
4. 太陽の形が見えたら、最小径と最大径を設定します。まずは100と2000とか極端な値を入れて、画面に円、もしくは半円が出るか試します。この円は、最小径もしくは最大径を変更するたびに、しばらくの間表示されます。
5. 出てきた円と太陽の大きさを比べて、ある程度太陽の大きさが範囲に含まれるように絞り込みます。
6. 径がそこそこ決まったら、ここで左下の「露光開始ボタン」の右隣の、「認識ボタン」を押します。
緑の円が太陽の周りにフィットされるはずです。うまくフィットされない場合は、最小径と最大径の設定を見直してください。
7. さらに「認識ボタン」の右隣の「ガイド開始ボタン」を押すと、初めての場合はキャリブレーションが始まります。キャリブレーションがうまく開始されない場合は、シフトキーを押しながら、マウスで左クリックしてください。
8. キャリブレーションが終了すると、自動的にガイドが始まります。
1日のうちで最初にPHD2を走らせた時は、ここで一旦ストップボタンを押して、極軸調整をするといいでしょう。
昼間は北極星は当然見えないので、極軸を合わせるのは普通は困難なはずです。PHD2にはドリフトアラインメントという機能があり、これで極軸を合わせることができます。この太陽バージョンのPHD2は、星の代わりに太陽を使ってドリフトを測定し、極軸調整ができるというわけです。ただし、太陽を使うということで、通常の星と違い少しクセがあります。
1. 露光して太陽中心を認識している状態で、PHD2のメニューの「ツール」から「ドリフトアラインメント」を選びます。
2. 「ドリフト」ボタンを押すと、ガイドをしない状態で太陽の中心位置が赤経、赤緯別に下に表示される時系列グラフに記録されていきます。その線が真っ直ぐになればいいのですが、極軸があっていないと上下どちらかに斜めに動いていきます。
3. 動く方向が確認できたら「調整」ボタンを押してから、まずは赤道儀の土台に付いている横方向のネジ(モーターを動かしてはダメです)をどちらか一方に、例えば半回転回してみます。
4. 再び「ドリフト」ボタンを押して、グラフがどう移動していくのか見ます。
5. 先ほどよりもグラフが真っ直ぐになったら、ネジを正しい方向に回した方ことになります。傾きが急になったのなら、間違った方向に回したことになります。
6. 傾きに変化が見えない場合は、再び「調整」を押し、ネジを同じ方向にさらに大きく、例えば今度は1回転回してまた「ドリフト」を押します。傾きが変わったと認識できるまでこれを繰り返します。
7. グラフが真っ直ぐになり、赤道儀の横方向があってきたら「次へ」ボタンを押して、今度は赤道儀の縦方向のネジを同様に調整します。
8. グラフが平らになってくると、太陽の中心周りにどれくらいの精度であっているかのマジェンタ色の円が表示されます。これが十分小さくなるまで合わせ込みます。
太陽極軸合わせのクセ 1:
問題は、ネジを回したときに、太陽の位置がずれてしまい、ガイド鏡で見ている範囲から外れてしまうと、それ以上何も進まなくなってしまうことです。こうなる前に、赤道儀の(今度はネジではなく)モーターで太陽が画面内に入るように調整します。ここが星を使う場合と最も違う点でしょうか。
太陽極軸合わせのクセ 2:
もう一つ問題があります。本来、赤道儀の横方向の設定は、ガイド鏡を南中方向に向けて赤緯のグラフを見るべきです。一旦それがあってから、さらに次にガイド鏡を東か西の方向を向け、今度は赤道儀の縦方向のネジを調整します。でも太陽は一つしかなくて、その時にある太陽の方向しかガイド鏡で見ることができません。なので、見ている方向によっては横方向もしくは縦方向の感度が良くなくて、うまく合わせられないことがあることに注意してください。
昼間にドリフトアラインメントで太陽でそこそこ合わせた後に、実際夜になって北極星を使って、改めてSharpCapの極軸調整で精度を見てみました。すると、4分角程度のズレがありました。
これまでドリフトガイドを使わずに、昼間の赤道儀をどうやって合わせてきたかというと、
というような手順です。この方法での精度はせいぜい1度角程度でしょう。このように考えると、ドリフトアラインメントを使った場合は4分角(=0.067度)、ザックリですが10倍程度は精度が上がると思っていいのでしょう。
一方、夜に北極星を基準にSharpCapで極軸調整するときは1分角以下は余裕で、例えば30秒角くらいまで合わせることができると考えると、太陽を使った昼間のドリフトアラインメントでの極軸精度は、夜の場合のザックリ10分の1くらいでしょうか。そもそも、ドリフトアラインメントではある程度調整を絞り込んでいくと、ピリオディックモーションの影響も無視できなくなってくるので、原理的に精度がそこまで出ないので、まあ妥当な結果かと思います。
それでも闇雲に合わせるよりは遥かに精度が上がるので、太陽やたぶん昼間の月でもできるかもしれないので、これを利用しない手はないと思います。昼間の極軸合わせはとても大変で、太陽撮影でもそうですが、例えば明るいうちから彗星や金星などを追尾したい場合や、昼間の明るい恒星観測などの際の自動導入など、応用範囲も広いのかと思います。
3月23日ですが、上のガイドの作業をする前に、まずはガイド無しでいつものように一通り朝イチで撮影したので、紹介しておきます。黒点周りが2枚と、プロミネンスです。特にプロミネンスは見事でした。
解像度は前日に負けます。シーイングは1日の中でも時間によって大きく変わるので、この時はあまり良くなかったです。風が強くてそれで画面が揺れるので、シーイングの良し悪しまであまり判断することができませんでした。
一方、こちらの黒点は下のプロミネンス3枚を撮影した後に、さらに追加で撮影したもので、上のAR4030を撮影したよりもシーイングは良かったようです。わずか8分でもシーイングは結構変わります。
ここからプロミネンスを3枚です。結構大きなものが出ていました。かなり分解能よく撮れているようです。スピキュールもピンピコ見えていて、シーイングもそこそこだったことがわかります。
オートガイドが活躍するのは長時間撮影の場合です。太陽だとタイムラプス映像にして、プロミネンスやフレアなどが時間ごとに変化する様子を、位置を変えずに撮影できるのが最も有効な活用方法かと思います。
SharpCapは電視観望で良く使われているように、ライブスタックが有名ですが、これは速くても秒ごとくらいでのスタックになります。最近のSharpCapでは、惑星や月や太陽をミリ秒単位でリアルタイムでスタックすることができ、さらにリアルタイムでWavelet変換して細部の炙り出しをするという、驚異的な進化を遂げています。Phoenixで太陽の全景を見ながら試した場合では、非常にうまく処理できていて、もう後処理が必要ないくらいのレベルになっています。具体的な様子は、CP+の太陽セミナー配信の41分30秒あたりからをご覧ください。
一方今回は、太陽全体が見えないようなC8で拡大した画像ををうまくリアルタイム処理できるか試してみました。
結論を言うと、ある程度は処理できます。ある程度というのは、プロミネンスはそこそこ細部まで炙り出すことができ、黒点周りなどの表面のHαの模様も、うまくパラメータを設定すればある程度の細部は出すことはできます。それでもプロミネンスもですが、特に表面の模様は、別途動画を撮影して後から処理したものとは仕上がり具合にどうしても差があります。決定的なのは、何かの拍子で位置が多少ズレた場合に、一気にリアルタイム処理での画像がボケたようになって、しばらく回復しないことです。これはPHD2の問題というよりは、SharpCapのリアルタイム位置合わせの問題のようで、うまくガイドができている時にも10分とか20分とかに一回程度発生します。これが発生した時は、素直にリアルタイムスタックのリセットボタンを押した方が回復が早いです。いじれるパラメータを全て触りましたが、完全に回避する方法は今回は見つけられませんでした。
なので全景が入らない場合は、.serの動画で撮影せざるを得ないというのが、今の所の結論です。
今回は2つのタイムラプス例を紹介します。実際プロミネンスは5種くらい、黒点周りは2種くらい撮影したのですが、どれも長続きしませんでした。結局SharpCapでリアルタイム処理で20分くらい撮影できたものと、個別に動画を撮影して日が沈むまで1時間くらい最後に撮ったものくらいしか、見る価値がありませんでした。
最初にSharpCapのリアルタイム処理でうまくいったと思ったものです。撮り始めてから1時間くらい自宅の中にいて、どれどれと思って見てみたのですが、途中からボケボケになって、さらに曇ってしまっていました。でも最初の方はプロミネンスの活発な動きが映っています。大きな動きの途中からしか撮影開始できなかったので、もう少し早くから始めればと、もたもたしていたのをちょっと後悔しました。
上の画像はShapCapで保存されたtifファイルを、ffmpegを使ってmp4にして、さらにffmpegでgif化してます。コマンドは
ffmpeg -i Blink.mp4 -filter_complex "[0:v] fps=10,scale=640:-1,split [a][b];[a] palettegen [p];[b][p] paletteuse" output-palette.gif
としました。グローバルパレットを使うことで、解像度とファイルの小ささを両立しています。
このあとは同じようにプロミネンスの撮影を開始して、Costcoに買い物に行ってしまいました。2時間ほどして戻ってきてから見てみると、やはり10分も持たずにボケボケ画像になってしまっています。ここからどんな時にボケボケになるか見ていると、例えば雲が通り過ぎた時、風で大きく揺れた時など、結構頻繁に起こることがわかりました。
そもそもこの時点で、ガイド渋滞がいい時でも+/-4秒くらいで、ジャンプもそこそこあります。
ここで、ガイド鏡をEVOGUIDEからいつもDSOで使っているものに変えました。
焦点距離は200mmから120mmになること、カメラがASI290MMでピクセルサイズは2.9μmと少し大きくなりますが、モノクロになるので実質ピクセルサイズは小さくなったことになります。実質の解像度はほとんど同じでしょう。
やはり安定度は大きく違いました。EVOGUIDEは2つのスコープリングで固定しているために微調整はしやすいですが、固定の安定度という意味ではまだまだです。普段使っているバイクに取り付けるための金具を使ったガイド鏡はガチガチに固定することができます。
これに変えてから、一気に+/-2秒程度の誤差に抑えることができるようになりました。短時間の揺れもそうですが、長時間のたわみも影響するはずなので、やはりガイド鏡の固定は堅固なものに越したことはありません。
その後、再びSharpCapでリアルタイムのスタックに挑戦しますが、やはりあまり長続きせず、途中何かの拍子にボケボケになってしまいます。夕方16時を過ぎたあたりでとうとうリアルタイムスタックはあきらめて、動画のserファイルも併用して保存することにしました。
結局のところ、C8のように長焦点で拡大した太陽Hαは、SharpCapでのリアルタイム処理で長時間安定に撮影するのはまだちょっと厳しいという結論です。気軽に見るだけとか、短時間ならまだ使えるのかと思います。
撮影は30秒おきに100フレーム撮影し、それを99本撮りましたが、最後のほうは夕方でかなり暗くなったので、そのうち60本を使いました。高々100フレームに抑えたのですが、これだけでも総ファイル量は40GB程度になってしまいます。
こちらの動画ファイルをAutoStakkart4!、ImPPGのバッチ処理をして、Fijiで位置合わせをしたものが以下になります。位置合わせは他にもいろいろ試しましたが、結局Fijiに勝てるものはなかったです。
タイムラプス化は、PixInsightのBlinkで一連の画像のチェックがてらjpgに変換し、その後別途ffmpegを使いました。コントラストが勝手に変わって彩層面の模様がサチるようなことがあったので、以下のオプションを使いました。
ffmpeg -y -r 15 -i Blink%05d_r.jpg -c:v libx265 -crf 15 -tag:v hvc1 Blink.mp4
また、X用には以下のコマンドで変換することでアップロードできるようになりました。
ffmpeg -i Blink.mp4 -vf "scale=1600:-1" -vcodec libx264 -pix_fmt yuv420p -strict -2 -acodec aac output.mp4
最後の最後で動画を撮影し始めたので、半分あきらめてのテスト撮影のような感じでしたが、出来上がったタイムラプス映像のプロミネンスの動きにはもうびっくりです! 高々30分と思っていましたが、こんなに激しく動いてるんですね。
でも今回注目してほしいのは彩層面のほうです。PHD2でのガイドがよほど効いていたのか、模様の再現性がかなりあることがわかります。位置合わせもここまでうまくいくとは思っていませんでした。よく見ると彩層面も30分の間に動いていて、プロミネンスのようなもの (彩層面上だからダークフィラメントといったほうがいいのでしょうか) が出てくる様子もわかります。これだけ安定なら、次回は黒点周りとかをガイド+動画で撮影してみようかと思います。
ガイドの効果はかなり大きいことがわかりました。以前試したLusol-Guideもきちんと動きましたが、精度はPHD2のほうが圧倒的にいいでしょう。制御系もDSOで実績があるので、状況に応じて安定したパラメータを探ることができます。
SharpCapでのタイムラプス撮影は、今回C8では厳しかったですが、Phoenixの時のように全体が見えているのならまた安定度も違ってくるのかもしれません。C8での撮影でも、これまでのようにserで保存すれば、PHD2のガイドの安定度と相まって彩層面の細かい模様まで長時間にわたって安定して再現できることがわかりました。これはかなり大きな成果なので、今後黒点周りなどに挑戦していきたいと思います。
PHD2による太陽ガイドが開発されている
CP+の講演の中でPHD2の対応対応についてちらっとだけつぶやいたのですが、まだ日本ではほとんど認識されていなかったようで、一部の太陽マニアにはかなり響いたみたいです。その後、実際試された方が何人もいるようです。
それまでは太陽のオートガイドには以前このブログでも紹介した、Lusol-Guideがよく使われていたようです。私も何度が試したのですが、
- ソフトの開発が止まっていること。
- 元々有料だったこと。 (当時Lusol-Guideに気づいたhiroさんが、ほぼ表舞台から遠ざかっていたと思われる作者まで奇跡的にたどり着いて、無料で使って構わないという確認をとってくれました。)
- 自分で試した限り、ガイド精度が10ピクセル程度と、そこまでよくはないこと。
- そもそもタイプラプスのために保存するser形式の動画ファイルが、HDDに対してかなり負担になること。
そんな折、PHD2の太陽版がリリースされたのは2024年の3月頃のことです。その後2024年8月にJun1Watanabeさんがラズパイで太陽の中心を星のように小さく表してPHD2に渡すという独自の太陽ガイドシステムを発表しています。ここ1年で、太陽ガイドに関していくつか選択できるまでになったというのは、とてもありがたいことです。
私はPhoenixが来てからPHD2を簡単に試しただけなのですが、使い勝手もPHD2と本質的に同じで、使いやすく本格的な制御にも対応していて、安定に動かすことができました。今の私 (わたし) 的な再太陽ブームにおける今回の目的は
- かなり拡大して撮影するC8で、タイプラプス映像が作れるくらい安定したガイドを構築すること。
- あわよくば、SharpCapでリアルタイムでスタックしてできた画像のみを保存することで、とんでもない大きさのraw形式での動画ファイルの保存を避けてディスク容量を節約できればいいかな。
実際に太陽PHD2を試してみる
まず、現在の太陽用のPHD2はいまだに開発バージョンということで、自己責任の範囲で試すべきで、マニュアルやサポートなどは十分でないということを理解しておく必要があります。
2025年3月24日現在の最新バージョンはリリースノートによるとv2.6.13dev7とのことです。
インストール後、カメラや赤道儀などの接続は普通のPHD2と何ら変わりはありません。
ガイド鏡筒ですが、普通に撮影用に使うものを流用すればいいかと思います。太陽は非常明るく、集光した際のエネルギーも大きくなるので、カメラを焼いてしまう恐れがあります。そのため、太陽用のフィルターなどを別途鏡筒前に取り付けるなどして手当てしてやる必要があります。
ガイドカメラはカラーでもモノクロでも構いません。モノクロの方が分解能がいいですが、大きな太陽を円でフィッティングするので、どこまでカメラの分解能が効くかは、別途きちんと検討する必要があるかと思います。
裏技的になりますが、ガイド鏡やガイドカメラを別途用意しなくても、例えばCP+で話したようなPhoenixとApollo-M miniなどの組み合わせで太陽の全景が一度に画面内に入るなら、そのメインの画像をガイドに使うこともできます。ただし、撮影用とガイド用で設定を共有しなければならないなどの制限もあるので、注意が必要です。また、カメラを共有する場合、太陽が全面一度に見えている場合はいいのですが、バローを付けたり、センサー面積の小さいカメラを使って太陽の一部しか見えていない時は、うまくいきませんでした。今回のPHD2の太陽版は、オプションで特徴点を見つけてそれを基準にガイドする機能も持っているのですが、試した限り短時間ガイドはできるのですが、少なくとも安定して長時間稼働させることはできませんでした。
C8のように太陽をかなり拡大して見る場合は、当然全景を見ることはできないで、別途ガイド鏡を用意することにしました。今回とりあえず使ったものはEVOGUIDE 50ED IIとASI178MCです。焦点距離が200mmでカラーですがピクセルサイズが2.4μmなので、かなり分解能良く見えるはずです。
以下、設定方法を書いておきます。
1. PHD2太陽版を立ち上げ、カメラと赤道儀を接続してから、露光を開始します。露光時間が長すぎて明るすぎる画面が見えると思います。
2. 最初にやることが、下の脳みそマークの右にある、太陽の設定ボタンを押します。すると別途設定画面が出てくるので、例えば下の画像のように設定します。この場合、2つ目のオプションがオフになっているので、太陽全体が見えている時の設定になります。

3. まずは露光時間とゲインを設定します。SharpCapできちんと見えるくらいの値にすればいいです。ここでは露光時間2msでゲイン0なので、かなり暗い設定ですが、これくらいでやっと飽和せずに黒点とかも見えました。ちなみに1msとゲイン0が設定できる最小の値なので、それ以上暗くしたいならフィルターを暗いものにするとかしないとダメです。飽和していてもうまく太陽の周りをフィッティングすることはでき、太陽中心はきちんと出るので、実際にはもう少し明るい設定にしても大丈夫です。
4. 太陽の形が見えたら、最小径と最大径を設定します。まずは100と2000とか極端な値を入れて、画面に円、もしくは半円が出るか試します。この円は、最小径もしくは最大径を変更するたびに、しばらくの間表示されます。
線が細くてわかりにくいですが、左上に設定した径の半円が出ています。
5. 出てきた円と太陽の大きさを比べて、ある程度太陽の大きさが範囲に含まれるように絞り込みます。
6. 径がそこそこ決まったら、ここで左下の「露光開始ボタン」の右隣の、「認識ボタン」を押します。
緑の円が太陽の周りにフィットされるはずです。うまくフィットされない場合は、最小径と最大径の設定を見直してください。
7. さらに「認識ボタン」の右隣の「ガイド開始ボタン」を押すと、初めての場合はキャリブレーションが始まります。キャリブレーションがうまく開始されない場合は、シフトキーを押しながら、マウスで左クリックしてください。
8. キャリブレーションが終了すると、自動的にガイドが始まります。
太陽を使って昼間の極軸調整
1日のうちで最初にPHD2を走らせた時は、ここで一旦ストップボタンを押して、極軸調整をするといいでしょう。
昼間は北極星は当然見えないので、極軸を合わせるのは普通は困難なはずです。PHD2にはドリフトアラインメントという機能があり、これで極軸を合わせることができます。この太陽バージョンのPHD2は、星の代わりに太陽を使ってドリフトを測定し、極軸調整ができるというわけです。ただし、太陽を使うということで、通常の星と違い少しクセがあります。
1. 露光して太陽中心を認識している状態で、PHD2のメニューの「ツール」から「ドリフトアラインメント」を選びます。
2. 「ドリフト」ボタンを押すと、ガイドをしない状態で太陽の中心位置が赤経、赤緯別に下に表示される時系列グラフに記録されていきます。その線が真っ直ぐになればいいのですが、極軸があっていないと上下どちらかに斜めに動いていきます。
3. 動く方向が確認できたら「調整」ボタンを押してから、まずは赤道儀の土台に付いている横方向のネジ(モーターを動かしてはダメです)をどちらか一方に、例えば半回転回してみます。
4. 再び「ドリフト」ボタンを押して、グラフがどう移動していくのか見ます。
5. 先ほどよりもグラフが真っ直ぐになったら、ネジを正しい方向に回した方ことになります。傾きが急になったのなら、間違った方向に回したことになります。
6. 傾きに変化が見えない場合は、再び「調整」を押し、ネジを同じ方向にさらに大きく、例えば今度は1回転回してまた「ドリフト」を押します。傾きが変わったと認識できるまでこれを繰り返します。
7. グラフが真っ直ぐになり、赤道儀の横方向があってきたら「次へ」ボタンを押して、今度は赤道儀の縦方向のネジを同様に調整します。
8. グラフが平らになってくると、太陽の中心周りにどれくらいの精度であっているかのマジェンタ色の円が表示されます。これが十分小さくなるまで合わせ込みます。
太陽極軸合わせのクセ 1:
問題は、ネジを回したときに、太陽の位置がずれてしまい、ガイド鏡で見ている範囲から外れてしまうと、それ以上何も進まなくなってしまうことです。こうなる前に、赤道儀の(今度はネジではなく)モーターで太陽が画面内に入るように調整します。ここが星を使う場合と最も違う点でしょうか。
太陽極軸合わせのクセ 2:
もう一つ問題があります。本来、赤道儀の横方向の設定は、ガイド鏡を南中方向に向けて赤緯のグラフを見るべきです。一旦それがあってから、さらに次にガイド鏡を東か西の方向を向け、今度は赤道儀の縦方向のネジを調整します。でも太陽は一つしかなくて、その時にある太陽の方向しかガイド鏡で見ることができません。なので、見ている方向によっては横方向もしくは縦方向の感度が良くなくて、うまく合わせられないことがあることに注意してください。
太陽ドリフトアラインメントの精度の例
昼間にドリフトアラインメントで太陽でそこそこ合わせた後に、実際夜になって北極星を使って、改めてSharpCapの極軸調整で精度を見てみました。すると、4分角程度のズレがありました。
これまでドリフトガイドを使わずに、昼間の赤道儀をどうやって合わせてきたかというと、
- 赤道儀の水平をできるだけ合わせる。
- さらに赤道儀に付いている赤経赤緯の位置を表す矢印などのインデックスを見ながら、ホームポジションにできるだけ精度よく合わせる。
- 赤道儀の内部時計の時刻もできるだけ正確に合わせる。
- その状態で、赤道着の初期アラインメントで太陽を自動導入すると、本来極軸があっていたなら鏡筒はきちんと太陽の方向を向くはず。
- 鏡筒につけたカメラ映像で見ながら、実際に見ている方向と、太陽方向とのずれがなくなるように(赤道儀のモーターは使わずに)土台の調整ネジだけを使って、鏡筒が太陽の方向に向くように(カメラの映像内に太陽が入ってくるように)合わせる。
というような手順です。この方法での精度はせいぜい1度角程度でしょう。このように考えると、ドリフトアラインメントを使った場合は4分角(=0.067度)、ザックリですが10倍程度は精度が上がると思っていいのでしょう。
一方、夜に北極星を基準にSharpCapで極軸調整するときは1分角以下は余裕で、例えば30秒角くらいまで合わせることができると考えると、太陽を使った昼間のドリフトアラインメントでの極軸精度は、夜の場合のザックリ10分の1くらいでしょうか。そもそも、ドリフトアラインメントではある程度調整を絞り込んでいくと、ピリオディックモーションの影響も無視できなくなってくるので、原理的に精度がそこまで出ないので、まあ妥当な結果かと思います。
それでも闇雲に合わせるよりは遥かに精度が上がるので、太陽やたぶん昼間の月でもできるかもしれないので、これを利用しない手はないと思います。昼間の極軸合わせはとても大変で、太陽撮影でもそうですが、例えば明るいうちから彗星や金星などを追尾したい場合や、昼間の明るい恒星観測などの際の自動導入など、応用範囲も広いのかと思います。
まずは静止画
3月23日ですが、上のガイドの作業をする前に、まずはガイド無しでいつものように一通り朝イチで撮影したので、紹介しておきます。黒点周りが2枚と、プロミネンスです。特にプロミネンスは見事でした。
- 午前8時40分14秒: AR4030
解像度は前日に負けます。シーイングは1日の中でも時間によって大きく変わるので、この時はあまり良くなかったです。風が強くてそれで画面が揺れるので、シーイングの良し悪しまであまり判断することができませんでした。
- 午前8時48分43秒: AR4036
一方、こちらの黒点は下のプロミネンス3枚を撮影した後に、さらに追加で撮影したもので、上のAR4030を撮影したよりもシーイングは良かったようです。わずか8分でもシーイングは結構変わります。
ここからプロミネンスを3枚です。結構大きなものが出ていました。かなり分解能よく撮れているようです。スピキュールもピンピコ見えていて、シーイングもそこそこだったことがわかります。
- 午前8時42分50秒
- 午前8時43分57秒
PHD2ガイドでタイムラプス撮影
オートガイドが活躍するのは長時間撮影の場合です。太陽だとタイムラプス映像にして、プロミネンスやフレアなどが時間ごとに変化する様子を、位置を変えずに撮影できるのが最も有効な活用方法かと思います。
SharpCapは電視観望で良く使われているように、ライブスタックが有名ですが、これは速くても秒ごとくらいでのスタックになります。最近のSharpCapでは、惑星や月や太陽をミリ秒単位でリアルタイムでスタックすることができ、さらにリアルタイムでWavelet変換して細部の炙り出しをするという、驚異的な進化を遂げています。Phoenixで太陽の全景を見ながら試した場合では、非常にうまく処理できていて、もう後処理が必要ないくらいのレベルになっています。具体的な様子は、CP+の太陽セミナー配信の41分30秒あたりからをご覧ください。
一方今回は、太陽全体が見えないようなC8で拡大した画像ををうまくリアルタイム処理できるか試してみました。
結論を言うと、ある程度は処理できます。ある程度というのは、プロミネンスはそこそこ細部まで炙り出すことができ、黒点周りなどの表面のHαの模様も、うまくパラメータを設定すればある程度の細部は出すことはできます。それでもプロミネンスもですが、特に表面の模様は、別途動画を撮影して後から処理したものとは仕上がり具合にどうしても差があります。決定的なのは、何かの拍子で位置が多少ズレた場合に、一気にリアルタイム処理での画像がボケたようになって、しばらく回復しないことです。これはPHD2の問題というよりは、SharpCapのリアルタイム位置合わせの問題のようで、うまくガイドができている時にも10分とか20分とかに一回程度発生します。これが発生した時は、素直にリアルタイムスタックのリセットボタンを押した方が回復が早いです。いじれるパラメータを全て触りましたが、完全に回避する方法は今回は見つけられませんでした。
なので全景が入らない場合は、.serの動画で撮影せざるを得ないというのが、今の所の結論です。
今回は2つのタイムラプス例を紹介します。実際プロミネンスは5種くらい、黒点周りは2種くらい撮影したのですが、どれも長続きしませんでした。結局SharpCapでリアルタイム処理で20分くらい撮影できたものと、個別に動画を撮影して日が沈むまで1時間くらい最後に撮ったものくらいしか、見る価値がありませんでした。
最初にSharpCapのリアルタイム処理でうまくいったと思ったものです。撮り始めてから1時間くらい自宅の中にいて、どれどれと思って見てみたのですが、途中からボケボケになって、さらに曇ってしまっていました。でも最初の方はプロミネンスの活発な動きが映っています。大きな動きの途中からしか撮影開始できなかったので、もう少し早くから始めればと、もたもたしていたのをちょっと後悔しました。
上の画像はShapCapで保存されたtifファイルを、ffmpegを使ってmp4にして、さらにffmpegでgif化してます。コマンドは
ffmpeg -i Blink.mp4 -filter_complex "[0:v] fps=10,scale=640:-1,split [a][b];[a] palettegen [p];[b][p] paletteuse" output-palette.gif
としました。グローバルパレットを使うことで、解像度とファイルの小ささを両立しています。
このあとは同じようにプロミネンスの撮影を開始して、Costcoに買い物に行ってしまいました。2時間ほどして戻ってきてから見てみると、やはり10分も持たずにボケボケ画像になってしまっています。ここからどんな時にボケボケになるか見ていると、例えば雲が通り過ぎた時、風で大きく揺れた時など、結構頻繁に起こることがわかりました。
そもそもこの時点で、ガイド渋滞がいい時でも+/-4秒くらいで、ジャンプもそこそこあります。
ここで、ガイド鏡をEVOGUIDEからいつもDSOで使っているものに変えました。
焦点距離は200mmから120mmになること、カメラがASI290MMでピクセルサイズは2.9μmと少し大きくなりますが、モノクロになるので実質ピクセルサイズは小さくなったことになります。実質の解像度はほとんど同じでしょう。
やはり安定度は大きく違いました。EVOGUIDEは2つのスコープリングで固定しているために微調整はしやすいですが、固定の安定度という意味ではまだまだです。普段使っているバイクに取り付けるための金具を使ったガイド鏡はガチガチに固定することができます。
これに変えてから、一気に+/-2秒程度の誤差に抑えることができるようになりました。短時間の揺れもそうですが、長時間のたわみも影響するはずなので、やはりガイド鏡の固定は堅固なものに越したことはありません。
その後、再びSharpCapでリアルタイムのスタックに挑戦しますが、やはりあまり長続きせず、途中何かの拍子にボケボケになってしまいます。夕方16時を過ぎたあたりでとうとうリアルタイムスタックはあきらめて、動画のserファイルも併用して保存することにしました。
結局のところ、C8のように長焦点で拡大した太陽Hαは、SharpCapでのリアルタイム処理で長時間安定に撮影するのはまだちょっと厳しいという結論です。気軽に見るだけとか、短時間ならまだ使えるのかと思います。
撮影は30秒おきに100フレーム撮影し、それを99本撮りましたが、最後のほうは夕方でかなり暗くなったので、そのうち60本を使いました。高々100フレームに抑えたのですが、これだけでも総ファイル量は40GB程度になってしまいます。
こちらの動画ファイルをAutoStakkart4!、ImPPGのバッチ処理をして、Fijiで位置合わせをしたものが以下になります。位置合わせは他にもいろいろ試しましたが、結局Fijiに勝てるものはなかったです。
タイムラプス化は、PixInsightのBlinkで一連の画像のチェックがてらjpgに変換し、その後別途ffmpegを使いました。コントラストが勝手に変わって彩層面の模様がサチるようなことがあったので、以下のオプションを使いました。
ffmpeg -y -r 15 -i Blink%05d_r.jpg -c:v libx265 -crf 15 -tag:v hvc1 Blink.mp4
また、X用には以下のコマンドで変換することでアップロードできるようになりました。
ffmpeg -i Blink.mp4 -vf "scale=1600:-1" -vcodec libx264 -pix_fmt yuv420p -strict -2 -acodec aac output.mp4
最後の最後で動画を撮影し始めたので、半分あきらめてのテスト撮影のような感じでしたが、出来上がったタイムラプス映像のプロミネンスの動きにはもうびっくりです! 高々30分と思っていましたが、こんなに激しく動いてるんですね。
でも今回注目してほしいのは彩層面のほうです。PHD2でのガイドがよほど効いていたのか、模様の再現性がかなりあることがわかります。位置合わせもここまでうまくいくとは思っていませんでした。よく見ると彩層面も30分の間に動いていて、プロミネンスのようなもの (彩層面上だからダークフィラメントといったほうがいいのでしょうか) が出てくる様子もわかります。これだけ安定なら、次回は黒点周りとかをガイド+動画で撮影してみようかと思います。
まとめ
ガイドの効果はかなり大きいことがわかりました。以前試したLusol-Guideもきちんと動きましたが、精度はPHD2のほうが圧倒的にいいでしょう。制御系もDSOで実績があるので、状況に応じて安定したパラメータを探ることができます。
SharpCapでのタイムラプス撮影は、今回C8では厳しかったですが、Phoenixの時のように全体が見えているのならまた安定度も違ってくるのかもしれません。C8での撮影でも、これまでのようにserで保存すれば、PHD2のガイドの安定度と相まって彩層面の細かい模様まで長時間にわたって安定して再現できることがわかりました。これはかなり大きな成果なので、今後黒点周りなどに挑戦していきたいと思います。