ほしぞloveログ

天体観測始めました。

カテゴリ:調整・改造 > オートガイド

前記事ではPSTの調整などのことを書きましたが、同日の土曜と次の日の日曜に太陽に対応したPHD2で、実際の太陽オートガイドを試しました。

PHD2による太陽ガイドが開発されている

CP+の講演の中でPHD2の対応対応についてちらっとだけつぶやいたのですが、まだ日本ではほとんど認識されていなかったようで、一部の太陽マニアにはかなり響いたみたいです。その後、実際試された方が何人もいるようです。

それまでは太陽のオートガイドには以前このブログでも紹介した、Lusol-Guideがよく使われていたようです。私も何度が試したのですが、
  • ソフトの開発が止まっていること。
  • 元々有料だったこと。 (当時Lusol-Guideに気づいたhiroさんが、ほぼ表舞台から遠ざかっていたと思われる作者まで奇跡的にたどり着いて、無料で使って構わないという確認をとってくれました。)
  • 自分で試した限り、ガイド精度が10ピクセル程度と、そこまでよくはないこと。
  • そもそもタイプラプスのために保存するser形式の動画ファイルが、HDDに対してかなり負担になること。
などから、その後Lusol-Guideというよりも太陽タイムラプス自体をあまり試すことはなくなっていました。

そんな折、PHD2の太陽版がリリースされたのは2024年の3月頃のことです。その後2024年8月にJun1Watanabeさんがラズパイで太陽の中心を星のように小さく表してPHD2に渡すという独自の太陽ガイドシステムを発表しています。ここ1年で、太陽ガイドに関していくつか選択できるまでになったというのは、とてもありがたいことです。

私はPhoenixが来てからPHD2を簡単に試しただけなのですが、使い勝手もPHD2と本質的に同じで、使いやすく本格的な制御にも対応していて、安定に動かすことができました。今の私 (わたし) 的な再太陽ブームにおける今回の目的は
  1. かなり拡大して撮影するC8で、タイプラプス映像が作れるくらい安定したガイドを構築すること。
  2. あわよくば、SharpCapでリアルタイムでスタックしてできた画像のみを保存することで、とんでもない大きさのraw形式での動画ファイルの保存を避けてディスク容量を節約できればいいかな。
くらいの2つを考えいます。


実際に太陽PHD2を試してみる

まず、現在の太陽用のPHD2はいまだに開発バージョンということで、自己責任の範囲で試すべきで、マニュアルやサポートなどは十分でないということを理解しておく必要があります。

2025年3月24日現在の最新バージョンはリリースノートによるとv2.6.13dev7とのことです。


インストール後、カメラや赤道儀などの接続は普通のPHD2と何ら変わりはありません。

ガイド鏡筒ですが、普通に撮影用に使うものを流用すればいいかと思います。太陽は非常明るく、集光した際のエネルギーも大きくなるので、カメラを焼いてしまう恐れがあります。そのため、太陽用のフィルターなどを別途鏡筒前に取り付けるなどして手当てしてやる必要があります。

ガイドカメラはカラーでもモノクロでも構いません。モノクロの方が分解能がいいですが、大きな太陽を円でフィッティングするので、どこまでカメラの分解能が効くかは、別途きちんと検討する必要があるかと思います。

裏技的になりますが、ガイド鏡やガイドカメラを別途用意しなくても、例えばCP+で話したようなPhoenixとApollo-M miniなどの組み合わせで太陽の全景が一度に画面内に入るなら、そのメインの画像をガイドに使うこともできます。ただし、撮影用とガイド用で設定を共有しなければならないなどの制限もあるので、注意が必要です。また、カメラを共有する場合、太陽が全面一度に見えている場合はいいのですが、バローを付けたり、センサー面積の小さいカメラを使って太陽の一部しか見えていない時は、うまくいきませんでした。今回のPHD2の太陽版は、オプションで特徴点を見つけてそれを基準にガイドする機能も持っているのですが、試した限り短時間ガイドはできるのですが、少なくとも安定して長時間稼働させることはできませんでした。

C8のように太陽をかなり拡大して見る場合は、当然全景を見ることはできないで、別途ガイド鏡を用意することにしました。今回とりあえず使ったものはEVOGUIDE 50ED IIとASI178MCです。焦点距離が200mmでカラーですがピクセルサイズが2.4μmなので、かなり分解能良く見えるはずです。

IMG_1081

以下、設定方法を書いておきます。

1. PHD2太陽版を立ち上げ、カメラと赤道儀を接続してから、露光を開始します。露光時間が長すぎて明るすぎる画面が見えると思います。

2. 最初にやることが、下の脳みそマークの右にある、太陽の設定ボタンを押します。すると別途設定画面が出てくるので、例えば下の画像のように設定します。この場合、2つ目のオプションがオフになっているので、太陽全体が見えている時の設定になります。

スクリーンショット 2025-03-22 121740_cut02

3. まずは露光時間とゲインを設定します。SharpCapできちんと見えるくらいの値にすればいいです。ここでは露光時間2msでゲイン0なので、かなり暗い設定ですが、これくらいでやっと飽和せずに黒点とかも見えました。ちなみに1msとゲイン0が設定できる最小の値なので、それ以上暗くしたいならフィルターを暗いものにするとかしないとダメです。飽和していてもうまく太陽の周りをフィッティングすることはでき、太陽中心はきちんと出るので、実際にはもう少し明るい設定にしても大丈夫です。

4. 太陽の形が見えたら、最小径と最大径を設定します。まずは100と2000とか極端な値を入れて、画面に円、もしくは半円が出るか試します。この円は、最小径もしくは最大径を変更するたびに、しばらくの間表示されます。
スクリーンショット 2025-03-23 081533
線が細くてわかりにくいですが、左上に設定した径の半円が出ています。

5. 出てきた円と太陽の大きさを比べて、ある程度太陽の大きさが範囲に含まれるように絞り込みます。

6. 径がそこそこ決まったら、ここで左下の「露光開始ボタン」の右隣の、「認識ボタン」を押します。
緑の円が太陽の周りにフィットされるはずです。うまくフィットされない場合は、最小径と最大径の設定を見直してください。
スクリーンショット 2025-03-23 082057

7. さらに「認識ボタン」の右隣の「ガイド開始ボタン」を押すと、初めての場合はキャリブレーションが始まります。キャリブレーションがうまく開始されない場合は、シフトキーを押しながら、マウスで左クリックしてください。

8. キャリブレーションが終了すると、自動的にガイドが始まります。


太陽を使って昼間の極軸調整

1日のうちで最初にPHD2を走らせた時は、ここで一旦ストップボタンを押して、極軸調整をするといいでしょう。

昼間は北極星は当然見えないので、極軸を合わせるのは普通は困難なはずです。PHD2にはドリフトアラインメントという機能があり、これで極軸を合わせることができます。この太陽バージョンのPHD2は、星の代わりに太陽を使ってドリフトを測定し、極軸調整ができるというわけです。ただし、太陽を使うということで、通常の星と違い少しクセがあります。

1. 露光して太陽中心を認識している状態で、PHD2のメニューの「ツール」から「ドリフトアラインメント」を選びます。

2. 「ドリフト」ボタンを押すと、ガイドをしない状態で太陽の中心位置が赤経、赤緯別に下に表示される時系列グラフに記録されていきます。その線が真っ直ぐになればいいのですが、極軸があっていないと上下どちらかに斜めに動いていきます。
スクリーンショット 2025-03-22 160853

3. 動く方向が確認できたら「調整」ボタンを押してから、まずは赤道儀の土台に付いている横方向のネジ(モーターを動かしてはダメです)をどちらか一方に、例えば半回転回してみます。

4. 再び「ドリフト」ボタンを押して、グラフがどう移動していくのか見ます。

5. 先ほどよりもグラフが真っ直ぐになったら、ネジを正しい方向に回した方ことになります。傾きが急になったのなら、間違った方向に回したことになります。

6. 傾きに変化が見えない場合は、再び「調整」を押し、ネジを同じ方向にさらに大きく、例えば今度は1回転回してまた「ドリフト」を押します。傾きが変わったと認識できるまでこれを繰り返します。

7. グラフが真っ直ぐになり、赤道儀の横方向があってきたら「次へ」ボタンを押して、今度は赤道儀の縦方向のネジを同様に調整します。

8. グラフが平らになってくると、太陽の中心周りにどれくらいの精度であっているかのマジェンタ色の円が表示されます。これが十分小さくなるまで合わせ込みます。
スクリーンショット 2025-03-23 083325


太陽極軸合わせのクセ 1:
問題は、ネジを回したときに、太陽の位置がずれてしまい、ガイド鏡で見ている範囲から外れてしまうと、それ以上何も進まなくなってしまうことです。こうなる前に、赤道儀の(今度はネジではなく)モーターで太陽が画面内に入るように調整します。ここが星を使う場合と最も違う点でしょうか。

太陽極軸合わせのクセ 2:
もう一つ問題があります。本来、赤道儀の横方向の設定は、ガイド鏡を南中方向に向けて赤緯のグラフを見るべきです。一旦それがあってから、さらに次にガイド鏡を東か西の方向を向け、今度は赤道儀の縦方向のネジを調整します。でも太陽は一つしかなくて、その時にある太陽の方向しかガイド鏡で見ることができません。なので、見ている方向によっては横方向もしくは縦方向の感度が良くなくて、うまく合わせられないことがあることに注意してください。


太陽ドリフトアラインメントの精度の例

昼間にドリフトアラインメントで太陽でそこそこ合わせた後に、実際夜になって北極星を使って、改めてSharpCapの極軸調整で精度を見てみました。すると、4分角程度のズレがありました。

これまでドリフトガイドを使わずに、昼間の赤道儀をどうやって合わせてきたかというと、
  1. 赤道儀の水平をできるだけ合わせる。
  2. さらに赤道儀に付いている赤経赤緯の位置を表す矢印などのインデックスを見ながら、ホームポジションにできるだけ精度よく合わせる。
  3. 赤道儀の内部時計の時刻もできるだけ正確に合わせる。
  4. その状態で、赤道着の初期アラインメントで太陽を自動導入すると、本来極軸があっていたなら鏡筒はきちんと太陽の方向を向くはず。
  5. 鏡筒につけたカメラ映像で見ながら、実際に見ている方向と、太陽方向とのずれがなくなるように(赤道儀のモーターは使わずに)土台の調整ネジだけを使って、鏡筒が太陽の方向に向くように(カメラの映像内に太陽が入ってくるように)合わせる。

というような手順です。この方法での精度はせいぜい1度角程度でしょう。このように考えると、ドリフトアラインメントを使った場合は4分角(=0.067度)、ザックリですが10倍程度は精度が上がると思っていいのでしょう。

一方、夜に北極星を基準にSharpCapで極軸調整するときは1分角以下は余裕で、例えば30秒角くらいまで合わせることができると考えると、太陽を使った昼間のドリフトアラインメントでの極軸精度は、夜の場合のザックリ10分の1くらいでしょうか。そもそも、ドリフトアラインメントではある程度調整を絞り込んでいくと、ピリオディックモーションの影響も無視できなくなってくるので、原理的に精度がそこまで出ないので、まあ妥当な結果かと思います。

それでも闇雲に合わせるよりは遥かに精度が上がるので、太陽やたぶん昼間の月でもできるかもしれないので、これを利用しない手はないと思います。昼間の極軸合わせはとても大変で、太陽撮影でもそうですが、例えば明るいうちから彗星や金星などを追尾したい場合や、昼間の明るい恒星観測などの際の自動導入など、応用範囲も広いのかと思います。


まずは静止画

3月23日ですが、上のガイドの作業をする前に、まずはガイド無しでいつものように一通り朝イチで撮影したので、紹介しておきます。黒点周りが2枚と、プロミネンスです。特にプロミネンスは見事でした。

  • 午前8時40分14秒: AR4030
08_40_14_lapl3_ap551

解像度は前日に負けます。シーイングは1日の中でも時間によって大きく変わるので、この時はあまり良くなかったです。風が強くてそれで画面が揺れるので、シーイングの良し悪しまであまり判断することができませんでした。

  • 午前8時48分43秒: AR4036
08_48_43_lapl3_ap399

一方、こちらの黒点は下のプロミネンス3枚を撮影した後に、さらに追加で撮影したもので、上のAR4030を撮影したよりもシーイングは良かったようです。わずか8分でもシーイングは結構変わります。


ここからプロミネンスを3枚です。結構大きなものが出ていました。かなり分解能よく撮れているようです。スピキュールもピンピコ見えていて、シーイングもそこそこだったことがわかります。
  • 午前8時42分50秒
08_42_50_lapl3_ap359

  • 午前8時43分57秒
08_43_57_lapl3_ap305


  • 午前8時44分43秒
08_44_43_lapl3_ap369



PHD2ガイドでタイムラプス撮影

オートガイドが活躍するのは長時間撮影の場合です。太陽だとタイムラプス映像にして、プロミネンスやフレアなどが時間ごとに変化する様子を、位置を変えずに撮影できるのが最も有効な活用方法かと思います。

SharpCapは電視観望で良く使われているように、ライブスタックが有名ですが、これは速くても秒ごとくらいでのスタックになります。最近のSharpCapでは、惑星や月や太陽をミリ秒単位でリアルタイムでスタックすることができ、さらにリアルタイムでWavelet変換して細部の炙り出しをするという、驚異的な進化を遂げています。Phoenixで太陽の全景を見ながら試した場合では、非常にうまく処理できていて、もう後処理が必要ないくらいのレベルになっています。具体的な様子は、CP+の太陽セミナー配信の41分30秒あたりからをご覧ください。

一方今回は、太陽全体が見えないようなC8で拡大した画像ををうまくリアルタイム処理できるか試してみました。

結論を言うと、ある程度は処理できます。ある程度というのは、プロミネンスはそこそこ細部まで炙り出すことができ、黒点周りなどの表面のHαの模様も、うまくパラメータを設定すればある程度の細部は出すことはできます。それでもプロミネンスもですが、特に表面の模様は、別途動画を撮影して後から処理したものとは仕上がり具合にどうしても差があります。決定的なのは、何かの拍子で位置が多少ズレた場合に、一気にリアルタイム処理での画像がボケたようになって、しばらく回復しないことです。これはPHD2の問題というよりは、SharpCapのリアルタイム位置合わせの問題のようで、うまくガイドができている時にも10分とか20分とかに一回程度発生します。これが発生した時は、素直にリアルタイムスタックのリセットボタンを押した方が回復が早いです。いじれるパラメータを全て触りましたが、完全に回避する方法は今回は見つけられませんでした。

なので全景が入らない場合は、.serの動画で撮影せざるを得ないというのが、今の所の結論です。

今回は2つのタイムラプス例を紹介します。実際プロミネンスは5種くらい、黒点周りは2種くらい撮影したのですが、どれも長続きしませんでした。結局SharpCapでリアルタイム処理で20分くらい撮影できたものと、個別に動画を撮影して日が沈むまで1時間くらい最後に撮ったものくらいしか、見る価値がありませんでした。

最初にSharpCapのリアルタイム処理でうまくいったと思ったものです。撮り始めてから1時間くらい自宅の中にいて、どれどれと思って見てみたのですが、途中からボケボケになって、さらに曇ってしまっていました。でも最初の方はプロミネンスの活発な動きが映っています。大きな動きの途中からしか撮影開始できなかったので、もう少し早くから始めればと、もたもたしていたのをちょっと後悔しました。

output-palette

上の画像はShapCapで保存されたtifファイルを、ffmpegを使ってmp4にして、さらにffmpegでgif化してます。コマンドは

ffmpeg -i Blink.mp4 -filter_complex "[0:v] fps=10,scale=640:-1,split [a][b];[a] palettegen [p];[b][p] paletteuse" output-palette.gif

としました。グローバルパレットを使うことで、解像度とファイルの小ささを両立しています。

このあとは同じようにプロミネンスの撮影を開始して、Costcoに買い物に行ってしまいました。2時間ほどして戻ってきてから見てみると、やはり10分も持たずにボケボケ画像になってしまっています。ここからどんな時にボケボケになるか見ていると、例えば雲が通り過ぎた時、風で大きく揺れた時など、結構頻繁に起こることがわかりました。

そもそもこの時点で、ガイド渋滞がいい時でも+/-4秒くらいで、ジャンプもそこそこあります。
スクリーンショット 2025-03-22 121740_cut1

ここで、ガイド鏡をEVOGUIDEからいつもDSOで使っているものに変えました。
IMG_1088

焦点距離は200mmから120mmになること、カメラがASI290MMでピクセルサイズは2.9μmと少し大きくなりますが、モノクロになるので実質ピクセルサイズは小さくなったことになります。実質の解像度はほとんど同じでしょう。

やはり安定度は大きく違いました。EVOGUIDEは2つのスコープリングで固定しているために微調整はしやすいですが、固定の安定度という意味ではまだまだです。普段使っているバイクに取り付けるための金具を使ったガイド鏡はガチガチに固定することができます。


これに変えてから、一気に+/-2秒程度の誤差に抑えることができるようになりました。短時間の揺れもそうですが、長時間のたわみも影響するはずなので、やはりガイド鏡の固定は堅固なものに越したことはありません。
スクリーンショット 2025-03-23 164529

その後、再びSharpCapでリアルタイムのスタックに挑戦しますが、やはりあまり長続きせず、途中何かの拍子にボケボケになってしまいます。夕方16時を過ぎたあたりでとうとうリアルタイムスタックはあきらめて、動画のserファイルも併用して保存することにしました。

結局のところ、C8のように長焦点で拡大した太陽Hαは、SharpCapでのリアルタイム処理で長時間安定に撮影するのはまだちょっと厳しいという結論です。気軽に見るだけとか、短時間ならまだ使えるのかと思います。

撮影は30秒おきに100フレーム撮影し、それを99本撮りましたが、最後のほうは夕方でかなり暗くなったので、そのうち60本を使いました。高々100フレームに抑えたのですが、これだけでも総ファイル量は40GB程度になってしまいます。

こちらの動画ファイルをAutoStakkart4!、ImPPGのバッチ処理をして、Fijiで位置合わせをしたものが以下になります。位置合わせは他にもいろいろ試しましたが、結局Fijiに勝てるものはなかったです。


タイムラプス化は、PixInsightのBlinkで一連の画像のチェックがてらjpgに変換し、その後別途ffmpegを使いました。コントラストが勝手に変わって彩層面の模様がサチるようなことがあったので、以下のオプションを使いました。
ffmpeg -y -r 15 -i Blink%05d_r.jpg -c:v libx265 -crf 15 -tag:v hvc1 Blink.mp4

また、X用には以下のコマンドで変換することでアップロードできるようになりました。
ffmpeg -i Blink.mp4 -vf "scale=1600:-1" -vcodec libx264 -pix_fmt yuv420p -strict -2 -acodec aac output.mp4

最後の最後で動画を撮影し始めたので、半分あきらめてのテスト撮影のような感じでしたが、出来上がったタイムラプス映像のプロミネンスの動きにはもうびっくりです! 高々30分と思っていましたが、こんなに激しく動いてるんですね。

でも今回注目してほしいのは彩層面のほうです。PHD2でのガイドがよほど効いていたのか、模様の再現性がかなりあることがわかります。位置合わせもここまでうまくいくとは思っていませんでした。よく見ると彩層面も30分の間に動いていて、プロミネンスのようなもの (彩層面上だからダークフィラメントといったほうがいいのでしょうか) が出てくる様子もわかります。これだけ安定なら、次回は黒点周りとかをガイド+動画で撮影してみようかと思います。


まとめ

ガイドの効果はかなり大きいことがわかりました。以前試したLusol-Guideもきちんと動きましたが、精度はPHD2のほうが圧倒的にいいでしょう。制御系もDSOで実績があるので、状況に応じて安定したパラメータを探ることができます。

SharpCapでのタイムラプス撮影は、今回C8では厳しかったですが、Phoenixの時のように全体が見えているのならまた安定度も違ってくるのかもしれません。C8での撮影でも、これまでのようにserで保存すれば、PHD2のガイドの安定度と相まって彩層面の細かい模様まで長時間にわたって安定して再現できることがわかりました。これはかなり大きな成果なので、今後黒点周りなどに挑戦していきたいと思います。

最近太陽撮影でよくコメントをくれるhiroさんが、Lusol-Guideという太陽撮影でオートガイドを実現するソフトを見つけたと教えてくれました。私も試してみたので記事にしておきます。


なぜ太陽撮影にオートガイド?

太陽撮影は基本明るいので短時間で終わるためにオートガイドする必要はないのですが、プロミネンスの動きなどタイムラプス映像をするときにはオートガイドが欲しくなってしまいます。一番の理由はPSTなどの入門用太陽望遠鏡の場合、エタロンの精度があまりよくないため、画面内でHαの出方にムラができてまうことです。そのため撮影の位置がずれると後のタイムラプスの一コマ一コマで画像処理が一様にならなくて、動画の見栄えが悪くなってしまいます。

ところが、太陽のオートガイドはあまりいいのが無くて、例えばFireCaptureには撮影した画像にある物の形を認識してそれを保つように赤道儀に返すような機能もありますが、やはりどうしても途中で飛び跳ねたりして安定度がいまいちです。ここら辺の基本的な考え方や、hiroさんとのやり取りはこのページ

や、そこのコメント欄を追ってもらえるとわかるかと思います。


LuSol-Guide

さて、今回hiroさんによって発掘されたLuSol-Guideですが、2016年くらいに開発されたものでしょうか、もう結構古いもので、その後の開発は止まってしまっているようです。すでにhiroさんから同ページのコメント欄で結構うまくガイドできているとの報告がありますが、私も実際に使ってみました。

マニュアルがここにあります。


多少の癖があったり、使わないとわかりにくいところもありますので実際使用して気づいたことを書いておきます。


実際の使用記

まずガイド鏡を用意します。普通の夜の撮影で使うガイド今日で構いませんが、太陽光を軽減するフィルターを必ずつけてください。そうしないとカメラセンサーが焼けてしまうなどのダメージがあるので気をつけてください。

カメラですが、私は撮影用にASI290MM、ガイド様にもASI290MMを使いましたが、どうも同じカメラが2つというのは想定していない様で、Lusol-GuideかSharpCapのどちらかでカメラを動かすと、どちらかが止まってしまうという状況でした。仕方ないのでガイド用カメラをASI120MM miniにすると、すんなりと両方とも動ようになりました。

キャプチャ4


さて、操作手順です。
  1. 左下の「Camera」ところでガイドに使うカメラを選択し「Start」を押すと、ガイド鏡で映した画像が出てきます。横の「Setting」で適当なパラメータを設定してください。後で説明しますが、サチるくらいに明るくしたほうが安定するようです。
  2. 次に右上「Mount」のところの「Connect」で赤道儀に接続します。ASCOM platformと各自の赤道儀にあったドライバーなどはあらかじめインストールしておいてください。
  3. 右下の「Calibration」ボタンでキャリブレーションを始めます。ガイドカメラの縦横の向きは出来れば撮影カメラの縦横と合わせておいた方がいいでしょう。
  4. 1-2分待つとキャリブレーションが終わます。
これでガイド準備可能となりますがその後のパラメータがわかりにくいです。

  1. まずD.Minですが、これはこの値以下のピクセルのずれはガイドしないという意味のようです。言い換えるとPHD2のように、恒星の強度分布からピクセル以下の位置を推測する様な高度なことはしていなくて、1ピクセル単位のガイドが最も精度が良いということになります。なのでここの値は「0」が一番精度がいいです。撮影鏡筒の焦点距離が2000mm、ガイド鏡の焦点距離が120mmなので、2000/120 = 17と、ガイド鏡が1ピクセルずれるだけで撮影画像は17ピクセルと大きなずれになります。D.Minの値を「1」にすると、上下左右1ピクセルずれていても何もしないようなので、撮影画像では最高でも2ピクセル分の34ピクセルの精度になってしまいます。
  2. D.Maxはその値以上はガイドしないというだけなので、適当な値例えば50とか100で構わないようです。
  3. Agressivenessはデフォルトの5でいいみたいです。増やしすぎると発振することがありました。
  4. Thresholdがまたわかりにくいです。これは太陽の位置認識の感度のようです。小さくすると小さな円で、大きくすると大きな円でフィッティングするようです。明るさで判断しているので、この値を中途半端にすると少し明るさが変わっただけで円の大きさが大きく変わります。位置もそれに引きずられてブレるので、ブレの範囲を小さくするためには、カメラの設定を太陽がサチるくらい露光時間を長めかゲインを高めにしておいたほうがいいいみたいです。 
hiroさんがThresholdの値を高めに設定した方が安定すると書いてくれていたのは上のような理由からで、明るさの変化にあまり依存しないように、最大径でフィッティングした方が誤差が少ないからだろうと思われます。


実際のガイド精度

あとは特に説明しなくてもなんとかなるでしょう。ただ、上にも書いた通りもっとも精度が良くても撮影画像で17ピクセルの誤差があるので、かなり揺れます。風とかあるとガイドカメラでも数ピクセルずれることはあるので、撮影画像で50ピクセルくらいずれることはよくあります。それでもFireCaputureでのオートガイドとかよりはマシで、少なくとも飛んでいってしまう様なことはあまりありません。雲や電線など、ガイドカメラの像が不安定だと大きく揺れてしまいますが、それは仕方ないでしょう。


まとめと今後

とりあえず最低限の実用性はありそうです。もう少し精度を良くするためには、ガイド鏡の焦点距離を長くすることですが、太陽全体を見る必要があるのでより大きなセンサーサイズが必要になってきます。もしくはピクセルサイズのできるだけ小さいカメラをガイドカメラに使っても精度は上がりますが、ASI290MMもそこまで大きなピクセルサイズではないため、ピクセルサイズ側で大きく精度を向上させるのは難しそうです。

タイムラプスのための画像の位置合わせについては次回以降の記事で書くことにします。
 

縞ノイズが出る理由の一つとして、ガイド時における鏡筒とガイド鏡の相対的なたわみが考えられます。TSA-120用にガイド鏡を取り付けることを考えていましたが、できるだけ撓が少なくなるように、市販の部品を使ってガイド鏡の固定を補強することにしました。


ガイド鏡について

ガイド鏡は昨年の胎内星まつりでBlac Pandaさんのところで先行販売されていたこれ。焦点距離128mmです。最近シュミットさんで販売が始まったようですが、星まつりだったので当時特価で購入できました。

IMG_7908


レンズ部分が筒部分と同じ長さだけあるので、すごく引き出せます。そのためカメラ位置の範囲にかなり余裕ができるため、台座兼アイピースホルダーを外しても焦点を合わせることができるなど、随分と応用範囲が広いです。

IMG_9840

この台座ですが、一本持ちなので少し心許ないです。今回のように撓みをできるだけ無くしたい場合は、できるだけ高さを低くすること、2点支持した方がよさそうです。


どうやって固定するか

もう一本、同じような台座を探してもいいのですが、なかなかいいのがありません。なのでこれを外してしまい、もう少し低くできる固定方法を模索しました。実際、台座部分を外してもネジ径が同じで、ASIカメラのアダプターの径と同じを直接取り付けることができます。

IMG_9845

カメラをねじ込みにすると、回転方向を任意に調整できないと困ることがありそうです。問題はガイド鏡を任意に回転させることができつつ、この円筒部分をどうやって固定して、TSA-120につけたアルカスイスプレートに固定するために、アルカスイスクランプにどうやって持っていくか。

今回はアマゾンでこんなパーツを見つけました。バイク部品のようですが、かなり頑丈で直径54mmまでのパイプに取り付けられるようです。ガイド鏡の円筒部分の外径が45.5mmなのでちょうどいいくらいです。Lサイズが2個1組なのですが、最初LサイズとMサイズが一つづつ届きました。でも、そのことを販売店に知らせたらすぐに対応してくれて、多分最速で新しいものを送ってくれました。間違って配送されたものも、配達員がそのまま引き取ってくれたので楽でした。

それと、安価な120mm幅のアルカスイス互換のクランプです。

IMG_9846

注意する点は、アルカスイ互換スクランプの裏側からネジ止めをするために、丸ネジや通常のキャップネジだと頭が出過ぎてプレートに取り付ける時にぶつかってしまいます。そのため今回は6角の皿ネジを一緒に注文しました。長さは12mmでぴったりでした。

これで加工なしで固定できます。

IMG_9848

裏から見るとこんな風になっています。

IMG_9849


鏡筒に取り付けてみる

鏡筒側にアルカスイス プレートをつけてあるので、直接取り付けることができます。実際TSA-120につけてみるとこんな風になります。プレートも長いので、ある程度前後させることもできます。

IMG_9850

うーん、かっこいい。(自己)満足です。

実際揺らしてみてもほとんど動きません。これで相当頑丈になったはずです。

次回晴れたらテストしてみます。


縞ノイズを時間的に見てみる

もしかしたら興味がある人もいるかと思い、縞ノイズを時間的に可視化してみました。先のバラ星雲の1日目のディザーなしで撮影した失敗画像約2時間ぶんの24枚を使っています。中心あたりの一部を拡大して見ています。といってもやったことは簡単で、ディザーなしで撮影した画像を、PixInsightで動画にしただけです。

Blink

これはガイドをしていても、たわみなどでガイド鏡と撮影鏡筒の相対的な視野が一方向にずれてしまうために起きます。それでももしノイズが完全にランダムなら、このように流れるようには見えないはずです。ノイズが流れて見えるということは、ノイズに時間的なコヒーレンスがあるということです。うーん、結構ありますね。あれだけの縞ノイズになるのもわかる気がします。

integration_DBE_PCC_AS_cut



縞ノイズ動画の作り方

さて、この動画の作り方です。今回縞ノイズを時間的にみる目的でしたが、このやり方覚えておくと色々応用が効きそうです。基本的に、PixInsightを使います。
  1. 普通にBatchPreprocessing 処理などで進めます。
  2. master以下のregsteredフォルダに入っている、位置合わせまで終わって、Integrationする寸前のファイルを使います。ここまでは普通にDebayerしてStarAlignmentでも構いません。
  3. Blinkでそれらのファイルを開きます。
  4. とりあえずは、デフォルト機能の再生ボタン(右三角)を押すと確認できますが、順に動画のようになるように見せるだけです。オートストレッチもできるのでみやすくなります。カラーバランスが悪い場合は、RGBのリンクをオン/オフする「鎖マーク」のアイコンを押してください。
  5. Previewで一部を切り取るとその部分だけ拡大して見えます。
  6. それをBlink画面の右下の一番右端の撮影開始マークアイコンで動画にします。
  7. ffmpegがない場合は別途インストールしてください。
  8. ffmpegがインストールされていても、実行ファイルをフルパスで入れないとダメでした。/usr/local/bin/ffmpegとかいうことです。
  9. オプションは秒20コマのgifファイルにしたかったので、 -y -r 20 -i Blink%05d.png Blink.gifとしました。
このように結構簡単に動画を作ることができます。


M42の場合

もう一つ例です。TSA-120でM42を撮影した時のものです。約30分くらいの撮影時間で、枚数は14枚です。これはディザーもそうですが、ガイドさえもしてないので赤道儀の極軸の精度が悪くてずれていってしまっているものです。上のバラ星雲のように画像の一部ではなくて、ほぼ全体像を示しています。解像度はこのブログにアップできるように(一画像当たり5MBが制限)落としてあります。

Blink

縞ノイズの原因となるクールノイズなどに混ざって、おそらくバイアスノイズに相当する縦線のように見えるノイズも流れていることがわかります。基本的にランダムでないノイズは、全て縞ノイズになり得るだろうことがわかります。

これを普通にスタックすると下のように縞ノイズが盛大に出てくるわけです。

integration



バラ星雲のもそうですが、時間的にこれだけ明らかに変化しているのがわかるのなら、なんとか分離してペラっと一枚皮を剥ぐようにこのノイズだけ取れないですかね?

今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。(2020/4/16 追記: APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。また、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。)
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


AZ-GTiの赤道儀モードでのオートガイドですが、昨日までの苦労もあり、本日のテストはすこぶる順調でした。


オートガイドの前に、まず最初は極軸調整です。カメラ三脚にAZ-GTiを載せているので、微動で調整することはできません。そんな時の秘密兵器、タカハシの三脚アジャスター (小)です。

IMG_5638

使うのは一つだけです。三脚の脚の一つにこれをかましておけば、Pitch(縦)方向の微動はかなり楽になります。入れる場所は、できるだけ南北方向にある脚です。北のほうでも南の方でも構いませんが、南北軸に平行な脚に入れてしまえば、Pitch自由度のみいじりやすくなります。

Yaw(横)方向は仕方ないので、脚ごとずらします。でもPitchが分離されているのでかなり楽です。

極軸調整で使うのはCMOSカメラとSharpCap。SharpCapの極軸調整機能は現バージョンでは有料版のみですが、古いバージョン2.9だと無料でも使えるはずです。ただし、新しいカメラがサポートされていない可能性があるので注意です。実際のやり方は過去記事を見ていただくとして、少しだけ重要なことを再確認しておきます。
  • 極軸調整用のCMOSカメラは回転軸の中心にある必要は全くありません。向きさえ鏡筒とそこそこ同じなら、どこにつけてもいいです。これは無限遠を見ているからに他なりません。
  • CMOSカメラのセンサー面を赤経軸にきちんと垂直にする必要はありません。赤経軸がきちんと極軸方向に向いた時に、北極星がカメラの画面内に入っているくらいの精度で十分です。あまりずれていたら直すくらいで、見ている天の極の中心がカメラで見ている画像の中心と一致する必要も全くありません。これも無限遠を見ているからに他なりません。
というわけで、カメラの設置精度は結構適当でいいということですが、たまにこのことをきちんと理解していなくて、無駄なところに精度と時間を費やしている方がいます。楽ができるところはきちんと楽をしましょう。

さて、今回の極軸調整で気づいた点です。まあ、ふだん普通の赤道儀ではいつもやっていることなのですが、カメラ三脚を使っての極軸調整はSWAT以来久しぶりなのでという意味です。
  • ASI290MMはモノクロカメラでPolar Align時の星の認識率がかなりいい。カラーCMOSカメラよりはるかにいい感じです。
  • 今回は極軸調整、電子ファインダー、オートガイドの全てを焦点距離50mmの安価なCマウントレンズで行いました。50mmくらいがちょうど良さそうです。
  • ピッチの微調整が三脚アジャスターのおかげで本当に楽でした。
  • ヨーは脚をずらして合わせましたが、ピッチが楽に決まるので、ヨーの合わせこみが多少不便でも楽に合わせ込むことができました。

極軸合わせに使った時間は結局ほんの数分でした。精度ですが、下の写真のように余裕で1分角を切ることができました。

IMG_5632


まあ、本当の精度は大気の誤差とかもあるのでわかりません(最近のSharpCapではこの誤差も補正ができますが、私はめんどくさいのでやっていません)が、数分間の撮影では全く問題ないくらいの精度になります。実際の精度は機材の方の、特にperiodic motionで制限されてしまいます。

極軸調整の誤差と製造のズレ具合は、以前簡単な評価方法を考えたので、このページを参考にしてください。今回の場合0.5分角くらいで合わせているので、8分間露光しても星像は最大1秒角程度しかずれません。これが画面上でどれくらいのズレになるかというと、これも以前簡単に評価していて、今回使っているのが

焦点距離350mmで、センサー素子が4.5um

くらいなので、自分の覚えやすい基準の「焦点距離600mm、4umのセンサーで1素子あたり1.5秒角」から、センサーの1素子あたりの画角は

1.5[秒] x 600[mm] / 350[mm] x 4.5[um] / 4[um] ~ 3[秒]

くらいになります。上の8分間で1秒角のズレと合わせて、24分間で1ドットのズレとなります。もう十分すぎるほどの精度ですね。SharpCapを使うとこれくらいの精度を簡単に出すことができるので、とても便利です。


さて次は、初期アラインメント。ここでやっとAZ-GTiの電源を入れて接続です。この時点ではPCでもスマホでもタブレットでも、Syn Scanアプリが入っているものならなんでも構いません。極軸は相当精度よくあっていますが、赤経の初期位置と、赤緯の初期位置が不定なので、それを教え込むために初期アラインメントをする必要があります。でもAZ-GTiのアラインメントのアルゴリズムがブラックボックスなのでで、どの方法を選ぶかちょっと迷います。原理的には2スターアラインメントが最低必要な気がするのですが、うまいアルゴリズムなら1スターアラインメントでも赤経赤緯同時に教え込むことができる気がします。まあ不明なので、とりあえず1スターアラインメントでやってみて、ダメなら2スターアラインメントでやり直せばいいだけの話です。もっと言うと、極軸はあっているので、自動導入しなければ初期アラインメントは必要ありません。

実際には1スターアラインメントで、FS-60CBにつけたASI294MCの映像をSharpCapで表示して、天体が真ん中に来るようにアラインします。その際、極軸合わせで使ったASI290MMは電子ファインダーとして使うと、楽に鏡筒に導入できるかと思います。アラインメント成功後、その後の自動導入ではセンターにほぼ希望の天体を入れることは繰り返しできました。でもこれがたまたまなのか、はたまたこれで十分なのかはまだ検証できていません。


さて、最後はオートガイドです。今度はきちんとPCからAZ-GTiを接続していなくてはいけません。カメラ2台を昨日やったUSB2ケーブルを使って接続します。PHD2でASI290MM (今度の役割がやっとガイドカメラになります)に接続します。この時点でカメラが2台繋がっているので、きちんと選択してどちらのカメラをガイドカメラにするかを指定しなくてはいけません。昨日準備の時に試したように、カメラを接続して、マウントを接続すれば準備完了です。露光ボタンを押して、ガイド星を選択し、ガイド開始ボタンを押すとキャリブレーションが始まるはずです。全てうまくいくと、下の写真のように、きちんとWi-Fi経由でAZ-GTiがPHD2から操作されて、キャリブレーションされている様子がわかります。後ろの画面で星像がL字になっているのがその証拠です。

IMG_5634


キャリブレーションが終わると、自動的にガイドが始まります。結果は以下のようになります。

IMG_5635

RMSで1.7秒と1.4秒なのでざっくり2秒以下にはなっています。ピークは4.7秒と5.2秒と少し大きいですが、すでにRMSで0.15ドット以下となっていて限界に近いので、これ以上は50mmというレンズの焦点距離を伸ばさなければ無理でしょう。でもピークでさえ1ドットちょっとくらいの揺れなので、これくらいの精度でちょうどいいのかと思います。

たったケーブル2本でオートガイドまで実現しました。AZ-GTiの電源も乾電池なので、そのケーブルさえもありません。ものすごくシンプルです。StickPCと極短のUSB2ケーブルを使えばさらにシンプルになりそうです。



さて最後にちょっとした失敗を。下の画像はオートガイドをしながら、M31をSharpCapで30秒露光で7枚Live Stackしたものを、PixInsightでオートストレッチだけしたものです。

Stack_16bits_7frames_210s

まず、極軸の精度がいいのと、ピリオディックモーションはもっと長い周期で出てくるので、そもそもこんな短い露光時間でガイドの検証をしようと思っても全然星像は流れません。少なくとも10分くらいかけて、スタックとか無しでやるべきでした。それに気づいた時にはすでに空は曇りはじめていました。

もう一つ、ガイドが原因では流れなかったのですが、四隅が完全に流れています。純正フラットナーはつけているのですが古いタイプのもの。CMOSカメラなのでバックフォーカスがあっていない可能性もありますが、けっこう流れるんですよね。星フェスで見たタカハシの新しいフラットナーの画像が四隅もすごく綺麗だったので、やっぱり新しいフラットナー欲しいです。レデューサーも欲しいけどこっちが先かな?




このページのトップヘ