ほしぞloveログ

天体観測始めました。

カテゴリ:調整・改造 > オートガイド

最近太陽撮影でよくコメントをくれるhiroさんが、Lusol-Guideという太陽撮影でオートガイドを実現するソフトを見つけたと教えてくれました。私も試してみたので記事にしておきます。


なぜ太陽撮影にオートガイド?

太陽撮影は基本明るいので短時間で終わるためにオートガイドする必要はないのですが、プロミネンスの動きなどタイムラプス映像をするときにはオートガイドが欲しくなってしまいます。一番の理由はPSTなどの入門用太陽望遠鏡の場合、エタロンの精度があまりよくないため、画面内でHαの出方にムラができてまうことです。そのため撮影の位置がずれると後のタイムラプスの一コマ一コマで画像処理が一様にならなくて、動画の見栄えが悪くなってしまいます。

ところが、太陽のオートガイドはあまりいいのが無くて、例えばFireCaptureには撮影した画像にある物の形を認識してそれを保つように赤道儀に返すような機能もありますが、やはりどうしても途中で飛び跳ねたりして安定度がいまいちです。ここら辺の基本的な考え方や、hiroさんとのやり取りはこのページ

や、そこのコメント欄を追ってもらえるとわかるかと思います。


LuSol-Guide

さて、今回hiroさんによって発掘されたLuSol-Guideですが、2016年くらいに開発されたものでしょうか、もう結構古いもので、その後の開発は止まってしまっているようです。すでにhiroさんから同ページのコメント欄で結構うまくガイドできているとの報告がありますが、私も実際に使ってみました。

マニュアルがここにあります。


多少の癖があったり、使わないとわかりにくいところもありますので実際使用して気づいたことを書いておきます。


実際の使用記

まずガイド鏡を用意します。普通の夜の撮影で使うガイド今日で構いませんが、太陽光を軽減するフィルターを必ずつけてください。そうしないとカメラセンサーが焼けてしまうなどのダメージがあるので気をつけてください。

カメラですが、私は撮影用にASI290MM、ガイド様にもASI290MMを使いましたが、どうも同じカメラが2つというのは想定していない様で、Lusol-GuideかSharpCapのどちらかでカメラを動かすと、どちらかが止まってしまうという状況でした。仕方ないのでガイド用カメラをASI120MM miniにすると、すんなりと両方とも動ようになりました。

キャプチャ4


さて、操作手順です。
  1. 左下の「Camera」ところでガイドに使うカメラを選択し「Start」を押すと、ガイド鏡で映した画像が出てきます。横の「Setting」で適当なパラメータを設定してください。後で説明しますが、サチるくらいに明るくしたほうが安定するようです。
  2. 次に右上「Mount」のところの「Connect」で赤道儀に接続します。ASCOM platformと各自の赤道儀にあったドライバーなどはあらかじめインストールしておいてください。
  3. 右下の「Calibration」ボタンでキャリブレーションを始めます。ガイドカメラの縦横の向きは出来れば撮影カメラの縦横と合わせておいた方がいいでしょう。
  4. 1-2分待つとキャリブレーションが終わます。
これでガイド準備可能となりますがその後のパラメータがわかりにくいです。

  1. まずD.Minですが、これはこの値以下のピクセルのずれはガイドしないという意味のようです。言い換えるとPHD2のように、恒星の強度分布からピクセル以下の位置を推測する様な高度なことはしていなくて、1ピクセル単位のガイドが最も精度が良いということになります。なのでここの値は「0」が一番精度がいいです。撮影鏡筒の焦点距離が2000mm、ガイド鏡の焦点距離が120mmなので、2000/120 = 17と、ガイド鏡が1ピクセルずれるだけで撮影画像は17ピクセルと大きなずれになります。D.Minの値を「1」にすると、上下左右1ピクセルずれていても何もしないようなので、撮影画像では最高でも2ピクセル分の34ピクセルの精度になってしまいます。
  2. D.Maxはその値以上はガイドしないというだけなので、適当な値例えば50とか100で構わないようです。
  3. Agressivenessはデフォルトの5でいいみたいです。増やしすぎると発振することがありました。
  4. Thresholdがまたわかりにくいです。これは太陽の位置認識の感度のようです。小さくすると小さな円で、大きくすると大きな円でフィッティングするようです。明るさで判断しているので、この値を中途半端にすると少し明るさが変わっただけで円の大きさが大きく変わります。位置もそれに引きずられてブレるので、ブレの範囲を小さくするためには、カメラの設定を太陽がサチるくらい露光時間を長めかゲインを高めにしておいたほうがいいいみたいです。 
hiroさんがThresholdの値を高めに設定した方が安定すると書いてくれていたのは上のような理由からで、明るさの変化にあまり依存しないように、最大径でフィッティングした方が誤差が少ないからだろうと思われます。


実際のガイド精度

あとは特に説明しなくてもなんとかなるでしょう。ただ、上にも書いた通りもっとも精度が良くても撮影画像で17ピクセルの誤差があるので、かなり揺れます。風とかあるとガイドカメラでも数ピクセルずれることはあるので、撮影画像で50ピクセルくらいずれることはよくあります。それでもFireCaputureでのオートガイドとかよりはマシで、少なくとも飛んでいってしまう様なことはあまりありません。雲や電線など、ガイドカメラの像が不安定だと大きく揺れてしまいますが、それは仕方ないでしょう。


まとめと今後

とりあえず最低限の実用性はありそうです。もう少し精度を良くするためには、ガイド鏡の焦点距離を長くすることですが、太陽全体を見る必要があるのでより大きなセンサーサイズが必要になってきます。もしくはピクセルサイズのできるだけ小さいカメラをガイドカメラに使っても精度は上がりますが、ASI290MMもそこまで大きなピクセルサイズではないため、ピクセルサイズ側で大きく精度を向上させるのは難しそうです。

タイムラプスのための画像の位置合わせについては次回以降の記事で書くことにします。
 

縞ノイズが出る理由の一つとして、ガイド時における鏡筒とガイド鏡の相対的なたわみが考えられます。TSA-120用にガイド鏡を取り付けることを考えていましたが、できるだけ撓が少なくなるように、市販の部品を使ってガイド鏡の固定を補強することにしました。


ガイド鏡について

ガイド鏡は昨年の胎内星まつりでBlac Pandaさんのところで先行販売されていたこれ。焦点距離128mmです。最近シュミットさんで販売が始まったようですが、星まつりだったので当時特価で購入できました。

IMG_7908


レンズ部分が筒部分と同じ長さだけあるので、すごく引き出せます。そのためカメラ位置の範囲にかなり余裕ができるため、台座兼アイピースホルダーを外しても焦点を合わせることができるなど、随分と応用範囲が広いです。

IMG_9840

この台座ですが、一本持ちなので少し心許ないです。今回のように撓みをできるだけ無くしたい場合は、できるだけ高さを低くすること、2点支持した方がよさそうです。


どうやって固定するか

もう一本、同じような台座を探してもいいのですが、なかなかいいのがありません。なのでこれを外してしまい、もう少し低くできる固定方法を模索しました。実際、台座部分を外してもネジ径が同じで、ASIカメラのアダプターの径と同じを直接取り付けることができます。

IMG_9845

カメラをねじ込みにすると、回転方向を任意に調整できないと困ることがありそうです。問題はガイド鏡を任意に回転させることができつつ、この円筒部分をどうやって固定して、TSA-120につけたアルカスイスプレートに固定するために、アルカスイスクランプにどうやって持っていくか。

今回はアマゾンでこんなパーツを見つけました。バイク部品のようですが、かなり頑丈で直径54mmまでのパイプに取り付けられるようです。ガイド鏡の円筒部分の外径が45.5mmなのでちょうどいいくらいです。Lサイズが2個1組なのですが、最初LサイズとMサイズが一つづつ届きました。でも、そのことを販売店に知らせたらすぐに対応してくれて、多分最速で新しいものを送ってくれました。間違って配送されたものも、配達員がそのまま引き取ってくれたので楽でした。

それと、安価な120mm幅のアルカスイス互換のクランプです。

IMG_9846

注意する点は、アルカスイ互換スクランプの裏側からネジ止めをするために、丸ネジや通常のキャップネジだと頭が出過ぎてプレートに取り付ける時にぶつかってしまいます。そのため今回は6角の皿ネジを一緒に注文しました。長さは12mmでぴったりでした。

これで加工なしで固定できます。

IMG_9848

裏から見るとこんな風になっています。

IMG_9849


鏡筒に取り付けてみる

鏡筒側にアルカスイス プレートをつけてあるので、直接取り付けることができます。実際TSA-120につけてみるとこんな風になります。プレートも長いので、ある程度前後させることもできます。

IMG_9850

うーん、かっこいい。(自己)満足です。

実際揺らしてみてもほとんど動きません。これで相当頑丈になったはずです。

次回晴れたらテストしてみます。


縞ノイズを時間的に見てみる

もしかしたら興味がある人もいるかと思い、縞ノイズを時間的に可視化してみました。先のバラ星雲の1日目のディザーなしで撮影した失敗画像約2時間ぶんの24枚を使っています。中心あたりの一部を拡大して見ています。といってもやったことは簡単で、ディザーなしで撮影した画像を、PixInsightで動画にしただけです。

Blink

これはガイドをしていても、たわみなどでガイド鏡と撮影鏡筒の相対的な視野が一方向にずれてしまうために起きます。それでももしノイズが完全にランダムなら、このように流れるようには見えないはずです。ノイズが流れて見えるということは、ノイズに時間的なコヒーレンスがあるということです。うーん、結構ありますね。あれだけの縞ノイズになるのもわかる気がします。

integration_DBE_PCC_AS_cut



縞ノイズ動画の作り方

さて、この動画の作り方です。今回縞ノイズを時間的にみる目的でしたが、このやり方覚えておくと色々応用が効きそうです。基本的に、PixInsightを使います。
  1. 普通にBatchPreprocessing 処理などで進めます。
  2. master以下のregsteredフォルダに入っている、位置合わせまで終わって、Integrationする寸前のファイルを使います。ここまでは普通にDebayerしてStarAlignmentでも構いません。
  3. Blinkでそれらのファイルを開きます。
  4. とりあえずは、デフォルト機能の再生ボタン(右三角)を押すと確認できますが、順に動画のようになるように見せるだけです。オートストレッチもできるのでみやすくなります。カラーバランスが悪い場合は、RGBのリンクをオン/オフする「鎖マーク」のアイコンを押してください。
  5. Previewで一部を切り取るとその部分だけ拡大して見えます。
  6. それをBlink画面の右下の一番右端の撮影開始マークアイコンで動画にします。
  7. ffmpegがない場合は別途インストールしてください。
  8. ffmpegがインストールされていても、実行ファイルをフルパスで入れないとダメでした。/usr/local/bin/ffmpegとかいうことです。
  9. オプションは秒20コマのgifファイルにしたかったので、 -y -r 20 -i Blink%05d.png Blink.gifとしました。
このように結構簡単に動画を作ることができます。


M42の場合

もう一つ例です。TSA-120でM42を撮影した時のものです。約30分くらいの撮影時間で、枚数は14枚です。これはディザーもそうですが、ガイドさえもしてないので赤道儀の極軸の精度が悪くてずれていってしまっているものです。上のバラ星雲のように画像の一部ではなくて、ほぼ全体像を示しています。解像度はこのブログにアップできるように(一画像当たり5MBが制限)落としてあります。

Blink

縞ノイズの原因となるクールノイズなどに混ざって、おそらくバイアスノイズに相当する縦線のように見えるノイズも流れていることがわかります。基本的にランダムでないノイズは、全て縞ノイズになり得るだろうことがわかります。

これを普通にスタックすると下のように縞ノイズが盛大に出てくるわけです。

integration



バラ星雲のもそうですが、時間的にこれだけ明らかに変化しているのがわかるのなら、なんとか分離してペラっと一枚皮を剥ぐようにこのノイズだけ取れないですかね?

今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。(2020/4/16 追記: APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。また、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。)
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


AZ-GTiの赤道儀モードでのオートガイドですが、昨日までの苦労もあり、本日のテストはすこぶる順調でした。


オートガイドの前に、まず最初は極軸調整です。カメラ三脚にAZ-GTiを載せているので、微動で調整することはできません。そんな時の秘密兵器、タカハシの三脚アジャスター (小)です。

IMG_5638

使うのは一つだけです。三脚の脚の一つにこれをかましておけば、Pitch(縦)方向の微動はかなり楽になります。入れる場所は、できるだけ南北方向にある脚です。北のほうでも南の方でも構いませんが、南北軸に平行な脚に入れてしまえば、Pitch自由度のみいじりやすくなります。

Yaw(横)方向は仕方ないので、脚ごとずらします。でもPitchが分離されているのでかなり楽です。

極軸調整で使うのはCMOSカメラとSharpCap。SharpCapの極軸調整機能は現バージョンでは有料版のみですが、古いバージョン2.9だと無料でも使えるはずです。ただし、新しいカメラがサポートされていない可能性があるので注意です。実際のやり方は過去記事を見ていただくとして、少しだけ重要なことを再確認しておきます。
  • 極軸調整用のCMOSカメラは回転軸の中心にある必要は全くありません。向きさえ鏡筒とそこそこ同じなら、どこにつけてもいいです。これは無限遠を見ているからに他なりません。
  • CMOSカメラのセンサー面を赤経軸にきちんと垂直にする必要はありません。赤経軸がきちんと極軸方向に向いた時に、北極星がカメラの画面内に入っているくらいの精度で十分です。あまりずれていたら直すくらいで、見ている天の極の中心がカメラで見ている画像の中心と一致する必要も全くありません。これも無限遠を見ているからに他なりません。
というわけで、カメラの設置精度は結構適当でいいということですが、たまにこのことをきちんと理解していなくて、無駄なところに精度と時間を費やしている方がいます。楽ができるところはきちんと楽をしましょう。

さて、今回の極軸調整で気づいた点です。まあ、ふだん普通の赤道儀ではいつもやっていることなのですが、カメラ三脚を使っての極軸調整はSWAT以来久しぶりなのでという意味です。
  • ASI290MMはモノクロカメラでPolar Align時の星の認識率がかなりいい。カラーCMOSカメラよりはるかにいい感じです。
  • 今回は極軸調整、電子ファインダー、オートガイドの全てを焦点距離50mmの安価なCマウントレンズで行いました。50mmくらいがちょうど良さそうです。
  • ピッチの微調整が三脚アジャスターのおかげで本当に楽でした。
  • ヨーは脚をずらして合わせましたが、ピッチが楽に決まるので、ヨーの合わせこみが多少不便でも楽に合わせ込むことができました。

極軸合わせに使った時間は結局ほんの数分でした。精度ですが、下の写真のように余裕で1分角を切ることができました。

IMG_5632


まあ、本当の精度は大気の誤差とかもあるのでわかりません(最近のSharpCapではこの誤差も補正ができますが、私はめんどくさいのでやっていません)が、数分間の撮影では全く問題ないくらいの精度になります。実際の精度は機材の方の、特にperiodic motionで制限されてしまいます。

極軸調整の誤差と製造のズレ具合は、以前簡単な評価方法を考えたので、このページを参考にしてください。今回の場合0.5分角くらいで合わせているので、8分間露光しても星像は最大1秒角程度しかずれません。これが画面上でどれくらいのズレになるかというと、これも以前簡単に評価していて、今回使っているのが

焦点距離350mmで、センサー素子が4.5um

くらいなので、自分の覚えやすい基準の「焦点距離600mm、4umのセンサーで1素子あたり1.5秒角」から、センサーの1素子あたりの画角は

1.5[秒] x 600[mm] / 350[mm] x 4.5[um] / 4[um] ~ 3[秒]

くらいになります。上の8分間で1秒角のズレと合わせて、24分間で1ドットのズレとなります。もう十分すぎるほどの精度ですね。SharpCapを使うとこれくらいの精度を簡単に出すことができるので、とても便利です。


さて次は、初期アラインメント。ここでやっとAZ-GTiの電源を入れて接続です。この時点ではPCでもスマホでもタブレットでも、Syn Scanアプリが入っているものならなんでも構いません。極軸は相当精度よくあっていますが、赤経の初期位置と、赤緯の初期位置が不定なので、それを教え込むために初期アラインメントをする必要があります。でもAZ-GTiのアラインメントのアルゴリズムがブラックボックスなのでで、どの方法を選ぶかちょっと迷います。原理的には2スターアラインメントが最低必要な気がするのですが、うまいアルゴリズムなら1スターアラインメントでも赤経赤緯同時に教え込むことができる気がします。まあ不明なので、とりあえず1スターアラインメントでやってみて、ダメなら2スターアラインメントでやり直せばいいだけの話です。もっと言うと、極軸はあっているので、自動導入しなければ初期アラインメントは必要ありません。

実際には1スターアラインメントで、FS-60CBにつけたASI294MCの映像をSharpCapで表示して、天体が真ん中に来るようにアラインします。その際、極軸合わせで使ったASI290MMは電子ファインダーとして使うと、楽に鏡筒に導入できるかと思います。アラインメント成功後、その後の自動導入ではセンターにほぼ希望の天体を入れることは繰り返しできました。でもこれがたまたまなのか、はたまたこれで十分なのかはまだ検証できていません。


さて、最後はオートガイドです。今度はきちんとPCからAZ-GTiを接続していなくてはいけません。カメラ2台を昨日やったUSB2ケーブルを使って接続します。PHD2でASI290MM (今度の役割がやっとガイドカメラになります)に接続します。この時点でカメラが2台繋がっているので、きちんと選択してどちらのカメラをガイドカメラにするかを指定しなくてはいけません。昨日準備の時に試したように、カメラを接続して、マウントを接続すれば準備完了です。露光ボタンを押して、ガイド星を選択し、ガイド開始ボタンを押すとキャリブレーションが始まるはずです。全てうまくいくと、下の写真のように、きちんとWi-Fi経由でAZ-GTiがPHD2から操作されて、キャリブレーションされている様子がわかります。後ろの画面で星像がL字になっているのがその証拠です。

IMG_5634


キャリブレーションが終わると、自動的にガイドが始まります。結果は以下のようになります。

IMG_5635

RMSで1.7秒と1.4秒なのでざっくり2秒以下にはなっています。ピークは4.7秒と5.2秒と少し大きいですが、すでにRMSで0.15ドット以下となっていて限界に近いので、これ以上は50mmというレンズの焦点距離を伸ばさなければ無理でしょう。でもピークでさえ1ドットちょっとくらいの揺れなので、これくらいの精度でちょうどいいのかと思います。

たったケーブル2本でオートガイドまで実現しました。AZ-GTiの電源も乾電池なので、そのケーブルさえもありません。ものすごくシンプルです。StickPCと極短のUSB2ケーブルを使えばさらにシンプルになりそうです。



さて最後にちょっとした失敗を。下の画像はオートガイドをしながら、M31をSharpCapで30秒露光で7枚Live Stackしたものを、PixInsightでオートストレッチだけしたものです。

Stack_16bits_7frames_210s

まず、極軸の精度がいいのと、ピリオディックモーションはもっと長い周期で出てくるので、そもそもこんな短い露光時間でガイドの検証をしようと思っても全然星像は流れません。少なくとも10分くらいかけて、スタックとか無しでやるべきでした。それに気づいた時にはすでに空は曇りはじめていました。

もう一つ、ガイドが原因では流れなかったのですが、四隅が完全に流れています。純正フラットナーはつけているのですが古いタイプのもの。CMOSカメラなのでバックフォーカスがあっていない可能性もありますが、けっこう流れるんですよね。星フェスで見たタカハシの新しいフラットナーの画像が四隅もすごく綺麗だったので、やっぱり新しいフラットナー欲しいです。レデューサーも欲しいけどこっちが先かな?




前回(その1)でAZ-GTiの赤道儀化のためのハードウェア部分は大分準備ができたので、実際に鏡筒とカメラを載せてみました。

IMG_5618


使った機材です。
  • 鏡筒がいつものFS-60CB。
  • ガイドカメラにASI290MMを使い、そこにノーブランドの50mmのCマウントレンズをつけています。
  • 撮影用のカメラはASI294MCを使ってみました。これは後でSharpCapのベータ版を使いDitherも試してみたかったからです。 
  • この状態で、ケーブルはわずか2本でオートガイドまでできる算段になります。

まず、組んでみていくつか気づいたことです。
  • やはりAZ-GTi下のアルカスイスプレートのところが一番揺れます。ただし、あえて揺らさなければ問題なくらいにはなりそう。実際の撮影では風がなければ問題ないと思われます。もっと頑丈な傾斜のついた金属の塊とかの方がいいかもしれませんが、加工が大変なのと、トータルで重くなるのでとりあえずこのままにしておきます。
  • 赤経、赤緯とも、クランプを緩めても摩擦が大きく、なめらかには動かないので、バランス点を取るのがちょっと難しいです。多少おおざっぱなバランス調整になりますが、モーターのトルクはそこそこありそうなので、実用上はまあ問題ないでしょう。
  • 三脚の足を目いっぱい開いたほうが安定しますが、時間がたって天頂越えする時に、天頂付近を見ていると撮影カメラ部分が三脚の足に当たってしまう可能性がでてきます。AZ-GTiの赤道儀モードに反転機能はついているのか?
  • 逆に、三脚をあまり開かずにつかうとカメラは当たらなくなりますが、不安定になり転倒する可能性が出てきます。こちらの方が怖いので、三脚は開いて使うことにしました。
  • これはSWATをいじっているときに学んだことですが、上の可動部の重心位置を三脚中心上に持ってくると安定します。

さてここからソフトウェアですが、思ったより難航しました。

Windows PCを使ってAZ-GTiをガイドするためには、まずはSky-WatcherのSOFTWARE & FIRMWAREの中のSynScan Appのページからから

Windows program: SynScan Pro App, Version 1.11.0

をダウンロードして、展開、インストールします。他の方の情報によると、フォルダの場所に気をつけないと観測場所の設定ファイルが書き込めないとの情報などもありますが、私の場合は特に問題ありませんでした。きちんと日本語化もされているので、アプリのバージョンが上がってバグフィックスされているようです。 iPhoneやiPadからの操作と違うのは、PCにはGPS機能がないので、一番最初に立ち上げる時に自分で緯度経度で位置を入力しなければならないことです。一度入力すれば、次回からは再度入力する必要はないようです。

次にに必要なソフトは実際のガイドのためのソフトで、今回選んだのはガイドソフトの定番のPHD2とAZ-GTi用のASCOMドライバーです。ASCOMドライバーはSky-WatcherのSOFTWARE & FIRMWAREの中のASCOM Driverのページから

ASCOM Driver for SynScan App Version 1.2.2

をダウンロードし、実行しインストールします。もしASCOMを使うのが初めてという方や、ASCOM platformを事前にインストールされていない方は、ASCOMのサイトに行ってASCOM platoformをダウンロード、実行、インストールします。途中、必要なランタイムをインストールするためにPCを再起動が必要となる場合があるので、そのまま従って再起動します。

ガイドソフトのPHD2はすでにいつも使っているので手慣れたものですが、今回は初めてのセットアップとして、セットアップウィザードを使います。まず、ガイドカメラを選択しますが、ASI290MMなのでZWOカメラを選択します。その際、ASIカメラを接続しておくとピクセルサイズが自動で入力されます。ASI290の場合は2.90umとなりました。「焦点距離」は手持ちのガイド鏡の焦点距離を入力します。私の場合ノーブランドのCマウントレンズで焦点距離50mmなので、50を入力します。

IMG_5615


ASCOMドライバーがうまくインストールされていると、PHD2上で「マウント」を選択するときに、上の画面のように「SynScanMobile Telescome(ASCOM)」が選択できるようになっているはずです。マウントを選択すると、「マウントとPHD2が既に接続されていれば、ガイドスピードが自動的に設定されます」とかいう案内が出るので、「マウント(AZ-GTiのこと)」とつなぐためにAZ-GTiを立ち上げて、先にダウンロードしたSyn Scan Proを立ち上げ、接続します。と、ここで問題が起きました。AZ-GTiのWi-Fiにうまく接続できないのです。これはすぐになぜだか思いつきました。以前もあったのですが、ASIカメラがUSB3.0接続のノイズが、AZ-GTiのWi-Fi接続の2.4GHzに悪影響を及ぼすからです。そのため、ここではいったんカメラの接続ケーブルを外します。すると嘘のようにAZ-GTiとの接続が安定してできるようになり、ガイドスピードも自動的に決まります。ガイドスピードはもともと0.50だったのが1.00になりました。この接続の不安定さは後々まで影響することになりますが、とりあえずここは無視してカメラを外した状態で進めます。


蛇足ですが、ここでハタと気づきました。このテストはノートPCを使っているのでまだいいのですが、実際の撮影はStickPCを使うことになると思います。StickPCがAZ-GTiにWi-Fiで接続してしまったら、リモートデスクトップで外から接続できなくなり、StickPCの画面を見ることさえできなくなります。これはSyn Scan Proの「設定」の「Wi-Fi設定」から「ステーションモード」を選択するとインターネットにつなぐことができるとマニュアルに書いてあるので、多分これをきちんと設定すれば解決しそうです。でもマニュアルを見ると、「アクセスポイントモードとステーションモードはどちらか一方で、両方とも有効にするな」とか書いてあるので、最悪AZ-GTiに全く接続できなくなる可能性があります。ちょっと怖いので、とりあえずStickPCを使うのは後の課題としたいと思います。


さて、一応ソフト関連の準備はできたので、実際に稼働させることにします。まずはPCをAZ-GTiのWi-Fiに接続してSyn Scan Proを起動して、モーターが動くことを確認します。これは特に問題ないです。

さて、問題はここからです。ガイド用のCMOSカメラを接続した瞬間に、AZ-GTiの接続が切れてしまいます。先に試したのと同じ状況です。検証のために、以前やったようにコマンドプロンプトで

ping -t 192.168.4.1

と打ってどれくらい接続がだめになるのか見てみます。

IMG_5617


結果は上の写真のように、つないだ瞬間にタイムアウトのメッセージが出て、宛先ホストに届かず、たまに届いてもものすごい遅延があります。当然モーターは動きません。

その後カメラを抜くと、抜いた瞬間に接続が復帰して、モーターがまた動くようになります。原因はUSB3.0のノイズで間違いないようです。普通はここでネットワークを5GHzに変更して回避します。StickPCの時も新たに5GHzの旅行用のルーターを導入してことなきを得ました。ところが、あいにくAZ-GTiは2.4GHzにしか対応していません。これまでiPhoneやiPadで接続するときはCMOSカメラが接続されてても問題なかったのですが、これはUSB3.0とiPhoneやiPadのアンテナの位置が物理的に遠かったからだけで、例えば試しにiPhoneの天頂部をUSBポートの数cm近くまで寄せてやったら、やはり同様の症状が出ました。

いったんここで完全に行き詰りました。USBポートの位置を変えるとか、外付けのUSBポートを使うとかもダメでしたし、PCを2台使うとかも考えましたが、PHD2とSyn Scan Proとの接続が確立できないのと、なにより2台なんてシンプルでないのでダメです。このブログにコメントをくれる彰ちゃんが「彰ちゃんブログ」の中でStickPCで2.4GHzとUSB3.0でたまたまうまくいったと報告されていますが、結局なぜうまくいったのかわからないそうです。とにかく、AZ-GTiが2.4GHzにしか対応していないことが致命的です。
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
しばらく頭を冷やして、はたと思いつきました。AZ-GTiが2.4GHzしかもっていないなら、USB3.0をなくしてしまえばいいのではないかと。最初USBドライバーレベルで2.0接続とか考えましたが、もっと単純にUSB2.0のケーブルを使えばいいのではないかと。昔使っていたあまりのUSBケーブルを引っ張り出してきて接続。結果これが大成功!ガイドカメラをつないだ状態で通信がすごく安定しています。調べた限りこのようなアイデアはなかったのですが、目から鱗だと思いませんか?そもそもASIのUSB3.0対応のカメラを、わざわざ遅いUSB2.0で繋ぎたいとはあまり思わないのではないかと。

惑星撮影とかではないので、そもそも転送速度は必要ありません。意外なことにUSB2.0で露光時間を1msとか短くしてもSharpCap上できちんと撮影画像は見えています。ただし、USB3.0の時と比べると、カメラを動かすと転送が追いつけなくてだと思いますが、画面がぐにゃっと曲がったようになります。それでも短くても100ms程度の露光時間にはなるPHD2でガイドする分には全く問題なさそうです。

ここまでえらい時間がかかって、やっと外に出て試そうと思ったら、夕暮れ時に晴れていた空もいつの間にかドン曇りです。でも週末は晴れるとのことなので、近いうちに試せるでしょう。次は極軸合わせがうまくいくかです。







このページのトップヘ