ほしぞloveログ

天体観測始めました。

カテゴリ:調整・改造 > オートガイド


縞ノイズを時間的に見てみる

もしかしたら興味がある人もいるかと思い、縞ノイズを時間的に可視化してみました。先のバラ星雲の1日目のディザーなしで撮影した失敗画像約2時間ぶんの24枚を使っています。中心あたりの一部を拡大して見ています。といってもやったことは簡単で、ディザーなしで撮影した画像を、PixInsightで動画にしただけです。

Blink

これはガイドをしていても、たわみなどでガイド鏡と撮影鏡筒の相対的な視野が一方向にずれてしまうために起きます。それでももしノイズが完全にランダムなら、このように流れるようには見えないはずです。ノイズが流れて見えるということは、ノイズに時間的なコヒーレンスがあるということです。うーん、結構ありますね。あれだけの縞ノイズになるのもわかる気がします。

integration_DBE_PCC_AS_cut



縞ノイズ動画の作り方

さて、この動画の作り方です。今回縞ノイズを時間的にみる目的でしたが、このやり方覚えておくと色々応用が効きそうです。基本的に、PixInsightを使います。
  1. 普通にBatchPreprocessing 処理などで進めます。
  2. master以下のregsteredフォルダに入っている、位置合わせまで終わって、Integrationする寸前のファイルを使います。ここまでは普通にDebayerしてStarAlignmentでも構いません。
  3. Blinkでそれらのファイルを開きます。
  4. とりあえずは、デフォルト機能の再生ボタン(右三角)を押すと確認できますが、順に動画のようになるように見せるだけです。オートストレッチもできるのでみやすくなります。カラーバランスが悪い場合は、RGBのリンクをオン/オフする「鎖マーク」のアイコンを押してください。
  5. Previewで一部を切り取るとその部分だけ拡大して見えます。
  6. それをBlink画面の右下の一番右端の撮影開始マークアイコンで動画にします。
  7. ffmpegがない場合は別途インストールしてください。
  8. ffmpegがインストールされていても、実行ファイルをフルパスで入れないとダメでした。/usr/local/bin/ffmpegとかいうことです。
  9. オプションは秒20コマのgifファイルにしたかったので、 -y -r 20 -i Blink%05d.png Blink.gifとしました。
このように結構簡単に動画を作ることができます。


M42の場合

もう一つ例です。TSA-120でM42を撮影した時のものです。約30分くらいの撮影時間で、枚数は14枚です。これはディザーもそうですが、ガイドさえもしてないので赤道儀の極軸の精度が悪くてずれていってしまっているものです。上のバラ星雲のように画像の一部ではなくて、ほぼ全体像を示しています。解像度はこのブログにアップできるように(一画像当たり5MBが制限)落としてあります。

Blink

縞ノイズの原因となるクールノイズなどに混ざって、おそらくバイアスノイズに相当する縦線のように見えるノイズも流れていることがわかります。基本的にランダムでないノイズは、全て縞ノイズになり得るだろうことがわかります。

これを普通にスタックすると下のように縞ノイズが盛大に出てくるわけです。

integration



バラ星雲のもそうですが、時間的にこれだけ明らかに変化しているのがわかるのなら、なんとか分離してペラっと一枚皮を剥ぐようにこのノイズだけ取れないですかね?

今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


AZ-GTiの赤道儀モードでのオートガイドですが、昨日までの苦労もあり、本日のテストはすこぶる順調でした。


オートガイドの前に、まず最初は極軸調整です。カメラ三脚にAZ-GTiを載せているので、微動で調整することはできません。そんな時の秘密兵器、タカハシの三脚アジャスター (小)です。

IMG_5638

使うのは一つだけです。三脚の脚の一つにこれをかましておけば、Pitch(縦)方向の微動はかなり楽になります。入れる場所は、できるだけ南北方向にある脚です。北のほうでも南の方でも構いませんが、南北軸に平行な脚に入れてしまえば、Pitch自由度のみいじりやすくなります。

Yaw(横)方向は仕方ないので、脚ごとずらします。でもPitchが分離されているのでかなり楽です。

極軸調整で使うのはCMOSカメラとSharpCap。SharpCapの極軸調整機能は現バージョンでは有料版のみですが、古いバージョン2.9だと無料でも使えるはずです。ただし、新しいカメラがサポートされていない可能性があるので注意です。実際のやり方は過去記事を見ていただくとして、少しだけ重要なことを再確認しておきます。
  • 極軸調整用のCMOSカメラは回転軸の中心にある必要は全くありません。向きさえ鏡筒とそこそこ同じなら、どこにつけてもいいです。これは無限遠を見ているからに他なりません。
  • CMOSカメラのセンサー面を赤経軸にきちんと垂直にする必要はありません。赤経軸がきちんと極軸方向に向いた時に、北極星がカメラの画面内に入っているくらいの精度で十分です。あまりずれていたら直すくらいで、見ている天の極の中心がカメラで見ている画像の中心と一致する必要も全くありません。これも無限遠を見ているからに他なりません。
というわけで、カメラの設置精度は結構適当でいいということですが、たまにこのことをきちんと理解していなくて、無駄なところに精度と時間を費やしている方がいます。楽ができるところはきちんと楽をしましょう。

さて、今回の極軸調整で気づいた点です。まあ、ふだん普通の赤道儀ではいつもやっていることなのですが、カメラ三脚を使っての極軸調整はSWAT以来久しぶりなのでという意味です。
  • ASI290MMはモノクロカメラでPolar Align時の星の認識率がかなりいい。カラーCMOSカメラよりはるかにいい感じです。
  • 今回は極軸調整、電子ファインダー、オートガイドの全てを焦点距離50mmの安価なCマウントレンズで行いました。50mmくらいがちょうど良さそうです。
  • ピッチの微調整が三脚アジャスターのおかげで本当に楽でした。
  • ヨーは脚をずらして合わせましたが、ピッチが楽に決まるので、ヨーの合わせこみが多少不便でも楽に合わせ込むことができました。

極軸合わせに使った時間は結局ほんの数分でした。精度ですが、下の写真のように余裕で1分角を切ることができました。

IMG_5632


まあ、本当の精度は大気の誤差とかもあるのでわかりません(最近のSharpCapではこの誤差も補正ができますが、私はめんどくさいのでやっていません)が、数分間の撮影では全く問題ないくらいの精度になります。実際の精度は機材の方の、特にperiodic motionで制限されてしまいます。

極軸調整の誤差と製造のズレ具合は、以前簡単な評価方法を考えたので、このページを参考にしてください。今回の場合0.5分角くらいで合わせているので、8分間露光しても星像は最大1秒角程度しかずれません。これが画面上でどれくらいのズレになるかというと、これも以前簡単に評価していて、今回使っているのが

焦点距離350mmで、センサー素子が4.5um

くらいなので、自分の覚えやすい基準の「焦点距離600mm、4umのセンサーで1素子あたり1.5秒角」から、センサーの1素子あたりの画角は

1.5[秒] x 600[mm] / 350[mm] x 4.5[um] / 4[um] ~ 3[秒]

くらいになります。上の8分間で1秒角のズレと合わせて、24分間で1ドットのズレとなります。もう十分すぎるほどの精度ですね。SharpCapを使うとこれくらいの精度を簡単に出すことができるので、とても便利です。


さて次は、初期アラインメント。ここでやっとAZ-GTiの電源を入れて接続です。この時点ではPCでもスマホでもタブレットでも、Syn Scanアプリが入っているものならなんでも構いません。極軸は相当精度よくあっていますが、赤経の初期位置と、赤緯の初期位置が不定なので、それを教え込むために初期アラインメントをする必要があります。でもAZ-GTiのアラインメントのアルゴリズムがブラックボックスなのでで、どの方法を選ぶかちょっと迷います。原理的には2スターアラインメントが最低必要な気がするのですが、うまいアルゴリズムなら1スターアラインメントでも赤経赤緯同時に教え込むことができる気がします。まあ不明なので、とりあえず1スターアラインメントでやってみて、ダメなら2スターアラインメントでやり直せばいいだけの話です。もっと言うと、極軸はあっているので、自動導入しなければ初期アラインメントは必要ありません。

実際には1スターアラインメントで、FS-60CBにつけたASI294MCの映像をSharpCapで表示して、天体が真ん中に来るようにアラインします。その際、極軸合わせで使ったASI290MMは電子ファインダーとして使うと、楽に鏡筒に導入できるかと思います。アラインメント成功後、その後の自動導入ではセンターにほぼ希望の天体を入れることは繰り返しできました。でもこれがたまたまなのか、はたまたこれで十分なのかはまだ検証できていません。


さて、最後はオートガイドです。今度はきちんとPCからAZ-GTiを接続していなくてはいけません。カメラ2台を昨日やったUSB2ケーブルを使って接続します。PHD2でASI290MM (今度の役割がやっとガイドカメラになります)に接続します。この時点でカメラが2台繋がっているので、きちんと選択してどちらのカメラをガイドカメラにするかを指定しなくてはいけません。昨日準備の時に試したように、カメラを接続して、マウントを接続すれば準備完了です。露光ボタンを押して、ガイド星を選択し、ガイド開始ボタンを押すとキャリブレーションが始まるはずです。全てうまくいくと、下の写真のように、きちんとWi-Fi経由でAZ-GTiがPHD2から操作されて、キャリブレーションされている様子がわかります。後ろの画面で星像がL字になっているのがその証拠です。

IMG_5634


キャリブレーションが終わると、自動的にガイドが始まります。結果は以下のようになります。

IMG_5635

RMSで1.7秒と1.4秒なのでざっくり2秒以下にはなっています。ピークは4.7秒と5.2秒と少し大きいですが、すでにRMSで0.15ドット以下となっていて限界に近いので、これ以上は50mmというレンズの焦点距離を伸ばさなければ無理でしょう。でもピークでさえ1ドットちょっとくらいの揺れなので、これくらいの精度でちょうどいいのかと思います。

たったケーブル2本でオートガイドまで実現しました。AZ-GTiの電源も乾電池なので、そのケーブルさえもありません。ものすごくシンプルです。StickPCと極短のUSB2ケーブルを使えばさらにシンプルになりそうです。



さて最後にちょっとした失敗を。下の画像はオートガイドをしながら、M31をSharpCapで30秒露光で7枚Live Stackしたものを、PixInsightでオートストレッチだけしたものです。

Stack_16bits_7frames_210s

まず、極軸の精度がいいのと、ピリオディックモーションはもっと長い周期で出てくるので、そもそもこんな短い露光時間でガイドの検証をしようと思っても全然星像は流れません。少なくとも10分くらいかけて、スタックとか無しでやるべきでした。それに気づいた時にはすでに空は曇りはじめていました。

もう一つ、ガイドが原因では流れなかったのですが、四隅が完全に流れています。純正フラットナーはつけているのですが古いタイプのもの。CMOSカメラなのでバックフォーカスがあっていない可能性もありますが、けっこう流れるんですよね。星フェスで見たタカハシの新しいフラットナーの画像が四隅もすごく綺麗だったので、やっぱり新しいフラットナー欲しいです。レデューサーも欲しいけどこっちが先かな?




前回(その1)でAZ-GTiの赤道儀化のためのハードウェア部分は大分準備ができたので、実際に鏡筒とカメラを載せてみました。

IMG_5618


使った機材です。
  • 鏡筒がいつものFS-60CB。
  • ガイドカメラにASI290MMを使い、そこにノーブランドの50mmのCマウントレンズをつけています。
  • 撮影用のカメラはASI294MCを使ってみました。これは後でSharpCapのベータ版を使いDitherも試してみたかったからです。 
  • この状態で、ケーブルはわずか2本でオートガイドまでできる算段になります。

まず、組んでみていくつか気づいたことです。
  • やはりAZ-GTi下のアルカスイスプレートのところが一番揺れます。ただし、あえて揺らさなければ問題なくらいにはなりそう。実際の撮影では風がなければ問題ないと思われます。もっと頑丈な傾斜のついた金属の塊とかの方がいいかもしれませんが、加工が大変なのと、トータルで重くなるのでとりあえずこのままにしておきます。
  • 赤経、赤緯とも、クランプを緩めても摩擦が大きく、なめらかには動かないので、バランス点を取るのがちょっと難しいです。多少おおざっぱなバランス調整になりますが、モーターのトルクはそこそこありそうなので、実用上はまあ問題ないでしょう。
  • 三脚の足を目いっぱい開いたほうが安定しますが、時間がたって天頂越えする時に、天頂付近を見ていると撮影カメラ部分が三脚の足に当たってしまう可能性がでてきます。AZ-GTiの赤道儀モードに反転機能はついているのか?
  • 逆に、三脚をあまり開かずにつかうとカメラは当たらなくなりますが、不安定になり転倒する可能性が出てきます。こちらの方が怖いので、三脚は開いて使うことにしました。
  • これはSWATをいじっているときに学んだことですが、上の可動部の重心位置を三脚中心上に持ってくると安定します。

さてここからソフトウェアですが、思ったより難航しました。

Windows PCを使ってAZ-GTiをガイドするためには、まずはSky-WatcherのSOFTWARE & FIRMWAREの中のSynScan Appのページからから

Windows program: SynScan Pro App, Version 1.11.0

をダウンロードして、展開、インストールします。他の方の情報によると、フォルダの場所に気をつけないと観測場所の設定ファイルが書き込めないとの情報などもありますが、私の場合は特に問題ありませんでした。きちんと日本語化もされているので、アプリのバージョンが上がってバグフィックスされているようです。 iPhoneやiPadからの操作と違うのは、PCにはGPS機能がないので、一番最初に立ち上げる時に自分で緯度経度で位置を入力しなければならないことです。一度入力すれば、次回からは再度入力する必要はないようです。

次にに必要なソフトは実際のガイドのためのソフトで、今回選んだのはガイドソフトの定番のPHD2とAZ-GTi用のASCOMドライバーです。ASCOMドライバーはSky-WatcherのSOFTWARE & FIRMWAREの中のASCOM Driverのページから

ASCOM Driver for SynScan App Version 1.2.2

をダウンロードし、実行しインストールします。もしASCOMを使うのが初めてという方や、ASCOM platformを事前にインストールされていない方は、ASCOMのサイトに行ってASCOM platoformをダウンロード、実行、インストールします。途中、必要なランタイムをインストールするためにPCを再起動が必要となる場合があるので、そのまま従って再起動します。

ガイドソフトのPHD2はすでにいつも使っているので手慣れたものですが、今回は初めてのセットアップとして、セットアップウィザードを使います。まず、ガイドカメラを選択しますが、ASI290MMなのでZWOカメラを選択します。その際、ASIカメラを接続しておくとピクセルサイズが自動で入力されます。ASI290の場合は2.90umとなりました。「焦点距離」は手持ちのガイド鏡の焦点距離を入力します。私の場合ノーブランドのCマウントレンズで焦点距離50mmなので、50を入力します。

IMG_5615


ASCOMドライバーがうまくインストールされていると、PHD2上で「マウント」を選択するときに、上の画面のように「SynScanMobile Telescome(ASCOM)」が選択できるようになっているはずです。マウントを選択すると、「マウントとPHD2が既に接続されていれば、ガイドスピードが自動的に設定されます」とかいう案内が出るので、「マウント(AZ-GTiのこと)」とつなぐためにAZ-GTiを立ち上げて、先にダウンロードしたSyn Scan Proを立ち上げ、接続します。と、ここで問題が起きました。AZ-GTiのWi-Fiにうまく接続できないのです。これはすぐになぜだか思いつきました。以前もあったのですが、ASIカメラがUSB3.0接続のノイズが、AZ-GTiのWi-Fi接続の2.4GHzに悪影響を及ぼすからです。そのため、ここではいったんカメラの接続ケーブルを外します。すると嘘のようにAZ-GTiとの接続が安定してできるようになり、ガイドスピードも自動的に決まります。ガイドスピードはもともと0.50だったのが1.00になりました。この接続の不安定さは後々まで影響することになりますが、とりあえずここは無視してカメラを外した状態で進めます。


蛇足ですが、ここでハタと気づきました。このテストはノートPCを使っているのでまだいいのですが、実際の撮影はStickPCを使うことになると思います。StickPCがAZ-GTiにWi-Fiで接続してしまったら、リモートデスクトップで外から接続できなくなり、StickPCの画面を見ることさえできなくなります。これはSyn Scan Proの「設定」の「Wi-Fi設定」から「ステーションモード」を選択するとインターネットにつなぐことができるとマニュアルに書いてあるので、多分これをきちんと設定すれば解決しそうです。でもマニュアルを見ると、「アクセスポイントモードとステーションモードはどちらか一方で、両方とも有効にするな」とか書いてあるので、最悪AZ-GTiに全く接続できなくなる可能性があります。ちょっと怖いので、とりあえずStickPCを使うのは後の課題としたいと思います。


さて、一応ソフト関連の準備はできたので、実際に稼働させることにします。まずはPCをAZ-GTiのWi-Fiに接続してSyn Scan Proを起動して、モーターが動くことを確認します。これは特に問題ないです。

さて、問題はここからです。ガイド用のCMOSカメラを接続した瞬間に、AZ-GTiの接続が切れてしまいます。先に試したのと同じ状況です。検証のために、以前やったようにコマンドプロンプトで

ping -t 192.168.4.1

と打ってどれくらい接続がだめになるのか見てみます。

IMG_5617


結果は上の写真のように、つないだ瞬間にタイムアウトのメッセージが出て、宛先ホストに届かず、たまに届いてもものすごい遅延があります。当然モーターは動きません。

その後カメラを抜くと、抜いた瞬間に接続が復帰して、モーターがまた動くようになります。原因はUSB3.0のノイズで間違いないようです。普通はここでネットワークを5GHzに変更して回避します。StickPCの時も新たに5GHzの旅行用のルーターを導入してことなきを得ました。ところが、あいにくAZ-GTiは2.4GHzにしか対応していません。これまでiPhoneやiPadで接続するときはCMOSカメラが接続されてても問題なかったのですが、これはUSB3.0とiPhoneやiPadのアンテナの位置が物理的に遠かったからだけで、例えば試しにiPhoneの天頂部をUSBポートの数cm近くまで寄せてやったら、やはり同様の症状が出ました。

いったんここで完全に行き詰りました。USBポートの位置を変えるとか、外付けのUSBポートを使うとかもダメでしたし、PCを2台使うとかも考えましたが、PHD2とSyn Scan Proとの接続が確立できないのと、なにより2台なんてシンプルでないのでダメです。このブログにコメントをくれる彰ちゃんが「彰ちゃんブログ」の中でStickPCで2.4GHzとUSB3.0でたまたまうまくいったと報告されていますが、結局なぜうまくいったのかわからないそうです。とにかく、AZ-GTiが2.4GHzにしか対応していないことが致命的です。
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
しばらく頭を冷やして、はたと思いつきました。AZ-GTiが2.4GHzしかもっていないなら、USB3.0をなくしてしまえばいいのではないかと。最初USBドライバーレベルで2.0接続とか考えましたが、もっと単純にUSB2.0のケーブルを使えばいいのではないかと。昔使っていたあまりのUSBケーブルを引っ張り出してきて接続。結果これが大成功!ガイドカメラをつないだ状態で通信がすごく安定しています。調べた限りこのようなアイデアはなかったのですが、目から鱗だと思いませんか?そもそもASIのUSB3.0対応のカメラを、わざわざ遅いUSB2.0で繋ぎたいとはあまり思わないのではないかと。

惑星撮影とかではないので、そもそも転送速度は必要ありません。意外なことにUSB2.0で露光時間を1msとか短くしてもSharpCap上できちんと撮影画像は見えています。ただし、USB3.0の時と比べると、カメラを動かすと転送が追いつけなくてだと思いますが、画面がぐにゃっと曲がったようになります。それでも短くても100ms程度の露光時間にはなるPHD2でガイドする分には全く問題なさそうです。

ここまでえらい時間がかかって、やっと外に出て試そうと思ったら、夕暮れ時に晴れていた空もいつの間にかドン曇りです。でも週末は晴れるとのことなので、近いうちに試せるでしょう。次は極軸合わせがうまくいくかです。







MetaGuideというガイドソフトを試してみました。特徴は、ホームページによると、低遅延でのガイドが可能とのことなので、早い揺れを殺すためのガイドに期待ができそうです。歴史的にはPHDと並び古くからあるソフトらしいのですが、しばらくアップデートされていなくて、先月久しぶりにアップデートされたとのことです。ただ、あまり日本ではメジャーではないみたいで、使っている人はいるみたいですが、使用記などは日本語ではほとんど見つかりませんでした。

インストール自身は簡単です。ただし、3月にアップデートされた最新のβバージョン5.2.18をインストールしたい場合は、まず5.2.6をダウンロードし、一旦インストールして、さらに最新の5.2.18をダウンロードし、解凍した中身で先にインストールした5.2.6の中のファイルを置き換えます。その後、管理者権限でコマンドラインを開き、5.2.6をインストールしたディレクトリに行き

regsvr32 GuideFilter.ax

と打ち込んで、レジストリをアップデートする必要があるとのことです。

その後立ち上げるのですが、接続されているカメラがあると立ち上げ直後からカメラの映像が画面の中に映し出されます。私はカメラにZWO社のASI224MCを使っていますが、まったく認識されませんでした。ASI224MCは画素数が少なく感度が相当いいカメラで、転送がフルサイズでも64fps、サイズを制限すると256.4fpsにも達する相当早いカメラで、低遅延ガイドにはもってこいかと思っていました。色々試したのですが、どうにもこうにもうまくいきません。作者のドキュメントにASI120についての記述はあったのですが、Googleなどで検索してASI224でMetaGuideを動かしているという記事を見つけはできませんでした。MetaGuideのためだけにASI120を本気で買おうかと思ったのですが、一晩たって再度色々海外のブログなどをあさっていたら、Directshow対応のWDM (Windows Driver Model)で動かせばいいという記事が載っていました。WDMドライバーはZWOのダウンロードページの一番下の方にあるとの情報もいっしょにあったので、早速WDMドライバー2.0.1.9をダウンロードして試してみました。メインのドライバーとは別に結構ひっそりと置いてあるので、気づかない人も多いのかと思います。WDMインストール後は何の問題もなくカメラが認識されました

IMG_1658


赤道儀を適当な天体に向けて実際のガイドを試してみます。ターゲットの星は、カメラからの映像の中で一番明るい点が自動で選択されます。「VidProps」というボタンを押して、カメラのゲインや露光時間などを調整します。うまく星が選択されたら、LockStarというチェックボックスがあるので、チェックしておくといかもしれません。それでも星がなくなると勝手に他のところに移ったりするので、完全なロックではないようです。

ガイドのためにはどうやらターゲットの星をセンターに持ってくる必要があります。Centerボタンを押すと勝手にセンターに持ってきてくれるのですが、ターゲットの位置が変わってしまうので困りものです。センターに持ってくるとキャリブレーションが可能になります。この際赤道儀に信号を返す必要があるのですが、ここで一つ問題が起きました。ASI224MCからST4互換のケーブルで赤道儀のAdvanced VXにつないでいるのですが、どうもAdvanced VXが認識されません。同様のセットアップでPHD2ではきちんと赤道儀に接続できるので、ハードウェアの問題ではなく、ソフトウェアの問題だということはわかりました。一つの可能性は上記のWDMで動かしていることです。どうしても解決しなかったので、仕方なくASCOM経由でAdvanced VXと接続することできちんと反応して、なんとかCalibrationに進むことができました。その代わりにUSBケーブルがCMOSカメラ、EOS 60D、ASCOMと3本になるので、USBポートが2つしかないStick PCでは、USBハブが必須となり、しかもCMOSカメラはUSB3.0でその他は2.0なのでハブで混在させるとUSB3.0が使えなくなるので、3.0はStick PCに直結、2.0はハブというようにせざるを得ません。さらに問題が起きます。BackYard EOSでEOS 60Dと接続しているのですが、これもハブがあると接続できないと文句を言われてしまいました。ハブかケーブルを一度総ざらい検証する必要があります。

気を取り直して、とりあえずEOS 60Dへの接続を外して、ASI224MCとASCOMだけで動かすことで、Calibrationも無事に終わって、やっとガイドを始めました。パラメータは結構たくさんあるのでまだまだ触っても効果のほどがいまいちわからないところも多いですが、その中で2つ大きく制御に関わるパラメータがあったので紹介して起きます。

一つは「Setup」ボタンを押した後に出てくる「Frame Rate fps」です。デフォルトは10ですが、これを上げてやるとカメラから読み取る速度が上がります。ただし実効的なfpsがメイン画面に出るのですが、せいぜい20fps止まりなので、むやみやたらに上げても意味がないようです。

もう一つはメイン画面の「NFrames」です。一フレームごとの星の位置は、シンチレーションの影響なので揺らぐので、その揺らぎをそのまま返すと本来静かな赤道儀が余計に揺らされることになります。NFramesはその画像を何回スタックするかを決める数なのですが、デフォルトが10でほぼそのまま使えますが、どうやらこれがMetaGuideの肝だと感じました。要するに普通の制御でいうセンサー部分の精度を上げようという試みです。その代わりにフィードバックの速度を犠牲にしているのですが、それでも実際の制御帯域は赤道儀のモーターの反応速度で制限されてしまうので、その制限にかかるまでは得をするということです。PHD2などで長時間露光しても同じようなことが得られますが、こちらは制御帯域をそのまま縮めるので、そのぶんMetaGuideの方が優位です。

実際のエラー信号のRMSを見てみると、3秒角以下になることもしょっちゅうで、上の写真ではそれぞれの自由度で1.8秒程度、合わせて2.7秒程度です。今使っているASI224MCに50mmの焦点距離のレンズだと1ピクセルあたり15秒角程度となるので、0.2ピクセル以下の精度となり相当なものです。PHDで0.2ピクセル以下にするのは結構大変です。ただし、PHD2に比べて表示がわかりにくいので、読み取ることができる情報量が少ない印象です。

PHD2と比べると色々こなれていない部分も目につきますが、とりあえずパッとやってPHD2を超える精度が出るのは、やはり単純にすごいと思いました。パラメータをいじることでもう少し改善できそうです。まだまだ使っていない機能もあるので、もう少し使い続けてみたいと思います。






 


 

色々苦労してきましたが、やっとSWAT-200で一軸ガイドで星像がほぼ真円に近くなりました。焦点距離600mmで、5分露光、一軸制御だけでのSWAT-200なので、まあまあの成果だと思います。現在のセットアップは写真のようになっています。

IMG_1566


鏡筒はFS-60Qで焦点距離は600mm、SWAT-200をPHD2で一軸ガイド。ガイド鏡はASI224MCに焦点距離50mmのノーブランドのCマウントレンズ。三脚はGitzoのGT3840Cです。SWATとFS-60Qはモノタロウで買った簡易なクランプ台で接続しています。これはより構造的にシンプルなものでまずは試したいと思っているからです。

2月4日の記事で、3秒露光時の原因が赤径へのガイド信号のフィードバックが原因と突き止め、ガイド信号を綺麗にすべく200mmのガイド鏡レンズを導入し、3月12日の記事でその200mmのレンズのたわみが赤緯方向に星像の流れを作っていたことまで突き止めていました。これらの過程で、PHD2の機能がだいぶ理解でき、Advanced VXの上で元の50mmのガイド鏡レンズで精度を上げつつ、流れを止めるというところまで持っていくことができました。

昨晩、満を辞してSWAT-200で試しました。ところが、最初はどうしても星像が赤緯方向に流れてしまいうまくいきません。極軸はいつものようにSharpCapで合わせてあるので、1分角程度の精度は出ているはずです。それでもPHD2で見ていても、赤緯方向の一方向に流れていきます。結局、この原因はターゲットの天体を変えるとかで機材に触ると、機材全体を動かしてしまい、結構簡単に極軸からずれしてまうことにありました。現在使っているGitzoの三脚は、揺れなどはあまりなくていいのですが、やはり全体的に軽いということがあり、機器に触ると数分角くらいのずれが出てしまうようです。

仕方ないので、PHD2の流れが出ないように南天で星が上(北)に動いていくときは極軸が西にずれているので、少し東に三脚の脚をずらしてやる、南天で星が下(南)に動いていくときは東に三脚の脚をずらしてやるという方法で、数回繰り返してやると、PHD2上の赤緯のずれをかなり減らすことができました。PHD2でトレンドから計算した極軸の向きのエラーもリアルタイムで表示されるのですが、ほぼ1分程度になりました。

結果を示しておきます。最初の写真が赤緯がずれていく場合、次がずれをなくした場合です。両方とも5分露光です。

LIGHT_300s_1600iso_+14c_20170326-00h04m18s064msa

LIGHT_300s_1600iso_+10c_20170326-00h55m51s199msa


実はこれ、うまくいったときの写真を最初にとって、その後機器に触ったときにずれてしまったものを撮った写真です。すぐにこんなにうまく取れたわけではないですが、少なくともやっとこれくらいのコントロールはできるようになったということです。

ちなみに、未だにSWAT下に微動回転装置をつけていないので、三脚の脚をずらすというローテクでやっていますが、なんとかなりそうな雰囲気です。軽量化や、構造的に弱いところをつくらいないという観点からはこちらの方がいいくらいです。

まあ、それでも微動回転装置を使った場合よりは精度は出ないということは以前計算していまして、とりあえず今回は5分間の露光では真円に近くなるくらいまでには精度を出すことができました。今回は自宅で試したので、それほど暗い環境ではなくこれくらいの露光時間で十分でしたが、より暗いところに行ったり、より低いISOでとる場合にはもう少し長い露光時間が欲しくなるため、さらに極軸の精度が必要になってきます。

あと、先日購入した回転装置のテストも同時に行いました。こちらはすこぶる快調で、まあ当たり前と言えば当たり前なのですが、これまでのようにカメラを回転させると毎回ピントがずれるというようなことはなくなり、時間の節約につながります。もっと早く買っておけばよかったです。ワイドリングの効果はAPS-Cなのでどこまであるかわかりませんが、フラット補正の時に詳しく検証して見たいと思います。

ちなみに、昨晩は新月期で機材のテストだけではもったいなかったので、星像流れのテストがてら3分露光で蠍座のIC4592付近を撮影しました。うまく画像処理ができたらまたアップします。


2017/3/11、休日の前日で晴れ。今晩は満月直前なので、星雲の撮影などはできそうもありませんが、せっかくの星空が勿体無いので何をしようか考えていました。やりたいこと、やらなければならないことはたくさんあるのですが、あくまで趣味なのでやりたいことをやろうと思い、気になっている星像の流れの原因を突き止めることにしました。

先日のマルカリアン銀河鎖の撮影の際、Advanced VXとPHD2でガイドをしているにもかかわらず星像が一定方向に流れるという問題があったのですが、やっと原因が判明しました。犯人はガイドの焦点距離を伸ばそうとして、ついこの間導入したCanonのZOOM LENS EF 55-200mmです。ガイドとして使っているCCD、ASI224MCにアダプタを介してレンズを取り付けているため、電動系は全く無意味で、当然ピントなどはマニュアル、というか手でレンズの先の筒をひねって伸ばしたりして合わせるのですが、その際すごく軽くて弱そうだなと思っていました。レンズの筒の部分にちょっと触るとCCDでの映像があからさまに揺れるのです。まあガイド中は触らないからいいかと思っていたのですが、これが間違いでした。

よくよくレンズを見てみると、ズームタイプでULTRASONICとか書いています。Webで調べたら、超音波モーターを使っているとのことです。静音でいいらしいのですが、パワーがなさそうなのは容易に想像できます。駆動力がないということは、動かす対象は軽くて、構造的に弱いものにならざるを得ないということでしょうか。四千円程度と安くてよかったのですが、天体用には向かないということがよくわかりました。


検証

今回の検証のためにやったことを書いておきます。まずは前回の再現。できる限り同じ機材、同じ環境で星像が流れるかを確認します。バラ星雲あたりとスピカあたりで試しましたが、見事に流れます。

使っている機材は撮影条件によらず共通のものが
  • 鏡筒: FS-60Q (f=600mm)
  • 赤道儀: Advanced VX
  • カメラ: EOS 60D
  • ガイド用CCD: ASI224MC
  • ガイドソフト: PHD2

変えている撮影条件は
となります。

1. 最初はバラ星雲あたりを、CanonのZOOM LENS EF 55-200mmを使いPHD2でAVXの2軸に返しました。5分露光で5枚、22時39分29秒から23時05分8秒まで25分39秒かけて撮った画像を比較明合成します。比較明合成はstarstax (紹介記事本家) というソフトを使いました。5分 x 5枚の25分より長くなっている理由は毎撮影時にBackyardEOSでPC側にダウンロードしているために、その間は撮影できないからです。

rosse_canon_2axis

左右が赤経方向、上下が赤緯方向に相当するので、どうも赤径方向に大きく流れているようです。

流れた距離をPhotoshopの定規ツール(スポイトツールに隠れています)で測定すると19.06pixelありました。

IMG_1270


EOS 60Dはセンサーサイズが22.7mm x 15.1mmなので、600mmの焦点距離だと画角は2.167 x 1.441度になります。これが5184 x 3456pixelの画像になるので、1pixelあたり0.0004181度になります。秒角に直すと1.505秒/pixelとなります。なので星像が流れた距離を角度で表すと

19.06pixel x 1.505秒/pixel = 28.69秒

となります。これを25分39秒、すなわち1539秒かけて撮影しているので、移動速度は

28.69秒角 / 1539秒 = 0.01864秒角/秒 = 1.119秒角/分 = 67.11秒角/時

となります。1分で1秒以上もずれたら、数分で流れが見えるようになるのも当たり前です。


2. 同じくバラ星雲あたりを、CanonのZOOM LENS EF 55-200mmを使いPHD2で今度は赤緯のフィードバックをなくし、赤経の1軸のみに返しました。

rosse_canon_1axis

同じく5分露光が5枚で、23時6分14秒から23時31分56秒の25分41秒です。先ほどの赤経方向の動きに、さらに赤緯の方向にずれが加わっているように見えます。これは極軸の精度が悪かったために加わったと考えられます。

移動距離は22.94pixelなので、速度は1.347秒角/分となり、少し速度が増しています。これは赤緯方向のずれが加わったからでしょうか。


3. もう少し時間が経って、バラ星雲がかなり西の低い高度に移動した時の速的です。2軸に返しているだけで上と条件は同じです。5分露光3枚で、0時6分13秒から0時21分36秒の15分23秒です。

rosse_canon_2axis_West

同様に測定すると、58.82pixelとなり、約15分でこの距離なので速度は相当速くなり、5.75秒角/分となりました。やはり方向は赤経方向が主です。CCDに付いているレンズがほぼ水平になり、赤経方向に重力がかかり非常にたわみやすい状況でした。


4.  ここでバラ星雲が沈んでいったので、次はスピカ近辺で試して見ました。レンズは同等で、2軸制御です。1時38分29秒から1時59分45秒の21分16秒です。

spica_canon_2axis

測定すると、距離は27.93pixelとなり、1.976秒角/分となりました。ちょっと速いですが、場所を移動しても再現性はありそうです。


いずれにせよ2軸制御をしているときは基本的にほぼ赤経の方向のみの流れです。ガイドのCCDの像とカメラで撮影している像が、なんらかの理由で赤経方向に相対的にずれることにより、星像が赤経方向に流れているということです。


5. ここでレンズが怪しいと睨み、以前使っていたCマウントの50mm、f=1.4の軽くて短いレンズに交換しました。実はレンズを交換する前に赤系も止めてフィードバックなしで撮影してしまおうとしたのですが、Advanced VXはピリオディックモーションが+/-15秒程度あることが実測で分かっているので、ちょうど今のずれとコンパラなオーダーなので混乱してしまうと思い、先にレンズを代えることにしました。この読みは正解で、星像の流れがぴったりと止まりました

2軸制御で、2時6分50秒から2時32分35秒の25分45秒です。

spica_50mm_2axis


流れる距離が短すぎるので誤差も大きいですが、とりあえず2.14pixelと計測しました。速度はなんと0.125秒角/分となり、星像が流れる量は10分の1位になったということです。

しかも、明るいレンズのせいなのかと思いますが、PHD2のカメラのゲイン設定をデフォルトの95%から60%くらいまで下げと、カメラからのノイズが減って背景がすごく安定し、位置を読み取る時のピークの山の形がほとんど変形せずきれいになるので、位置精度が上がるためでしょう、ピクセルあたりの精度が余裕でRMSで0.2ピクセルを切っています。200mmの時の精度が適当なときは0.35-0.4ピクセル、すごく頑張って0.25ピクセル程度なので平均だとピクセルあたりで倍近くいいです。角度で表すと、2.5秒くらいまでいく(200mmの場合は1秒ちょっとくらい)ので、レンズの焦点距離の4倍の違い程の差は出ずに、実質2倍くらいの差しかありません。星像の流れは比べるまでもなく50mmのほうがいいので、しばらくは50mmでもう少しパラメータを詰めていくことにします。


さて、ここで一つ疑問が湧きました。なぜ星像の流れは赤経方向ばっかり出たのかということです。

1. まずレンズ自身が弱くてたわんだと仮定します。レンズは円筒形なので、円柱の軸に対しては円対称で、たわみは円柱軸の回転方向に依らないはずなので、星像の流れの方向は鏡筒の向きが変われば変わるはずです。なので赤緯方向に出てもおかしくありません。

2. 一方、これまではレンズが大きくて重いから、レンズやCCDを支えている根元の機械的な構造の強度が十分でなくたわんだと仮定します。構造的に赤経方向の固定方法が何かしら弱いとすれば、赤経方向のみに流れが出たというのは納得できます。

実際には赤経方向のみに流れが出ているので、一見2が正しいように思えます。ですがもし2が正しいとすると、50mmのレンズに変えた場合にずれの量は2つのレンズのモーメント比くらいでしか改善されないはずです。200mmのレンズは図体は大きいけれど密度が低いので、重さは50mmのレンズと大して変わりません。長さは200mmの方が倍くらいあるので、モーメント比はたかだか2倍です。ということは50mmのレンズに変えたとしてもずれの量は半分くらいにしかならないはずですが、実測では10分の1と圧倒的にずれは小さくなっています。

しばらく悩んだのですが、色々考えてやっと分かったのは、実は赤道儀に載せて南の空に鏡筒を向けると、いつも鏡筒が長手軸方向を中心に90度傾いた状態になるということです。これは実際にやってみるとすぐにわかるのですが、鏡筒が極軸方向を向いているホームポジションでは、長手軸方向の回転で考えた時に水平になりますが、南方向では地面の下を見ない限り、水平にはなりません。ベテランの方には当たり前のことなのかもしれませんが、少なくとも私は今回初めて気づきました。そのために重力は常に赤経方向に働き、レンズはいつも赤経方向にたわむというわけで、1のレンズ自身がたわんだと考えて矛盾しないのです。


もう一つ気になったのはPHD2のカメラのゲインがどうも自動で変わっているようなのです。これはスピカを画角に入れた時に気付いたのですが、明らかに背景が真っ暗になります。どこにもオートゲインの切り替えの設定場所はないので、というかゲインは任意に変えることができるので固定のはずなのですが、これはバグなのでしょうか?


いろいろ進んだり後退したりして回り道をしていますが、PHD2の理解がだいぶん進んできたのはもうけものです。なんとなくですがSWATでの撮影も見込みが出そうな気がしてきました。

 

なんと、一昨日金曜夜に引き続き、昨日2017/3/4の土曜夜も撮影できました。気温も上がってきて、夜でもそこまで寒くはならず、だんだん春を感じてきています。

IMG_1230


一昨日のマルカリアンの銀河鎖の撮影ではが星像が少し流れてしまったので、引き続きリベンジで土曜の夜もMarkarian chainを狙って撮影しました。他の天体も考えたのですが、流石に月が明るくなってきて、0時前の撮影は厳しかったです。

さて、なぜ撮影時に星像が流れてしまったかは一応わかりました。カメラの方でとった写真を1時間くらいの単位で連続で見てみると、ずっと一方向に流れています。2分のバラではほとんど出なくて、4分のマルカリアンだとその流れが4分の間に見えるまでになってしまうというわけです。というわけで撮影で流れた星像が写った理由はわかりましたが、肝心の「なぜずっと一方向に流れるのか」の原因がまだわかっていません。

単純に考えると、ガイドのCCDはずっと一つの星を追っているのでCCDでの画面上はずれないはずで、それでもカメラに映った星像が流れるというのは、ガイドCCDと鏡筒に取り付けたカメラに相対的なずれが生じたということになります。すぐに考えられるのは何らかのたわみで、赤道儀の回転とともにたわみが一方向に出続け大きくなっていくというものです。心当たりがあるのは、60Dの鏡筒への固定が、適当なTリングとアイピース固定用の締め具だけで止めてあるので、弱い可能性があります。もう一つがASI224MCに取り付けた、新たに導入した55-200mmのCanonレンズが、ピント合わせのところを触るとすぐにずれるのと、光軸と垂直方向にもさわると結構ぶれる点です。もしくはレンズが重くなったので、そのせいでのたわみなのかもしれません。根拠はこれまでの軽い50mmの単焦点レンズだと、一方向にずれていくような動きは見たことがないということです。これから満月期に向かうので、平日夜あまり遅くならない程度に検証してみようと思います。


それでも2日目は制御の方で少し改善するようにしました。

1. まず、ターゲット星のPHD2上の検出している位置が結構ぶれることです。下の方に緑で出ているS/Nの数値を見ていると30以上は必要みたいで、自動選択だと暗すぎてS/Nが20以下とかになることがあり、ターゲットの位置検出精度が悪くなる時があります。もちろん明るすぎてサチるのには気を付けなければなりません。これは下の方に赤字で「SAT」とか出るのでわかります。

2. ターゲット星の検出精度にもう一つ関係するのが、プロファイルで見た時の形です。きれいなガウス分布の形をしていればいいのですが、実際にはかなりいびつでガタガタで、時間とともに毎回形が大きく変わります。ここはPHD2の下のほうの脳みそマークの左のガンマの値をいじって明るさを変えることで、できるだけきれいで安定した形にすることが大事みたいです。

3. 一つ気づいたことが、赤緯なのですが、フィードバックしない方が揺れのRMSが小さいのです。SWATの時にも同じ現象がみられましたが、これはフィードバックすることでノイズを加えていたことを意味します。下の画面はこれまでの200mmでのガイドです。CCD1ピクセルあたり3.8秒角の視野で、制御すると赤経、赤緯共に0.4ピクセルくらいのRMSで抑えることができています。実際にはRMSはがんばれば0.2ピクセルくらいまでいくことができるので、そこから見て倍くらい精度が悪いということです。

IMG_1221


次に、下の画面を見ると赤いフィードバックの線がないのがわかると思います。RMSのゆれは上の写真と比べて小さくなって0.3ピクセル以下になっていることがわかります。

IMG_1222



4. そのため、Agressiveの値を赤経、赤緯ともに40まで下げました。もう一つは、動き出す値をデフォルトの0.19pixelから0.39pixelに上げたことです。これで無駄にフィードバックする頻度が減りました。

IMG_1223


グラフの揺れ幅が変わっているところが値を変えた時間で、フィードバックの振幅、頻度共に少なくなって、実際の揺れも特に赤緯では明らかに小さくなっているのがわかると思います。


以上で、多少精度は良くなり、RMSでいい時で0.2程度、悪くても0.3程度の揺れまでに抑えることができるようになりました。もちろん風などの影響により実際の揺れは変化するのですが、風の時には赤系、赤緯ともに突発的に揺れるので、だいぶん見分けることができるようになりました。それでも一方向に流れていくのはまだ出ていますが、昨日よりマシみたいです。原因は依然不明です。

結局この日は撮影したまま午前1時頃に仮眠をとって、3時半頃に目を覚まして状況をチェックしたら、2時くらいから雲が出ていたみたいで、撮れた写真を見て見ると4分x30枚ほどにマルカリアンが写っていました。ここから星像が流れている写真などを除くと使えそうなのは15枚くらいで、約50%の率でした。少し枚数が少ないので、一昨日のと合わせて画像処理しようと思います。





 

以前の記事でSWATの揺れが風と特定したと書きましたが、どうやらこれは嘘を書いていたことが判明してきました。つい先日の晴れ間のテスト (その後、こちらに移動)で3秒のトラベジウムが赤経方向にのみ伸びているので、ガイドが悪さをしているのではないかと疑いを持ち始めたわけです。これに決着をつけるべく、同様にトラペジウムをガイドのあるなしで撮影し、優位に差が出るのかを試しました。

IMG_1139


まずは、前回の再現です。条件は、FS-60Q(焦点距離600mm)、SWAT-200での一軸追尾、極軸合わせはSharpCapで今回は1分程度の精度。撮影のカメラはEOS 60D、Backyard EOSでピント合わせをしています。その上で焦点距離50mmのガイド鏡(ASI224MCにCマウントレンズを組み合わせたもの、1ピクセル3.75umで、1ピクセルあたり15秒角とかなり大きい)を用いたPHD2での一軸のガイドありで、ISO1600、3秒露光で撮ったトラベジウムです。ガイドの条件はCCDが1秒露光で、あとはデフォルトの状態です。ただし、鏡筒の取り付けをより安定にするために、SWATから鏡筒への部品点数をできる限り少ない状態にしました。これは外乱による揺れの影響をできる限り避けて検証したかったからですが、少し条件が変わってくるので、ここが影響するようならまた別に検証する必要がありますが、以下の結果を見る限りその心配はなさそうです。さてこの状態で撮影すると以下のようになりました。

guide

写真を見る限り以前のブレの再現性はあり、赤経方向に明らかに流れているものが20枚中13枚、気持ち赤経に流れているようなものが4枚、真円に近いものが3枚でした。その際のPHD2の制御状況を見て見ると、RMSでは赤緯の方が小さくなっています。

IMG_1132


これは赤経の方がガイドにより乱されているという結果と一致します。赤緯の方のピーク値があまりずれていかないのは、極軸の精度がそこそこあっているからです。先日試した時には北極星が見えなくて、適当な極軸合わせでやってしまったので、赤緯のピーク値(オフセット)がどんどん大きくなっていきましたが、今回はそんなことはないようです。


次に、ガイドを切ってSWAT-200の赤経方向の追尾だけで撮影しました。条件はガイドがなくなっただけで他は全て上と同じです。

noguide


これは典型的なものですが、写真を見ると明らかに赤経方向の伸びがなくなっているのがわかります。20枚取って赤経方向のみに流れているものは一枚もありませんでした。その後さらにガイドありなしで何度か繰り返してでやってみましたが、再現性もあるため原因はこれでほとんど確定です。さらにミラーアップの影響があるかどうかを3秒のディレイを入れて試してみましたが、有意な差は見られませんでした。


ここまでの結論は、やはり焦点距離50mm、ASI224MCとの組み合わせのガイド鏡では、PHD2によるガイドだと4秒角程度の精度でしか合わせることができず、ガイドをすることによりむしろ誤差を増やしてしまっているということが言えると思います。


次に、ガイドレンズを200mmにしてみました。一番最初の頃に買ったEOS X7についてきた55-250mmのズームレンズです。これを200mmに合わせて、以前買ったCanonレンズをASI224MCに取り付けることができるマウントを使って、55mmから250mmの可変のガイドCCDを実現しました。

IMG_1136


統計情報を見てみると、1.5秒程度の揺れに収まりほぼ期待通りの結果になっています。この状態で撮った写真が以下のようです。

fineguide

微妙なとことで、赤経方向に伸びているものもあれば、真円に近いものもあるという、言ってみればまだ精度が足りていないような感じの結果でした。内訳は20枚のうち、明らかに赤経に流れているものが5枚、流れているような気がするものが8枚、流れていないものが9枚でした。

少し納得できなかったので、EOS 60Dでの位置ピクセルあたりの画角を計算してみました。すると1.6秒程度と、今回の精度とほぼコンパラな値です。実際に画像に写るのは揺れのバラツキなので、それをルート2倍ほどとすると、まあガイドにより画面で見て伸びが見えたり見えなかったりというのは納得できるような結果かもしれません。言い換えると、もう2倍ほど、できれば1秒以下くらいの精度が欲しいということになります。精度を上げるとすると、300mmクラスのレンズにするのか、もっとピクセルサイズの小さいCCDを使うのか、Def-Guiderなどでソフト的に精度を上げるかなどですが、もう少し検討です。


あと驚くべきことは、赤緯方向も短時間ならガイドをしなくても少なくとも1秒角ちょっとの精度が出ていることです。CCDのピクセルあたりの誤差が大きいので、実際にはもっといいかもしれません。200mmレンズの結果を見てもまだ赤経の方が伸びている場合が多いので、赤緯の精度は見えていないだけで実際もっといいと言えるでしょう。実はノータッチガイドの時の精度は正直もっと悪いかと思っていました。ここら辺の見込み違いが今回の誤解につながっていることは否めません。


さてこの結果を踏まえて、この日は空が晴れわたっていたので、月も沈んだ0時頃から満を持して撮影に入ろうとしたのですが、何と大結露大会で鏡筒はおろか、CCDのレンズ、カメラ本体に至るまで全て結露し、しかもだんだん凍りついてきたので、泣く泣く退散しました。真冬の深夜の撮影は思ったより厳しく、ヒーターを増強させる必要があります。

追記: 2017/3/26、やっと3分露光で星像が真円になりました。

SWAT-200でPHD2によるガイドをしながら、ISO1600、3秒露出で撮ったトラペジウムの典型的な一枚です。

20170128_long


このように長く伸びてしまったものが何枚かありました。いずれも伸びの方向はどれも同じで、赤径方向と一致した伸びです。風邪や地面の外乱が原因の場合、赤緯がほとんど揺れていなくて赤径方向のみ揺れるというのは、赤道儀の構造的に問題があれば別ですが、普通はあまり考えられないはずです。今回、ガイドをオンにして撮影してしまったのですが、もしかしたらこれが原因なのかもしれません。そもそもガイド鏡に相当するものは、CCDに50mmの焦点距離のレンズをつけたもので、CCDセンサーの1ピクセルあたり約15秒の角度があります。ガイドでの精度は0.3ピクセルくらいで、3秒間の間にもなんどもフィードバックするので、4秒角くらいのブレがあってもおかしくありません。トラベジウムの最長辺が20秒角くらいなので、写真の比から考えても4秒角くらいブレてしまうというのはあながち間違っていません

実はDef-Guiderで複数のガイド星を用いて精度を上げようと、この日試みたのですが、キャリブレーションのところでエラーで落ちてしまい、どうすることもできませんでした。Def-Guiderは昼間のうちにまた試してみますが、ガイドCCDの焦点距離を伸ばす方向にいった方がいいかもしれません。例えば200mm程度のレンズを使えば計算上1秒角程度にブレを抑えることができ、十分です。CanonレンズをCマウントに変換できるアダプターがあるので、次は手持ちの55-200mmのレンズを試してみようと思います。

今書いていて思ったのですが、最初の方で3枚出したトラペジウムのうち最初の一枚はSWATで一軸制御、あとの2枚はAdvanced VXで2軸制御です。もしかしたら2軸制御のせいで縦横にブレてピンボケのようになっただけなのかもしれません。もしくはピンボケなので、縦に揺れても横に揺れてもあまり目立たなかったとかです。いずれにせよガイドの有無でも比べてみて決着をつける必要があります。(追記: 2017/2/3確認しました。)

このページのトップヘ