ほしぞloveログ

天体観測始めました。

タグ:SharpCap

今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。(2020/4/16 追記: APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。また、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。)
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。



その1: 準備編
からの続きです。


メシエ天体が実際に電視で見えるかどうかはSharpCapの設定に大きく関わってきます。以前解説を書いたのですが、バージョンが上がって新しい機能が追加されていることなどもあるので、今一度簡単に書いておきます。本質的にはSharpCapのパラメータは以前書いたものとあまり変わらず、8秒露光、ゲインは350程度、Image Controlsのgamma 50、Brightness 240で固定、あとはDisplay Controlsでいじります。

ポイントはLiveStack機能のタブの一つのhistgramでのレベル補正が、特に淡い天体の場合の見やすさにかなり効いてきます。基本的にはdark側のスライドをピークの左側の裾野くらいまで持ってくることです。あとは左側の上下スライドでダークの効き具合をいじるだけです。

見たという事実が大事で、見え方は所詮低解像度のカメラでそれほどこだわらないので、これくらいの設定で十分だと思います。

次に画像の保存方法です。SnapshotファイルはStackした画像とは必ずしも一致しないようで、たいてい画面で見ているより保存された画像の方がイマイチな場合が多いです。さらにSnapshot機能はLive Stack機能がオンになっていると使えないので、
  1. 一旦StackをPauseしてから
  2. Live Stack機能をオフ
  3. SnapShotボタンを押してPNG画像ファイルを保存
  4. Live Stack機能をオン
  5. Auto saveにチェックを入れる
  6. Clearボタンを押してfits形式で保存
  7. Auto saveにチェックを外し、次のメシエ天体へ
というような手順でStackの機能があまり反映されないsnapshotファイルと、Stackの機能が反映されたfitsファイルを保存します。さらに注意点ですが、Live機能をオフにしてからDisplay Controlsなどのパラメータを変えると保存されるSnapshotファイルの色などが落ちてしまい、みすぼらしくなるので、LiveStack機能をオフにしたら何も触らずにすぐにSnapShotボタンを押してPNG画像ファイルを保存するようにします。

今回はそれに加え、何枚かPCの画面を直接iPhoneで撮影するという、これまでよくやっていた方法でも画像を撮りましたが、メシエマラソンの場合は時間との勝負で、画質にはこだわらないので、実はこの方法が一番いいのではと後から思いました。

実際に撮った写真を、数が多いのでちょっと迷ったのですが、参考になればと思い全部載せることにしました。
  • 20時21分: とりあえず見やすいM45 (プレアデス星団、すばる)。月明かりもあるため星間分子ガスなどは見えず。左下に大きなゴミがあるみたいで写り込んでしまっています。最初の頃はSharpCapのSnapshotで保存です。
Capture 20_21_36_0001_M45


  • 20時30分: やはり見やすいM42とM43 (オリオン大星雲)。さすがにこれは月明かりがあってもよく見えます。
Capture 20_21_36_0002_M42_M43

  • 20時35分: M103。SharpCapの使い方ミス(Stackをオフにしてからパラメータを触ってしまった)で白黒になってしまいました。
Capture 20_21_36_0003_M103


  • 20時44分: M52。ゴミの写り込みが目立ちます。
Capture 20_21_36_0007_M52

  • 21時03分: M41。かなり下の方に来ていて、気付いた時には木に隠れかけていました。枝が写り込んでしまっています。これも焦っていて白黒に。この直前にCMOSカメラをクリーニングしたため、ゴミの写り込みがなくなっています。
Capture 20_21_36_0008_M41

  • 21時17分: M78。写っているのか写っていないのか、真ん中に何か見えますが、かなり薄くしか見えていません。
Capture 20_21_36_0009_M78

  • 21時44分: M1。月がすぐ真横にあるせいなのか明るすぎるのと、これまで見たことないような変な模様が写ってしまっています。真ん中に薄くぼんやりと何か写っているのですが、これだけ写すだけでもかなり手こずって、すごく時間を費やしてしまっています。
Capture 20_21_36_0010_M1

  • 21時48分: M38。星雲に比べると星団は楽で、導入と電視、ファイルの保存までわずか4分しかかかっていません。
Capture 20_21_36_0011_M38


  • 21時52分: M36。こちらもわずか4分。
Capture 20_21_36_0016_M36

  • 21時55分: M37。これは星が集まっていて綺麗です。
Capture 20_21_36_0017_M37

電視中のものをiPhoneで撮影すると下のようになります。実際の電視中の印象にとても近いです。これくらいの印象になると思ってもらえるといいです。

IMG_1614_M37


  • 21時59分: M35。
Capture 20_21_36_0018_M35

  • 22時03分: M50。
Capture 20_21_36_0019_M50

  • 22時05分: M47。散開星団続きでつまらないで、ちょっと飽きてきたところです。
Capture 20_21_36_0020_M47

  • 22時11分: M46。
Capture 20_21_36_0021_M46

上のは撮って出しですが、下のは画像処理をしたものです。と言ってもホワイトバランスとレベル調整だけです。
Stack_32bits_4frames_32s_M46


  • 22時14分: M48。
Capture 20_21_36_0022_M48

  • 22時21分: M44。これも白黒になってしまいました。
Capture 20_21_36_0023_M44

  • 22時25分: M67。星がたくさん集まっていてちょっと変化があります。
Capture 20_21_36_0024_M67

  • 22時37分: M65とM66。系外銀河です。SharpCapのパラメーターが変わるので、ファイルにするまでに時間がかかりました。系外銀河は見にくいので画像処理をしています。
Stack_32bits_10frames_80s_M65_M66


  • 22時42分: M98。系外銀河もパラメータさえ決まるとすぐに写ります。ちなみに、今回ほとんどのものが8秒露光の複数スタックです。
Stack_32bits_12frames_96s_M98

  • 22時46分: M99。渦までよく見えます。画像処理済みです。
Stack_32bits_13frames_104s_M99

ちなみに撮って出しだと下のようになります。これでも渦はなんとか見えますね。電視上はこんなもんです。
Capture 20_21_36_0028_M99


  • 22時48分: M100。
Stack_32bits_16frames_128s_M100



この時点で、あまりに寒いのと明日の仕事があるので撤収することにしました。結局20時20分ころから22時50分頃と約2時間半で、23天体。一時間あたり10天体くらいはいけるので、練習としては上出来かと思います。実は自動導入付きのドーピング部門なのでもっと早く進めることができるのではと鷹をくくっていたのですが、スタック時間や撮影に多少かかってしまい、これくらいのスピードになってしまいました。完走するのに結構ギリギリのペースです。もし普通の星図片手にマニュアル導入でのメシエマラソンだと相当なペースで進めないと完走しないこともよくわかりました。

こうやって並べてみると、ホワイトバランスもめちゃくちゃだし、収差もあるし、解像度も低いしなので、iPhoneで写すのでやはり十分な気がします。そんなことより、次々見えるメシエ天体が楽しくて楽しくて。人がたくさんいたらみんなで一つの画面を共有して見ながらできるので、とても盛り上がると思います。

電視の利点の一つに、Stick PCでのリモート観望というのがあるので、実はメシエマラソンでもリモートでほぼ全ての操作が可能で、自宅内からでも可能なのですが、やはり空を見ながらやることに意義があると思い、今回は全て外で見ることにしました。でも結局一人で電視だと画面とにらめっこで、あまり外に出ている意味がなかったです。やはり何人かで手分けしてやるのが楽しい気がしました。たとえばソフトで次の天体をどれにするか決める人、天体をあぶり出す人、画像を記録する人、タイムキーバー、記録係などです。多分これが本来のメシエマラソンのやり方であり、楽しみ方なのでしょう。

ちなみに子供達は春休みの最中なので、一緒に外に出て星を見ていたのですが、早々と寝袋にくるまって眠ってしまい、マラソンどころでは全くありませんでした。

昨日のTG-SPの自動追尾テストに引き続き、追尾の精度を出すためにSharpCapで極軸の調整をしてみました。使った機材は手持ちのCMOSカメラASI224MC16mmのCSマウントのレンズです。

はっきりいってむちゃくちゃ便利です。しかもとても簡単です。あえて難しいところを言うなら、日本語に対応していないところだけでしょうか。

1. まず、CMOSカメラをどこかにマウントします。今回は高橋の鏡筒バンドの上に固定しました。

IMG_0274


2. CMOSカメラを赤経用の回転軸とだいたい同じ方向に向けます。SharpCapの途中の説明の中には1度から5度までの精度と書いてありました。

3. 次に、赤経回転軸がだいたい北に向くように三脚ごとでいいので、方向を合わせます。これも5度くらいの精度でいいでしょう。実際にはカメラ画像に北極星周りが入ればよく、その範囲はカメラの画角で決まるので、今回のASI224MCで16mmのレンズを使うの場合、横17度、縦12度くらいの範囲が見えます。なので画面の真ん中あたりを中心に使うとすると、5度までというのは的を得た値だと思います。

4. SharpCapを立ち上げ、ToolメニューからPolar Alignを選びます。最初に説明が書いてあるので読んだほうがいいですが、書いてあることは、
  • 赤道儀が必要。
  • 1度から5度までの画角が必要。200mmの焦点距離のガイダーが理想。(と書いてますが、今回の16mmでも十分使えています。)
  • 10個から15個の星が見える必要がある。
  • 初期のアラインメントは5度くらいの精度が必要。
  • 赤道儀は望遠鏡が上方を向くホームポジションから始めるといい。
逆に必要のないものは
  • 正確なファインダーのアラインメントやコーンエラーを正すこと
  • 自動導入
  • 他のソフトやインターネット接続
など、何が必要で何が必要ないかという一般的なことで、大したことではありません。

5. Nextを押して、いよいよ北極星周りの認識です。15個くらいの星を認識しないとダメみたいです。
この時点で北極星周りがきちんと見えていると、Plate solvingでデータとして持っている星図と比較して、各星の位置が認識され、極軸周りに同心円が多数見えます。

IMG_0271

6. 星の認識がうまくいくと、右下のCould not soleveがSolevedに変わります。CMOSカメラの露出時間とゲイン、およびPolar Align設定の中のNoise Reductionが結構効きます。私は0にしました。うまくいくと写真のようになります。

7. Solvedの状態がある程度続くようになったら、Nextを押します。

8. CMOSカメラを含めて、赤道儀を赤経方向に90度位回転させます。

9. 再び星の位置が認識され、写真のようにターゲットの星を矢印のところまで持って行けという指示が出ます。

IMG_0276

10. 三脚をずらすなどして赤道儀全体を動かして、微調整します。このとき注意なのですが、当然赤道儀のモーターを利用して合わせてはいけません。あくまで、架台の方の移動(大きな赤道儀には微調ネジがついていますが、ポタ赤などにはそんな豪華なものは付いていないので、本当に三脚をずらします。)で位置を調整します。合わせている途中で、移動量に応じてターゲットの位置もリアルタイムでずれていきます。ほぼ合わせ終わったのが下の写真です。

IMG_0277


11. ある程度合わせてからNextを押すと、誤差がどれくら残っているか表示されます。

IMG_0280


初めてやったにもかかわらず、実作業は15分くらいでした。この記事を書いている時間の方がはるかに長いです。慣れれば、ものの数分で終わると思います。恐ろしく簡単です。

途中画面上で星の位置を移動して合わせるのに、三脚の足の長さを変えて微調整したのですが、星の村のスターライトフェスティバルでHUQさんに見せていただいた、

IMG_0199


のようなものがあると便利そうです。これどこのメーカーのものなのでしょうか?(2016/10/20 追記: タカハシ製でした。Vixenでもよく似たものを出しているみたいです。「三脚アジャスター」で検索すると出てきます。)

赤道儀の水平出しはしなくていいのでしょうか?とか、考えていたのですが、赤道儀自身がポタ赤で自動導入はしないので赤径の回転軸さえあっていればよく、そもそも水平などもなす必要がないために、このような簡易調整で十分なのですね。

それと似た話で、実は最初極軸を合わせる前、CMOSカメラの中心は赤径の回転軸と合ってなくていいのだろうか?とか、センサー平面は赤経回転軸に垂直になってなくていいのだろうか?など、いろいろ考えました。でも無限遠のものに合わせて回転させて見ているので、場所も角度も極軸が画面内に入るくらい大雑把でいいという事が、やっと理解できました。いやあ、簡単です。(追記: 2016/11/3 牛岳でAdvanced VXにBKP200を乗せ、その上にFS-60を乗せて、さらにその上にASI224を乗せて試した時は全くうまくいきませんでした。合わせ終わって回転させると、回転軸が全く極軸からずれたところで回っています。その後2016/11/7に自宅で試した時はうって変わってうまくいきました。BKP200を無くしたからかもしれません。)



さらにHUQさんが以前コメントで教えてくれたのですが、CMOSカメラが完全にファインダーの代わりになります。しかもより広範囲を明るく見ることができるのと、無理な体勢で覗かなくていいので、はるかに便利です。これでFS-60Qについているファインダーを外して、さらに軽量化する目処がつきました。取り外したファインダーは青色でかっこいいので、同じ青色でまだファインダーのついていないMEADのLX200-25に取り付けようかと思います。

さて、極軸調整の結果ですが、今回は誤差にして10分の1度くらいのオーダー、写真で撮ると20秒くらいは追尾できるようになりました。

LIGHT_Tv20s_3200iso_+23c_60D_20161016-00h21m47s283ms

それよりも他の問題が発生して、どうも追尾できるときと全く追尾しない場合で別れる現象が見られました。どうもギヤの駆動に合わせてどこかでスリップしているみたいです。撤収してから明るいところで調べたら、2箇所ネジが緩んでいました。これは自分のミスです。また、赤道儀自身も中のネジが調整されていないと精度が出ないという記事もどこかにありました。これはメーカーの方で調整する部分だそうです。まだ犯人は確定していませんが、とりあえず自分で閉め忘れていた箇所は締め直し、今晩以降、再度検証です。(追記: 2016/10/17に解決しました。)

あと、追尾がうまくいっているときに問題になるのが、風です。結構揺らされて星像が流れます。さらに機材を軽くしたいのですが、風の揺れのほうで問題になるのかもしれません。三脚がまだたわんで揺れるので、もう少しいい三脚が欲しいです。



このページのトップヘ