ほしぞloveログ

天体観測始めました。

カテゴリ: software

10月の初めに少し晴れ間があったので、少し前に新しく実装されたというSynScan Proのプレートソルブ機能をテストしてみました。

個人的な狙いとしては、SWAgTiで使えるかどうかです。今の所SharpCapでプレートソルブしてから長時間撮影をすると、SynScan Proとの接続が不安定になってしまい、途中のディザリングができなくなってしまいます。前回のSWgTiの記事ではプレートソルブをした後に、一旦SynScan Proを落としたり、アラインメント情報をリセットするなど、少しトリッキーなことをして、プレートソルブを使いつつ問題を回避しています。SynScan Proの新機能のプレートソルブでこのSharpCapのプレートソルブを置き換えられないかと思ったのが直接の動機です。

この記事自身はSynScan Proのプレートソルブ単体の使い方の説明にもなっていると思います。単独でもかなり強力なツールですので、興味がある方はぜひお試しください。


ソフト的な準備

今回のプレートソルブを使ったSynScan Proの「SynMatrix AutoAlign」ですが、2024年8月10日アップデートのバージョン2.5.2から搭載された新機能です。この機能を使う場合は、2.5.2以降のできるだけ最新版をダウンロードしてインストールしてください。2024年10月7日現在はまだ2.5.2が最新版です。


ダウンロードページによると、このアラインメントの新機能を使うためには

index-4108.fits

をダウンロードして、SynScan Proの「fits」フォルダにコピーしてくださいとあります。ただし、これらのファイルはgoolgeドライブにアップロードされているので、アクセするにためにはgoogleアカウントが必要なようですのでご注意ください。

この新しいプレートソルブアラインメント機能はSynScan Proにカメラを接続することが大前提です。そのためiOSでは使用できないとのことです。私はWindowsにUSBでカメラを繋いで、Windows上でSynScan Proを走らせました。iOS以外では動くということなのですが、Androidもカメラを繋げばこの新機能を使えるということなのでしょうか?私はAndroidを持っていないので確認できていませんが、カメラの接続が可能ならおそらく動くのではないかと思われます。


テストで使用した機材

今回試した機材と接続について改めて説明します。
  1. 三脚にAZ-GTiを載せ、そこに鏡筒(RedCat51)を載せます。
  2. 鏡筒には撮影用カメラとしてPlayerOne社の冷却CMOSカメラのUranus-C Proを取り付けます。
  3. WindowsノートからType-CのUSBケーブルでUranus-C Proに接続します。
  4. SynScan Proの2.5.2をWindows上で走らせます。
  5. AZ-GTiの電源を入れ、WindowsからWi-FiでAZ-GTiに接続します。
今回は(AZ-GTiをSWAgTiに載せてあるため)AZ-GTiを赤道儀モードで動かしましたが、経緯台モードでも同様に動くはずです。

次に実際に動作させて新機能のSynMatrix AutoAlignを使うための準備をします。
  1. 初期状態では、鏡筒は北向きにセットします。
  2. カメラの画面を見るためにSharpCapを立ち上げ、SharpCapからカメラを選択/接続し、(赤道儀状態で北極星方向を見ているはずなので)星が画面内に見えていることを確認します。
  3. もし何も見えなかったら、鏡筒に蓋がされていないか、ピントが合っているか、SharpCapの露光時間は1秒程度以上になっているか、ゲインは十分に高いか、ストレッチはされているかなどを確認してください。経緯台モードの時には鏡筒が水平方向なので、星は見えないはずですが、いずれ星が入る用になった時に、ピントをきちんと合わせることを忘れないでください。
  4. まずは普通の初期アラインメントです。私は通常ワンスターアラインメントを使っています。
  5. 例えばターゲット天体にベガを選びますが、最初の初期導入ではほとんどの場合ターゲット天体は画面内に入ってきません。
  6. とりあえずターゲット天体が入っていなくても、何か星が映っていることを確認したら、星形マークがある横長のボタンを押して、ワンスターアラインメントを完了します。
  7. 最後に、SharpCapでカメラ画像を見ていると思いますが、一旦SharpCapでのカメラの接続を切ります。「カメラ」のところで接続さているカメラを再度選択すると接続が切断されます。面倒なら、SharpCapを終了させてしまってください。

これでSynMatrix AutoAlign使用の準備が完了です。


新機能を使用してみる

SynMatrix AutoAlignを開始します。まずSynScan Proのトップ画面から「アラインメント」を押します。次の画面で「SynMatrix AutoAlign」を押します。

51_11_synscan

すると、SynMatrix AutoAlignに移りますので、以下のようにカメラを選択します。
52_14_cameraall

ここでは手持ちのカメラがPlayerOneなので、「Player One Camara 1」を選びましたが、自分の手持ちのカメラに合わせて選択してください。ここで重要なのは、最大手のZWO以外のカメラもかなりサポートされていることで、少なくとも今回はPlayerOneカメラを動かすことができました。

カメラが接続されると、以下のように背景が赤っぽい色になります。星が見えているようには思えないのですが、これで大丈夫です。この画面でピント合わせをするのは至難の業だと思うので、あらかじめSharpCapでのピンと確認があった方がいいのかと思います。ここで注意ですが、SharpCapにカメラが接続されたままだと、SynScan Pro側でカメラが接続されません。もし画面が以下のように赤くならなかったら、SharpCapのカメラ接続がきちんと外れているか、今一度確認してみてください。
53_13_POcamera

ここではカメラの設定のために、上記画面にある「Properties」 ボタンを押します。すると以下のような画面になるので、カメラの設定をします。

54_01
私はPresettingをHighest Analog Gainにしました。露光時間がデフォルトで0.5秒程度と短いので、高いゲインの方が有利だと思ったからです。これで「OK」ボタンを押します。

次に設定するのが、背景の色です。左側の「Histgram Stretch」ボタンを押すと、以下のような画面になります。
55_15_red
デフォルトでは「Red tint」がチェックされています。これを外すと、上のように背景が通常の黒っぽい色になります。これは好みだと思うのですが、私は赤っぽいのが落ち着かなくて、背景を上のように変えました。

次に、同じ画面で「Expornential stretch」を選びます。画面が暗すぎたり明るすぎたりする場合は、すぐ下のバーを左右に動かして調整してください。不思議なのは「Bright」側に動かすと背景が暗くなることです。バグなのか、仕様で何か意図があるのか、今の所不明です。

56_17_exposure

問題は、これでも星が見えているようにはあまり思えないことです。ストレッチがあまりうまくいっていないのか、RedCat51の星像が鋭すぎて点にしか見えないのか、いずれにせよ一見星が見えていないようでもプレートソル分ではきちんと星を認識するようなので、心配しないでください。

これでだいたい準備完了なので、オートアラインメントを走らせます。左側の「Run」を押します。以下のような画面になるので、何回アラインメントを繰り返すかを選びます。私は最小の2回の「2points」を選びましたが、(極軸がある程度程度よく設定されていたからかと思いますが)これでも十分な精度でした。
57_18_points

ここで「Run AutoAlign」を押すとアラインメントが始まります。その際、なぜか背景が再び赤くなりますが、今のところ仕様のようなので驚かないでください。

2回のアラインメントのうちまずは1回目ですが、これは今の画角位置を動かさずに、画面をそのままキャプチャーして、プレートソルブで位置を計算します。この時に
  • カメラが接続されていないと全く進まなくなること
  • カメラが接続されていても星が入っていない状態だとエラーになること
は確認しましたが、他にもトラブルになる原因はいろいろ考えられると思いますので、各自で試してみてください。最初のプレートソルブがうまくいくと、鏡筒が動いて見ている方向が変わり、再び画面をキャプチャーして、プレートソルブを繰り返します。全てうまくいくと以下のような画面になり完了です。

60_24_done

これで「Close」を押し、左上の「<」ボタンを押すと元の画面に戻ります。

再びSharpCapなどでカメラに接続して、カメラの画像を見てみます。アランメント情報が更新され
、精度が上がっているはずなので、この状態でSynScan Proから天体を自動導入すると、画面内に目的の天体が入ってくると思います。ちなみに、最初のワンスターアラインメントでベガを選んで、そこからAutoAlignを実行した後に、再びベガを自動導入すると以下くらいの精度になりました。
62_vega

かなり真ん中に入っていると思います。

続いてM27も導入してみましたが、ベガの時よりは少し真ん中からズレていますが、そこそこの精度だと思います。少なくとも画面内には入ってくるので、あとは方向ボタンを押してマニュアルで微調整すればいいのかと思います。
61_28


まとめと今後

一通り試しましたが、プレートソルブもかなり安定していて、全く問題なくうまく動きます。何度か試しましたが、少なくともソフトが問題で失敗するようなことはありませんでした。無料のアップデートでこれだけ使えるようになるのなら、とてもありがたいです。

あえて注文をつけるとしたら、
  • 背景の色はどうあれ、恒星をもう少し見えるようにストレッチを工夫してほしい。
  • 恒星が認識できたら、マーキングするなど、うまくいっているかどうかをユーザーにわかるようにしてほしい。
  • SynScan Proを通常使う時のアプリの面積に比べて、AutoAlignで使うときの画面の面積をかなり広げる必要があるので、自動で大きさが切り替わるとか、うまくデザインして欲しい。
  • 他のソフトでカメラが接続されていても、SynScan Pro側でカメラを認識できるようにして欲しい。
とかでしょうか。特に最後のカメラの認識ですが、ドライバー絡みなので難しいと思いますが、カメラを1台で運用する場合にはカメラの切り替えは(特に低温にしている時などは)大変で、使い勝手に大きく差が出るかと思いますので、もし実現できるなら検討していただければと思います。


SWAgTiで使えるか?

その上で、このSynScan Proのプレートソルブが、元々の目的のSWAgTiで使えるかどうかの議論をしてみたいと思います。

まず、SharpCapのプレートソルブを一度でも使うと、その後の長時間撮影の時にSynScan Proとの接続が不安定になることが問題です。でもプレートソルブ自体は相当便利で、これまで単機能に近かったSWATにAZ-GTiの機能を足すことで目玉のプレートソルブを使えるようになるのなら、かなりの進化になります。

では今回のSynScan ProのプレートソルブがSharpCapのプレートソルブの代わりになるかというと、結論としては十分代わりになるのではというのが、今の所の私の見解です。これをきちんと判断するためには、いくつか確認しておきべきことがあります、

まず、カメラを一つしか使っていないことです。SWAgTiの特徴の一つに、SWATの高精度追尾を利用したノータッチガイドを実現するというのがあります。すなわち、ガイド用のカメラを省いているので、カメラは撮影用一つしかないのです。

今回は焦点距離250mmの鏡筒に取り付けた1/1.2インチの撮影用カメラでSynScan Proでもプレートソルブができました。まず、この撮影カメラでプレーとソルブが問題なくできたということは特筆すべき事柄として認識すべきだと思います。その上で、上の本文中にも書きましたが、カメラが一台なので、ソフト間をまたぐ時にカメラの接続をオンオフする必要があります。特に、撮影用に低温にしている場合には、これは大きな手間となるでしょう。

SWAgTiの場合、実質的には
  1. 最初は常温でSharpCapでピントなどを合わせて、
  2. SynScan Proに切り替えてプレートソルブ
  3. 再びSharpCapにカメラを切り替えて、SynScan Proで自動導入
  4. 画面内に天体が入っていることを確認して、マニュアルで位置を微調整
  5. カメラを低温にして、撮影する
というような手順になると思います。長時間露光を目指しているので、天体をコロコロ変えるようなことをすることはないと考えると、最初に一度プレートソルブができればいいという考えです。

天体を変えるとき、例えば一晩に複数の天体を撮影する場合は、カメラ温度を一旦上昇させてカメラを切り替えて、プレートソルブを含めて(SWATで追尾しているため、いずれにせよAZ-GTiの位置情報は役に立たないので)一からアラインメントをする必要があります。プレートソルブをするためだけに一旦カメラの温度を上昇、撮影時に再び温度を下げるというのが余分な手間となります。温度の変化は結露などのトラブルになることもあるので、本来ならこれは避けたいところです。

一晩で一天体しか撮影しない、もしくは天体の切り替え際アランメントの際に温度の切り替えを許容するのなら、今回のプレートソルブは十分実用になるでしょう。SharpCapでのプレートソルブがSynScanとの接続を不安定にするので実質使えないことを考えると、大きな進歩です。

さて、今回のテストは少し雲があったときに試していて、テスト終了間際にさらに雲が厚くなってきたので、撮影までには至りませんでした。これ以上のSWAgTiでの使い勝手は、実際に撮影した時にまたレポートしたいと思います。


前回記事でSWAgTiのディザー撮影ができたことを書きましたが、書ききれなかったこともあるので、少し補足します。


機材

鏡筒ですが、最近手に入れた新機材でRedCat51です。と言っても新品ではなく、譲り受けたもので、IIでもIIIでもなく初代です。

富山県天文学会のK会長が4月に逝去されました。2016年の5月、星を始めたときに牛岳で誘われて入会して以来、折につけお世話になっていました。会内では最もアクティブな方で、とにかく天気さえ良ければいろんなところに顔を出して星を見てた方です。星や宇宙の解説が大好きで、普通に来てた一般の人にも、いつも分かりやすく説明されていました。昨年末くらいからでしょうか、急に痩せられて、体調を悪くされているようでしたが、3月の役員会には顔を出されていたのに、まだ60代半ばで、あまりに早すぎるお別れでした。熱心な方だったので、当然大量の天文機器があるのですが、遺族の方のご好意で、できれば皆さんで使ってくれないかということで、私はRedCat51とEOS 6Dを格安で譲っていただくことになりました。ちなみにK会長、6Dがよほど気に入っていたのか、3−4台もあって、私はその中であえて1台だけあった無改造機を選びました。私が持っている一眼レフカメラは全て天体改造をしてあるもので、ノーマル機を一台も持っていなくて、普通の景色も少しは撮ってみたいと思っていたので、実はとてもありがたかったのです。

IMG_9796

撮影用のコンパクト鏡筒としてはこれまで主にFS-60CBを使っていましたが、赤ハロ青ハロ問題を避けたいというのがありました。これはFS-60CB特有の問題で、ピント位置が赤と青で微妙にずれていて、赤か青のどちらかのハロがどうしても出てしまうというものです。ジャスピンが難しく、赤と青を均等になるように合わせたりしてきました。また、FS-60CBにレデューサをつけると焦点距離が250mm程度になるのですが、周辺星像がすこし流れるのも気になっていたこともあり、250mm程度の短焦点で性能の良い鏡筒を狙っていました。実は最近はBXTがあるので、これらのFS-60CBの欠点はソフト的にかなり解決できますが、やはり撮影時に解決したいという思いがあります。

RedCat51を使ってみて驚いたのは、周辺減光の少なさです。今回使ったカメラがUranus-C Proでセンサーサイズが1/1.2インチと決して大きくはないのですが、オートストレッチで強あぶり出ししてもほとんど周辺減光が確認できませんでした。なので、簡単撮影という目的も考えて、今回あえてフラット補正をしませんでした。さらにいうと、PixInsight上でもなんのフラット化もしていません。普通は周辺減光とかあると、輝度差で淡い部分のあぶり出しがうまくいかないはずです。でも今回はフラット補正も、ABEも、DBEも、GCも、本当に何もしていないのですが、きちんとM27の羽まで見えるくらい問題なく炙り出しができています。これは今までにない経験で、RedCat51の性能の高さの一端を見た気がしました。

前回記事でも見せましたが、改めて何のフラット補正もしていない、WBPP直後の画像を載せておきます。M27の周りを広い範囲で撮っているのってあまり見当たらないので、本当は背景の構造を出したかったのですが、今回の2時間では全然ノイジーです。でももうSWAgTiで長時間露光も楽にできるので、天気がいい時に放置で10時間とか露光しても面白いと思います。
masterLight_BIN-1_3856x2180_EXPOSURE-180.00s_FILTER-NoFilter_RGB

カメラですが、M27は結構小さいので、センサー面積が小さく、夏場なので冷却ができるものというので、PlayerOneのUranus-C Proを使いました。CP+で使わせてもらったカメラです。PlayerOne社のカメラの特徴の一つ「DPS」も魅力で、これでホットピクセルはかなり軽減されるはずです。実は今回、ダーク補正を全くしていません。PixInsightのCosmetic Correctionのみ使いました。それでホットピクセルやクールピクセルは全く問題にならないレベルになったので、お気楽撮影にふさわしいカメラだと思います。

IMG_8960


iHDRがすごい!

今回初めて使いましたが、PixInsightのストレッチの中でも比較的新しい「iHDR」がすごいです。M27の星雲本体とその周りの淡い羽の部分には相当な輝度差があり、普通のストレッチでは両方を同時にうまく出すことができません。そのため、一般的にはマスク処理が必要となるのですが、今回は部分的なマスクを使うことなく、ほぼ自動で輝度差が出ないようにストレッチすることができました。

iHDRの説明についてはこちらをご覧ください。
 

インストールは

https://uridarom.com/pixinsight/scripts/iHDR/

をレポジトリに登録して、アップデートをチェックするだけです。インストールされたiHDRはメニューの「Scripts」の「Sketchpad」の中に入っています。

パラメータですが、iHDRでMaskStrengthを倍の2.5にしてより明るい部分を抑え、Iterationを3にしだけで、あとはデフォルトにしました。中心の明るい部分を十分に抑えることができました。
  1. まず、背景が何回くらいIterationすれば適した明るさになるか、何度か繰り返して試してから確定します。
  2. 星雲本体の輝度差がまだ残るようならMaskStrengthの値を増やして、これも何度か調整してみます。
一度試すたびに、Undoで元に戻してから再度パラメータを変えて試し、値を確定していくと楽かと思います。その際、Undoは一度で元に戻らないことがあるので、Undoアイコンのところにカーソルを持っていって、ちょっと待って、何の作業を戻すのか表示されるのを確認すると良いと思います。これがPixelMathと表示されるうちは、まだUndoしきれていないです。

iHDRの後は、NXTでノイズを軽く落として、StarNet++で恒星と背景を分離して、最後Photoshopに渡して仕上げますが、ストレッチまでかなり仕上がりに近い形で済んでいるので、Photoshopでは軽く好みに処理するだけで済みました。


SPCC

もう一つ、PixInsightでの色合わせツールのSPCCを少し使い込んでみました。実際にはWBPPでスタック後にすぐに試したことです。

今回は光害防止フィルターとして、サイトロンのDual Band Pass (DBP) フィルターを使いました。これまではSPCCのナローバンドモードを使って適当な波長幅を指定していましたが、いい機会なのでフィルターをきちんと設定することにしました。参考にさせて頂いたのはだいこもんさんのこのページです。
 

同ページにだいこもんさん自身が作ってくれたフィルター用ファイルが紹介されていて、その中にDBPのファイルもあったので、それを使わせて頂きました。フィルターを設定して公開してくれているだいこもんさんと、さらにオリジナルのJason Coonさんに感謝です。

だいこもんさんによると、カメラがASI294MCの場合はSonyのCMOSの標準フィルターでいいとのことでしたが、Uranus-Cで使っているIMX585は特に赤外の感度が高く、標準の応答とは少し違っています。いい経験になると思い、ついでにIMX585用のカラーフィルターを作ってみました。

実際自分でフィルターデータを作ってみるとわかりますが、cvsファイルの1箇所に波長情報を全て入れるとか、透過率も1箇所にいれるとか、結構面倒です。また、メーカーのグラフから値を読み取るのですが、読み取りソフトはだいこもんさんお勧めのPlotDigitizerを使いました。面倒だったのは、赤外の領域ではRGBの線が重なっていて、グラフで一番上の色(この場合青でした)しか読み取ることができず、後から赤と緑に同じ波長の青の線を近似的に追加するなど、少し加工が必要だったことです。

IMX585_R
IMX585のR曲線ですが、長波長側は青線と重なっていて直接読めないので、
青線から起こしています。


自分で作ってIMX585とDBPの応答を合わせて、今回の撮影に合わせた応答を作りましたが、結局2つのグラフを合わせると、ただの一本線になってしまうので、IMX585のデータを作った意味があるかどうかはちょっと疑問です。でも面白いのは、例えば下のBグラフでは、長波長の赤の領域にも線があるんですよね。
DBP_IMX585_B2

これはIMX585がRGBともに長波長に感度があるからです。だからBもGも実は赤を少し含みます。どれくらいの割合かというと、B曲線ではBが0.44に対してRが0.07と16%程度、G曲線ではGが0.78に対してRが0.17と22%程度と、無視できないくらいの結構な割合で含まれることになります。カラーカメラとDBPはモノクロカメラで撮ったAOO相当になると思うのですが、DBPでは赤と青でのっぺりせずに多少なりとも色調が豊かに見えるのは、この余分な色の成分のせいなのかもしれません。ちなみに、R曲線にもGがすこしまざりますが、Rが0.96に対してGが0.03とごく僅かなので、こちらはあまり効いてこないでしょう。

上の重ねたグラフを使い、SPCCで測定した結果を見ると見事に直線に載ったので、ちょっと嬉しかったです。

SPCC

でもSPCCのフィルター制作は完全に蛇足で、SWAgTiの簡単撮影のためにはこんなことまでやる必要は全くないと思います。


SWAgTiについて

SWAgTiを改めて振り返ってみます。

高精度追尾で1軸単機能のSWATに、低精度でも2軸で高機能のAZ-GTiを組み合わせることで、SWATがまるで高精度高機能赤道儀のように生まれ変わります。実際、SWAT350のピリオディックエラーはPremium仕様で+/-2.8秒を実測して出荷しているそうです。これだけの精度を有している赤道儀はポータブル型ではほぼ皆無で、大型の高級機と比較しても何ら遜色ない素晴らしい値なので、ガイドなしでの簡単撮影が生きてきます。

AZ-GTiを赤道儀化される方も多いかと思いますが、その際の極軸を北極星方向に向ける35度の角度をつける台座に苦労します。揺れてしまわないためにも、台座の強度も重要になります。SWATには底面に角度がつけてある、SWAT自身が強固な35度の台座を兼ねることができます。

AZ-GTiは、自動導入、プレートソルブ、エンコーダー内蔵など、値段から考えたら非常に高機能で汎用性が高く、ユーザーも多いため情報に困ることはまずないと思います。プレートソルブだけは今回ディザーと併用できませんでしたが、元々できていたことなので単なるバグの可能性が高く、いずれ解決するものと思っています。AZ-GTiは精度があまりないと言っても、モーターさえ動かさなければその強固な筐体と合わせて、極めて安定しています。追尾中はSWATのみが動き、AZ-GTiのモーターは動かないので、撮影時の精度はSWATのみで決まります。AZ-GTiのモーターが動くのは、導入時や、撮影の合間のディザーの時のみです。

PCとAZ-GTiとの接続はワイヤレスなので、ケーブルの数も一本減らせています。それでも少なくとも今回の2時間は全く接続が落ちることなどなく、安定でした。なのでケーブルの数は、PCとCMOSカメラを繋ぐUSB3.0ケーブル、CMOSカメラの冷却電源ケーブル、SWATの電源ケーブルの3本です。PCは内臓バッテリー駆動です。ダーク補正しないなら、特に冬場なら、冷却カメラでなくてもいい気もするので、冷却用の電源ケーブルは減らせるかもしれません。SWATも乾電池駆動が可能なので、SWATの背中側に電池をおいてしまえばさらに長いケーブルの数を減らせます。AZ-GTiも私は電池駆動にしています。こう考えると、最小構成ではPCとカメラを繋ぐUSBケーブル一本で稼働可能かもしれません。あ、StickPCを使えばさらにUSBケーブルも短くできるので、超シンプルになるかもしれません。こうなってくるとASIAirみたいですね。どこまでシンプル化ができるか、ちょっとやってみたくなってきました。

重量に関しても少しコメントを書いておきます。SWATもAZ-GTiもそこそこの重さはあるので、二つ合わせると決して軽量とは言い難くなります。一般的な小型赤道儀程度の重量と言っていいでしょうか。それでも十分に軽くてコンパクトなので、私は鏡筒を取り付けたまま運んでいます。玄関においてあるのですが、そのままなんの組み外しも組み立てもなしで運べるのはかなり便利です。超高精度と考えると、最軽量クラスの赤道儀と言ってもいいのかと思います。

逆に、今のところの欠点ですが、SharpCapでの極軸調整を三脚をずらすことでやっているので、ちょっとテクが必要です。微動雲台を使ったほうがいいのかもしれません。ただ、微動雲台は双刃の剣で、揺れを導入するかのうせいがあるので、以前テストさせていただいた迷人会の微動雲台クラスのものが欲しいレベルかと思います。

プレートソルブが使えなかったのはかなり痛いです。でもこれはソフト的な問題のはずなので、いずれ解決するでしょう。短期的にも、何か回避策がないか少し試したいと思います。


まとめ

アイデアが出たのが去年の6月、星まつりでデモなどしましたが、今回ディザーができ縞ノイズが解決して、ある程度のキリがついたと思います。1年以上にわたるテストでしたが、(プレートソルブを除いて)何とか形になりましたでしょうか。今後は鏡筒やカメラを変えて、実用で使っていきたいと思っています。

そうそう、Unitecさんにディザーが成功したことを伝えたら「諦めないところがすごいです」と言われてしまいました。結構嬉しかったです。その経緯でUnitecさんのページでもSWAgTiがまた紹介されてます。

今週末の胎内はちょっと時間的に厳しそうなので、参加は見送ることになりそうですが、9月15日の京都の「星をもとめて」でUnitecさんのブースでまたSWAgTiをお披露目できるかと思います。その際は、お気軽にお声掛けください。


久しぶりのSWAgTi ネタです。

1年ほど前から試していた
SWAT+AZ-GTi = SWAgTi (gは発音せず、スワッティ)。


SWATの追尾精度とAZ-GTiの柔軟性を合わせて、単機能に近いSWATに自動導入やプレートソルブなどの現代的な便利な機能を追加して使うことができるようになります。かつ追尾精度はSWATそのままと、互いの弱点を補い、いいとこ取りの機能となります。


SWAgTiの弱点

SWAgTiで目指していたところは「気軽な撮影」です。元々SWAT自身は1自由度の追尾精度がものすごくいい赤道儀で、ガイドなしでもそこそこの焦点距離で星を点像にすることができます。以前の SWAT350のテストでは、370mmの焦点距離で3分露光の場合、ガイドなしで歩留まり率は100%だったので、実用的にも十分だと思います。ガイドなしで気軽なSWATの撮影に、AZ-GTiの2自由度の便利な機能を追加して、さらに気軽にしようというのがアイデアです。

これまでのテストの過程で出てきた唯一の欠点が、長時間撮影時にディザーができないことです。


ディザーができないと、長時間撮影のドリフトなどでホットピクセルやクールピクセルが縞ノイズを作ることがあります。


実際に、SWAgTiの長時間撮影ででてきた縞ノイズの例がここにあります。


上のページでも挑戦していますが、縞ノイズは画像処理で改善しようとしても、緩和することはあっても完全に消すことはかなり困難です。できることなら撮影時に縞ノイズが出ないようにしたほうがはるかに楽で、ディザーはその解決策としては最も有効な方法です。

ところが、SWAgTi動作時にはSWAT側で恒星を追尾して、AZ-GTi側の恒星追尾を切る必要があり、AZ-GTiの恒星追尾がオフになるとSharpCapで出すディザー信号がAZ-GTiのモーター側伝わらずに、ディザーができないという結果になってしまったのです。

もちろんSWAT単体ではディザーすることはできないので、SWAgTiがSWATに比べて不利になったということではありません。ドリフトは数時間以上の長時間撮影で問題になってくるので、短時間撮影だと縞ノイズはそこまで目立ちません。SWAT単体で長時間撮影する際にどうするかですが、SWAT開発者が去年の胎内の星まつりで示してくれたように「撮影中に何度かわざと三脚をずらしてドリフトする方向を変える」とか、今年の福島の星まつりで見せてもらった10時間以上かけて撮影したというオリオン大星雲では「日を変えて何度も撮影することでドリフトの方向を一定にしない」などの対策をしているようです。ある意味余計な機材を使わないシンプルな解決策で、開発者の方が「そんな複雑なことはしてないですよ」とおっしゃられていたことが印象的でした。

なので、少し手間をかければ縞ノイズを避ける方法はあるということですが、私的にはやっぱりなんとかしたいので、再度ディザーに挑戦です。


ソフト的に何か間に割り込ませるか?

では具体的にどうするかですが、最初はSharpCapとAZ-GTiの間に何かソフト的に挟んで、命令を無理やり出せるようにしようと考えていました。Uedaさんがトラバースの赤道儀化でSynScan Appとトラバースの間に赤道儀のふりをするような別ソフトを間に入れて上手くいっているので、同じような手法が使えないかと思いました。幸いなことにソースコードを公開してくださっていて、C#で書かれているようです。初めての言語だったのですが、コードは規模的にも大きくなく、自分でビルドまでできて、とてもいい勉強になりました。SWAgTi用にどうハックすればいいのか、ある程度の目安が立ってきたので、とりあえず取り組んでみようと思っていた矢先でした。


SharpCapが変わった?

まずは状況の確認で、以前のSWAgTiの設定を再現します。再現といっても、プログラミングのための準備なので昼間の明るいうちでの確認になります。SWATとAZ-GTiを組み合わせて、SynScan ProからAZ-GTiに接続し、SharpCapからSynScan Proを操作できるように接続します。

ところがです、いつぞやのSharpCapのプレートソルブ関連の大幅アップデートらへんのことだと思うのですが、AZ-GTi側の恒星追尾をオフにしてもどうもディザー信号がきちんとモータまで届いているようなのです。

具体的にはSharpCapの右パネルの「望遠鏡制御」のところを見るのですが、AZ-GTiが恒星を追尾していると「方位」「高度」「赤経」が動き続けます。AZ-GTiが恒星を追尾を止めると「方位」「高度」は止まり、「赤経」のみ数値が動き続けるようになります。ここで SWATに恒星追尾を引き渡すと、ここまでのAZ-GTiの代わりにSWATが動き出し実際に星を追尾してくれるようになります。この状態でも、SharpCapの「望遠鏡制御」のところの矢印ボタンを押すと、信号はきちんとモーターまで行き、見ている方向を変えることができます。その際「方位」「高度」の数値もモーターへの信号に連動して動きます。ここまでは以前にも試した結果と同じでした。

ここでSharpCap上でライブスタックを立ち上げてディーザーをオンにします。以前はディザーをしようとしても実際にはモーターまで信号がいかなくて、画面は全く揺らされないことは確認していました。でも今回「望遠鏡制御」の数値を見ている限り、ディーザーのたびに「方位」「高度」の数値が動いているのです。以前この数値が動いていた記憶は全くない(動いていれば必ず気づいていたはず)ので、勘違いでなければ何か状況がわかっているはずです。少なくとも、現段階でこれらの動いている数値を信じるならば、ディザーはきちんと作動していることになります。


夜のテストは全くうまくいかず

昼間に試しただけでは、PC上に出てくる数値は動いていても実際の撮影画面が動くかどうかは見ていないので、まだ本当にディザーが動いているかどうかの確証は持てませんでした。なので夜になって実際に試してみました。ところがディザーを試す以前に、かなりひどい状況にぶち当たってしまいました。

IMG_9758

具体的には、一眼レフカメラ(EOS 6D)をSharpCapに繋ぎ、AZ-GTiで操作しました。CMOSカメラでなくてもSharpCapに繋ぎさえすれば、一眼レフカメラで極軸調整もプレートソルブも、全然問題なくできます。


今回も極軸調整をFS-60CBと6Dの画面で直接やり、初期アラインメントも6Dでプレートソルブを使うことで簡単に済ますことができました。
スクリーンショット 2024-08-03 215020_cut

その後、ターゲット天体を導入し、SharpCap右パネルの「望遠鏡制御」の矢印ボタンを使って位置決めをします。ここら辺までは問題ないです。

次に追尾をSynScan ProからSWATに渡して撮影に入る準備をします。ところが長時間露光を開始すると程なくしてSynScanとの接続がダメになります。ディザーをするためにはライブスタックモードにしなくてはいけません。 この接続トラブルはライブスタックに関係なく、ライブスタックをする以前に露光時間を分のオーダーとかに長くした時に発生するようです。SharpCapの「望遠鏡制御」のところでAZ-GTiからの位置情報が数値で見えるのですが、SWATで追尾しているので「赤経」の数値だけが増えていきます。最初はスムーズに数値が変わるが見えるのですが、徐々に数値が飛び飛びになり、最後は止まってしまって、それ以降は接続は切れているような状態になります。処理に時間がかかっているような印象で、何度やっても同じ状況になります。最初はCPUの負荷か何かと思って、SynScanの再起動、SharpCapの再起動、最後はPCまで再起動でもダメでした。

実はSharpCapとSynScan Proとの接続不安定な時は、SynScan Proを管理者権限で立ち上げると安定になるという情報があります。知り合いが試してみて、管理者権限での起動がものすごく効いて、実際にかなり安定になったという例を聞いています。ですが、今回の場合は管理者権限も効果がなく、状況は変わりませんでした。

次に一眼レフカメラが原因かと思って、ASI294MC Proに変えたり、さらにはPCが何か原因の可能性があるとも思い、別PCを持ってきて試しましたが、いずれの場合も最初はプレートソルブまで含めて順調なのに、長時間露光(180秒)の撮影の途中でSynScanとの接続がダメになり、その後はPCを再起動するまでは何をやってもダメです。ダメというのは、SharpCapからSynScan Proになんらかの信号を送った時に接続エラーが表示されるということです。PC再起動後はまたプレートソルブもできるようになりますが、長時間撮影開始でダメになると言うのを何度か繰り返しました。というわけでこの晩はここで諦めましたが、これまで電視観望で同じような状況にはしていたので、もしかしたら長時間露光がダメったのかもしれません。電視観望ではせいぜい10秒露光が最長ですが、今回は撮影ということで3分露光にまで伸ばしています。長時間露光が何か負担になっているのかもしれません。

06
長時間露光を開始すると毎回こんなエラーが出てしまします。 


昼間に原因究明

次の日、昼間に今一度、全く同じ設定で試しましたが、なぜか今度は何をやっても安定します。カメラを変えようが、PCを変えようが、昨晩のトラブルは何だったんだというくらい、どうやっても不安定な状況を再現できません。3分の長時間露光でも全く問題がないです。一体何が問題なのでしょうか?

違うことといえば、昼間で実際に星が見えないので、プレートソルブはしていませんし、ライブスタックも星の位置合わせをせずに単に重ねていっているだけす。


再び夜に試して光明が!

その晩、昼間の状態を再現すべく、試しにプレートソルブなしでマニュアルアラインメントしてから長時間撮影してみたら、何と完全安定です。その後すぐに曇ってしまったので、プレートソルブありで不安定になるかどうかのテストができませんでしたが、長時間露光そのものは大丈夫ということはわかりました。ディザーも実際一回動かすことができて「望遠鏡制御」のところの「方位」も「高度」も数値が変わったのですが、肝心のディザー前後の撮影画像比較での動きがあったのかなかったのか、あったとしても移動量の設定値が小さ過ぎたようで、確証が得られるほどの揺れは確認できませんでした。

雲でこれ以上試せないので、この日はこれで撤収ました。今の段階でディザーが出来ているかどうかの判断はできていません。でも見込みはありそうです。今後もテストを続けたいと思います。

(2024/8/17追記: ディザー撮影成功しました!)



日記

あまりブログ記事にならない細かいネタも多いので、久しぶりに日記としてまとめて書いておきます。

お盆の季節になりました。8月7日の富山環水公園の観望会に引き続き、8月10日も高岡市のおとぎの森で観望会がありました。2週連続になります。初参加の観望会で、これまでは他の予定と重なることも多く参加できてませんでしたが、今年はお盆の休暇の初日で少し余裕もあるので参加することに決めました。機材は先週とと同じく電視観望で、20時20分頃に月によるスピカ食があるとのことで、外部モニターも用意して大勢で見ることができればと思っていました。夕方のまだ明るい頃は月もが見えていたのですが、暗くなり始めて機材も準備もできたころには空一面が曇ってしまい、それ以降は星も明るい月さえも、カメラを通した電視観望でも全く見えないくらいの雲になってしまいました。お客さんは100人以上と、かなりたくさん来てくれていたので、とても残念でした。もうこうなるとどうしようもないので、天文の話やクイズをずっとしていました。一番受けたのはASI294MCで暗闇が見えるかどうかで、カメラの周りには子供達が群がっていて画面に映る自分の姿を見て大騒ぎでした。

次の日の8月11日は自分の出身高校の天文部の合宿に参加させてもらいました。場所は奥飛騨で、富山からだとそう遠くない距離なので気軽に参加できました。昨年の12月にも豊田市元気村の合宿にも参加させてもらったのですが、それに引き続きとなります。年末の合宿もそうでしたが、残念ながら今回も天気には全く恵まれず、星一つ見ることもできませんでした。なんでもコロナ後にやっと復活した1年前の同じ場所での合宿の時は台風で、ここ最近の合宿は天文部としては非常に厳しいとのことでした。私は日を跨ぐ前くらいに帰路につきましたが、次の日は神岡の道の駅にある「カミオカラボ」まで行くそうです。でも夜の天気予報はあまり良くありません。ペルセウス座流星群なので、少しでも見えることができればいいのですが。

実は私も奥飛騨まで行く途中にカミオカラボに寄っていきました。
IMG_9803

IMG_9810
こんな面白い写真が撮れます。


とにかく最近は天気が全然ダメです。昼間はまだ比較的晴れているのですが、夜になるとドン曇りというパターンです。ペルセウス座流星群も自宅から雲の薄いところで1個だけ見ましたが、とても撮影とかするレベルの天気ではないです。せっかくの休暇でまだ月が昇っている時間もかぎられているので、なんとかお盆中に長時間撮影をしたいのですが、天気予報を見る限りまだしばらくは難しそうでうす。


M104の画像処理の最中に、BXTの恒星の認識で気付いたことがありました。これも補足がてら書いておきます。



BXTの適用限界の一例

BXTについてはある程度一定の評価が定着したのかと思います。私もお世話になっていますし、今回のM104本体の内部構造を出すのにも大きな効果がありました。焦点距離1300mmのSCA260に対してM104は少し小さくて、拡大して細部を見ながら処理をすることも多いです。その拡大しながらの処理の最中で改めて気になったのは、BXTでどこまで微恒星を補正できるのか?ということです。

下の画像を見てください。左から順に1. BXT無し、2. BXTのCollect only、3. BXTで恒星を小さくし背景(銀河本体)の解像度の上げたたものになります。
名称未設定 1

星像を改善しているのはすぐにわかると思いますが、その中で目で見て明らかに微恒星とわかるものをいくつか取りこぼしてしまっているものがあります。次の画像は、仕上げ前にStarNet V2で恒星を分離し取り除いた画像になります。

Image07_ABE1_crop_ABE4_DBE_BXTc_SPCC_BXT_LRGB_GHS_GHS_Preview01

BXTで救いきれなかったものは(BXTとは別ソフトのStarNetでも)背景として認識されるようです。でもそれらは、人の目には微恒星側に認識できるものも明らかにあるのかと思います。

シンチレーションなどでブレてしまい星の鋭さが出ていないのが原因かと思われますが、問題はBXTで星と「認識される」か「認識されてない」かで、その切り替わりを境に本来の明るさや大きさが大きく変わり、差が出てしまうことです。以前、BXT2にバージョンアップする前にも同じようなことを書いていま。


その後BXT2にアップデートした時に、微恒星をより拾うようになっていると解説されています。

そのためかなりマシになっているはずなのですが、今のところは今回程度の認識が限界になるようです。

この程度のことは強拡大しない限りほとんど気になることはないでしょう。さらに今回の最終結果としては背景をそこまで明るくすることはないので、微恒星と思われるシミのようなものは実際には見えなくなってしまい、実用上はなんら問題はないと思います。ただ、強拡大したり、淡い背景を強炙り出しする場合は、この問題が露呈する可能性があることは、頭の隅に置いておいた方がいいのかもしれません。

もう少し突っ込みます。微恒星をできる限り拾うって、色々価値があると思うんですよ。上の背景だけの画像を見てたら、微恒星と思われるところは輝度としては明らかに盛り上がっているので、その部分だけうまく集光できないかなと思ってしまうわけです。FWHMが星の明るさによらずに一定なように、恒星の広がり具合は本来明るい星でも暗い星でも同じはずです。でも暗い星は背景のノイズに埋もれてしまうために鋭さが出ないのかと思います。この鋭さを仮想的に補助してやればいいのかと思います。手動だと銀河本体はマスクをかけて、背景の中の輝度差で微恒星部を分離して、その盛り上がり部を背景に対して増強してやることでしょうか。もしくはここからBXTのcorrect onlyでまともな星像にしてもらうとかできればいいのかもしれません。あ、でもこれだと本来の輝度から変わってしまうかもしれません。まあ何か方法はありそうなので、じっくり考えてみると面白いかもしれません。


bin1にdrizzle x2に、さらにBXT

今出せる解像度の限界は、bin1にdrizzleを2倍以上かけて、さらにBXTでしょうか?PowerMATEなどのバローでも分解能は増す可能性はありますが、ここでは考えないことにします。

どこまで細かいのが出せるのか、果たしたそれに意味があるのかを試してみました。使ったのは2023年5月に撮影した5分露光のL画像を36枚、WBPPでインテグレートしたものです。その際、drizzle無しと、drizzle x2で出力しました。bin1なのでdrizzle x2の方は解像度は16576x11288で、ファイルサイズは1枚だけで1.5GBになります。全ての処理が重く、簡単な操作さえ非常にもっさりしています。画像処理もものすごいディスク食いで、はっきり言ってこの時点でもう実用的でもなんでもありません。

このdrizzle無しとx2それぞれにBXTをかけてみました。

まずはdrizzle無し。左から順にBXT無し、BXTのCollect only、BXTで恒星を小さくし背景(銀河本体)の解像度の上げたたものになります。
comp1

次にdrizzle x2の場合。BXTに関しては上と同じです。
comp2

この結果は面白いです。drizzle x2のほうがBXTが適用されない微恒星が多いのです。理由は今のところよくわかりませんが、niwaさんのブログのこの記事がヒントになるでしょうか。どうもBXTには適用範囲というものがあり、FWHMで言うと最大8ピクセルまでだとのことです。

でも今回、そもそもdrizzle無しでもFWHMが12とか13で、すでにこの時点で大きすぎます。drizzle x2だとするとさらに2倍で、はるかに範囲外です。でも不思議なのは、FWHMが12とか13でも、たとえそのれの2倍でも、一部の恒星にはBXTが適用できているんですよね。なので少なくとも私はまだこの適用範囲の意味はよくわかっていません。

あと、niwaさんのブログの同じ記事内にあった、明るい星に寄生する星が出てくることが私も今回M104でありました。
fakestars
真ん中の明るい星の下と左上に偽の星ができてしまっています。

niwaさんはdrizzle x2だと出て、drizzle x1だと緩和されると書いてありましたが、私の場合はdrizzle x1でした。恒星を小さくすることと、ハロを小さくすることが関係しているようで、両パラメータの効きを弱くしたら目立たないくらいになりました。そのため今回の画像では恒星を小さくしきれていないため、さらに星雲本体を拡大してあるため、恒星が多少大きい印象となってしまっているかもしれません。

いずれにせよ、ここでわかった重要なことは、むやみやたらに元画像の解像度を上げてもよくならないどころか、不利になることさえあるということです。BXTの効かせすぎも寄生星を生む可能性があります。ファイルサイズのこともあるのでbin1とdrizzle x2はそもそも実用的ではないし、さらにこれにBXTを使うなんてことは今後もうないでしょう。今のところbin2でdrizzle x2にBXT、bin1にdrizzle無しでBXTくらいが実用的なのかと思います。小さい銀河みたいに拡大すること前提で分解能を求めるとかでなければ、bin2にdrizzle無しでBXTでも十分なのかと思います。

「電視観望技術を利用して天体写真を撮影してみよう」ですが、前回までに機材の準備はある程度整いました。今回は、実際に動作させて、画面に天体を映してみます。




ここで準備するもの

今回必要なものは主に電気関連で、
  • ノート型などのWidows10以上が走るパソコン (PC)
  • PCとメインカメラUranus-C Proを繋ぐUSB3.0以上の、Type-Cケーブル
  • PCとガイドカメラNeptune C-IIを繋ぐUSB3.0以上の、Type-Bケーブル
  • PCと赤道儀を繋ぐ付属のUSB2.0、Type-Bケーブル
  • PCに複数のUSB端子がない場合は、USB増設アダプターなど
  • DC12V出力があるバッテリー
  • バッテリーと赤道儀を繋ぐDC電源用ケーブル(単3電池駆動なら必要ありません)
  • バッテリーとメインの冷却カメラを繋ぐDC電源用ケーブル
  • バッテリーに12V端子が1つしかないなら、二股ケーブルなど
などでしょうか。これだけでも結構大変ですね。

その他、あると便利なものですが、
  • テーブルなど、PCやその他のものを置いたりできる台
  • 椅子
などです。

IMG_8985


テーブルはホームセンターなどで適当なものを見つければいいでしょうか。コンパクトなものをさがせばいいでしょう。

椅子も適当なのでもいいですが、私は座面の高さを変えることができる作業用の椅子を使っています。具体的にはルネセイコウの作業用の椅子です。
 

少し高価ですが、望遠鏡で星を見るときに高さ調整できるのでとても使い勝手が良く、自宅でも玄関にいつも置いてあり、遠征には車に積んで使っています。


ソフトウェア

PCはWindows10以降が動くものなら問題ないでしょう。ソフトウェアは
などが必要になります。それぞれダウンロードしてインストールしておきます。ASCOMプラットフォームはインストール時に、各種ランタイムライブラリーなどのインストールを要求されるかもしれませんので、指示にに違ってください。

SharpCapは無料でも使えますが、有用な機能の多くの部分が制限されています。年間2000円なので、できれば有料版にアップグレーとしておいた方が有利です。しらはいはPayPalが楽でいいです。

カメラのドライバーがないと、SharpCapからカメラが認識されません。忘れないようにインストールしておいてください。同様に、PHD2からPlayerOneのカメラを使うときは、ASCOM経由で使うことになるので、PlayerOneカメラ用のASCOMドライバーをインストールすることも忘れないでください。詳しくはここを参照してください。



機材の設置

機材を夜に外に設置します。空が十分に開けた場所を探しましょう。周りに明るい光があると、撮影時に映り込むこともあるので、できるだけ暗い場所を探しましょう。街の大きさにもよりますが、住宅街程度でも、近くに街灯などがなければおそらく大丈夫でしょう。

まず最初に、すべてのケーブルを接続しましょう。できれば機材の設置も、ケーブルの接続も、できれば暗くなる前の明るいうちに済ませておいた方がいいかと思います。ただ暗くならないと、周りの街頭の明るさなど、わからないこともあるので、事前にロケハンで暗くなる時も合わせて見ておいたほうがいいかもしれません。

今回ケーブルは5本あります。USBが3本で、DC12Vが2本です。PCの電源ケーブルも必要なら6本でしょうか。それぞれ絡んだりしないように接続します。特にカメラに繋ぐUSBケーブルと、冷却カメラに繋ぐ電源ケーブルは、撮影中は時間と共に赤経体が動いていくので、引っ張られたり、噛んだりしないように注意が必要です。ケーブルタイやスパイラルチューブなどを使い、あらかじめまとめておくと良いかもしれません。

赤経体は鏡筒部が上になるような回転方向に、赤緯体は鏡筒先端が一番上になるような「ホームポジション」にして、鏡筒先端が北向きになるような方向で設置します。その際、方角はスマホなどのコンパスアプリを使うのが便利です。アプリによっては「磁北」ではなく「真北」を選べるものがあります。「磁北」は天体観測に必要な「真北」から7度程度ずれているので、もし「真北」が選べるならそちらを選んでください。スマホを赤道儀本体に真っ直ぐになるような面でくっつけて調整するといいでしょう。正確な方向はのちに「極軸合わせ」でするので、ここでは数度の範囲で設置できれば十分です。

三脚は赤道儀がざっくりでいいので水平になるように、足の長さを調整します。足の長さはできるだけ短くしておいた方が、安定になりますので、むやみに伸ばさないようにしましょう。


SharpCapの立ち上げと極軸合わせ

まずはPCとガイドカメラ、PCと撮影用の冷却カメラがUSBケーブルで接続されていることを確認し、PCの電源を入れ、SharpCapを立ち上げます。

SharpCapから最初はガイド用のカメラを接続します。SharpCapの上部のメニューの「カメラ」から今回はガイドカメラとして使っているNeptune II-Cを選択します。
01_SharpCap_Neptune2

画面がカメラ画面に切り替わったことを確認します。明るいライトなどをカメラ前にかざしてみると、画面に何か見えるはずです。何も反応がなく真っ暗な場合は、レンズキャップを外し忘れていないか確認してみてください。

SharpCapの右側のパネルの「カメラコントロール」から、「露出時間」を800ミリ秒とか、1000ミリ秒程度にして、「アナログゲイン」を400程度の高めにして、ガイドレンズのピントを合わせてみます。すでに鏡筒が北の空を向き、北極星の近くを見ていると思うので、うまくピントが合ってくると星が見えてくると思いますが、その星の一つ一つが一番小さくなるようにピントを調節してください。

もし星が暗くてみにくい場合は、アナログゲインをもっと上げるか、右側パネルの「ヒストグラムストレッチ」で雷マークのボタンを押してオートストレッチしてみてください。暗い星も一気に見やすくなると思います。ただし、このオートストレッチ機能はSharpCapの有料版のみで使える機能なので、無料版を使っている場合は、手でこのオートストレッチ相当のことをしてやる必要があります。具体的には、ヒストグラムストレッチ画面に3本の黄色の縦の点線があるのですが、そのうち左側と真ん中の線を移動して、ヒストグラムの山を挟むようにしてやります。

ピントが合ったら、そのままの状態にして、次の極軸合わせに移ります。


極軸合わせ

まず前提条件として、この極軸調整機能も先ほどのオートストレッチと同じで、SharpCapの有料版のみで使える機能です。無料版では使うことができないので、別途SA-GTi付属の極軸望遠鏡などで極軸を合わせる必要があります。でも、極軸望遠鏡で合わせた精度は、SharpCapで合わせることができる精度に遥か及ばないので、SharpCapの有料版を購入することを強くお勧めします。2024年2月現在、年間2000円です。極軸調整だけのためこれだけ払っても十分お釣りが来るくらい、SharpCapはとても強力です。

というより、電視観望で撮影をするためにSharpCapをフルで使うので、あらかじめ有料版にしておく必要があります。そうでないと、便利な機能のかなりの部分が使えなかったり、撮影画像に透かし文字が入ったりすることがあります。

さて、実際の極軸調整を始めましょう。鏡筒はホームポジションに戻してあるので、ある程度北極星の方向をむいているはずです。SharpCapが立ち上がり、ガイドカメラはつながっていますね。この時点ではまだ赤道儀の電源を入れる必要はありません。

まずは準備です。
  • SharpCapのメニューの設定から「極軸合わせ」タブを選んでください。「大気差を補正する」を選択し、インターネットに繋いだ環境で「タイムゾーンから自動的に推測する」を選びます。これがうまくいかない時は「以下の位置情報を使用」を選び、マニュアルで入力する必要があるのですが、経度緯度が何度何分何秒の形式になっていなくて、何点何々度形式なので、正確な値を入れるのに苦労します。まあ、そこそこ合っていれば多少ずれていてもたいしたずれにはならないので、必要なら適当に何点何度くらいまでは入れておきましょう。

実際の曲軸合わせです。

1. 「ツール」「極軸あわせ」から「極軸調整」を選択します。
2. その時のカメラの露光時間は800ミリ秒とか1.6秒くらにしてください。ゲインは高めの400くらいでいいと思います。この時点で、右画面のヒストグラムで雷ボタンを押してオートストレッチをしておくと、星が画面に明るく見えるようになります。
3. 下の「Next」ボタンを押します。
02_polar1

4. 星の位置の認識がうまくいき、位置認識の計算が終わると、下の「Next」ボタンが緑色になるので、押します。
02_polar2

5. 赤経体のネジを緩めて、赤経体が動く状態にして、手で大まかに90度くらい回転させ、鏡筒が赤道儀の横側にくるようにして、ネジを固定します。
IMG_8963

6. 再び星の認識がうまくいき、位置認識の計算が終わると、下の「Next」ボタンが緑色になるので、押します。
02_polar6

7. ある星から長い黄色の線が出ているのでl、赤道儀の上下(ピッチ)方向調節ネジと、横(ヨー方向)方向調整ネジを使って、その線が短くなっていくように、調整します。
02_polar7

8. 線が短くなると同時に、画面右下の「Polar Align Error」の数値が小さくなっていくので、画面を見ながら線の長さが最短近くになるまで合わせ込みます。数値が1分角以下になっていれば十分です。
02_polar8

これ以降は、赤道儀を蹴飛ばしたりしないでください。万が一赤道儀に何か当たって位置がずれてしまったら、この極軸合わせからやり直します。


メインカメラの接続と、ピント出し

いよいよ、メインのカメラの画像を見てみます。SharpCapのメニューの「カメラ」からUranus-C Proを選びます。
01_SharpCap_Uranus

方角的には真北を向いているので、星は入っているはずですが、ピントがずれていて星はほとんど見えていないと思います。

鏡筒のフォーカサーの上についているピント固定ネジが緩んでいることを確認して、フォーカサー左右についているピント調節ネジを、SharpCapの画面を見ながら回してみます。SharpCapの設定は、露光時間は800ミリ秒とか、1000ミリ秒くらいでいいでしょう。アナログゲインは400程度の高めの値にします。

画面が真っ暗のままで全然見えない場合は、鏡筒の先のキャップを撮り忘れていないか確認してみてください。

最初は左側のピント調節ネジで粗動でざっくり合わせてみて、画面に出る星が小さくなってきたら、SharpCapのメニューと同じ段の右の方にある「ズーム」を100%とか200%にして星を拡大してピントを合わせやすくしてから、右側のピント調節ネジの微調整ネジで調節するといいでしょう。

ピントが合ったら、フォーカサーの上部のピント固定ネジを締めておくと、これ以上ピントがずれなくなります。でも次回ピント調整する時は必ずこのネジが緩んでいることを確認してから調整するようにしてください。ネジを締めたまま調整しようとすると、最悪壊してしまいます。

さて、実際にピント合わせをやってみるとわかるのですが、うーん、かなり揺れますね。三脚の頭を手で回転方向に捻ってやると結構動きます。やはり評判通り三脚が少し弱いようです。これだとピント調整する時に鏡筒に触れるだけで揺れ過ぎてしまい、かなり合わせにくいです。少しでも揺れを抑えるために、とりあえず赤道儀と三脚の間に入っているハーフピラーを外すことにしました。

IMG_8984

さらにですが、三脚の足の赤道儀に近い根本のネジを一本につき両側から2箇所、合計6箇所増し締めします。実際、いくつかのネジはかなり緩かったです。

これだけでも多少揺れは収まるので、ピント調整の際も、撮影の際も有利になると思います。


SynScan Proとの接続と初期アラインメント

赤道儀SA-GTiのコントロールパネルの赤いスイッチを入れて、電源をオンにします。

次に、アプリとの接続です。接続は、WiFi、bluetooth、シリアルと3種ありますが、長時間の撮影なので安定性を考えて、USBケーブルを使ったシリアル接続とします。

03_Synscan_net

ちなみにですが、iPhoneのSynScan Proを最新版にしたら、iPhoneからのWiFi接続では、「赤道儀モードか経緯台モードかの判断がつかない」とというエラーが出て、接続できませんでした。旧バージョン(1.19)のSynScan Proだと大丈夫なので、iPhone版の最新版にアップデートする際は注意してください。PCからUSBケーブルで接続した場合は、最新版のSynScan Proでも問題なく接続できました。

接続ができたら、いくつか設定です。
  • 高度制限が入っていると、高いところの天体を導入などできなくなります。「設定」「高度制限」から「Upper Go To Limit」を90度まで上げてください。
  • 緯度経度情報を忘れずに入れてください。PCと接続する場合は、自動的に情報が取れない場合が多いです。私はiPhoneのコンパスアプリを開いて、緯度経度情報を得て、それを手入力しています。

最初にやるべきことはこれくらいでしょうか。これらは最初に一度やればいいことで、大きく撮影場所を移動しなければ、緯度経度情報もいじる必要はありません。逆に、場所を移動して、最初の導入でうまくいかない場倍は、この緯度経度情報が間違っていないか疑ってみてください。


初期アラインメント

最初にやることは、SynScan Proでの初期アラインメントです。初期画面から「アラインメント」で「1スターアラインメント」を選びます。他にも何種類かのアラインメント方法がありますが、赤道儀の極軸がしっかり合わせてあること、次にプレートソルブで導入の補助をするので、1スターアラインメントで十分です。
10_synscanpro_alignment

星はターゲットのオリオン大星雲の近くの「リゲル」を選択しましょうか。
11_synscanpro_alignment_rigel

アラインメントを開始すると、赤道儀がターゲットの方向に向かって動き出します。SharpCapの画面で見ていても、星が動いていく様子が見えると思います。赤道儀が止まったら、SynScan Proは下のような画面になります。
03_Synscan_done


SharpCapの画面を見てみましょう。リゲルは画面の中に入っていますでしょうか?一つだけ明るい星ですので、入っていればすぐにわかるのですが、大抵の場合は画面の中に入ってこないと思います。でもここで落ち込む必要はありません。解決策はきちんとあります。


プレートソルブによる導入補助

次にSharpCapに最近標準で搭載されるようになったプレートソルブ機能を使って、リゲルを自動で画面中央まで持って来ることにしましょう。

まず下準備です。SharpCapのメニューの「ファイル」からSharpCapの設定画面を開き、「プレートソルブ」タブを選びます。

04_SharpCap_setting_platesolve

  1. 「プレート解析エンジン」のところで「SharpSolve(SharpCap's built in plate solver)」を選びます。もしこの選択肢が出てこない場合は、SharpCapのバージョンが古いことが考えられますので、最新版のSharpCapをダウンロードしてインストールしてください。
  2. 焦点距離は自分が使っている望遠鏡の値を正しく入れてください。
  3. 最後に一番下の「適用」もしくは「OK」を押します。

次に、同じくSharpCapのメニューから設定に行き、「ハードウェア」タブのところに行きます。
03_SharpCap_setting_hardware
  1. 「マウント」の「ハードウェアの選択」のところで、接続したい赤道儀を選びます。今回はSA-GTiをSynScan Proで操作するので「SynScan App Driver」を選びます。
  2. 一番下の「OK」を押します。
  3. SharpCap画面の右パネルの「望遠鏡制御」の「接続済み」のところの四角を押します。ASCOMを介して接続するのですが、10秒くらい待ってうまく接続されると数字などが出てきて、赤道儀がどちらを向いているかSharpCapで認識できるようになります。
01_SharpCap_ok_cut

これでだいたい準備は完了です。

実際にプレートソルブを走らせてみましょう。

1. 露光時間を3秒程度にしておくといいでしょう。短すぎると星の数が少なくて、長すぎると星が流れてしまってうまくいかないことがあります。
2. SharpCapメニューの「ツール」から「プレートソルブ後再同期」を選ぶか、右側パネルの「望遠鏡制御」の方向矢印の左下の方角マークのようなアイコンを押します。
04_platesolve

3. 今見ている画面から実際に見ている方向を計算して、赤道儀が認識している方向とどれだけ違うかの差を認識して、その差を赤道儀にフィードバックして、赤道儀が見ていると思っている方向に向きを変えて合わせてくれます。
4. うまく行くと、下の画面のようにリゲルが真ん中に来て、上部の緑色のところにプレートソルブが成功したことが表示されます。今回の場合2.72度ずれていたそうです。
06_platesolve

うまくいったら、PC上で走っているSynScan Proのアラインメント完了の意味で、星マークのボタンを押します。

その後は、SynScan Proを使って、自由に目標の天体を導入してみましょう。例えば今回の目標はオリオン大星雲なので、SynScan Proの初期画面から「ディープスカイ」を選びます。
09_synscanpro

オリオン大星雲はメシエ天体の42番目なので、「メシエ」を選び、「042」と入力し、「導入」を押します。うまく行くと、オリオン大星雲が画面に入ってくるのが見えるでしょう。

05_intro

もし画面内に入らなかったりした場合は、再びプレートソルブを走らせることで画面に入れることもできます。

今回は導入完了のここまでとします。次回は実際に撮影してみます。










BlurXTerminator version 2.0 and AI version 4がリリースされました。



以下BXT2とかAI4とか呼ぶことにします。以前のものはBXT1とか単にBXTでしょうか。BXTというのはバージョンに限らずBlurXTerminatorの略語の場合もあるので、ここでは文脈によって使い分けたいと思います。


Correct only

まず、恒星についてはこれまでのBXT1に比べて明らかに大きな改善です。以前もこの恒星の収差を改善するCorrect onlyがかなりすごいと思って評価しましたが、その当時は星雲の細かい模様出しが第一の話題の中心で、恒星を小さくすることが次くらいの話題でした。収差などを直すCorrect onlyはあまり話題になっていなかったのが残念でした。でも今回はむしろ、この収差補正の方が話題の中心になっていて、しかもその精度が格段に上がっているようなので、より精度の高いツールとして使うことができそうです。

今回のBXT2で修正できるものは:
  • First- and second-order coma and astigmatism: 1次と2次のコマと非点収差
  • Trefoil (common with pinched optics and in image corners with some camera lenses): トレフォイル(矢状収差?) (歪んだ光学系や、いくつかのカメラレンズで出る画面四隅において一般的)
  • Defocus (poor focus and/or field curvature): デフォーカス:  (焦点ズレや、もしくは像面歪曲)
  • Longitudinal and lateral chromatic aberration: (縦方向、横方向の色収差)
  • Motion blur (guiding errors): 動きのブレ(ガイドエラー)
  • Seeing/scatter variation per color channel: 各色ごとのシーイング/散乱の違い
  • Drizzle upsampling artifacts (2x only): ドリズルのアップサンプリング時の偽模様(2倍時のみ)
とのことです。

ちなみに、BXT1の時に修正できたのは以下のようなものなので、BXT2では圧倒的に進化しています。
  • limited amounts of motion blur (guiding errors): ある一定量までの動きのブレ(ガイドエラー)
  • astigmatism: 非点収差
  • primary and secondary coma: 1、2次のコマ収差
  • unequal FWHM in color channels: 各色のFWHM (星像の大きさ) の違い
  • slight chromatic aberration: 多少の色収差
  • asymmetric star halos: 非対称なハロ

なので、まずは星雲部分を補正する前に、一度Correct Olnyをチェックして収差などによって歪んで写った恒星がどれだけ改善されるのかを、十分に味わうべきでしょう!星雲部の模様出しとかは他のツールでも似たようなことはできますが、上に挙げたような収差補正をここまでやってくれるツールはBXTだけです。画面全体を見ている限りは一見このありがたさに気づかないかもしれませんが、拡大すればするほど、こんなに違うのか!というのを実感することと思います。

では実際に比較してみましょう。全て前回のクワガタ星雲の処理途中のリニアな段階での比較です。

1. オリジナル画像
まずはオリジナルの画像です。
Image13_mosaic_original
ε130Dは、スポットダイアグラムを見る限り非常に優秀な光学系です。同系列のε160EDやTOA-130N+TOA-645フラットナーといったスーパーな鏡筒には流石に負けますが、FSQ-130EDとコンパラくらいでしょうか。反射型なので光軸調整さえ安定してできれば、間違いなく最強の部類の鏡筒と言えると思います。上の画像は四隅でもかなり星像は小さくなっていますが、まだ少し流れが残っています。

2. BXT1相当 (BXT AI2)
ここにまずは、BXT1相当の、BXT2に従来のAI Ver.2を適用します。ここではCorrect onlyでの比較です。
Image13_mosaic01_BXT

四隅の星の流れは明らかに改善されていることがわかりますが、星の大きさなどは大きく変わることがなく、これだけ見てもε130Dの光学性能の優秀さが伺えるかと思います。

3. BXT2 AI4
では上の画像で十分で、高性能鏡筒に今回のAI4をかけても意味がないかというと、そんなことはありません。BXT1では微恒星を救いきれていない場合が多々ありました。このページの「もう少しL画像を評価」の2のところ以降に、

「BXTはかなり暗い最微恒星については恒星と認識するのは困難で、deconvolutionも適用できないようです。そうすると逆転現象が起きてしまうことも考えられ、より暗い星の方がそれより明るい星よりも(暗いけれど)大きくなってしまうなどの弊害も考えられます。」

と当時書いていました。そして暫定的な結論として

「この逆転現象とかはかなり拡大してみないとわからないこと、収差の補正や星雲部の分解能出しや明るい恒星のシャープ化など、現段階ではBXTを使う方のメリットがかなり大きいことから、今のところは私はこの問題を許容してBXTを使う方向で進めたいと思います。シンチレーションの良い日を選ぶなどでもっとシャープに撮影できるならこの問題は緩和されるはずであること、将来はこういった問題もソフト的に解決される可能性があることなども含んでの判断です。」 

と書いていますが、今回は実際にソフト的に改善されたと考えて良さそうです。

実際に見てみましょう。BXT2 AI4を適用したものです。
Image13_mosaic02_BXT2_4
一見BXT1との違いがわからないと思うかもしれませんが、少しぼやけて写っているような最微恒星に注目してみてください。BXT1では取りこぼしてぼやけたままに写っているものがBXT2ではきちんと取りこぼされずに星像が改善されています。

このことはリリース次のアナウンスの「Direct linear image processing」に詳しく書いてあります。

One of the most significant “under the hood” features of AI4 is that it processes linear images directly. Earlier versions performed an intermediate stretch prior to neural network processing, then precisely reversed this stretch afterwards to restore the image to a linear state. This was done because neural networks tend to perform best when their input values lie within a well-controlled statistical distribution.

While this worked well for most images, it introduced distortions that compromised performance. Flux was not well conserved, particularly for faint stars, and the network could not handle certain very high dynamic range objects (e.g., M42, Cat Eye nebula). These compromises have been eliminated with AI4, resulting in much more accurate flux conservation and extreme dynamic range handling.

要約すると、

BXT2では直にリニアデータを処理することができるようになった。BXT1ではニューラルネットワークの処理過程の制限から、一旦ストレッチした上で処理し、その後リニアデータに戻していた。そのため恒星の光量が変わってしまったり、特に淡い恒星では広いダイナミックレンジを扱うことが難しかった。BXT2ではこのような妥協を排除し、その結果より正確に光量を保つことができ、大きなダイナミックレンジを扱うことができるようになった。

というようなことが書かれています。これは大きな進化で、実際に自分の画像でも微恒星に関しては違いが確認できたことになります。


Nonsteller

Niwaさんが恒星の締まり具合から判断して、PSFを測定してその値を入れた方がいいという動画を配信していました。その後訂正され、PSFの設定はオートでいいとなりましたが、一方、私はこのPSFの設定は星雲部分の解像度をどれだけ出すかの自由度くらいにしか思っていないので、測定なんていう手間のかかることをしたことがなかったです。

BXTのパネルは上が「Steller Adjustments」となっていて、「Sharpen Stars」とか「Adjust Star Halos」とかあるので、こちらは恒星のためのパラメータで、恒星の評価はこちらを変えて判断すべきかと思います。とすると真ん中の「Nonsteller Adjustments」は恒星でない星雲部などのパラメータで、星雲部を見て判断すべきかと思われます。このPSFが星雲部にどう働くかはユーザーにとっては結構なブラックボックスですが、必ずしも測定値を入れなくても、星雲部の出具合を見て好きな値を入れればいいのかと思っていました(BXT2ではここが大きく変わっています)。

というわけで、いくつかのパラメータを入れてどう変わるかを見てみましたが、これまた興味深い結果になりました。

1. まずはオリジナルのBXTをかける前の画像です。こちらも前回のクワガタ星雲の画像の中のバブル星雲部分拡大していて、リニア処理時の画像になります。まだ、バブル星雲もかなりボケてますね。
Image13_ABE1_RGB_ABE4_SPCC_SCNR1_Preview01

2. 次は右下のリセットボタンを押して、すべてデフォルトの状態でどうなるかです。
Image13_ABE1_RGB_ABE4_SPCC_SCNR_BXTdefault_Preview01
恒星は上で書いた収差補正などが入り、さらに星を小さくする効果(0.5)で実際に星が小さくなっているのがわかります。そして確かに星雲部の分解能が上がっているのがわかります。今回の画像は全てBin2で撮影しDrizzle x2をかけてあることに注意で、これにBXTをかけたことになるので、相当な解像度になっています。

3. さてここで、PSFの効果を見てみます。パラメータはSharpen Stars: 0.70, Adjust Star Halos: 0.00, Sharpen Nonsteller: 1.00で、PSF Diameterだけ変えてみます。極端な場合のみ比べます。まずはPSFが最小の0の場合です。
Image13_ABE1_RGB_ABE4_SPCC_SCNR_BXTSS07PD0_Preview01

次にPSFが最大の8の場合です。
Image13_ABE1_RGB_ABE4_SPCC_SCNR_BXTSS07PD8_Preview01

あれ?恒星は確かに少し変わっていますが、星雲部が全く同じに見えます。このことは、PSFを1から7まで変えて比較しても確認しました。


4. BXT1時代にはPSFを変えたら星雲部が大きく変わっていたはずです。念のためAI2にして確認しました。

PSFが4.0の場合。
Image13_ABE1_RGB_ABE4_SPCC_SCNR_BXTSS05PD4_Preview01

PSFが8.0の場合です。
Image13_ABE1_RGB_ABE4_SPCC_SCNR_BXTSS05PD8_Preview01

他のパラメータは全て同じなので、やっぱり明らかにPSF Diameterだけで星雲部が大きく変わっています。

5. ここで、再びAI4に戻りもうひとつのパラメータ「Sharpen Nonsteller」をいじってみました。1.0からから0.5に変えています。
Image13_ABE1_RGB_ABE4_SPCC_SCNR_BXTSS07PD8N05_Preview01
これまでのSharpen Nonstellerが1.0の時と比べて、明らかに星雲部の分解能は出にくくなっています。

今回のリリースノートでは星雲部の記述がほとんどありません。ということはPSFに関しては大きな仕様変更?それともバグ?なのでしょうか。ちょっと不思議な振る舞いです。でもBXT1の時のように星雲部の解像度を出すパラメータがPSF DiameterとSharpen Nonstellerの2つあるのもおかしな気もするので、BXT2の方がまともな設計の気もします。いずれにせよ、今回のAI4ではすでに星雲部に関しては最初から最大限で分解能を出してしまっていて、これ以上の分解能は出せないようです。BXT1の時には星雲部の解像度出しが大きく扱われていたので、これを期待して購入すると、もしかしたら期待はずれになってしまうかもしれません。

でもちょっと待った、もう少しリリースノートを読んでみると、BXTの2度掛けについての記述が最後の方にあることに気づきます。

The “Correct First” convenience option is disabled for AI4 due to the new way it processes image data. It is also generally no longer necessary. If desired, the same effect can still be accomplished by applying BlurXTerminator twice: once in the Correct Only mode, and then again with the desired sharpening settings. The same is true for the “nonstellar then stellar” option: it is generally not needed anymore with AI4, but can be accomplished manually if desired.

Correct Firstとnonstellar then stellarはAI4では使えなくしたとのことで、その代わりに一度Correct Onlyをかけて、その後にCorrect Onlyを外して好きな効果をかければいいとのことです。

実際に試してみましたが、いくつか注意点が必要そうです。下の画像は、上で使ったオリジナルの画像から
  1. Correct Only
  2. Sharpen Stars: 0.70, Adjust Star Halos: 0.00, Automatic PSF: on, Sharpen Nonsteller: 1.00
  3. Sharpen Stars: 0.00, Adjust Star Halos: 0.00, Automatic PSF: on, Sharpen Nonsteller: 1.00
  4. Sharpen Stars: 0.00, Adjust Star Halos: 0.00, Automatic PSF: on, Sharpen Nonsteller: 1.00
4回かけています

Image13_ABE1_RGB_ABE4_SPCC_SCNR1_BXTCO_SS07auto_SS0auto_SS0auto

まず、星雲部の解像度出しを後ろ3回でかけていることになりますが、その効果は回数分きちんと出ていて、複数掛けで効果を増すことができるのがわかります。その一方、Sharpen Starsは2回目のみにかけ、それ以降はかけていません。これは繰り返しかけると恒星がどんどん小さくなっていき、すぐに破綻するからです。3回目のみにかけるとか、4回目のみにかける、もしくは小さい値で複数回かけてもいいかと思いますが、恒星が破綻しないように注意してチェックする必要があると思います。

最も重要なのが、PSFの設定です。BXT1時代にはここをマニュアルで数値を入れてやることで、星雲部の解像度が調整できましたが、ここまでの検証でBXT2ではその効果は無くなってしまっています。しかも、ここで試しているようなBXT2の複数回掛けで固定PSFにすると、小さくなっていく恒星に対して間違った値のPSFが適用されてしまい明らかに恒星が破綻していくので、Automatic PSFを必ずオンにしておく必要がありそうです。

というわけで、ここまでの検証でまとめておくと、
  • BXT2は星雲部の解像度出しの効果が弱いので、複数回がけで効果を強くすることができる。
  • 複数掛けは作者がOKを出している。
  • Sharpen Stars(と、今回は検証してませんが多分Adjust Star Halosも)は無理をしない。
  • PSFはオートにしておいた方が楽で変なことが起きないのでいい。
と言うことがわかりました。PSFはNiwaさんの言うようにBXT2をかけるたびに毎回きちんと測定してからその値を入れるのでもいいかもしれませんが、私の方では今回は検証していません。


BXTの中身について推測

BXTですが、まだまだブラックボックスなところはたくさんあります。ここからはあくまで個人的にですが、どんなことが行われているのか色々推測してみようと思います。

最初に、AIと言っていますがどこに使っているのか?です。自分だったらここに使うとだろうという意味も込めて推測しています。

まずは「恒星とその他の天体の区別」にAIを使っているのではないかと思います。これはStarXterminatorで既に実装されているのでおそらく確実でしょう。画像の中にはものすごい数の星があります。全てまともな形をしていればいいのですが、収差などで崩れた形の(元)恒星もきちんと恒星と認識しなければいけません。ここはAIの得意とする分野だと思います。でも、恒星の認識率も100%にするのはかなり難しいと思います。リリースノートで示されているような種類の収差を膨大な画像から学習しているものと思われ、逆にそうでないものは恒星でないと判断すると思います。ハッブルの画像などから学習したと書いていますが、ハッブルの画像は逆に収差は比較的小さいと思いますので、これと収差があるアマチュアクラスの画像を比べたりしたのでしょうか。それでも現段階でのAIなので、学習も判別も当然完璧では中々ないはずなのですが、例えば銀河などはかなりの精度で見分けているのかと思います。

個別に恒星が認識できたら、恒星にのみdeconvoutionを適用することが可能になるはずです。上での検討のように、BXT1では超微恒星は星像改善がなかったものが、BXT2では無事に恒星として認識できて星像改善されているので、このことは認識できた恒星にのみdeconvoutionを適用していることを示唆しているのかと思います。従来のdeconvolutionは効果を画面全体に一度に適用せざるを得ないので、恒星部と星雲部に同様にかかってしまいます。恒星が星雲を含む背景から分離でき、そこにのみdeconvolutionをかけられるなら、個別に効果を調整できるので、従来に比べてかなり有利になるでしょう。

ただし、恒星が小さくなった後に残る空白の部分は、従来のdeconvolutionでは黒いリング状になりがちなのですが、BXTはかなりうまく処理しているようです。説明を読んでも「リンギングなしでうまく持ち上げる」くらいしか書いていないのでわからないのですが、ここでもAIを使っているのかもしれません。例えば、簡単には周りの模様に合わせるとかですが、もう少し考えて、恒星の周りの中心よりは暗くなっているところの「背景天体の形による輝度差」をうまく使うとかも考えられます。輝度を周りに合わせるようにオフセット値を除いてやり、模様を出しやすくしてから、それを恒星が小さくなったところの背景にするなどです。S/Nは当然不利なのですが、そこをAIをつかってうまくノイズ処理するとかです。本当にこんな処理がされているかどうかは別にして、アイデアはいろいろ出てくるのかと思います。

あとBXTの優れているところが、画像を分割して処理しているところでしょう。512x512ピクセルを1つのタイルと処理しているとのことで、その1タイルごとにPSFを決めているとのことです。収差処理もおそらく1タイルごとにしているのでしょう。現在のAI処理はそれほど大きなピクセル数の画像を扱っていないので、どうしても一回の処理のための画像の大きさに制限が出るはずです。でもこのことは画像の各部分の個々の収差を、それぞれ別々のパラメータで扱うことにつながります。四隅の全然別の収差がどれも改善され、恒星が真円になっていくのは、見事というしかありません。これをマニュアルでやろうとしたら、もしくは何かスクリプトを書いて個々のタイルにdeconvolutionをかけようとしたら、それこそものすごい手間になります。画面全体に同じ処理をする従来のdeconvolutionなどとは、原理が同じだけで、もう全く違う処理といってもいいかもしれません。


微恒星の補正について

もう一つ、極々小さい微恒星がさらにdeconvolutionされたらどうなるか考えてみましょう。

もともと時間で変動する1次元の波形の周波数解析によく用いられるFFTでは、サンプリング周波数の半分の周波数以下でしか解析できません。この半分の周波数をナイキスト周波数と言います。要するに2サンプル以上ないと波として認識できず、周波数が決まらないということです。ではこの2サンプルのみに存在するインパルス的な波を、無理矢理時間軸で縮めるような処理をしてみたらどうなるでしょうか?元々あった2サンプルで表現されていた波が2サンプル以下で表現され、より高周波成分が存在するようになります。

これと同じことを2次元の画像で考えます。上のFFTの時間が、画像のドットに置き換わり、縦と横で2次元になったと考えます。周波数と言っているのは画面の細かさになり、「空間周波数」という言葉に置き換わります。細かい模様ほど空間周波数が高く、荒い模様ほど空間周波数が低いと言ったりします。

1ドットのみの恒星は、本当に恒星なのか単なるノイズなのか区別のしようがありません。少なくとも各辺2ドット、すなわち4ドットあって初めて広がりのある恒星だと認識できます。この各辺2ドットがナイキスト周波数に相当します。超微恒星に対するdeconvolution処理はこの4ドットで表されている恒星を、4ドット以下で表現しようとすることになります。その結果、この画像はナイキスト周波数以上の高周波成分を含むことになります。

deconvotionはもともと点像であった恒星と、その点像が光学機器によって広がりを持った場合の差を測定し、その広がりを戻すような処理です。その広がり方がPSFという関数で表されます。広がりは理想的には口径で決まるような回折限界で表されますが、現実的にはさら収差などの影響があり広がります。BXTはあくまでdeconvolutionと言っているので、ここに変なAIでの処理はしていないのかもしれませんし、もしくはAIを利用したdeconvolution「相当」なのかもしれません。

BXT1からBXT2へのバージョンアップで、処理できる収差の種類が増えていて明確に何ができるのか言っているのは注目すべきことかと思います。単なるdeconvolutionなら、どの収差を補正できるのか明確には言えないはずです。でもAIで収差の補正の学習の際、どの収差か区別して学習したとしたら、deconvolution相当でどのような収差に対応したかが言えるのかと思います。そういった意味では、やはりBXTのdeconvolutionは後者の「相当」で、AIで置き換えられたものかと思った方が自然かもしれません。


BXTの利用目的

ここまで書いたことは多分に私自身の推測も入っているので、全く間違っているかもしれません。BXTの中身の実際はユーザーには全部はわからないでしょう。でも中身はどうあれ、実際の効果はもう革命的と言っていいほどのものです。

個人的には「個々のタイルでバラバラな収差をそれぞれのPSFで補正をして、画像の全面に渡って同等な真円に近い星像を結果として出しているところ」が、マニュアルでは絶対にやれそうもないところなのでイチオシです。もちろん今のBXTでは完璧な処理は難しいと思いますが、現在でも相当の精度で処理されていて、BXT1からBXT2のように、今後もさらなる進化で精度が上がることも期待できそうです。

では、このBXTが完璧ではないからと言って、科学的な目的では使えないというような批判は野暮というものでしょう。そもそもBXTは科学的に使うことは目的とはしていないはずです。

それでもBXTを科学的な側面で絶対使えないかというと、使い方次第だと思います。例えば、新星を探すという目的で、BXTでより分解能を増した上で何か見つかったとしましょう。それが本物かフェイクかの「判断」は他のツールも使うなどして今の段階では「人間が」すべきでしょう。判断した上で、偽物ということもあるでしょうし、もし本物だったとしたら、例え判断はBXTだけでできなかったとしても、そのきっかけにBXTが使われたいうことだけで、BXTの相当大きな科学的な貢献になるかと思います。

要するに「ツールをどう使うか」ということだと思います。今の天文研究でもAIが盛んに使われようとしていますが、主流は人間がやるにはあまりに手間がかかる大量のデータを大まかに振り分けるのを得意としているようです。ある程度振り分けたら、最終的な判断はAIに任せるようなことはせず、やはり人の目を入れているのが現実なのかと思います。AIは完璧ではないことはよくわかっているのだと思います。


まとめ

BXTはどんどんすごいことになっていますね。今後はBXT以外にもさらに優れたツールも出てくるでしょう。将来が楽しみでなりません。

何年か前にDenoise AIが出た時も否定する意見はありましたし、今回のBXT2も推測含みで否定するケースも少なからずあったようです。デジカメが出た時も否定した人が当時一定数いたことも聞いていますし、おそらく惑星撮影でWavelet変換を利用した時も同じように否定した人はいたのかと思います。新しいものが出た時の人の反応としてはごく自然なのかもしれませんが、私は個人的にはこのような新しいツールは大歓迎です。新しいものが出たときに否定だけするような人から、新しい革新的なツール作られるようなことなどほぼあり得ないでしょう。新しいツールはその時点では未熟でも、将来に発展する可能性が大きく、その可能性にかけるのが正しい方向かなと思っています。

実際私も、電視観望をしていて頭ごなしに否定されたことが何度がありました。でも今では電視観望は、眼視と撮影の間の手法として確立してきているはずです。当時否定された方達に、改めて今電視観望についてどう思っているのかお聞きしてみたかったりします(笑)。

BXT素晴らしいです!!!

このページのトップヘ