ほしぞloveログ

天体観測始めました。

カテゴリ: software

ちょっと間が空きましたが、N.I.N.A.の試用記の続編です。



前回の記事を書いてからなかなか晴れなくて、やっと日曜の夜に少しだけ星が見えたのでテストしました。本当は撮影までしたかったのですが、結局曇ってしまいNINAのテストだけで終わってしまいました。

第一回の撮影までに加えて、今回は少し応用編。導入など、撮影の準備に相当する部分になります。撮影までのことなので、本当はこちらを先に説明しても良かったのですが、一度赤道儀で導入して撮影まで進めてしまえば見通しが良くなると思ったからです。


スカイアトラス 

最初に左アイコン群の「スカイアトラス」でターゲットを調べるといいでしょう。左上に対象とする天体を入力します。例えばM57と入力すると、その情報が出てきます。

IMG_0155

その際、「オプション」「一般」タブの「スカイアトラス画像ディレクトリ」を設定しておくといいでしょう。ここはスカイアトラスで画像を表示するために使います。サイトのダウンロードページの一番下にある「Misc」のところの「Sky Atlas Image Repository 」をダウンロード、展開して、「スカイアトラス画像ディレクトリ」で設定したディレクトリに置くと、「スカイアトラス」の「詳細」のところにカタログ画像が表示されるようになります(TKさんに教えてもらいました。ありがとうございました。)。

このスカイアトラスのところで「導入」ボタンを押してしまっても導入はできるのですが、次のフレーミングで導入した方がいいでしょう。


フレーミング

撮影時にPCがインターネットに接続されているなら、フレーミング機能が便利です。デフォルトで縦横3度の視野角を見るようになっていますが、画像を落とすのに結構時間がかかります。今どれくらいダウンロードしたか表示があるとよかったかもしれません。

一旦ダウンロードした画像はキャッシュに保管され、キャッシュを表示することを選べばインターネットがない環境でも確認することができます。撮影時にインターネット環境がないなら、事前に対象天体の検索して画像をダウンロードしておくといいでしょう。

ダウンロードした画像があると、撮影時の画角や位置を確認できます。

IMG_0156

M57を囲んで大きな四角い枠が見えます。これが接続されているカメラと、この画面の「画像の読み込み」の「カメラパラーメーター」の「焦点距離」から計算された、撮影した場合の画角になります。

黄色の丸は、現在赤道儀(望遠鏡)が向いている位置になります。上の写真の場合、M57の中心からは少しずれた位置にいることになります。でもこれは実際に向いている位置とは限らなくて、N.I.N.A.が「赤道儀が向いていると思っている」位置です。この数値は接続した赤道儀から得ています。なので、この状態で撮影しても、黄色の場所が中心なるとは限らず、後のプレートソルブを使い誤差を無くします。

さて、画角を示すこの四角は移動することができます。四角の中心が導入したい目的の位置になります。今はM57の中心が四角の中心になっているので、ここで「導入」ボタンを押してみます。すると実際の赤道儀の向きに合わせて、一旦黄色い丸が画面からはみ出し、しばらく待つと

IMG_0160

のように、黄色い丸が画角の中心にきます。

この際、もしガイドをしっぱなしなら、PHD2のオートガイドを外すのを忘れないようにしてください。また、導入が終わったら、撮影前に再びPHD2のオートガイドをオンにするのを忘れないでください。

でもまだ注意です。ここですでに画面中央に目的の天体が導入されたかに見えますが、本当にその向きに向いているかどうかの保証はありません。赤道儀の持っている情報と実際の向きが合っているかは保証がないからです。ここで次のプレートソルブの出番です。


プレートソルブ

プレートソルブは思ったよりはるかに簡単にできました。もともとAPTで「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしていたからというのもあります。この場合は「オプション」「プレートソルブ」のところでパスを通すだけで使えてしまいました。

IMG_0101

具体的には、撮像ページで右上「ツール」アイコン群の左から3つ目「プレートソルブ」を押してプレートソルブパネルを出します。

IMG_0165

パネルの位置がわかりにくいかも知れません。「画像」パネルの下のところに「プレートソルブ」タブが出ていると思いますので、それを選択します。ここで「同期」が「オン」になっていると、プレートソルブが成功した際の位置情報が赤道儀にフィードバックされ、赤道儀上の一情報が書き換わります。その際「ターゲットの再導入」を「オン」にしておくと「エラー」の値よりも誤差が大きい場合に再度自動で導入し直してくれますが、導入は後で自分でもできるので、とりあえずはオフでいいでしょう。「露出時間」と「ゲイン」なども適当に入れます。準備ができたら、真ん中の三角の再生マークのところの「画像素取得してプレーとソルブ処理します。」を押します。

勝手に撮像が一枚始まって、プレートソルブが始まり、うまく位置が特定できると「成功」のところにチェクマークが出ます。

IMG_0164

フレーミングでM57を中央にしたにもかかわらず、やはり実際に撮影するとずれしまっていて、その誤差を赤道儀側にすでにフィードバックしているので、今一度フレーミングを見てみると、

IMG_0166

のように、黄色い丸がずれているのがわかると思います。横にずれたのはカメラが90度回転しているからです。この状態で再度「導入」を押すと黄色い丸がM57のところに行き、実際に撮影してみると

IMG_0168

のように、今度は本当に赤道儀がM57の方向をきちんと向いていることがわかります。


その他

ASI290MMでLRGB撮影をやってみようと思っていて、かなり前に勝手ずっと使っていなかったZWOのフィルターホイールを繋いでみました。ポイントはEFW用のASCMOドライバーをZWOのページから落としてきてインストールしておくことと、NINAを一度再起動することです。これでNINAの「機材」の「フィルターホイール」からZWOのフィルターホイールとして認識され、選択することができるようになります。

IMG_0162


フォーカスに関して
  • オートフォーカス機能はあるようですが、マニュアルでのフォーカスをサポートするような機能は見当たらない。と思っていたら、撮像の右上のツールのところにありました。今度使ってみます。

まとめ

だいたい試したのはこれくらいでしょうか。2度に渡って使用して、その使い勝手をレポートしましたが、2回目は撮影まではしていないので、まだ説明が不十分なところもあるかもしれません。例えば、フォーカサーとかフラットパネルと接続した撮影の機能もあるみたいで、ここら辺は機材を持っていないので試すことができません。

とりあえず十分すぎるくらいの機能があることもわかって、撮影するには何も不便なところはなく、ベータ版でもすごく安定しています。

前回と今回の記事を読めば導入して撮影するまでできるのではないかと思います。わかりにくいところがあったらコメントしてください。私も全部理解しているわけではないですが、質問に答えがてら理解していきたいと思います。


最近話題のNINAを試してみました。すごくいいです。試したのはVISACでM13を撮影したときです。


N.I.N.A.を使ってみた

そもそもAPTをまともに使い始めたばかりなのに、なんでNINAを使ってみたかというと、APTで少し不満があったからです。
  • Live viewの映像がうまくストレッチできない。
  • ピント合わせで拡大できない。
  • 撮影ごとのログが残らない。fitsに特化しているので、各ファイルの中に情報は含まれてますが、いちいちヘッダを見なくてはならないのが少し不満です。
  • 撮影中の設定が結構制限される。例えばカメラのカラーバランスやストレッチの設定など、撮影中も触りたいのにできない。(でも、撮影中に弄れたことも一度だけあるのですが、再現性無しです。不思議です。)
と言っても、上のように細かいことだけで、普通に撮影するだけならAPTは十分な機能を持っています。「今回の撮影は前と同じM13で、余裕があるので失敗してもいいからNINA試してみようか」くらいの気分でした。しかもNINAで上記不満が解決されたかというと、実はそうでもなく、せいぜいLive Viewがマシになったくらいでしょうか。

でもそれ以外にいい所がかなりあり、極めて順調に撮影までできたので、この記事を書いています。


N.I.N.A.のインストール

ダウンロードはここからです。

2020年5月13日現在、最新の安定バージョンは1.9ですが、事前情報から日本語を使うためにはベータバージョンを使う必要があり、Version 1.10 BETA002(5月16日の今日、アクセスしてみたらすでにBETA004になっています)をダウンロードしました。

Windows版のみ存在し、MacやLinux版はないようです。32ビット版と64ビット版がありますので、各自の環境に合わせて選択します。自分のWindowsが32ビットか64ビットか分からない場合はここなどを参考にして確認して下さい。

今回は64ビット版を使ってみましたが、注意事項が書いてあって、もしNINAの64ビット版を使う場合はASCOMも64ビット版を使う必要があるそうです。いくつかのASCOMドライバーは未だ32ビットのままなので、その場合は32ビット版を使うか、64ビット版のドライバーの開発を促してくれとか書いてあります。とりあえず今回の使用(一通りセットアップして、plate solvingして導入、長時間撮影とかするくらいまで)では64ビット版で困ることはありませんでしたが、たくさんの機器を繋いで本格的に稼働させるとかの人は32ビット版の方がいいのかも知れません。

インストールは普通にやれば特に困ることはないでしょう。


最初の設定

インストール後、起動して一番最初にやるべきことは左端アイコン群の一番下「オプション」の「一般」の設定でしょう。そもそも日本語になってないと「Options」の「Genaral」になっています。まずは、そこの「Language」を「Japanese(Japan)」に変えます。変えた瞬間に日本語に切り替わるのが素晴らしいです。でも後から再起動して気づいたのですが、細かいところ、例えば先ほどの「Japanese(Japan)」は再起動して初めて「日本語(日本)」に切り替わるので、全ての項目が瞬時に切り替わるわけではないようです。一応言語を切り替えたら、一旦終了して立ち上げ直した方がいいでしょう。

同じページで「天文測定学」(ちょっと訳が微妙ですが)で緯度、経度を写真のように「137.12」などという形式で「度と分だけを小数点で区切った形」で入れておくといいでしょう。後の「スカイアトラス」のところで正しく表示されるようになり、撮影時間などの目安を立てやすくなります。


IMG_0090

「オプション」「撮像」「画像ファイルパス」で、撮影した画像を保存する場所を指定できます。好みの適当なところにしておくといいでしょう。


機材の接続

最低限の設定がとりあえず終わったら、次は「機材」ページです。この時点で、必要な機器はケーブルなどで実際に接続しておいた方がいいでしょう。今回設定したものはカメラ、望遠鏡(赤道儀のこと)、ガイダーです。これら3つは接続すると縦に並ぶアイコン群の右下に小さな電源マークが出るので、何が接続されているのか一目で分かります。

IMG_0087

それぞれのページの一番上で接続したい機器を選択し、その右の電源マークのアイコンを押して「接続」します。例えばカメラなら、すでにカメラが接続されていれば上の写真のように「ZWO ASI294MC Pro」という選択肢が出てきます。カメラが繋がれていないとASCOMとかN.I.N.A.のシミュレーターカメラとかしか出てこないので注意です。もしきちんとカメラにケーブルをつないでいても、つないだカメラ名が出てこない場合は、接続アイコンの左の矢印が回っている「デバイスの再スキャン」を押すと再認識されて、選択肢として出てくることがあります。

うまくカメラが接続できると温度制御やゲインの設定などができるようになります。冷却は設定温度を決めて、右横の雪の結晶マークのアイコンを押すだけです。撮影終了時の昇温は下の炎マークのアイコンを押します。オフセットはダークファイルのオフセットより大きな値が入っていればいいのかと思います。通常数十とかでしょうか。ゲインは後の「撮像」のところで改めて設定するので、適当でいいです。


適当な天体の導入と、PHD2でオートガイド

とりあえず、赤道儀での自動導入でも、マニュアル導入でもいいので、撮影したい適当な天体を導入します。最初はテスト撮影だと思って下さい。NINA自身の導入機能「フレーミング」については次回の記事で説明します。

一旦撮影したい天体が導入できたら、PHD2を起動してオートガイドを始めます。その際ですが、PHD2で赤道儀に接続した時に出てくる4方向ボタンのの小さな画面が後で導入すうる時に便利になるので、できればボタンを押してきちんと赤道儀が反応するか確かめておくといいでしょう、

きちんとオートガイドされていることが確認できたら、「オプション」「ガイダー」で、PHD2に接続して下さい。もしかしたら自動的に認識されて、すでに接続された状態になっているかも知れません。もし選択肢にPHD2が出てこなかったら、「オプション」「機材」の右下の「ガイダー設定」できちんと「PHD2パス」が設定されているか確認してみて下さい。私は先にPHD2を動かしていて、うまく動いている状態でNINAを立ち上げたので、特に何も設定する必要はなかったですが、うまくいかない場合はここが設定画面になるはずです。

IMG_0096

うまくPH2Dが接続されると、ガイドされているグラフが「機材」「ガイダー」のところに表示されます。PHD2の制御情報がそのままNINAで表示されるのがすごいです。左の方の選択で、y軸、x軸の表示設定とともに、誤差の単位を変えることができます。下の写真ではピクセル単位にしています。概ね0.5ピクセル以内に収まっているでしょうか。

IMG_0089

ついでにここで、NINA上でも赤道儀との接続も済ませておきましょう。PHD2がうまく動いているなら、すでに赤道儀はPCと接続されているはずです。NINAの「オプション」「望遠鏡」で自分の赤道儀のドライバーを選択し、右の「接続ボタン」で接続します。

IMG_0088



撮像

次はNINA画面の左端アイコンの下から二番目「撮像」ページです。ここは盛り沢山で混乱しますが、最初は最低限の機能から試します。

IMG_0094

まずは右上の「撮像」パネルのところのシャッターマークの「露光開始」ボタンを押して一枚テスト撮影して見て下さい。その際、「露出時間」は適当に10秒くらい、「ビニング」は1x1、「ゲイン」は200から400くらいいいでしょう。これらの設定はテスト撮影の時のみ有効で、本撮影では別の設定項目があり、そことは独立に設定ができます。撮影中は左下に「撮像:露出中」とか出て、時間バーが動いていきます。一枚撮影すると画像が出てくるはずです。望遠鏡の蓋がきちんと外れていて、ピントも合っていて、何かターゲットが入っているはずなのに真っ暗な画面しか出てこない場合は、撮影画面の上の右側にあるアイコン群の真ん中の棒のようなマークの「画像の自動オートストレッチをトグルスイッチでオン/オフする(表示のみ)」を押して、ボタンが明るくなるのを確認して下さい。同時にオートストレッチが効いて撮影画面も明るくなり、星などが見えてくると思います。

右上の「撮像」パネルのカメラマークの「ライブビュー」も同様です。「露出時間」を1秒とかにして「オートストレッチ」をうまく使って、リアルタイムで連続してみることができます。ただ、この「ライブビュー」うまくいかないことが何度かありました。「ライブビュー」ボタンを押して「露光開始」を押してうまくいったときもあれば、画面の拡大率を変えてうまく行った時もあります。同様のことをしてエラーが出たこともあります。ライブビューはまだ少し不安定な気がします。

ちなみに、この撮像画面のパネル、入れ替えとかしてぐちゃぐちゃになってしまったら、「オプション」の「撮像」タブにいき、右下の「画面配置のリセット」でデフォルトの設定に戻すことができます。


シーケンス設定

次にNINA画面左のアイコン群の「シーケンス」を押します。撮影計画をここで設定します。最低限
  • トータル#
  • 時間
  • ゲイン
  • オフセット
  • デザリング
だけ設定すればいいでしょう。デザリングはデフォルトでオンになっているようですが(下の写真はオフになっています。この場合ボタンを押して「オン」と表示されるようにしてください。)、PHD2が動いていてサーバーモードになっていれば、これだけでデザリングもできてしまいます。

IMG_0097

ちなみに、ディザー量などは「オプション」「機材」の右下の「ガイダー設定」で設定します。

シーケンス画面の左上の「対象」のところの「ターゲット名称」のところに希望の天体名を打ち込むと候補が出てきます。例えば「M13」と入れると「Herucles Globular Cluster」と出てくるので、それをクリックします。すると何時頃が撮影どきかとかも知らせてくれます。これと関連して、NINA画面左のアイコン群の「スカイアトラス」でも同じようなことができます。

IMG_0098

これらの画面にある「ガイド開始」「対象の導入」「ターゲットをセンタリング」「シーケンスの対象として設定」「導入」などのボタンはまだ試していません。ここら辺を駆使すれば、時間がくれば自動的に導入して撮影を始めるとかができるのかと思います。ドームでの撮影などでは便利なのかも知れません。


いよいよ撮影開始

さて、最低限の撮影準備が整ったと思います。いよいよ本撮影です。

IMG_0094


左端アイコンの下から二番目「撮像」ページに戻り、右側真ん中の「シーケンス」パネルの三角の再生マーク「シーケンスを開始します」を押して下さい。撮影が開始され、順次右下の「画像履歴」パネルに撮影された画像が溜まっていくと思います。Windowsのエクスプローラで実際に保存先フォルダを見て、ファイルがきちんと保存されているか確かめて見ましょう。私は一番最初だけエラーメッセージが出て、ファイルが保存できないと言われました。これは撮影中に保存先を変更してしまったことなどが原因かと思われます。最初の一度きりで、それ以降はこのようなエラーはなく安定して撮影できました。

撮影時の注意事項ですがが、あえてシーケンスの「リセット」ボタンを押さないと、途中枚数からの撮影が続行されてしまいます。テスト撮影で止めてしまった時など、必要枚数に達しなくなる時があるので、本撮影を始める時は必ず「リセット」を忘れないようにします。左端アイコン「シーケンス」に行って、左下のアイコン群の左から三番目の矢印が回っているマークのアイコンを押すとまた0枚に戻ります。

とりあえずここまでで、最低限のディザーの撮影までできるかと思います。


使っての感想など

うーん、NINAかなりいいです。もちろんどのソフトがいいかは機能だけでなく、インターフェースとかの好みはあるでしょうし、安定性なども大きなファクターです。NINAはまだまだ開発がどんどん進んでいる段階で、しかも今回はベータ版にもかかわらず、一度も落ちることはありませんでした。実は立ち上げてから一度も終了することなく撮影までできてしまうくらい分かりやすいインターフェースでした。オープンソースでこれだけのものができるのは、開発者の方々にただただ感謝です。

ベータ版ですが、すでに日本語が選択できるところもありがたいです。日本語訳もおかしなところはほとんどありません。どなたか日本人の貢献者がいらっしゃるのかと思います。感謝いたします。


感想など、細かいところをいくつか。
  • オンオフボタンがわかりにくいです。オンとオフどちらを押してもスイッチが切り替わってしまいます。どうやらボタンのところに「オン」と出ていたら「現在はオンの状態」、「オフ」と出ていたら「現在はオフの状態」という意味のようです。
  • ライブスタックはSharpCapと比べると流石にまだまだですが、APTよりははるかにマシです。多少不安定なところもありましたが、最低限操作の通りには動いてくれます。
  • 結局撮影ごとのログは残せませんでした。全体のログは残せるがトラブル時以外はあまり有用ではなさそうです。
  • 撮影中もほとんどの設定を変更できるところがいい。
  • 非力なStickPCで試さなかったので、重いかどうかがわかりません。でもホームページには2GBで動くと書いてあるので、意外に軽いのかも知れません。

とりあえず今回はここまで。次回はもう少し応用編として、「プレーとソルブ」と「フレーミング」などについて解説します。実はもう試してはいて、プレートソルブは簡単だったのですが、フレーミングに少し手間取りました。お楽しみに。

少し前にリリースされた、ASILiveを試してみました。かなりいいです。

ZWO社がリリースしたASIカメラ用のASI Studioの中の3つのうちの一つで、主に電視観望などのためにライブスタックに特化したキャプチャソフトになります。 


ASI Studioのインストール

ASIStudioのダウンロードはこのページから。 2020年4月29現在、バージョンは1.01となっています。インストールしてASI Studioを立ち上げると、ASICap、ASIImg、ASILiveの3つのアプリがあるのがわかります。ASICapは惑星撮影用、ASIImgはディープスカイの撮影用、ASILiveが電視観望などのライブスタック用です。今回はASILiveを使います。


ASI Liveを使ってみよう

  1. さて3つあるアイコンの一番右を押して、早速ASILiveを立ち上げてみましょう。この時点で、ASIシリーズのカメラを接続していると、右上のところにカメラ名が出ているはずです。そのすぐ右横の三角の再生マークマークを押してみてください。早速カメラの画像が見えると思います。
  2. この時「Hist」のところがAutoになっていれば「オートストレッチ」がオンになっているので、暗い画面もかなり明るく見えていると思います。カメラに望遠鏡などをつけて星を写してみましょう。ピントもこの時に合わせてしまって下さい。
  3. さて、うまく星が見えたら早速ライブスタックをしてみましょう。 「Stack」のところにある再生ボタンが3つ重なっているようなアイコンを押して下さい。これだけです。あとは勝手に画像がスタックされてノイズがどんどん少なくなっていく様子が分かります。
  4. 調整するべきところは多くないです。「Gain」はLow、Middle、Highの3つだけ。最初はHighで始めた方がいいと思います。あ、Gainをいじることができないですか?そんな場合はライブスタックを一度止めて下さい。先ほどの「Stack」のところにある再生ボタンが3つ重なっているようなアイコンをもう一度押すと、ライブスタックが止まって、Gainが調整できるようになるはずです。
  5. 同じく「Exposure」もかえてみましょう。これもライブスタックを一旦止めて調整します。カメラの種類にもよりますが「1」秒から初めて「30」秒くらいまで写り方をみながら段階的に上げていって下さい。写りが十分ならそこまで長くする必要はないと思います。
  6. 設定を調整し終えたら、一度前回まで見えていたライブスタックの画面を消去した方がいいでしょう。「Stack」のところの、3つ目のアイコン、ホウキみたいなのを押して下さい。出てきたダイアログで「Yes」を押すと、前の残っていた画像がクリアされます。クリアした時にライブスタックがオンになっていないと、画面が出ないことがあります。そんな時はホウキボタンの右のライブスタックモードとライブスタックでないモードのとの切り替えボタンを押して下さい。単独の取り込み画面が出てくるはずです。
  7. 見栄えをよくするために「Image Processing」のところの「Brightness(明るさ)」「Contrast(コントラスト)」「Saturation(彩度)」をいじると画面がきれいになると思います。この調整はライブスタックを止める必要はなく、画面を見ながらいいところを探すことができます。
  8. 左上の矢印が2つ並んでいるところを押すと、フルスクリーンにもなります。この時、カーソルを画面の右に持っていくと、画面サイズを調整できるアイコンが現れます。3つ目のアイコンで画面いっぱいに広がるはずです。人に見せる時はフルスクリーンの方が迫力があります。こんなふうに簡単にフルスクリーン化できるのも特筆すべきことだと思います。

ちょっとやるだけで下の画面くらいのものが簡単に映るようになります。
IMG_9952

これはASI294MC Pro(冷却はしていない)に焦点距離105mmのカメラレンズをつけて、サイトロン社のアメリカンサイズのQBP(Quad BandPass)フィルターを中に入れています。ASILiveのゲインがHigh、露光時間が10秒です。他に触るところがないくらい簡単です。

右下にM8干潟星雲、左上にM17オメガ星雲が写っています。天の川の中心部ですね。10秒露光でスタック適当に何回かしたあとです。


同じ画角をSharpCapで出した時の画面です。

IMG_9946

ShaprCapとくらべてもASILiveの画像が全く遜色ないことが分かります。ASILiveに比べるといろんな調整を頑張って、やっとできた画面です。ASILiveの方がはるかに簡単です。

もう一例です。ASILiveの画面です。北アメリカ星雲とペリカン星雲です。

IMG_9954

比較のSharpCap画像です。同じ日ですが、少し早い時間に観た時のものです。

IMG_9940

SharpCapの場合、私は少し青に寄せがちです。夜空のイメージを少し出しています。でもホワイトバランスをとった方が本当は正解なので、ASIAirの方がより正しいと言えます。ここら辺の好みを反映できるかどうかはASILiveとSharpCapで方向性が違うところです。


ASILiveの特徴

少し技術的な話をします。ASILiveの凄いところは、電視観望のキーと言っていい技術
  1. ホワイトバランス
  2. オートストレッチ
  3. ライブスタック
  4. アラインメント
をデフォルトで全て、あまりユーザーに意識させずに使っているところです。これは結構すごいことです。

SharpCapではこれらを基本的に全てマニュアルで、ユーザーが意識しながらやる必要があります。ASILiveのほうがはるかに簡単で、SharpCapに慣れていないなら、ASILiveの方がおそらくきれいな画面を出すことができるでしょう。少なくとも初心者にはSharpCapよりも圧倒的にASILiveの方が楽でいいと思います。

以下、SharpCapとの比較です。
  • ASILiveではオートストレッチが標準なので楽です。ただし、SharpCapのヒストグラムの一番右の調整線に相当するのがありません。でもほとんど使うことがないので問題ないでしょう。
  • ASILiveではホワイトバランスを自動でとってくれます。自分で調整する必要がないのでかなり便利ですが、逆に微調整したいときは出来ないのもどかしい時があります。
  • アラインメント(星の位置を認識し、画面をずらして星を重ねていく機能)を実装したことはすごいです。これがあるのでライブスタックを名乗れるのだと思います。一方計算スピードはSharpCapの方が早く、一日の長があります。同じ時間をかけるなら、ASILiveは計算しきれない取り込んだ画像を捨てているようなので、短時間露光の他数枚スタックの場合はSharpCapの方がきれいな画面になるはずです。
  • ASILiveではゲインの調整、露光時間の調整はあまり細かくできません。簡単でいいのですが、これが少し不満になるかもしれません。SharpCapは相当細かく設定できます。
  • やはりSharpCapの方がはるかに高機能で、他にいろいろなことができます。もしASILiveに慣れて、調整項目や機能に不満が出るようならSharpCapに移るのがいいでしょう。
  • でも、コントラストやブライトネスはASILiveのみにある機能です。


まとめ

ASILive思ったよりはるかにいいです。ものすごくうまく機能を絞っていて、高機能なところはユーザーに意識させないようにかなり気を使っています。とりあえず電視観望を試してみたい方や電視観望初心者の方は、SharpCapよりもASILiveから始める方がはるかに敷居が低いと思います。

うーんソフトウェアの力はすごいですね。DeNoiseの時も思いましたが、初心者とベテランの技術の差が一気に縮まります。電視観望の普及にも一役買ってもらえるレベルの仕上がりです。


ここからはASIに対する要望みたいなものです。
  • RGBを個別に触れるならさらにいいのです。でもこれは逆に初心者には複雑になりすぎるので、今のスタイルで構わないでしょう。
  • できるなら別途、詳細モードとか作って、ホワイトバランスのマニュアル調整とか、できるならトーンカーブがリアルタイムでできると嬉しいです。
  • 特にRGB別のトーンカーブが実現すると、さらに電視観望での表現力が大幅に増し、LiveStackに関してはSharpCapを完全に越すことになるので、本気で欲しかったりするのですが、これは計算量も多そうなので難しいですかね。

いずれにせよ、電視観望で使えるソフトの選択肢が増えることはいいことです。ZWOさん、ありがとうございます。

This page is a supplemental document for the picture of Leo triplet here (sorry, it is written Japanese);




When I retouched the image of Triplet, I noticed something for a new strange noise using DeNoise.

That noise does not show up for the normal picture but it shows up when extreme expansion for dark area like dim nebula on astronomical pictures.

This is an example that the background was extended when DeNoise AI was NOT used.

light_BINNING_1_integration_DBE_ST_PCC_no_DeNoise

Then, this is the second example that the backgroung was extended WITH DeNoise AI.

light_BINNING_1_integration_DBE_ST_PCC_with_DeNoise

Difference is obvious. With DeNoise AI, some strange lattice type noise appeared. It was guessed that some neural calculations were applied at limited area, and the process was repeated next by next.

This kind of noise is very critical for out astronomical photographers. For example, similar AI application which devide stars and nebula using AI, called StarNet++;

https://sourceforge.net/projects/starnet/

does not add any such a strange noise. Probably it calculate all the area at a time. This program was developed by one of the astronomical photographer, so probably he/she was thinking to avoid such area depended noise from the beginning. 


This is a request to Topaz labs:

Probably we, astro photographers are struggling most with such a dark and noisy pictures since out targets are always very dim things. The important thing is that we already know that DeNoise is a very very useful tool to suppress many kinds of noises in astro photographs. Please consider the importance seriously for NOT adding such latice noise. It might be  just a dim background noise for almost of photographers, but it is really big issue for all astro photographers.


2020/4/24 追記: Topaz側と何度かやりとりをしたのですが、原因はGPUにあるそうです。DeNoiseのメニューのPrefefenceから「Advanced Preference」ボタンを押して、GPUのところをオフにするとこのノイズが消えるユーザーもいるとのことです。残念ながら私のところはこのGPUのスイッチ、またすぐ下にあるOpenVINOのスイッチも、手持ちのMac、boot camp、別のMac、別のWindows PCなど全て試しましたが、どれもこの格子状のノイズを消す事はできませんでした。一方、Sharpenの方は、それでもごくわずか同様のノイズを加えるようですが、確認するのも難しいくらい軽度のもので、画像処理に影響を与える範囲ではありませんでした。結局解決には至りませんでしたが、引き続きこの問題は認識していくとのことです。

その際のTopazからのメッセージを最後の結論の一部ですが残しておきます。

After sending files and setting informations,
.
.
.
From Topaz labs.
Go back to that window and change enable discrete GPU to NO. This may affect the speed of your processing but for many users it will resolve this issue.

The grids you are seeing is a result of the graphics card on your computer reassembling the image. We know "how" this happens, but we don't yet know "why" it happens for some users and not others for particular devices.

As a result, I don't have an immediate resolution, but I have forwarded your information on to our development team for further research and review.

Thanks!

To Topaz labs.
I tested on/off for GPU and on/off for Intel OpneVINO, on Mac, Bootcamp on Mac, on another Mac, on another Windows I have. Results were all the same the grid noise were NOT gone.

On the other hand, Sharpen AI did not add so terrible grid. It is not no grid but the grid noise by Sharpen is very dim and almost ignorable.

I can avoid this issue if I apply the DeNoise at very end of process, I mean after enough stretched.
However sometimes I wand to use the DeNoise in the middle of process, before the stretching.

Still I hope this issue will be fixed in the future for all users.
I will continue to find a good PC which does not add the grid noise.

Thanks. 




今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。(2020/4/16 追記: APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。また、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。)
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


今話題のTopaz DeNoise AIをいくつか試してみました。少しクセのあるソフトで、相性の良い画像はものすごいノイズの改善が見られますが、合わないものは逆にノイズを増やしたりするようです。大雑把に言うと、ノイズだらけのものはキャパシティーを超えるようでノイズが残りますが、そこそこ気合を入れて処理をして、最後に残ったノイズを取るといったケースが得意なようです。

今回挙げるのはその中でも比較的成功した方のものです。この中には最初失敗して、その後うまくいったのも含まれてます。


オリオン大星雲

先日のAZ-GTiの経緯台モードで撮影した、初心者の撮影レベルを考えたくらいの画像に適用してみました。

まずは先の記事で出した、PixInsightとPhotoshop CCの通常の画像処理。

integration2_cut

次にTopaz DeNoise AIを適用したもの。

integration2_cut-denoise_DN

ザラザラ感はなくなるのに、ディテールがほとんど失われていません。むしろシャープさが増しているような感じです。DeNoiseすごいです。引き出せていない引き出しを開け切るような感覚です。

もう一つ、同じ元画像からの再処理です。ちょっと飛んでしまっているところもありますが、後でノイズが消せることを前提に、無理して最初から炙り出して、後からノイズを消した例です。

integration_cut2

結構見えにくいレベルの分子雲も出てしまっています。DeNoiseがあることを考慮した画像処理で進めると、まだまだ引き出す余地はあった言うことですかね。


6Dで初めて撮った星雲: 馬頭星雲と燃える木

調子に乗って、過去画像にも適用してみました。昔星マスクのテストで処理したEOS 6Dでほぼ初めて撮影した馬頭星雲です。まず下のが、当時処理した画像です。今見るとたくさんアラがありますが、その時は十分満足していました。

HORSE_7c_20171128-00h09m_x34_kb_masked_PS_photo_ps

スタートは、上の絵になる前の加工途中の元ファイルで、ステライメージでスタックして、デジタル現像でストレッチくらいまで処理し終えたところの画像です。以前はここからPhotoshopで星マスクを作りそのままPhotoshopで画像処理しました。

今回は強力な星マスクとしてStarNet++、ノイズ軽減にTopaz DeNoiseと、ツールが進化しています。あと、まあ、画像処理の腕もそれなりに進展はしているでしょう。と信じて、どんどん進めます。

そもそも、DeNoiseで後からある程度ノイズが軽減できるからと思い、処理途中に多少ノイジーになったとしてもあまり気にせず、むしろ分子雲とかを出す方向で進めます。今思うとカブリが残っている画像(かなりあぶり出せたのでやっと気づくことができた、当時は多分気づきもしなかったと思われます)なので、PixInsightのDBEを掛ければさらに良くなる気もしますが、とりあえず気にせずにそのままで進めます。

途中一旦処理を停止しました。ノイズが大きいためにDeNoiseでも処理しきれなかったのです。ポツポツになってしまいます。そこで、PhotoshopのDfineで一旦ノイズを軽減してみました。するとDeNoiseでもうまく処理できるようになりました。シャープさも十分に復元して、特に燃える木のところなんかは以前処理したものより解像度ははるかに増しています。既存のノイズ除去ツールとの併用もうまく使えばより効果的に処理することができそうです。

と、できた画像がこちら。

HORSE_LIGHT_6D_180s_3200_+7cc_20171128-00h09m41s_x34_SNP_star_ok

うーん、2年くらいたって多少はいろんな技術が上がっているとはいえ、あまりに違いすぎます。本当に同じ素材かと思いたくなるくらいです。ちょっとやりすぎの感もありますが、テストなのでまあよしとします。

これでも2年前はマスク処理が初めてうまくいったと、そこそこ満足していたんですよ。特にStarNet++との組み合わせは相当いいです。恒星をなくした画像を見ると、恒星を抜いたところの跡がいつも結構汚いのですが、それもある程度緩和してくれます。まだまだ元の画像には処理し損ねている余地が残っていたんだということを思い知らされました。


昨年末撮った魔女の横顔

馬頭星雲は2年前のものだったので、流石に技術に差がありすぎました。では、つい最近、年末に撮影し画像処理した魔女の横顔はどうでしょうか?まずは当時の元画像です。

integration_DBE_DBE1_PCC_AS_SNP_mask_all2a_cut

自宅からノーフィルターで撮影したもので、思ったより出るものだと自分なり満足していました。でもスターリンクでしょうか、たくさんの衛星痕と、バンディングノイズに悩まされて背景を少し暗く抑えています。これをDeNoiseで処理することを前提に前に戻って画像処理します。

スタートはPixInsightで処理しStarNet++で星雲部分と恒星部分に分けたところから始めます。DeNoiseはバンディングノイズもかなり軽減してくれます。それでもこの時のノイズは、特に衛星痕が酷かったらしく、完全に除去することはできませんでした。結果はというと、バンディングノイズが軽減できた分だけ背景もよりあぶり出せた感じです。

integration_DBE_DBE1_PCC_AS_SNP_DN-denoise_cut

でもよく見ると、魔女の部分のディテールは失われてしまっています。これはDeNoiseのせいというよりも、かけている時間が10分の1くらいで、ディテールを出す手間を惜しんでしまったからだと思います(というか、どうやって出したかすっかり忘れてしまった...。よく出してたなと思います。)。

それでも背景の分子雲に関しては、十分な成果は出るようです。ノイズが目立ってあえて押さえていたところを、やっと解放できるような感覚がいいです。当然ですが、一つ上の馬頭の改善と比べると2年間分の技術が上がっている分、絞り出せる余地もある程度少なくなっています。馬頭のときほどは差が出ません。

これらのことから、DeNoiseをうまく使ってノイズ除去された仕上がり画像だけ見ると、画像処理の上手い人と下手な人の差が分かりにくくなるということを示唆しています。うまい人は油断できなくなり、初心者は逆にチャンスとなりますね。


先日の太陽のプロミネンスにSharpn AIを適用

さらに、先日3nmのHαフィルターでコントラストが上がった画像

15_45_23_lapl4_ap1555_IP2_color_cut

を、DeNoise AIではなく、今度はTopaz製の別のソフト「Sharpen AI」で再処理してみました。注目したのはプロミネンスとスピキュールのみで、光彩面は無視します。さらに差がわかりやすいようにモノクロにしています。上のカラー画像でも十分に出ていると思っていましたが、処理すると遥かに鮮明になります。

15_45_23_lapl4_ap1555_IP2_SAI_cut

もうスピキュールがトキトキ(すみません、名古屋弁です)ですね。Sharpenも十分なパフォーマンスを示してくれます。ここまで情報が入っていたのかと思えるくらいです。ただしここまで出てくると、擬線もいくつか出ているのではと思います。今回はテストなので見栄えだけ気にしていますので、ご了承ください。

Sharpen AIの方は「Sharpen」「Stabilize」「Focus」の3つのモードがあって、だんだん強くなるようですが、カラー画像で試すと偽色が出ることがあって、取り合えず「Sharpen」のみが使えています。ノイズキャンセルもDeNoiseの方が強力なようです。どうもお互いに、名前を冠していない機能は制限されたようなものを搭載しているような感触です。処理過程でいうと、DeNoiseの方にもシャープ機能はついているし、Sharpenにもノイズキャンセル機能はついています。確かに少しだけ違うかもしれませんが、根本的にはあまり大きな差はないように思えます。


まとめ

一言で言うと、やはりDeNoise AIもSharpen AIもすごい。最後に処理するだけでもいいのですが、あらかじめ後でノイズが消せること前提で画像処理を進めると、途中でかなり思い切った炙り出しができます。StarNet++やDfineなどと組み合わせて使うのも、さらに効果的になるのかと思います。

その一方やりすぎると、ここは違うだろうと言う模様が出てくることもあります。例えばHIROPONさんが以前指摘していたように、縞状のノイズはさらに縞を拡大する場合があります。今回の画像にもそういったものが少し残って(例としてあえて残して)います。例えば馬頭星雲の馬の右側の縞とかです。

こう言った簡易なツールが出てくるのは個人的には歓迎です。特に初心者にとってはノイズの処理は相当敷居が高いはずです。このツールは有料になりますが、かなり初心者の画像処理の負担を軽減してくれると思います。

また、天文マニアにとっても、やはりノイズには常に悩まされるので、このようにディテールを壊さずにノイズを軽減してくれるツールはとても助けになります。これまでもいろいろノイズ除去に関するツールは使ってきましたが、いまのところこのTopazのDenoiseは最強に近いと思います。

ただ、月や、惑星など、正確さを求めて丁寧にやっている方たちには、こう言った処理ツールは心配のタネというのも理解ができます。偽の情報が出てくる可能性は否めません。

私のようなとりあえず綺麗に見えればいいというレベルでは、腕の無さを補完してくれるありがたいツールです。使うべきところと使わない方がいいところを、うまく分けていけばいいのではないかと思います。

これまでの天体画像も様々な画像処理テクニックの恩恵を受けています。これからもっとすごい技術が出てくるかもしれません。新しい技術だからと頑なにならずに、柔軟に受け入れていけばいいのかと思います。


あぷらなーとさんはじめ何人かの方がMatlabを購入し画像処理に活用し始めましたようです。



私もMatlabは学生の頃から使っていて、今調べてみたら一番古いファイルは1998年でした。なので20年以上使っていることになりますが、 これまで画像処理に使ったことはありませんでした。

あぷらなーとさんが指摘しているように、確かにMatlabは行列を容易に扱えるので、2次元が基本の画像処理は向いているはずです。最近過去のコードをpython化したりしてるのですが、pythonは2次元だと必ず繰り返し処理が入るので、コードが冗長になりがちです。私も少し試してみたのですが、どうやら画像処理に関してはMatlabの方がコードがかなりシンプルになり見通しが良くなるので、有利というのは正しそうです。とうわけで、遅ればせながら私もMatlab画像処理に参画します。

Matlabを使ってまず手始めに試したのが、昨年3月依頼謎が解けなくて止まってしまっているASI294MC Proのノイズ解析の続きです。

 


最初にごめんなさいと謝っておきます。今回の記事はかなり細かくてめんどくさい話で、ほとんどの人には役に立たないです。しかもうまくいかなかったという結果なので、ほんとに興味のある方だけ読んでみてください。

Matlabで画像処理を始めてみたいという人がいたら、もしかしたらコードが参考になるかもしれません。


以前のおさらい 

ざっとおさらいしてみます。ZWO社のASIシリーズは性能を示すデータを公開してくれています。例えば広いセンサー面積を利用した電視観望や、撮影にも十分に使うことができるASI294MC Proのページを見ていくと、下の方にいくつかグラフが出てきます。このグラフ、一見分かりそうで分かりにくいところもあるので、以前その読み方を解説しました。



上のページでも解説している通り、SharpCapを使うとZWOのページにあるようなデータを測定することができます。冷却バージョンのProも



で実際に測定した記事を書いています。特にGain[e/ADU]の値はコンバージョンファクターとも呼ばれて、設定gainが0の時のコンバージョンファクターはユニティーゲインなどにも直結するような非常に重要な値になります。少しコツは必要ですが、SharpCapのスクリプトでCMOSカメラの特性を実測すると、ZWOにあるような値に非常に近いものを測定することができます。2つのツールで同様のデータが取れているということはかなり信頼が置けるはずです。さらにもう一歩進めて、このようなツールでのスクリプトでなく、実際に自分でノイズを撮影して解析してみようと試したのが、昨年3月までの一連の記事になります。

ところが、実際に撮影して解析してみるとどうしてもZWOのデータやSharpCapでの解析結果と合いません。

SharpCapで撮影した時の撮影条件は限りなく再現させたと思っています。具体的には撮影対象の明るさ、カメラのゲイン、露光時間です。明るさは同等のものが撮れているので、撮影に関しては問題ないと思います。問題はノイズです。明るさとノイズの関係からコンバージョンファクターを求めるのですが、撮影された画像の明るさのばらつきが、想定していたものよりかなり大きいと出てしまいます。

具体的には標準偏差を用いるとノイズが大きすぎると出てしまい、苦肉の策で(ノイズが小さいとでる)平均偏差を使うと、大体ZWOとSharpCapの測定と一致するという結果でした。

ヒントになるかと思いモノクロのASI290MMで測定したら、標準偏差で計算してもZWOやSharpCapと一致した結果を得ることができました。ということはやはりカラーの場合も平均偏差などを使わずに標準偏差を用いるのが正しいのではと推測することができます。

そんな折、あぷらなーとさんがRGGBを一素子づつ解析したCFA(Color Filtr Array)で評価した場合と、RGBにdebayerした場合では、debayerの方が標準偏差で考えて0.75倍とか0.79倍程度に小さくなることを示してくれました。



それでもdebayerで計算してもまだZWOやSharpCapでのノイズの少なさには辿りつきません。

いろいろやっていて結局行き着いたところはこの画面で、

IMG_6436

小さいと思われるRGBの標準偏差よりも、Lの標準偏差の方がなぜかさらに小さいことがSharpCapの一枚の撮影で出てしまっていることです。いまだにSharpCapが内部でどうやって計算しているのかよくわかりません。このLの標準偏差を仮定するとノイズはかなりZWOもしくはSharpCapのスクリプトで測定した結果に一致します。言い換えると、これくらい小さい標準偏差くらいのばらつきになっていないと結果は一致しないということです。


Matlabでの画像処理の実際

やっと前振りが終わりましたが、今回Matlabで以前のpythonコードを書き直すかたらわら、どうしたら一致した結果を出せるか、なぜSharpCapのLがノイズが小さく出ているかを念頭に置きながらいろいろ試してみました。

Matlabを初めて使う人が一番面食らうのは、配列の表記法かと思います。これが独特なのですが、この独特な表記によりコードがシンプルになるので避けるわけにもいきません。私が書くよりももっといい説明がたくさんあるかと思いますが、今回の画像処理に必要な最低限だけ書いておきます。

まず2次元の配列、Matlabだと行列といっていますが、例えば2行x3列の配列Aを

>> A=[1 2 3;4 5 6;]

A =
     1     2     3
     4     5     6

と作ります。例えば第2行,第1列成分を見たい場合には

>>A(2,1)

と打つだけです。答えは

ans = 4

と出ます。これは至って普通です。独特なのは:(コロン)の使い方で、例えばAの1行目すべてを見たい場合は

>>A(1,:)

と打ちます。答えは 1 2 3となります。:はどこからどこまでを意味し、

>>A(1,1:2)

だと

ans =     1     2

となります。:(コロン)だけだとその次元の最初から最後まで全部という意味です。これがMatlabで絶対理解しておかなければならない表記法の一つです。

今回は画像を扱うのに4次元の配列を使っています。1、2次にy座標とx座標。左上からyは向かって下に、xは右に移動していきます。3次目はRGBやCFAのインデックス。RGBなら3つ、CFAなら4つとっています。 4次目は何枚目の画像かを表しています。今回8枚の画像を使っていますが、その何枚目かを表します。あと成分を表す数字は1から始まることにも注意です。0からではありません。 

例えば、AにRGBで別れた画像が8枚入っているとすると、5枚目のG画像を表す時は

A(:, :, 2, 5)

と表します。:が2つあるのはy、x座標それぞれ全部を表しています。"2"はRGBの2番目と言う意味です。Bなら3ですね。"5"は5枚目と言うことです。

例えばサンプルコードの最初の方にある

 Raw(:, :, i) = fitsread(ファイル名);

はi番目の画像にfitsファイルを読み込んで、1次目にy座標のデータ、2次目にx座標のデータを全部入れていきなさいと言うのをわずか1行で表記したものです。

これらの表式は慣れるしかないのですが、ここらへんを感覚的に理解できるとコードもすらすら読めて、シンプルなコードを書くことができるようになるのかと思います。


モノクロセンサーASI290MMの場合

とりあえずMatlabでやってみた画像処理を説明していきます。まずはモノクロのASI290MMの結果です。

ASI290MM
このグラフを出したMatlabのソースコードをアップロードしておきます。使用した画像も(サイズを切り詰めるために中心部のみ切り取ったものですが)一緒に入れておきましたので、すぐに走らせることができると思います。もしMatlabを持っていて興味があったら走らせてみてください。

ASI290MM.zip 


結果は前述したとおり、平均偏差ではなく一般的な標準偏差を使っています。メーカー値はコンバージョンファクターが3.6程度、ユニティーゲインが110程度ですので、グラフ内の数値と比較してみるとそこそこ一致していることがわかります。なので、カラーでも標準偏差を用いる方向を探りたいと思います。

また、以前pythonで書いたコードと比較して同等の結果を出すことできています。

Conversion_Factor_ASI290MM_std

Maltabでもこれまでと同様のことができることがわかり、かつ遥かにシンプルに書けることがわかりました。


カラー版ASI294MC Proの場合: CFAで解析 

さて、Matlabでの画像処理にも慣れたところで問題のカラーのASI294MC Proの解析です。

結論から言うと、結局今回も謎は解けずじまいでした。

まずはシンプルなCFAの方から。RAW画像からCFAへ分離するところはビルトインの関数とかはないようなので自分で書いてみました。以前は平均偏差(mad)で無理やり答えを合わせましたが、今回ASI290MMの結果なども含めていろいろ考えた末に、結局諦めて標準偏差(std)を使うことにしました。

ASI294MCPro_CFA

各測定点はそのまま解析した結果を表示していますが、フィッティングは無理やり合うように補正してます。考え方としては、謎な部分をunknown factorとしてフィッティングするところで無理やり補正するというやりかたです。今回のCFAの場合、unknown factorはノイズ(標準偏差の2乗)を2分の1とすることでZWO、SharpCapの結果と一致することがわかりました。

ちなみにメーカー値はコンバージョンファクターが3.9程度、ユニティーゲインが117程度です。繰り返しますが、CFAで測定されたノイズを無理やり半分にすることでメーカー値に近くなります。

先に説明したように、SharpCapでLのノイズが小さく出ている理由がわからなかったので、もうこのように無理やり合わせてしまうしかなかったという苦肉の策です。これはあぷらなーとさんが示してくれた、CFAとRGBで標準偏差で0.75倍違うというのを考慮してもまだ少し足りません。

まあ、このやり方に言いたいことはたくさんあるかと思いますが、とりあえず先に進むことにします。


カラー版ASI294MC Proの場合: RGBで解析

次はRGBでの解析です。

最初はMatabビルトインのdemozaicという関数を使ったのですが、これだと中で何か変に処理しているのかノイズが話にならないくらい大きくなりすぎました。仕方ないので自分でRGBに落とすコードを書いています。そこそこまともそうな値は出たのですが、ただしこのコードまだ未完成です。なぜかというと、センサーアレイはRGGBなのでG(グリーン)が二つあるのですが、その応答が少し違うことに起因します。Gを2つ使って求めると強度の山が2つでできてしまい、ばらつきが大きくなりすぎるからです。そのため今回は2つあるG素子のうち1つだけを使うことにしました。

ASI294MCPro_RGB

RGBになりあぷらなーとさんが示してくれた通り、CFAの時よりもばらつきは少なくなることがわかりました。それでもまだノイズが大きすぎるのでCFAの時と同様にunknown factorとしてフィッティングするところに無理やり入れました。RGBの場合、unknown factorはノイズ(標準偏差の2乗)をルート2で割ってやることでZWO、SharpCapの結果とかなり一致することがわかりました。


考察

ASI294MC Proで使ったファイルもアップロードしておきます。よかったら参考にしてください。

ASI294MCPro.zip 

今回はまだ苦肉の策で、無理やり答えを合わせるように測定結果を割っているだけなので、考察と呼べるようなものにはなりません。CFAの場合出てきたノイズを半分に、RGBの場合ルート2でわってやるとSharpCapやZWOの結果とかなり近い結果になりましたが、その理由は全然わかっていません。

前回のpythonコードを使った時はCFAやRGBの変換はPixInsightを使いました。でも今回はRAWファイルから直接計算してCFAもRGBも取り出しています。ここら辺はMatlabに移ったことでやりやすくなったところだと思います。このように今回はかなり噛み砕いてブラックボックスがないように進めてきたつもりです。撮影した画像はSharpCapのスクリプトで撮影したものと同等と仮定していいかと思います。これでも結果が一致しないということは、
  • ZWOもSharpCapも何か特殊なことをやっているか
  • もしくはまだ私が馬鹿なミスを犯しているか
です。とにかく怪しいのがZWOのLのノイズが小さく出過ぎていること。この謎が解けない限り進展がない気がします。


まとめ

週末を結構な時間費やしましたが、コンバージョンファクターに関しては結局昨年から進展がなかったので疲れてしまいました。それでも得られた成果としては、
  • Matlabでの画像解析の手法に慣れることができた。
  • あぷらなーとさんが出してくれた、debayerの方がCFAよりもノイズが0.8倍程度と小さくなることを確かめることができた。
ことくらいでしょうか。でも全然だめですね。これ以上は時間の無駄になりそうなので、一旦ここで打ち切ることにします。

それでもMatlabが使いやすいことは分かったので、今後の画像解析はMatlabで進められそうな目処はついたと思います。

元々この解析はダークノイズ解析につなげたいとか、EOS 6Dのユニティーゲインを測定したいとかで始めたのですが、なかなか進みません。いつ実現できるのかまだまだ未定ですが、諦めることはしたくないのでまたいつか再開する予定です。

つい最近(2019/3/24)、Stellariumが0.19.0にバージョンアップされました。最近Stellariumがかなりすごいです。


星雲星団の実画像表示

星雲星団の実画像の充実に気づいたのは何ヶ月か前、バージョン0.18.2から0.18.3にアップデートされた時(アップデート自身は2018/12/22)です。ちょうどプラネタリウムソフトで星雲や星団がきちんと写真レベルで表示されないかなと思って色々試している時でした。撮影時の実際の星雲の広がり具合とかをあらかじめ比べたかったからです。あれ、0.18.3になってなんか綺麗な画像が増えたなと思って当時ちょっと調べてみました。Mac版の場合、アプリケーションフォルダの中のStellariumのファイルを右クリックして、「パッケージの内容を表示」で、Contents->Resources->nelulae->defaultの中を見ると、実際の星雲星団の画像がたくさん入っているのがわかります。

IMG_6850

上の写真の一番下のファイル数で比べると、0.18.2->0.18.3で248ファイルから439ファイルと倍増近くになっています。0.18.3->0.19.0は439->473と数はそれほど増えたわけではないですが、細かく見ると画像のクオリティが上がってたりするのがわかります。

IMG_6851
左が0.18.3付属のIC1805、右が0.19.0のもの。
サイズは1MB->509kBと小さくなっているのに、
クオリティは明らかに上がっている。

例えばオリオン座のM42です。Stelalrium上でかなりの画質で表示させることができます。

IMG_6842

これを見るとトラベジウムあたりは飛んでいってしまていますが、拡大すると徐々に画像を消すなどしてうまくトラベジウムが見えるようにしているようです。

IMG_6844

それでも星雲の画像を表示させたくないときもあると思います。そんな時は、右の端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで「星雲の背景ボタンを表示」にチェックをしておいて、カーソルを画面下に持っていって出てくる「深宇宙の背景画像」をオフにしてやれば下の画面のように画像を消すことができます。

IMG_6852

まだ一部もやっとした光も残っていますが、これは天の川の一部として低解像度で表示されているものです。これも右端で出てくる「空と表示の設定」から「空」タブで「Milky Way brightness/saturation」をオフにすると完全に消すことができます。


自分の持っている機材で視野角を確認

さて、前項のこういった星雲や星団の実画像があると何が便利なのか?それは撮影時の実際の視野角と簡単に比較することができるからです。

ご存知の方も多いと思いますがStellariumでは自分で持っている機材を登録して、視野を直接画面の中に表示することができます。右上の左から二番目の四角の枠だけのアイコンを押すと、画面の中に赤い枠が出てくると思います。これが現在設定されている視野です。これを自分の持っている機材に変更します。同じく右上の一番右のアイコンを押します。タブに「望遠鏡」、「補正レンズ」、「CCD」、「アイピース」がありますが、それぞれ設定します。「望遠鏡」は鏡筒、「補正レンズ」はバローレンズやレデューサなど、「CCD」はCCDカメラやCMOSカメラ、一眼レフカメラでももちろん構いません。赤道儀の機能は「望遠鏡」のところの「赤道儀」をクリックします。実際の視野の回転は「CCD」のところの「回転角(度)」で調整します。ここは大抵0度か90度ですね。

いくつか鏡筒やカメラを登録すると、右上の左から二番目の四角アイコンを押した時に、登録した機材を画面を見ながら変更することができます。この時、星雲の実際の画面があると、どれくらいの視野で、どのような機材で撮影すればいいのかが一発でわかるのです。


他波長での背景表示

もう一つ面白い機能を紹介します。多波長で空を見た場合、その画像をStellariumの背景として表示させることができます。これはバージョン0.18.0から搭載された機能で、まだテストレベルのようです。

画面右端で出てくる「空と表示の設定」から「Surveys」タブで「Deep Sky」を選び、ズラーっと出てくるリストが衛星や観測装置など研究レベルで撮影されたデータになります。たくさんあるのですが、アマチュア天文で撮影に使用する場合はほとんどがあまり関係なく、この中でお勧めできるのは「DSS colored(2つあるうちの下の方の)」と「DSS2 Red(F+R)」です。

IMG_6846
DSS colored

IMG_6848
DSS2 Red(F+R)

上のように分子雲モクモクの背景を表示させることができます。写真ではカラーの方が見栄えが良くなってしまっていますが、実際のPCの画面ではモノクロの方が見やすいかと思います。特に構図を決める時はかなり狭角で見ることになるので、モノクロの方がより分子雲の度合いがわかります。一方、広角で見る場合はモノクロの場合はつぎはぎになってしまうのでカラーの方がお勧めです。

この画面を表示させるためにはもう一つやることがあります。このやり方が最初どうしてもわからなくてしばらくの間ずっと画像を表示できなくてやきもきしていたのですが、色々調べてやっとわかりました。画面右端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで「Show HiPS button」をオンにして、画面下に出てきた「Toggle Hierarchical Progressive Surveys (experimental)」をオンにすると、やっと上のような画像が出てきます。でもこの機能はとても重いのと、多分データをその都度ダウンロードしているようなので、ある程度早いCPUパワーとネットワークが必要になるかと思います。

IMG_6845

他に面白いのは、「IRAS IRIS HEALPix survey, color」でしょうか。天の川全体を表示させるような場合は、IRAS IRIS HEALPix survey, color上のDSS coloredのように、カラー化されたものの方が見やすそうです。

IMG_6849
IRAS IRIS HEALPix survey, color

Surveysの方のリストはたくさんありすぎて私も全部は見ていません。いくつかのデータは表示してもほとんど何も変化がなかったりもするので、もしかしたら多少加工しなければ見えないようなデータもそのまま表示してしまっているのかもしれません。もしリストの中で他にも撮影の役に立ちそうなものがあったら、コメントなどで情報共有してもらえるとありがたいです。

あと全く別の同様の機能に、「デジタル・スカイ・サーベイ(DSS)ボタン」があります。こちらも画面右端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで設定できます。画面下に出てきた「デジタル・スカイ・サーベイ(TOAST)」ボタンを押すと、分子雲なども多少見ることができる背景が表示されますが、「Survey」で表示されるものの方が見やすいかと思うので、あまりこの機能はお勧めしません。

いずれにせよ、上の両機能ともものすごく重いので、お勧めの表示のさせ方を書いておきます。
  • まずプラネタリウム表示の時間経過を止める。画面下の三角ボタンを押すと止まります。
  • 画面を移動する時には、両機能ともオフに。
というくらい気を使うことになると思います。

また、最近のステライメージも最新版では多波長に対応しているとのこと。おそらく、画像を多少加工してあるのでしょうか、ステライメージの方が見やすくなっているようなので、こちらもお勧めです。

分子雲モクモク画面を見ていると、かなり構図決定の参考になるかと思います。これからもこういったものを撮影に活用していければと思います。

 

前回の記事で、シュミカセの補正板の導出がわからないというところまで書きました。

結局のところ、日本語で詳しく解説してあるところはほとんど見当たらなかったので、海外のページを検索し始めました。するとすぐに相当数の解説を見つけることができました。中でもtelescope-optics.netというところの解説が詳しくてわかりやすかったです。

リンク先のページは、まずはシュミットカメラについての解説です。ここの最後の方に載っているExampleで計算結果が正しいかどうか確かめながら、まずは200mm, f/2のシュミットカメラの各係数 "A1, A2" などをExcelなどを計算していきます。Exampleに示されている値と同じ値が出れば計算過程は正しいでしょう。その後、500mm, f/2.5の値を自分で計算します。すると4次のオーダーの係数が-4.79E-10程度、6次のオーダーの係数が-7.26E-16程度になるはずです。

IMG_5882


このパラメータは、LensCalにサンプルとして入っているシュミットカメラ(シュミットカセグレンでは無いことに注意)

Sm20f2.ldt

というファイルのパラメータと同じです。ファイルの解説には(アイコンの「Memo」を押すと出てきます)シュミットカメラ 20cm F2.5と書かれているのですが、ファイル名だけだと間違えてしまいます。ファイルを開いて焦点距離を見てみると501.895mmと出るので、焦点距離500mm, 口径200mm, F2.5で間違い無いでしょう。このNo.2(2行目)のAirの側の係数を見ると、-4.769E-10と7.12E-16程度なので、自分で計算した値とほぼ一致します。

迷ったのは長さの単位でしょうか。基本的にミリメートル [mm] をどこも使っているようです。メートルとミリメートルで3桁違うので、2次とか4次とかだと、6桁とか12桁変わってくる可能性があるので検証がちょっと面倒でしたが、解説記事もLensCalもミリメートルで大丈夫と言うことがわかりました。

あと一つ疑問があります。LensCalで出ている補正板の出射側のAirの曲率の求め方です。単純に途中の計算で求めた曲率半径かなと思ったのですが、自分の計算では約-103m、LensCalでは約-68mと、1.5倍くらい違います。

まだ疑問が残るところはありますが、ある程度シュミットカメラまでの補正板の係数を求める過程を追うことができました。次の収差の解説ページにある球面収差の図もほぼLensCalで再現できているのも素晴らしいです。

IMG_5879


さらにtelescope-optics.netにはシュミカセの解説記事がまだまだ続いています。もう少し計算を続けてみます。
 

突然レンズ設計に目覚めてしまいました。ここ最近のマイブームで、四六時中ずっとレンズ設計のことを考えています。そもそもの動機が、シュミカセでコマ収差が盛大に出ていたのを、コマコレクターである程度軽減できることがわかったのですが、じゃあそもそもコマコレクター ってなんですか?というところから来ています。

IMG_5869

上の写真は手持ちのコマコレクター、バーダープラネタリウムのMPCC MarkIIIです。結構歪んで見えるので非球面レンズなのでしょうか?でも値段からいったら単純なレンズの組み合わせな気がします。説明書にはF4からF6まで対応すると書いてあるのですが、実際にコマ補正したい鏡筒はMEADEのLX-200の口径25cm、焦点距離1600mm、F6.3のものなので、少しだけ範囲から外れてしまいます。以前一度試しにつけてみたのですが、そこそこ効果があることはわかっています。

でもこのコマコレクターでこと足りるのか?最適な位置やバックフォーカスはどこなのか?もっといいコマコレクター はできないのか?と疑問は尽きず、気づいたらじゃあそもそもシュミカセってどんなものなの?という疑問に行き着きました。これを確かめるにはある程度シュミカセの設計自体を理解しなくてはダメです。


と言うわけで、前置きが長くなりましたがレンズ設計の挑戦の始まりです。どこまで続くことやら。

レンズ設計に関しては先人の理論、設計、ソフトウェアや検証など、多くの蓄積があります。まずはシュミカセに行く前に、レンズ設計ソフトを触ってみることにしました。あぷらなーとさんHIROPONさんがブログの中で試していらっしゃるので、それを捕捉する形で書いて行きたいと思います。ソフトはその中でオススメの「LensCal」です。製作者は京都の「星を求めて」でお会いすることができたラッキーイメージを得意とするYamashitaさんとのことです。Yamashitaさん、こんな素晴らしいソフトをフリーで提供していただいて、ありがとうございます。

とすぐにでもソフトに手を出したいのですが、ここではあぷらなーとさんが試したように、基準となる拠り所が欲しくて、まずはハルチング(今はハーティングと言うべきなのでしょうか)の公式に手を出してみました。


ハルチングの解とは、フランフォーフェル型と言う凸レンズと凹レンズの組み合わせにおいて、C線(656.27nmのHα)の焦点とF線(486.13nmのHβ)の焦点を一致させ、d線(587.56nmの黄)に対して球面収差とコマが最小になるような設計とのことです。2枚の設計したいレンズの上の3つの波長での屈折率を与えてやって、16個の連立方程式を解くと目的のレンズの曲率半径が求められるものです。

ネットを漁るとこのページにたどり着いて、ここから辿っていくとエクセルの表を手に入れることができます。ただ、これだけだと何をやっているかわからないので、式が書いてある掲示板を参照してみてください。私は吉田正太郎著「天文アマチュアのための望遠鏡光学〈屈折編〉」という本で式と概念をフォローしましたが、他の書籍でも同様の記述は見つかると思います。本の方では多少詳しい説明がありますが、連立方程式の導出から書いてあるわけではないので、結局は天下り的にこの連立方程式を解くだけです。リンク先で手に入るエクセルの表のパラメータも解も、上記書籍のパラメータ及び解と全く同じだったので、少なくとも表に特に変な間違がないことがわかるので安心できます。


この時のパラメータが最初のレンズをBK7、2枚目をF2で作るとして

BK7:
nC = 1.51385
nd = 1.516330
nF = 1.521900

F2:
nC = 1.615020
nd = 1.620041
nF = 1.632120

となっていて、最初のレンズの厚さが0.65mm、レンズ間距離が0.02mm、2枚目のレンズの厚さが0.45mmとするとします。

その時のハルチング公式からのそれぞれの曲率半径の解が

r1 = +60.572mm
r2 = -35.620mm
r3 = -36.041mm
r4 = -147.961mm

となるのは、上記書籍も、表計算の値も同じです。


さて、ハルチング解がある程度理解できたところで、やっとLensCalに移ります。ダウンロードインストールなどはマニュアルの通りです。Example of glass dataは必須ですし、Data.zipも落としておいた方がいいでしょう。ヘルプファイルは絶対あったほうがいいです。

一つ注意点は、ものすごく重要なヘルプファイルがWindow10だと中身を見ることができません。ヘルプファイル自身はダウンロードしてファイルをダブルクリックするだけでいいのですが、LensCalの掲示板にあるように

1.LensCal.chmを右クリックしてプロパティを開き、
2.いちばん下の「ブロックの解除」のボタン又はチェックボックスに印を入れてOKを押す
と読めるようになるようです。

とあるので、これに従うと無事にWindow10でもヘルプファイルの中身がきちんと見えるようになります。

基本的にはこのヘルプファイルの「簡単な使い方」のその1からその3までを丁寧に試していけばあるていどのことは学べてしまいます。ここで注意することは、ヘルプファイルの説明が少し添付データと違っていることです。2枚目のレンズのF2が「Sumita」から選ぶように書いてあるのですが、実際には「Schott」の方に入っています。しかもSchottのデーターも、Example of glass dataでダウンロードしたGlassData.zipを解凍して、出てきたファイルをLensCal.exeと同じフォルダに入れておかなければ、ガラスデータとして選択することができません(マニュアルにこのことは書かれています)。私が迷ったのは上記2点くらいで、他は全て問題なく、非常にわかりやすく扱いやすいソフトでした。

ヘルプに沿っていけば、「ベンディング」というらしいのですが、ある2つのパラメータを自由にして、収差を最小にするようなチューニングのようなこともできてしまいます。最適解を数値計算的に求めることもできるようです。ただ、最適解の場合は条件出しに少し癖があるようで、例えば波長の効き具合とかに、あまり効かせたくないと思って0を入れたりするとエラーが表示されて、立ち上げ直すまで2度と計算できなくなってしまったりします。そんなときは0.01とか小さな数を入れてやることで回避しています。

IMG_5867


上記写真は最適解とベンディングを駆使して求めた曲率ですが(距離は固定)、ガラスの屈折率にごくわずか違いがあることや、最適化の条件の調整が難しいこと、ベンディングの調整の誤差もあることなどから、ハルチングの解析解と少し違った値になっています。それでもまあ、かなりいいところまで最適化できていると言っていいでしょう。ここで気付いたのは、ハルチング公式の条件の一つの「C線(656.27nmのHα)の焦点とF線(486.13nmのHβ)の焦点を一致させ」というのは、シミュレーションでは球面収差を見ながら「有効径の外の方で合わせる」というのが解に近いみたいです。最初中心で焦点を合わせていたら、どうしても解析解とずれてしまいました。でも外側で合わせるというので本当に正しいのでしょうか?ここは謎が残ったままです。


さて、LensCalには20cm F10のシュミカセのサンプルファイルも添付されています。でもこのサンプルファイルにあるシュミット補正板の係数の値が本当に正しいかどうか、いまいち確信が持てません。シュミット補正板については同じ吉田正太郎著「天文アマチュアのための望遠鏡光学・反射編」にある程度書いてあるのですが、これも式の導出までは記述がないので、出ている式を天下り的に使うしかないのですが、どうもサンプルファイルの補正板の曲線の係数と全然一致しません。

もう一本Opt-Design 2000というソフトでも試していて、こちらもLensCalとある程度似たようなことができ、さらにこちらにも20cm F10のシュミカセのサンプルファイルが添付されています。でもこの補正板の係数の値もまた全然違います。

球面収差図を見ていると、原理から言って補正板の中性帯(曲率の正負が逆転する中間地点で、ここを入射する光は補正板の影響を受けない)を通るところで収差がなくなるはずで、LensCalの方はそれを再現しているようにも見えるので、LensCalの値が正しいように思えます。でもじゃあどうやってこの補正板の値を出したのかなど、まだ謎だらけです。

とりあえず、今やっとここら辺です。
 





 

このページのトップヘ