ほしぞloveログ

天体観測始めました。

タグ:APT

M13でのTSA-120とVISACの比較から、どうやら単純にはVISACの方が分解能が上のようです。以前、TSA-120とASI178MCで全く分解能のでなかったM51を、連休中にVISACで再度撮影してみました。




今年初稼働のVISAC

そもそも、TSA-120での撮影の時は透明度も全然よくなくて、風がかなり強く鏡筒が揺れていたので、出来上がりはボケボケ状態で、無理矢理炙り出したような状況でした。焦点距離が900mmと短いので、M51は結構小さく出てしまいます。そこでセンサーサイズが小さく、分解能を出す意味でピクセルサイズが小さいASI178MCを使ったのですが、感度がASI294MCとかに比べると4分の1くらいなので、淡い星雲には不利に働いたのかと思います。

さて、今回は焦点距離が2000mmと倍以上になりASI294MCで感度もいいので、前回よりも少なくとも有利なはずです。口径も120mmから200mmになり光量も2.7倍くらいになるので、それも有利に効くはずです。その一方、これまでの経験からシリウスBトラペジウムではTSA-120の方が有利だったように、星像のシャープさという点ではもしかしたら不利な点が出てくるかもしれません。

さて、この時の撮影用のソフトはまだN.I.N.A.ではなく、APTを使っています。実際にはM13より以前に撮影しています。この日は透明度もそれほど悪くなく、風もたいしたことありません。


やっと画像処理

M13の方を先に処理し出してしまったので、M51の画像処理は後回しになってしまってました。週末の日曜になってやっとやる気が出てきました。

まず撮影した結果をそのままRAWで見てみます。おーっ!一枚でも解像度はすでに前回よりはるかに上っぽいです。

L_2020_05_11_21_28_11_Bin1x1_300s__15C_RGB_VNG

でも少し拡大してみると、

L_2020_05_11_21_28_11_Bin1x1_300s__15C_RGB_VNG_cut

あれ?おにぎり星像、また出たか!? 
M13の時は大丈夫だったのに〜!?
夏になると出るのでしょうか?

しかたないので、三角星像は画像処理で何とかすることにして、とりあえず進めます。

スタックまではいつものPixInsightです。今回もダークは以前の使い回し、フラット補正はサボってなしです。あ、一つトラブルがありました。最初、BatchPreprocessingが途中でスターアラインメントのところで止まってしまったのです。探ってみると、Debayerで色がおかしく出てしまています。よくわからないので、マニュアルで最初から探っていくと、どうやら一番最初のCalibrationのダーク補正のところでおかしくなっているようです。

心当たりを探ってみると、今回StickPCではなく、もっとパワーのあるSurfaceマシンで撮影して、その際APTを新規に入れたものを使ったのです。その際、オフセットの値をきちんと確認しなくて、小さな値を入れてしまっていたことが原因です。ダークファイルは使い回しで、そのオフセットはライトフレームよりも大きかったのです。ダーク補正をする際に、大きくオフセットを引きすぎてRGBのうちRとBの背景が0より小さくなってしまって、完全に緑がかった色になってしまっていました。

ここでどうするすればいいか、困ってしまいました。結局やったことは、PixInsightのHistgramTransformationの「shadow」を上げてmaster dark frameのオフセットを小さくしてみたことです。

dark_offset_cut

画面はわかりやすいようにDebayerしてカラー化してオフセットを取っていますが、実際にはBayer配列のままやっています。でもこの方法で本当に正しいのかよくわかりません。いずれにせよ、これで作ったmaster dark frameでダーク補正をすることで、背景が真っ暗になるようなことはなくなりました。そのままBatchPreprocessingでも最後まで処理できるようになりました。

その後、ABEとPCCで処理し、ArcsinhStretchで途中までストレッチして、最後はHistgramTransformationでストレッチしてPIはおしまいです。

次のトラブルは、StarNet++があまりうまくいかないことでした。大きな星は分離できてますが、細かい星がほとんど分離できません。

light_BINNING_1_integration_ABE_PCC_AS_SNP

light_BINNING_1_integration_ABE_PCC_AS_SNP_cut

何が原因か知りたかったので、とりあえず今回は2つ試して見ました。
  1. 一つはもう少しストレッチして明るくしてからStarNet++をかけて見ましたが、こちらはほとんど影響なしで分離できる星は変わりませんでした。
  2. 次にやったのが、MorphologicalTrasnformationで三角を丸に直してからStarNet++をかけて見ました。そうすると、もう少し分離でき流ようです。どうやら星の形(真円に近いという意味)を見分けて判断していることが分かります。
でも結局はかなりMorphologicalTrasnformationをかけなくてはならず、星雲部分や背景まで崩れてくるので、こちらも適用は諦めました。結局StarNet++で大きな星だけが分離できた状態で画像処理を進めました。その代わりに、分離できた分だけの恒星部の画像を作って、それをMorphologicalTrasnformationで三角になったのを少し緩和しました。


結果

画像処理の結果です。

「子持ち銀河M51」
light_BINNING_1_integration_ABE_PCC_AS_all_PS3_cut
  • 撮影日: 2020年5月13日21時22分-23時27分
  • 撮影場所: 富山県富山市下大久保
  • 鏡筒: Vixen VC200L
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro + サイトロン QBP (37.5mm)
  • ガイド: PHD2 + f=120mmガイド鏡 + ASI290MMによるディザリング
  • 撮影: APT、ゲイン220、温度-15℃、露光時間300秒x26枚 = 2時間10分 
  • PixInsight、Photoshop CC、StarNet++、DeNoiseで画像処理

今回はかなり分解能も出ています。M101に続いて、焦点距離の長い口径の大きい鏡筒を使えば、光害地でQBPを使って、もう少し小さい系外銀河の撮影もそこそこ可能だということが分かりました。

画像処理でVISAC特有の三角星像もそこまで目立たないくらいにはなりました。でも、前回のM13で三角になることはなくて、なんでM51は三角になったのでしょうか?赤道儀の向きにも依存しているのかもしれません。もしそうだとすると、光学的な問題というよりは、メカ的な振動の可能性もあり得ます。こちらはもう少し調べてみます。


まとめ

富山の明るい北の空で、何とか系外銀河を狙う目処がやっとついてきました。おにぎり星像はまだ問題ですが、四隅で流れるようなことはないので画像処理の範囲である程度補正することはできます。それでももう少し、根本的に何が原因か探りたいと思います。


最近話題のNINAを試してみました。すごくいいです。試したのはVISACでM13を撮影したときです。


N.I.N.A.を使ってみた

そもそもAPTをまともに使い始めたばかりなのに、なんでNINAを使ってみたかというと、APTで少し不満があったからです。
  • Live viewの映像がうまくストレッチできない。
  • ピント合わせで拡大できない。
  • 撮影ごとのログが残らない。fitsに特化しているので、各ファイルの中に情報は含まれてますが、いちいちヘッダを見なくてはならないのが少し不満です。
  • 撮影中の設定が結構制限される。例えばカメラのカラーバランスやストレッチの設定など、撮影中も触りたいのにできない。(でも、撮影中に弄れたことも一度だけあるのですが、再現性無しです。不思議です。)
と言っても、上のように細かいことだけで、普通に撮影するだけならAPTは十分な機能を持っています。「今回の撮影は前と同じM13で、余裕があるので失敗してもいいからNINA試してみようか」くらいの気分でした。しかもNINAで上記不満が解決されたかというと、実はそうでもなく、せいぜいLive Viewがマシになったくらいでしょうか。

でもそれ以外にいい所がかなりあり、極めて順調に撮影までできたので、この記事を書いています。


N.I.N.A.のインストール

ダウンロードはここからです。

2020年5月13日現在、最新の安定バージョンは1.9ですが、事前情報から日本語を使うためにはベータバージョンを使う必要があり、Version 1.10 BETA002(5月16日の今日、アクセスしてみたらすでにBETA004になっています)をダウンロードしました。

Windows版のみ存在し、MacやLinux版はないようです。32ビット版と64ビット版がありますので、各自の環境に合わせて選択します。自分のWindowsが32ビットか64ビットか分からない場合はここなどを参考にして確認して下さい。

今回は64ビット版を使ってみましたが、注意事項が書いてあって、もしNINAの64ビット版を使う場合はASCOMも64ビット版を使う必要があるそうです。いくつかのASCOMドライバーは未だ32ビットのままなので、その場合は32ビット版を使うか、64ビット版のドライバーの開発を促してくれとか書いてあります。とりあえず今回の使用(一通りセットアップして、plate solvingして導入、長時間撮影とかするくらいまで)では64ビット版で困ることはありませんでしたが、たくさんの機器を繋いで本格的に稼働させるとかの人は32ビット版の方がいいのかも知れません。

インストールは普通にやれば特に困ることはないでしょう。


最初の設定

インストール後、起動して一番最初にやるべきことは左端アイコン群の一番下「オプション」の「一般」の設定でしょう。そもそも日本語になってないと「Options」の「Genaral」になっています。まずは、そこの「Language」を「Japanese(Japan)」に変えます。変えた瞬間に日本語に切り替わるのが素晴らしいです。でも後から再起動して気づいたのですが、細かいところ、例えば先ほどの「Japanese(Japan)」は再起動して初めて「日本語(日本)」に切り替わるので、全ての項目が瞬時に切り替わるわけではないようです。一応言語を切り替えたら、一旦終了して立ち上げ直した方がいいでしょう。

同じページで「天文測定学」(ちょっと訳が微妙ですが)で緯度、経度を写真のように「137.12」などという形式で「度と分だけを小数点で区切った形」で入れておくといいでしょう。後の「スカイアトラス」のところで正しく表示されるようになり、撮影時間などの目安を立てやすくなります。


IMG_0090

「オプション」「撮像」「画像ファイルパス」で、撮影した画像を保存する場所を指定できます。好みの適当なところにしておくといいでしょう。


機材の接続

最低限の設定がとりあえず終わったら、次は「機材」ページです。この時点で、必要な機器はケーブルなどで実際に接続しておいた方がいいでしょう。今回設定したものはカメラ、望遠鏡(赤道儀のこと)、ガイダーです。これら3つは接続すると縦に並ぶアイコン群の右下に小さな電源マークが出るので、何が接続されているのか一目で分かります。

IMG_0087

それぞれのページの一番上で接続したい機器を選択し、その右の電源マークのアイコンを押して「接続」します。例えばカメラなら、すでにカメラが接続されていれば上の写真のように「ZWO ASI294MC Pro」という選択肢が出てきます。カメラが繋がれていないとASCOMとかN.I.N.A.のシミュレーターカメラとかしか出てこないので注意です。もしきちんとカメラにケーブルをつないでいても、つないだカメラ名が出てこない場合は、接続アイコンの左の矢印が回っている「デバイスの再スキャン」を押すと再認識されて、選択肢として出てくることがあります。

うまくカメラが接続できると温度制御やゲインの設定などができるようになります。冷却は設定温度を決めて、右横の雪の結晶マークのアイコンを押すだけです。撮影終了時の昇温は下の炎マークのアイコンを押します。オフセットはダークファイルのオフセットより大きな値が入っていればいいのかと思います。通常数十とかでしょうか。ゲインは後の「撮像」のところで改めて設定するので、適当でいいです。


適当な天体の導入と、PHD2でオートガイド

とりあえず、赤道儀での自動導入でも、マニュアル導入でもいいので、撮影したい適当な天体を導入します。最初はテスト撮影だと思って下さい。NINA自身の導入機能「フレーミング」については次回の記事で説明します。

一旦撮影したい天体が導入できたら、PHD2を起動してオートガイドを始めます。その際ですが、PHD2で赤道儀に接続した時に出てくる4方向ボタンのの小さな画面が後で導入すうる時に便利になるので、できればボタンを押してきちんと赤道儀が反応するか確かめておくといいでしょう、

きちんとオートガイドされていることが確認できたら、「オプション」「ガイダー」で、PHD2に接続して下さい。もしかしたら自動的に認識されて、すでに接続された状態になっているかも知れません。もし選択肢にPHD2が出てこなかったら、「オプション」「機材」の右下の「ガイダー設定」できちんと「PHD2パス」が設定されているか確認してみて下さい。私は先にPHD2を動かしていて、うまく動いている状態でNINAを立ち上げたので、特に何も設定する必要はなかったですが、うまくいかない場合はここが設定画面になるはずです。

IMG_0096

うまくPH2Dが接続されると、ガイドされているグラフが「機材」「ガイダー」のところに表示されます。PHD2の制御情報がそのままNINAで表示されるのがすごいです。左の方の選択で、y軸、x軸の表示設定とともに、誤差の単位を変えることができます。下の写真ではピクセル単位にしています。概ね0.5ピクセル以内に収まっているでしょうか。

IMG_0089

ついでにここで、NINA上でも赤道儀との接続も済ませておきましょう。PHD2がうまく動いているなら、すでに赤道儀はPCと接続されているはずです。NINAの「オプション」「望遠鏡」で自分の赤道儀のドライバーを選択し、右の「接続ボタン」で接続します。

IMG_0088



撮像

次はNINA画面の左端アイコンの下から二番目「撮像」ページです。ここは盛り沢山で混乱しますが、最初は最低限の機能から試します。

IMG_0094

まずは右上の「撮像」パネルのところのシャッターマークの「露光開始」ボタンを押して一枚テスト撮影して見て下さい。その際、「露出時間」は適当に10秒くらい、「ビニング」は1x1、「ゲイン」は200から400くらいいいでしょう。これらの設定はテスト撮影の時のみ有効で、本撮影では別の設定項目があり、そことは独立に設定ができます。撮影中は左下に「撮像:露出中」とか出て、時間バーが動いていきます。一枚撮影すると画像が出てくるはずです。望遠鏡の蓋がきちんと外れていて、ピントも合っていて、何かターゲットが入っているはずなのに真っ暗な画面しか出てこない場合は、撮影画面の上の右側にあるアイコン群の真ん中の棒のようなマークの「画像の自動オートストレッチをトグルスイッチでオン/オフする(表示のみ)」を押して、ボタンが明るくなるのを確認して下さい。同時にオートストレッチが効いて撮影画面も明るくなり、星などが見えてくると思います。

右上の「撮像」パネルのカメラマークの「ライブビュー」も同様です。「露出時間」を1秒とかにして「オートストレッチ」をうまく使って、リアルタイムで連続してみることができます。ただ、この「ライブビュー」うまくいかないことが何度かありました。「ライブビュー」ボタンを押して「露光開始」を押してうまくいったときもあれば、画面の拡大率を変えてうまく行った時もあります。同様のことをしてエラーが出たこともあります。ライブビューはまだ少し不安定な気がします。

ちなみに、この撮像画面のパネル、入れ替えとかしてぐちゃぐちゃになってしまったら、「オプション」の「撮像」タブにいき、右下の「画面配置のリセット」でデフォルトの設定に戻すことができます。


シーケンス設定

次にNINA画面左のアイコン群の「シーケンス」を押します。撮影計画をここで設定します。最低限
  • トータル#
  • 時間
  • ゲイン
  • オフセット
  • デザリング
だけ設定すればいいでしょう。デザリングはデフォルトでオンになっているようですが(下の写真はオフになっています。この場合ボタンを押して「オン」と表示されるようにしてください。)、PHD2が動いていてサーバーモードになっていれば、これだけでデザリングもできてしまいます。

IMG_0097

ちなみに、ディザー量などは「オプション」「機材」の右下の「ガイダー設定」で設定します。

シーケンス画面の左上の「対象」のところの「ターゲット名称」のところに希望の天体名を打ち込むと候補が出てきます。例えば「M13」と入れると「Herucles Globular Cluster」と出てくるので、それをクリックします。すると何時頃が撮影どきかとかも知らせてくれます。これと関連して、NINA画面左のアイコン群の「スカイアトラス」でも同じようなことができます。

IMG_0098

これらの画面にある「ガイド開始」「対象の導入」「ターゲットをセンタリング」「シーケンスの対象として設定」「導入」などのボタンはまだ試していません。ここら辺を駆使すれば、時間がくれば自動的に導入して撮影を始めるとかができるのかと思います。ドームでの撮影などでは便利なのかも知れません。


いよいよ撮影開始

さて、最低限の撮影準備が整ったと思います。いよいよ本撮影です。

IMG_0094


左端アイコンの下から二番目「撮像」ページに戻り、右側真ん中の「シーケンス」パネルの三角の再生マーク「シーケンスを開始します」を押して下さい。撮影が開始され、順次右下の「画像履歴」パネルに撮影された画像が溜まっていくと思います。Windowsのエクスプローラで実際に保存先フォルダを見て、ファイルがきちんと保存されているか確かめて見ましょう。私は一番最初だけエラーメッセージが出て、ファイルが保存できないと言われました。これは撮影中に保存先を変更してしまったことなどが原因かと思われます。最初の一度きりで、それ以降はこのようなエラーはなく安定して撮影できました。

撮影時の注意事項ですがが、あえてシーケンスの「リセット」ボタンを押さないと、途中枚数からの撮影が続行されてしまいます。テスト撮影で止めてしまった時など、必要枚数に達しなくなる時があるので、本撮影を始める時は必ず「リセット」を忘れないようにします。左端アイコン「シーケンス」に行って、左下のアイコン群の左から三番目の矢印が回っているマークのアイコンを押すとまた0枚に戻ります。

とりあえずここまでで、最低限のディザーの撮影までできるかと思います。


使っての感想など

うーん、NINAかなりいいです。もちろんどのソフトがいいかは機能だけでなく、インターフェースとかの好みはあるでしょうし、安定性なども大きなファクターです。NINAはまだまだ開発がどんどん進んでいる段階で、しかも今回はベータ版にもかかわらず、一度も落ちることはありませんでした。実は立ち上げてから一度も終了することなく撮影までできてしまうくらい分かりやすいインターフェースでした。オープンソースでこれだけのものができるのは、開発者の方々にただただ感謝です。

ベータ版ですが、すでに日本語が選択できるところもありがたいです。日本語訳もおかしなところはほとんどありません。どなたか日本人の貢献者がいらっしゃるのかと思います。感謝いたします。


感想など、細かいところをいくつか。
  • オンオフボタンがわかりにくいです。オンとオフどちらを押してもスイッチが切り替わってしまいます。どうやらボタンのところに「オン」と出ていたら「現在はオンの状態」、「オフ」と出ていたら「現在はオフの状態」という意味のようです。
  • ライブスタックはSharpCapと比べると流石にまだまだですが、APTよりははるかにマシです。多少不安定なところもありましたが、最低限操作の通りには動いてくれます。
  • 結局撮影ごとのログは残せませんでした。全体のログは残せるがトラブル時以外はあまり有用ではなさそうです。
  • 撮影中もほとんどの設定を変更できるところがいい。
  • 非力なStickPCで試さなかったので、重いかどうかがわかりません。でもホームページには2GBで動くと書いてあるので、意外に軽いのかも知れません。

とりあえず今回はここまで。次回はもう少し応用編として、「プレーとソルブ」と「フレーミング」などについて解説します。実はもう試してはいて、プレートソルブは簡単だったのですが、フレーミングに少し手間取りました。お楽しみに。

回転花火銀河M101を撮影してみました。この天体は電視観望では何度か観たことがありますが、撮影は初めてです。自宅からですが、富山特有の北の明るい空です。さて、どうなることやら。


light_BINNING_1_integration_ABE_DBE_STR_DBE_STR_SNP_all_PS4_cuts
銀河部分を大きくみるために最終結果を切り出したものです。


撮影

今回はもう少し北側のM101に挑戦です。挑戦と言う意味ですが、富山は日本海側のため基本的に北が市街地になっているので、北の空はどうしても明るくなってしまい、これまでも撮影は避けてきました。

前回、三つ子銀河の自宅からの撮影がQBPを入れたまま知らずに撮影してしまうというアクシデントのおかげか、思いの外うまくいったので味をしめてしまいました。これならもう少し明るい領域でもなんとかなるのではと思い、この季節北東から真北に動いていくM101にしました。

機材セットアップは三つ子銀河の時と全く同じで、TSA-120にQPDでASI294MCProです。撮影自身は順調。ガイドもほとんどズレなしです。透明度はというと、三つ子銀河の時よりは悪かったと思います。見た目でもわかるくらい三つ子さんの時は細かい星まで散りばめられていましたが、M101のこの日の空は、悪くはないですが、まあそこそこと言ったくらいでしょうか。普通に星は見えますが、細かい星まではあまり見えません。

撮影はStickPCを利用したリモート撮影です。いったんセットして撮影が始まってしまえば、あとは部屋からヌクヌク状態でモニターすることができます。予定では3時間以上の露光時間を狙います。ところが、天頂越えまでまだ少し時間がある頃、部屋からリモート接続のでダウンロードされる画像を見ていると、星が流れて出していることに気づきました。おかしいと思い、外に出てチェックしてみると、天頂越え直前でカメラが三脚の当たって止まってしまっていました。これまでこんなことあまりなかったのですが、鏡筒が長いと天頂近くになるとカメラ側が脚に当たってしまうこともあるのがわかりました。こんなことならAPTで赤道儀の反転テストを試せばよかったです。赤道儀が明らかにずれてしまったのと、もうしばらくすると月も出てくるので、この日はこれで終了としました。5分露光で30枚なので2時間半分の撮影です。


全体の流れ

ガイドのズレを見るためにいつものように2時間半分の画像を動画にしてみます。

Blink

今回は1方向に動いているわけではなく、一度左に行って、右に戻ってきているような感じです。APTのDithering Distanceで4としてあるのですが、このランダムな動きがその4というので動いているのかもよくわかりません。1方向のドリフトではないのですが、まだたわみか何かが原因で動きすぎている気がします。

上の動画は明るさを規格化してしまっていますが、一番最初と一番最後ではヒストグラムで見ると明るさが1.5倍くらい違います。なぜかだんだん暗くなっていきます。最初北東にあったM101が高度を上げながら真北へ向かっていくくらいまでを撮影したのですが、普通に目で見ても北の方が明るいのは確かです。高度が上がっていくから暗くなるのか、夜中になり町の明かりが減っていったから暗くなっていったのかはわかりませんが、(QBP有り無しで高々3倍の明るさの違いなので)1.5倍は無視できないくらいの違いです。2時間半分あるのですが、淡いところだけを出すのなら後半のみ使うくらいの方がいいのかもしれません。今回は、結局画像処理をやっている過程で、最初の30分を使うのをやめました。そのため淡い部分がもう少し出るようになった気がします。


画像処理

今回結構色々学びました。特にAPTはまだまだ経験不足で慣れていないことも多いので、癖を知っておく必要がありそうです。


1. light frame

撮影した画像を見てみると、どうもホワイトバランスが根本的に取れてません。QBPのせいでしょうか?赤がどうしても強くなってしまいます。でも、後のフラットで逆に赤が暗くなったことを考えると、QBPのせいでもない気がします。

ight_redshift
rawファイルをカラーバランス補正なしでオートストレッチした画面。
ヒストグラムを見ても赤が支配的です。

SharpCapの場合はカラーバランスをソフト側でとることができて、fitsファイルにもそれが反映されてます。APTの場合にはカラーバランスを調整できる場所がありません。いや正確には見かけのカラーバランスは調整する場所はあるのですが、画面だけに反映され、fitsファイルにはそれは反映されないようです。


2. dark補正

今回はdarkの補正の時にアンプグローをうまく差っ引くために、前回のUTOさんのアドバイスを元にOptimizeオプションをオフにして処理しました。  オンとオフで比べてみます。

light-BINNING_1
デフォルトのOptimizeがオンのまま。右上にひどいアンプグローが残っています。

light-BINNING_1
ダーク補正の際のOptimizeをオフにした場合。
アンプグローは相当マシになります。

最初BatchPreProcessで設定場所が見つからなかったので、ImageCalibrationの中でOptimizeをオフにしてバッチ処理でなくその後もマニュアルでやったのですが、後にBatchPreProcessの右側のグローバルオプションのところに設定できる場所があることを見つけました。これでバッチ処理で手間をかけずに進めることができるようになりました。

ちなみに、ダークだけをものすごく炙り出してみるとこんな風になります。

Capture 00_12_39_00001 00_17_12_c_d

右上が目立ちますが、左上にもそこそこのアンプグローがあり、よく見ると右下にも少しあります。3箇所もあるので大変そうですが、ダーク補正でOptimizeをオフにすることで解決できるので、もうそれほど大きな問題ではないのかと思います。


3. bias補正

最初bias補正をすると画面が暗くなりすぎてしまいました。これはbais frameの撮影時のbiasの値(オフセット)が大きすぎたことと、次に書くフラット補正がうまく行っていなかったことが原因かと思われます。

badbias
カラーバランス補正をしてオートストレッチすると青と緑が暗すぎてしまう。
バイアス補正でオフセットが引かれ過ぎていると考えられる。

ligh frameの撮影時、APTでのbias設定が40でした。そのためbias frameの(オフセットの意味での)bais値は撮影時に40以下にしています。最初オフセットを30にしてSharpCapdで0.0032msで撮影したのですがまだ十分下げ切れていませんでした。それに合わせてflat frameのカラーバランスも合っていなかったせいで、赤が過補正のため青と緑が相対的にオフセットを引かれすぎた状態になってしまって、出来上がり画像の青と緑が暗すぎてしまったのかと思います。

そのため改めてbiasを撮影して、その際オフセットを20に下げ、今度は念のためAPTで撮影しました。一応これでうまく行きましたが、実際にはbias値を下げたからよくなったのか、後述のフラットのバランスが取るように対策したからなのかは不明です。


4. flat補正

その中でも、今回の撮影では特にflat補正で学ぶことが多かったです。TSA-120の口径が大きすぎて、いつもやっているようなiPadでのフラット撮影は出来ませんでした。手持ちのiPadでは画面が小さすぎてはみ出てしまうのです。その代わりにMacbook Proのモニターをフラットパネル代わりに使ってやりました。使ったツールは天リフさんのこのページです。



このページはカラーバランスを整えることができるので、非常に便利です。

短時間露光のflat frameなので、最初はディスクへの画像取り込み時間が速いのでSharpCapで撮影していたのですが、条件をそろえる意味で途中からAPTでの撮影に切り替えました。ゲインはlight frameと同じ220、露光時間は以前の検証から100msです。枚数は50枚程度ですが、これも以前の検証からこれくらいの枚数で十分だと思われます。

ここから色々不思議なことがあり、まだ完全に解決できていません。あいからわらずフラットは謎が多いです。

上の「1. light frame」のところでも述べましたが、APTでlight frameを撮影すると赤色が一番強調して撮影されます。上のスナップショットでヒストグラムのところを見ると、赤が青や緑に比べて1.5倍くらい明るいのがわかります。

これは有意なずれで画像処理に影響を与えるくらいかなり大きな差です。最初QBPのせいで赤くなっているのかなと思っていたのですが、不思議なことに鏡筒とカメラの設定を全く状態を変えないでMacのモニターでホワイトバランスをとったものをflat frameとして撮影すると、今度は赤が一番暗くなるのです。青や緑に比べて2分の1以下くらいの明るさです。

flat-BINNING_1

このflat frameを使いフラット処理をすると、もともと1.5倍明るい赤が、2分の1位の暗さの赤で割られるので、その結果赤が3倍くらい明るいlight frameが出来上がることがわかりました。そのため少なくともPIでは、light framとflat frameのカラーバランスは、そこそこ同じようにする必要があることがわかります。実際にはMacの画面のカラーバランスを、あらかじめ赤が3倍くらい明るいものにして、それを撮影することで、そこそこlight flameと同じカラーバランスの取れたflat frameを作ることできるようになりました。

もう一つ問題がありました。撮影したflatの画面のうち赤色だけ様子がおかしいのです。RGBに分解してみてやると、青や緑はいたって普通に見えますが、赤色だけはセンサーの長手方向に蝶形になるような、形が現れてきて、変に見えます。

flat_BINNING_1_integration_RGB_VNG
赤だけ変な形が現れる。

とりあえず軽減する方法は見つけました。どうもフラットパネル(今回はMacbook Proのモニター)で撮影することが悪さをしているようです。まず、フラットパネルを使わずに、昼間にスーパーの袋を二重に重ねてflatを撮影してみると、この変な形は随分とマシになります。カラーバランスはその時に入る光に依るので、少し赤っぽい、実際には電球色の光を入れています。

flat_BINNING_1_integration1_RGB_VNG
蝶のような形はなくなったようにみえます。 

画像を見ても少しマシになっていることがわかると思います。でもマシになっただけで、やはり同じような形は残っています。

で、結局最終的にやったことはというと、flat補正をしないという選択肢を取りました。どう見てもこれが一番マシなのです。そもそもカメラがフォーサーズ相当で周辺減光があまりないので、それほどフラット補正にこだわる必要はないのかもしれまん。

でもここで不思議なのは、同じ鏡筒で同じ条件で撮影しているのに、なんで普通のlight frameの撮影の方では、こんな変な模様が見えてこないかです。まだflat frameの撮影方法に問題があるような気がしています。ここらへんは時間があったらもう少し試してみます。


5. 仕上げ

フラット補正なしにしてスタックした画像がまともになるとやっと、その後の仕上げの画像処理に困ることはなくなりました。ちなみにこれ以前のフラットが合っていない時の画像処理は熾烈を極め、時間も相当かけてしまいました。ちなみに最後のフラット無しの結論に至るまでに、PixInsightでのフルスタックの画像処理の回数は11回。そのうちPhotoshopに移って最後まで処理を進めたのが4回。下処理がきちんとしていればいるほど、画像処理にかける時間も少なくなりますし、出来上がった画像もいいものになります。


結果

画像処理の段階で色々紆余曲折はしましたが、そこそこ満足のいく仕上がりになりました。透明度の差もあるのでしょうか、三つ子銀河の時ほどくっきり出すのは難しかったですが、アンプグローが軽減できたのと、フラットがマシになったぶんもあり、淡い部分をより炙り出すことができていると思います。

light_BINNING_1_integration_ABE_DBE_STR_DBE_STR_SNP_all_PS4_cut
  • 撮影日: 2020年4月16日21時29分-4月17日0時20分
  • 撮影場所: 富山県富山市下大久保
  • 鏡筒: Takahashi TSA-120
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • 撮影条件: ゲイン220、温度-15℃、露光時間300秒x24枚 = 2時間0分 
  • フィルター: サイトロン QBP (48mm)
  • PixInsight、StarNet++、Photoshop CC、DeNoise AIで画像処理

自宅でこれなら、まあ十分ではないでしょうか。これも一度暗いところへ行って撮影してみたい対象です。一体どれくらい変わるのか、真ん中のしわしわの部分をもっときれいに出せたらと思います。

その一方、富山の北の空でこれだけ出るのなら、もう少し自宅で時間をかけていろんな銀河を探っていきたくなりました。自宅からなら、天気さえ良ければ平日でも比較的気楽に試すことができます。


Annotation

天体の名前入りの画像です。こちらも定番になりそうです。

light__integration_ABE_DBE_STR_DBE_STR_SNP_all_PS4_cut_Ann


前回の三つ子銀河は全面縦横ズレなしだったのですが、今回は右はあっていても左側が斜めになっています。北の空だからでしょうか。座標に対しては画面が歪んで写るんですね。


まとめ

TSA-120の自宅での撮影第2段。QBPのおかげもあり、北の空の銀河でもそこそこ写ることがわかりました。銀河の撮影も楽しくなってきました。TSA-120での撮影を今しばらく続けていきたいと思います。

その一方、まだ画像処理では理解不足なところがあります。特にflatはいまだにミステリーです。きちんとしたflat撮影方法をもう少しきちんと考える必要がありそうです。
 

今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。(2020/4/16 追記: APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。また、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。)
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


このページのトップヘ