ほしぞloveログ

天体観測始めました。

タグ:ディザー

CP+連動企画、「電視観望技術を利用して天体写真を撮影してみよう」ですが、前回でやっとオリオン大星雲の撮影を開始することができました。


機材の設置からソフトの設定まで、やはり工程が多いですよね。天体写真撮影が敷居が高いと言われるはずです。それでも電視観望でオートストレッチまで済んでいるので、画像処理は楽になるはずです。そこら辺をCP+でお見せできたらと思っています。


オートストレッチ

前回の記事で重要なことを一つ書き忘れていました。画像保存時におけるホワイトバランスの重要性です。

ライブスタック中に普段画面を見る時からでいいので、3つのことをしておくといいです。
  • ライブスタック画面の「Histogram」タブを開き、左のカラーバーの下にある雷マークアイコンを押し、ホワイトバランスを整えます。
ホワイトバランスはすごく重要で、これができてないとオートストレッチがうまくいかないことがあります。オートストレッチに関しては前回も説明していますが、
  • 次に同じくライブスタック画面の「Histogram」の左の上のもう一つの雷マークアイコンを押し、オートストレッチします。
  • 新たに右パネル「ヒストグラムストレッチ」の方の雷マークを押し、さらに炙り出します。もし画像が明るすぎる場合は、右側パネルのヒストグラムの、山を挟んでいる左と真ん中の2本の線を少し動かしてみるといいでしょう。

今回の記事もこのような状態で画像を保存したものを使っています。


検証項目

撮影までに赤道儀の設置や、オートガイドを使った長時間撮影など、それなりに準備だけでも大変でした。電視観望の技術を使い、ここからの画像処理は楽になるとしても、ここまでの準備をもう少し簡単にできないものなのでしょうか?今回はいろいろ設定を変えてみることで、簡単になるのかどうか議論してみます。

今回比較したいものを準備が簡単な順に並べてみます。矢印の右側は、予想される問題点です。
  1. 経緯台AZ-GTiでの10秒露光 → 露光時間に制限がある(10秒程度)、視野回転、縞ノイズが問題になる
  2. 経緯台AZ-GTiでの10秒露光+ディザー → 露光時間に制限がある(10秒程度)、視野回転
  3. 赤道儀SA-GTiでの20秒露光 → ピリオディックモーションのために縞ノイズが問題になる
  4. 赤道儀SA-GTiでの20秒露光+ディザー → 露光時間に制限がある(20秒程度)
  5. 赤道儀SA-GTiでの60秒露光+ディザー+ガイド 
  6. 赤道儀SA-GTiでの3秒露光でゲインを0に下げる+ディザー+ガイド → 読み出しノイズが顕著になる
順に詳しく見ていきます。


1. 経緯台AZ-GTiでの10秒露光 (ガイドなし、ディザーなし)

まず対極で、できる限り簡単な撮影というものをしてみましょう。

ここでは赤道儀の代わりに、自動導入機能がある経緯台AZ-GTiを使ってみます。鏡筒を軽いもの、例えばFMA135やFMA180とかなら、もっと手軽にトラバースでも構いません。特にトラバースは超小型で自動導入も自動追尾もできるので、対極という意味ではこちらの方がいいのかもしれません。トラバースについては以前撮影例を記事にしているので、よかったらご覧ください。

これらの経緯台は赤道儀と違って、極軸調整などを省くことができます。最初はオートガイドやディザー撮影も無しとします。経緯台なのですが、自動追尾はできます。それでも経緯台は縦と横とでしか動かせないので、長時間で回転していく星を追尾しようとすると、視野の回転が問題となるはずです。視野の回転はそこそこ激しいので、星像が天になるためには露光時間に制限ができます。鏡筒やカメラにもよりますが、今回の機材だと現実的には10秒程度でしょう。また視野が流れてしまうことによる「縞ノイズ」が問題になってきます。

今回使うAZ-GTiの写真です。SA-GTiの元になった機器だと思いますが、経緯台だけあってAZ-GTiもかなり小さいです。

D81DD62F-BDC9-42B4-8948-B36F477D5BA9
左がトラバース、右がAZ-GTiです。どちらもコンパクトです。

実際に撮影した結果を示します。問題を見やすくするために、かなり明るくしています。1枚当たり10秒露光で、30フレームなので高々5分程度の撮影ですが、

Stack_30frames_300s_22_40_26_WithDisplayStretch_HT

まず視野回転しているのがわかります。右下の方にずれていっている様子がわかります。ずれが三角型になっているのが、視野が回転している証拠です。多少ならば最終的にトリミングすればいいのですが、長時間撮影ではカットする部分が大きくなってしまいます。

PlayerOneのCMOSカメラにはDPS (Dead Pixel Supression)という機能があり、輝度が飽和してしまうようなホットピクセルは、輝度が0近くになってしまうコールドピクセルという、センサーにどうしても存在してしまうわずかの欠損を目立たなくしています。さらに今回、SharpCapの設定でホットピクセル/コールドピクセルの簡易除去をしていしてます。それでもホットピ/コールドピクセルのようなものが存在しているようで、高々5分の撮影でもスクラッチ状のノイズを残してしまいます。拡大するとよくわかります。

Stack_30frames_300s_22_40_26_WithDisplayStretch_HT_HT_cut

このように経緯台での簡単撮影では、回転とスクラッチ上のノイズが問題になってしまいます。でも逆に言うと、対極的に簡単な撮影でも問題点は高々これくらいです。セットアップが簡単になるなら、十分ペイするくらいのささいな問題点かもしれません。

この後に画像処理をすることで、たった5分の撮影でも、大迫力のオリオン大星雲の魅力は十分に出てきます。撮影時間が長くなるほど、縞ノイズの問題が深刻になってくることが予測されるでしょうか。許容範囲は人にも求める仕上がり具合にもよると思いますが、後の画像処理次第で十分天体写真として通用するものになるかと思います。


2. 経緯台AZ-GTiでの10秒露光 + ディザー (ガイドなし)ここに文章を入力

経緯台での簡単撮影ですが、どうせ撮影するなら一手間だけかけてみましょう。ここではオートガイドなしのディザーを提案してみます。天体写真に経験のある方だと、ガイドなしでディザーなんかできるのか?と思われる方もいるかもしれませんが、SharpCapのLiveStack撮影ではそれが可能になります。

設定方法です。
  1. SharpCapメニューの「ファイル」の「SharpCapの設定」の中の「ガイディング」タブを開きます。
  2. 下の画面のように「ガイディングアプリケーション」を3つ目の「ASCOMマウントパルス...」を選びます。
  3. 「ディザリング」の「最大ディザステップ」は、AZ-GTi単体で上の「1. 経緯台AZ-GTiでの10秒露光 (ガイドなし、ディザーなし)」で見たホットピクセルやクールピクセルをできるだけ散らしたいため、かなり大きな値にします。ここでは40としました。
  4. その代わり、AZ-GTiが十分に落ち着くように、「ディザリング」の「最大整定時間」を大きくとります。ここでは60秒としました。
  5. 最後に下の「OK」を押します。
07_guide_setting

上記設定でディザー有り、ガイドなしで撮影した結果です。先の1と同じく、10秒露光で5分間の撮影です。
Stack_30frames_300s_22_47_52_WithDisplayStretch_brighter

ホットピクセルやクールピクセルが散らされて、かなり目立たなくなっています。拡大してみます。これくらいなら十分許容範囲ではないでしょうか?
Stack_30frames_300s_22_47_52_WithDisplayStretch_brighter_cut

このように、自動導入経緯台にディザーをかけての撮影というのは、一つのシンプル撮影の到達点かと思います。それでももちろん問題はあって、
  • 視野回転は避けられないこと
  • 露光時間を長く取れない
ということです。今回は10秒程度の撮影なので星像がまともでしたが、AZ-GTiでの経緯台撮影だと20秒程度で星が流れ始めてしまいます。

この星像のずれは、視野回転影響も大きいです。経緯台でオートガイドをすることも不可能ではありませんが、思ったより大変なのと、オートガイドをしたとしても原理的に視野回転は防ぐことはできません。これ以上露光時間を伸ばしたいとすると、赤道儀に移行した方が無難と思われます。


3. 赤道儀SA-GTiでの20秒露光 (ガイドなし、ディザーなし)

というわけで、ここから再び赤道儀のSA-GTiに戻ります。

下の画像はSA-GTiで、オートガイドもディざーも無しで、露光時間を20秒として「1枚だけ」撮影した画像です。
01_single_frame_00001_20_0s_RGB_VNG

中心部付近を拡大してみますが、赤道儀ということもあり視野回転もないし、20秒程度の露光なら星像も全然流れていないことがわかります。
01_single_frame_00001_20_0s_RGB_VNG_cut

「1枚だけ」の撮影なら問題ないのですが、その一方これを例えば20秒露光で「30枚、合計10分」撮影すると何が起こるかというと、以下のようになります。
Stack_30frames_600s_20_28_37_WithDisplayStretch

気づきにくいかもしれないので、拡大します。
Stack_30frames_600s_20_28_37_WithDisplayStretch_cut
星はライブスタックで位置を確認して重ねあわているので、依然流れていません。問題はホットピクセルやクールピクセルが流れて、背景にいくつか縦方向の紫色に見えるスクラッチができているのです。

これは赤道儀のギヤの精度に起因して起こる、「ピリオディックモーション」などと呼ばれる現象が原因です。赤道儀にもよりますが8分程度の周期で、赤経方向にsin波的に揺れてしまう動きが存在します。どれくらい揺れるかは、ギヤの精度に依存します。

ライブスタック技術で、星を位置合わせして重ねるために、星自身は流れなくなっています。その代わりに、1枚1枚に存在する固定位置のホットピクセルやクールピクセルは逆に重なることはなくて、30枚の撮影で軌跡として流れるように残ってしまうというわけです。

ちなみに、今回のこの軌跡は測定してみると22ピクセル程度の長さです。鏡筒の焦点距離360mmとカメラセンサーの大きさ11.2mm x 6.3mm から、このサイトなどで画角を計算すると1.78度 x 1.00度と出ます。センサーの画素数が3856×2180なので、1.78度 x 60 x 60 = 6408秒角、これを3856で割ると、1ピクセルあたり1.79秒角となります。これが22ピクセルあるので、39.3秒角、プラスマイナスで考えると、+/-19.7秒角のピリオディックエラーということになります。この値はオリオン大星雲で測定しましたが、天の赤道付近なので、この値から大きく変わることはないでしょう(実際には赤緯-5度付近にあるので、5%程度小さく測定されています。それを補正しても+/-21秒角程度でしょう。)。以前測定したAZ-GTiを赤道儀モードで測定した値が+/-75秒角程度でした(今思うとかなり大きな値なので、再計算しましたが間違ってませんでした)から、随分と改善されていることになります。

少し脱線しましたが、このように赤道儀を使ってもピリオディックモーションからくる制限があります。これを解決するために、次はディザーを考えます。


4. 赤道儀SA-GTiでの20秒露光+ディザー  (ガイドなし)

3で見た、ピリオディックモーションでのホット/クールピクセルの軌跡をなくすために、赤道儀でディザーをしたら、どうなるでしょうか?ただし、オートガイドはなしです。露光時間20秒、総露光時間5分間です。
Stack_15frames_300s_20_57_18_WithDisplayStretch

拡大します。
Stack_15frames_300s_20_57_18_WithDisplayStretch_cut

3の時よりかなりマシになっていますが、まだ少し軌跡が残っています。これは少し設定ミスがあって、記録を見たらディザー設定の「最大ディザステップ」が10と少し小さく設定し過ぎたようです。AZ-GTiの時は40だったので、もう少し散らせばもっとまともになるかもしれません。

さて、ディザーで軌跡が少しマシになることは分かりましたが、まだ根本的な問題があります。1枚当たりの最大露光時間がピリオディックモーションで制限されているということです。例えば下の画像は、これまで通りオートガイドなしで60秒露光したものです。
Stack_1frames_60s_20_24_55_WithDisplayStretch

中心付近を拡大するとわかりますが、既に星が流れてしまっています。これは1枚撮影する間にピリオディックモーションによって星が動いてしまい、1枚の画像の中にその動きが記録されてしまうことが原因です。
Stack_1frames_60s_20_24_55_WithDisplayStretch_cut

これを避けるためには、1枚撮影している間に、星の位置を保つようにオートガイドをする必要が出てきます。


5. 赤道儀SA-GTiでの60秒露光+ディザー+ガイド

まず、20秒露光でトータル5分、ディザーあり、それにPHD2によるオートガイドを加えます。ディザーはPHD2の支配下に置かれるので、PHD2でのディザー幅の設定となり、4の時より大きな幅で動かしています。
Stack_15frames_300s_21_09_53_WithDisplayStretch

変な軌跡も完全に消えていますし、星像も流れていません

さらに条件を厳しくして、露光時間を60秒露光と伸ばして、トータルで少し長く16分、ディザーあり、それにPHD2によるオートガイドを加えたものです。
Stack_8frames_480s_21_00_44_WithDisplayStretch

このようにガイドのおかげで、長時間露光してもピリオディックモーションが出てこなくて、星流れていないのがわかります。

赤道儀を使って1枚当たりの露光時間を伸ばそうとすると、やはりガイドとディザーを使った方がいいという結果になります。


一旦まとめ

ここまでをまとめます。
  • 経緯台だろうと、赤道儀だろうと、ディザーはあった方がいい。
  • 経緯台でディザーをするならば、かなりシンプルな撮影体制を構築することができる。ただし、画角回転は避けられない。同時に、1枚当たりの露光時間も10秒程度とかなり制限される。
  • 赤道儀を使うことで画角回転は避けられるが、オートガイドを使わない場合は、ピリオディックモーションのために1枚当たりの露光時間を伸ばすことはできない。
  • 赤道儀でも露光時間を伸ばしたい場合は、オートガイドは必須。
といったところでしょうか。

ここまでで大体の検証は終わりですが、露光時間を伸ばすための努力だったと言ってもいいかもしれません。その反証として最後にもう一つ、1枚当たりの露光時間が短い場合の弊害を見てみましょう。


6. 赤道儀SA-GTiでの3秒露光でゲインを0に下げる+ディザー+ガイド

ここではこれまでのSA-GTiの赤道儀で、露光時間を3秒に下げ、さらにカメラのアナログゲインも220から0にするという、極端な場合を示します。上の5が60秒露光だったので20分の1、さらにアナログゲインが220変わっているので、220 [0.1dB] = 22 [dB] = 20 + 2 [dB] = 10 x 1.26 [倍] = 12.6 [倍]小さくなります。露光時間と合わせると、1/(20 x 12.6) = 1/252  ~ 0.004と0.4%ほどの明るさになったということです。これで100フレーム、合計300秒=5分撮影した結果です。
Stack_100frames_300s_21_28_38_WithDisplayStretch_enhanced

たくさんの縦線と、淡いですが横線も見えています。これは俗に言う「読み出しノイズ (リードノイズ)」が見えてきてしまっているということです。露光時間が短かったり、ゲインが低かったりした場合にこのような状態になります。要するに暗すぎるということです。

同じ露光時間3秒でも、アナログゲインが220の場合はかなりマシになります。1枚当たりの露光時間は上と同じ3秒、100フレームで5分間の撮影は同じです。オートガイドをしていないので、ホット/クールピクセルの軌跡は残ってしまっています。かなり炙り出しているので、縦縞はまだ見えますが、横縞に関してはほとんど無視できます。
Stack_100frames_300s_21_17_26_enhanced

背景はまだひどいですが、面白いのはオリオン大星雲の中心のトラペジウムはよく見えているということです。どうも前回までに撮影したゲイン220で1分露光は少し明るすぎるのかもしれません。中心を取るか背景を取るか、ここら辺が難しくまた面白いところです。

いずれにせよ、露光時間が短いとか、ゲインが小さいとかで、写している天体からの信号が小さい場合、読み出しノイズが支配的になって、縦横の縞ノイズが現れてきます。ホットピクセルやクールピクセルが流れる縞ノイズは斜めに流れることが多いので、このように垂直、水平にノイズが出るようならば、自分の撮影時の設定が暗すぎはしないか、一度疑ってみるといいと思います。


まとめ

いろいろ検証しましたが、結局のところ、電視観望を利用した撮影と言っても、撮影の段階で解決できることはできる限り解決しておいた方がいいということです。

今回の結果から、電視観望技術を利用した撮影方法は、主に下の2つの方法に収束すると思います。
  • 経緯台で、短時間で、ガイドなしで、ディザーを使って縞ノイズを散らす方法は、シンプルという観点から十分使う価値がある。
  • 赤道儀で長時間露光を目指すならば、オートガイドとディザーを使う方がいい。ガイドなしだとピリオディックモーションで1枚当たりの撮影時間が制限される。
といったところでしょうか。

次回は、長時間露光のパラメータを探ってみます。










めだかと暮らすひとさんが、SharpCapでのライブスタック撮影で、縞ノイズに悩まされているようです。



ここではできる限り簡単な解決策の一つとして、ガイド無しのディザー撮影のやり方を示したいと思います。


縞ノイズの原因

 最近電視観望というと、リアルで見ると言うより、ライブスタックを使った簡単な撮影を指すことも多いようです。めだかと暮らすひとさんも、最近やっとAZ-GTiを赤道儀モードにして、視野回転のない追尾を実現したとのことです。でもまだガイド鏡もなく、ノータッチガイド(死語?)での撮影で、電視観望的にライブスタックを利用して、最後にスタックされた画像を処理しているとのことです。問題は、赤道儀の極軸が合っていないとライブスタックをの間に画面が流れていって、縞ノイズができてしまうことです。これは例え極軸が合っていたとしても、またガイド撮影をして画面が流れないように頑張っても、機材のたわみなどがごく普通に存在するので、1時間オーダーの長時間の撮影では縞ノイズが出ることがよくあります。

縞ノイズの原因は、ホットピクセルやクールピクセルなどの、センサーのある点にいつも存在する異常ピクセルが、画面の流れとともに全て同じ方向に動き、縞のようになることです。


縞ノイズの解決策

縞ノイズ軽減する方法の一つは、ダーク補正することです。SharpCapには簡単なダーク補正方法が搭載されていて、右側パネルの「ダーク補正」の「Hot and Cold Pixel Remove」を選び、簡易補正で済ませます。これはホットピクセルとコールドピクセルを簡易的に取り除く機能ですが、つい最近搭載されたもので、これまでは「Hot Pixel Removal Only」とホットピクセルのみの除去しかできませんでした。以前示したSharpCap上でダークファイルを撮影してリアルタイムダーク補正することもできますが、

ダークファイルでの補正だと基本的にコールドピクセルの補正はできないはずなので、簡易的ですが「Hot and Cold Pixel Remove」の方が有利な可能性が高いです。このオプションががある場合とない場合では数のような違いがあります。
comp
左がオプションなし、右がオプションありです。左の画像を見ると、赤とか緑の輝点が下向きに伸びているのがわかります、右もすごくよく見るとまだ輝点が残っているのがわかりますが、ほとんど目立っていないのがわかります。

それでもダーク補正では縞ノイズを軽減するだけで、完全に消すことはできません。一番確実な方法は、ディザー撮影をすること。ディザーというのは、長時間撮影の途中でわざと画面を数ピクセルとかずらして、異常ピクセルの影響を散らしてやることでかなり軽減できます。今回の問題はこのディザー、一般的にはガイド撮影と込で実現されるので、ガイド撮影をしていない限りディザーはできないと認識されているだろうことです。めだかと暮らすひとさんみたいに、ガイドをしていなくても縞ノイズを解決したいという要求はきっとあることでしょう。


ガイド無しディザーの方法

その方法ですが、前提としてSharpCapで経緯台、赤道儀などが接続されていて、SharpCapからコントロールできることです。赤道儀でなくてもコントロールできるなら経緯台でも構いません。今回はトラバースで試しました。トラバースはAZ-GTiのミニチュア版とも言える、自動導入、自動追尾機能がある経緯台です。

設定方法です。まずメニューの「ファイル」の「SharpCapの設定」の中の「ガイディング」タブで、下の画面のように「ガイディングアプリケーション」を3つ目の「ASCOMマウントパルス...」を選びます。

07_guide_setting
「ディザリング」の中の「最大ディザステップ」はある程度大きくしておいた方が効果が大きいです。私は「40」まで増やしました。値が小さいと効いているかどうかもわかりにくいので、最初多少大きめの値をとっておいて効果を確認し、大きすぎたら減らしていくがいいのかと思います。

その後、ライブスタックの下部設定画面の「Guiding」のところで、最初のチェック「Monitor Guideng Application...」をオンにします。「Automatically DIther」をオンにし、「Dither every:」でどの頻度ディザーするのか選びます。撮影の場合は「Frames」を選んで、何枚撮影することにディザーをするかを選んだ方がいいでしょう。実際には数分に1回くらい散らせば十分なので、今回の1回の露光時間が20秒とすると、10枚に1枚、3分ちょっとに1回ずらすことにしました。
05_dither

するとライブスタックで10枚スタックするごとに、下の画面のように上部にの緑色のバーが現れて、ディザーが実行されます。
06_dither

実際にディザーの効果があるか確認してみましょう。30フレーム分を動画にしてみました。輝点が右下に進んでいきますが、その途中で一度カクッと下に降りて、またカクッと上に上がるのがわかると思います。でもまだずれが少ないので、もっと大きな値でも良かったかもしれません。
Blink

実際のSharpCap上のライブスタック画面では、ディーザーが何度が進むと、最初に見えていたミミズが散らされてどんどん薄くなっていきます(すみません、画像を保存するのを忘れてしまいました)。

ただし、今回は雲がすぐに出てきてしまい、実際の長時間で縞ノイズが見えたわけではないので、ディざーなしで縞ノイズが出て、ディザーをオンにして縞ノイズが消えることを確認すべきなのですが、今回はとりあえず手法を書くだけにしました。後日確認ができたら、また結果を追加したいと思います。


ついでの画像処理

最後に、今回撮影した画像2種を仕上げてみました。FMA135にCBPを付け、Uranus-Cで撮ってます。課題はトラバースなので小さくて楽なものです。ただし経緯台なので星が回転もしくは流れてしまうので長時間露光はできず、1フレーム当たり20秒露光の露光で、ゲインは高めの300としています。共に、かなり淡いところまであぶ出していますが、上の動画でもわかりますが、少なくとも経緯台でガイド無しなので、撮影時にかなり流れてはいるのですが、これくらいの露光時間ではかなり炙り出しても縞ノイズは出ていないことがわかるかと思います。


M42: オリオン大星雲
オリオン大星雲はライブスタックで30フレームの計600秒、ちょうど10分経った時に保存したfitsファイルから画像処理しました。SharpCapの時点でスタックまで終わっているので、かなり楽です。星雲本体周りの分子雲も少し写っています。
Stack_16bits_30frames_600s_21_35_52_crop_SPCC_ABE4_BXT_MS2

向きを変えて星雲部分を切り取り。
Stack_16bits_30frames_600s_21_35_52_crop_SPCC_ABE4_BXT_MS_cut2

口径3cmの高々10分でこれならまずまずではないでしょうか。


M31: アンドロメダ銀河
2枚目はM31、アンドロメダ銀河です。こちらは途中雲がかかり、ライブスタック画像ではかすみがかってしまったので、別途1枚1枚保存してあったRAWファイルから、PixInisightでスタックして処理しました。トータル露光時間はM42よりさらに短く、14枚でわずか4分40秒です。
3856x2180_EXPOSURE_20_00s_ABE4_SPCC_BXT_GHT_HT_bg_rot
こんな短い時間でも、情報としてはある程度残っているものです。さすがにかなりギリギリ出しているので、どうしてもノイジーなのは否めません。


まとめ

今回は、ガイド無しでディザーする方法を示しました。まだ実際の長時間撮影はできていないので、またいつか試したいと思います。

曇りがちで十分な撮影時間をかけることができませんでしたが、それでも口径3cmでもそこそこ情報は残っていて、ある程度画像処理すれば十分見えるくらいにはなることがわかりました。途中で気づいたのですが、ライブスタック時にBrightnessフィルターを入れると、雲が入った時の画像のスタックを回避できるので、そういったことも今後試していきたいと思います。

こうやって見ると、小さなトラバースでも撮影に耐え得るくらい、十分に安定していることがわかります。



今回の目的はSWAgTi君を使って、ノータッチガイド撮影でディザーをすることです。

でも結論だけ言うと、現段階の環境でノータッチガイドで、ディーザーだけ追加というのは難しいと言うことがわかりました。どんなことを試したか、実際の撮影に即して書いておこうと思います。


たわみの影響

前回の記事で、極軸の精度について話しました。でも実際に撮影を始めてみると、合わせたはずの極軸精度よりも、一方向に大きく流れていってしまうことがわかりました。

原因の目処はついています。機材の撓み(たわみ)によるものです。ここで言う撓みとは、一般的なガイド撮影で問題となる「鏡筒とガイド鏡の相対的な撓み」のことではなく、「鏡筒、ガイド鏡、AZ-GTi、SWAT、三脚など、ありとあらゆるところで起きる撓み」のことで、影響は遥かに大きいです。

ガイド撮影の場合は、ガイド鏡で見た星の初期位置からのずれを赤道儀に返すことで、撮影鏡筒の向きがずれないよう補正します。それでも、ガイド鏡の固定が十分でなかったりすると、その撓みによってガイド鏡と撮影鏡筒の相対的なずれが発生して、撮影鏡筒での星像の流れに繋がります。でもこのズレは高々相対ズレに起因することなので、実用上はそこまで大きくはないです。それでも数時間とかに及ぶ長時間撮影では無視できない量になり、縞ノイズになることがあり、ディーザーを使い撮影途中で少し方向を変え、縞ノイズになる原因のホットピクセルやクールピクセルを散らしてやることにより、スタック画像ではほぼ影響がなくなります。

今回のノータッチガイドの場合の撓みは、撮影中に起きたどの場所で起きた機材の撓みもそのまま直結して星の流れになっていくので、遥かに影響が大きくなります。その大きさをざっくりですが見積もってみました。使ったのはSharpCapの曲軸調整機能です。

まず、使う機材を設置して、ガイド鏡を北に向けて、通常のように極軸調整をします。今回はFS-60CBの焦点距離が370mmと大して長くないことと、カメラがUranus-Cでそこそこセンサー面積が広いので、ガイド鏡を使わずに撮影鏡筒で直接極軸調整をしました。前回の記事でも書きましたが、微動雲台とか使わなくても、三脚の足の伸び縮みと水平方向の移動で、1分角程度の精度で合わせることは十分に可能です。調整の際に、赤道儀の赤経方向を90度程度傾けることで、カメラで見た製造の位置を比べ極軸方向とのずれを計算します。今回も下のように1分角以下程度、42秒角の精度で調整することができました。

04_polar_after

極軸調整が終わった直後は、最初の位置に比べて鏡筒が90度赤経方向に傾いた位置にあります。今回、この位置から再度極軸調整をスタートします。再びずれの計算のために90度赤経方向に回転し、元の位置に戻します。その結果が以下になります。

05_polar_after_right

本来、たわみなどなければ最初に調整した時と同じくらいの値の1分角以下程度が出なければなりません。今回は3分角程度のずれが出てしまっています。何度か試しましたが、毎回有意にこれくらいずれます。反対側に90度回転させて測定した場合は5分角位のズレになることもありました。これは90度赤経方向に回転した時の撓みの量相当のずれをそのまま表していることになるはずです。

というこうこは、撮影して赤経が回転していくにつれ、6時間で3分角から5分角はずれてしまうことになります。STAgTi君での撮影時間を仮に2時間としても、1-2分角位はずれてしまということです。前回計算したように、カメラの1ピクセルが1.6秒角に相当するので、40ピクセルから80ピクセルくらい、もし左右両方向の回転のずれを合わせると120ピクセルくらいずれる可能性があり、それくらいの長さの縞ノイズが出ても全くおかしくないことになります。

例えば2時間程度何もいじらずに撮影した実際の画像はライブスタック画像は以下のようになり、盛大な縞ノイズが出ていることがわかります。縦方向に典型的に120ピクセルくらいの縞ノイズになっていて、オーダー的には撓み起因のずれで縞ノイズになっていると考えておかしくなさそうです。

Stack_16bits_21frames_3780s

この撓みがどこから来ているのか?三脚なのか、SWATの固定なのか、SWATとAZ-GTiの固定なのか、鏡筒の載せ方が悪いのか、はたまた全体で悪さをしているのか?今後調査して、弱いところが見つかったら補強していく方向になるかと思います。


撮影時のテクニック「DECモード」

ここで一つ、SWAgTiでの撮影し際してのテクニックです。ユニテックさんが前回の「ほしぞloveログ」の記事を紹介してくれた際に紹介してくれました。

SWATは電源ケーブルを繋ぐことですぐに動作体制に入りますが、その際赤経方向に一旦大きくズレ、やがて戻ってくるキックバックのようなことが起きます。元に戻るまで数十秒待つことになります。これを防ぐためには、あらかじめSWATの電源を入れておいて、その際に追尾モードを「DEC」に合わせておけば追尾をしないでそのまま止まってくれます。AZ-GTiの追尾をオフにする際に、この「DEC」を「STAR」にすれば、キックなしでスムーズに移行できるとのことです。

実際私も試してみましたが、撮影の際の画面を見る限りジャンプの様なものは全く見えずみ、スムーズに切り替えることが出来ました。


ディザーで縞ノイズを回避したい

今回の記事のメインの目的です。撮影する際にディザーを試してみます。

すでにSWATでの追尾にしてあり、AZ-GTiはSynScan ProとASCOM経由でSharpCapと接続されていますが追尾は止めてある状態から始めます。


1. SharpCap+AZ-GTi

SharpCapの設定でガイドのタブを選び、3つあるガイド検知方法のうちの一番下のASCOMを選びます。ちなみに1番上がphd2で、次がMGENです。3つ目を選ぶことで、ガイドソフトがなくてもディザーをすることができるようになります。

02_gudesetting


SharpCap上でガイド(ガイドソフトが有り無しにかかわらず)をする場合はライブスタックモードにする必要があります。ここらへんがSharpCapがイマイチ撮影に対してはちょっと?なところなのですが、まあこういうコンセプトということでとりあえずはよしとしましょう。

さて、撮影開始という意味でライブスタックを始めますが、ここで問題発生です。なぜかAZ-GTiの自動恒星追尾が勝手にオンになるのです。なので、再度マニュアルでAZ-GTiの自動追尾をオフにして、ずれた位置を少し合わせ直して、ライブスタックをクリアして一から撮影を始めます。ディザーは3枚おきにする様に設定しました。SharpCapのライブスタック画面のガイドタブのステータスを見ていると、ディーザーをしようとしているように見えます。でも10枚ほど撮影してから画像をチェックしても、全然ディザーされてる様子が見えません。

いろいろ試してわかったことは、ライブスタックを始めるときに「ガイドをするように選択している」と、勝手にAZ-GTiの「自動追尾がオン」になること、それをマニュアルであえてオフにしたりして「自動追尾がオン」にならない限りディザー信号はAZ-GTi側に行かないことがわかりました。

言い換えると、SharpCapからSynScan Proに信号を送る限りでは、AZ-GTiの自動追尾をSWATに切り替えた状態で、ノータッチガイドでディザーをする方法はないということです。


2. PHD2を使い、カメラ赤道儀共にシミュレーター

気を取り直して、次の方法を考えます。返す先がSynScan Proでだめなら、他の場所にと考えPHD2を立ち上げました。この場合、SharpCapの設定でガイドのタブの3つあるガイド検知方法のうち、一番上のPHD2を選びます。

03_guide_setting

ガイド鏡は使っていないので、PHD2は単なる擬似ガイダーとして使います。とりあえずはPHD2の設定でカメラも赤道儀もシミュレーターを選びます。SharpCapのディザー設定で、ディザーは3枚おきにするようにしました。3枚目になるとSharpCapはディザー信号をPHD2に送り、PHD2も反応していますが、AZ-GTiには信号が行かないようで、ディザー時にきちんと画角がずれている様子が全く確認できません。返す赤道儀がシミュレーターなので理解できる結果です。


2. PHD2を使い、カメラはシミュレーターだが、赤道儀はSynScan Proに設定

次に、カメラはシミュレーターで、赤道儀はSynScan Proを選び、実際にAZ-GTi信号を返すようにしてみます。確認ですが、ディザー信号だけ返したくて、SWATの精度を生かすためにガイド信号は返したくないです。

まず、PHD2の設定でガイド信号を返さないオプションを選んでみました。Advanced Setupの「guiding」タブの「Enable mount guide output」のチェックマークを外します。ですが、この状態だとSynScan Pro側に信号が全く行かないようで、ディザー信号も返すことができず、ディザー動作はしないようです。

次に、「Enable mount guide output」にチェックを入れ直して、ガイド信号を返すようにします。この場合も、ディザー信号のみ返してガイド信号は返したくないので、Agrを最初の0、MinMo(ズレがこの値を超えたら信号を赤道儀に返す)を最大の20、Hysを最小の10などとします。

04_PHD2_screen
ダミーカメラでSynScan Proに返しているため、
何度かディザーをしたあとはターゲット星が全然ずれてしまいます。

これは短時間では一見うまくいきます。3枚撮影するごとにディザー信号のみSynScan Proに返すようにしたので、3枚おきにディザー信号がAZ-Gtiまで行き、実際に指定したピクセル(上の設定だと50ピクセル)分だけ動きます。目で見てその動きがリアルタイムでわかるので、やっとうまくいったと喜んでいました。問題はそのまま長時間撮影が続いた場合です。疑似カメラのターゲット星からのズレがまだ小さい場合はいいのですが、そのズレが何度かディーザーを繰り返しある程度大きくなると、最大時間まで待って(上のSharpCapの設定だと20秒間)再び3分露光が始まります。さらに、あまりにターゲット星とのズレが大きくなると、PHD2の方でガイドが始まってしまい、これは実際にSynScan Proに信号を返していくので、その後どんどんズレが大きくなり、カメラは疑似カメラのままでフィードバックされたことを検知しないので収束することなく、最後破綻します。

あと、この過程で気づいた最大の問題は、AZ-GTiの精度がSWATと比べると悪いために、ディザー信号をAZ-GTiに返すと大きく揺れ過ぎてしまうことです。そのため、十分な緩和時間を取る必要があるのですが、上の20秒とかでは短すぎるようで、分単位の緩和時間が必要そうな様子です。


今後どうすべきか

今回はここで詰みとなりました。PHD2のパラメータはもう少し探れば何か見つかるかもしれませんが、大原則でディザーだけ返すというのはダメそうでした。その後、2軸ガイドとかも試したのですが、これはまた機会があったら記事にします。

ここまで試した上で、必要なことを考えてみます。とにかく大事なことは、ガイド信号を返さずに、ディザー信号だけ返すようなソフト側の対応です。今のところ一番見込みがあるのが、ASCOM経由でSynScan Proに信号を送る方法です。SynScan Proの恒星時追尾だけオフにして、SharpCapからのディザー信号をSynScan Proが受け取って実際にAZ-GTiを動かすことですが、上述のように恒星追尾をオフにするとディザー信号は伝わらないようで、今のところこれはできません。それでもSharpCapの矢印ボタンには反応するので、この矢印ボタン相当のところに返すことができれば、今回の目的は達成できそうです。

PHD2は触ってみた限り、そもそも外部から来た信号とPHD2から出す信号の区別がつかないようで、ディザー信号だけAZ-GTiに出すというのは根本的に難しいようです。

それでも原理的にソフト側で解決できる問題ではあるので、今のところはいつか解決するのを期待することとします。


せっかくなので仕上げてみる

ディザーは諦めたのですが、3日ほどに渡ってM27を色々試しながら撮り溜めた画像があり、それぞれバラバラの位置で撮影しているので、ある意味ナチュラルディザー状態になっています。せっかくなので仕上げてみます。


masterLight_180.00s_ABE124_SPCC_BXT_MS_NXT3
  • 撮影日: 2023年7月17日22時18分-23時16分、7月22日1時40分-2時6分、7月22日21時55分-23時39分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: TAKAHASHI FS-60CB+マルチフラットナー(f370mm、F6.2)
  • フィルター: サイトロン Dual Band Pass (DBP)
  • 赤道儀: SWAT+AZ-GTi
  • カメラ: Player One Uranus-C(常温)
  • ガイド: なし
  • 撮影: SharpCap、bin1、Gain 200、露光時間3分x57で総露光時間2時間51分
  • Dark: Gain 200、露光時間3分、常温、64枚
  • Flat, Darkflat, Gain200、0.05秒、64枚
  • 画像処理: PixInsight、Photoshop CC

ある程度長時間連続で位置をずらさずに撮影した分の縞ノイズは多少なりとも出てしまいますが、画像処理でなんとかできるレベルです。今回はM27の周りの淡い羽部分が少し見え始めるくらいまで出すことはできました。

今回の撮影は富山の住宅街での自宅撮影なので光害はそこそこあります。これ以上出したい場合は、もっと鋭いワンショットナローバンドフィルターを使う、ナローバンドとモノクロカメラで撮影する、口径を大きくする、露光時間を伸ばすなどの工夫が必要になってくると思います。また、ダークノイズに関しては非冷却カメラはどうしても不利で、特に夏場の暑い夜はかなりのノイズが出ていることが1枚ショットの画像を見るとよくわかります。冷却のためのケーブルは増えてしまいお気軽撮影からは少し遠くなりますが、夏場で淡い天体を撮影する場合は冷却カメラの恩恵は無視できないでしょう。

今のところオートでディザーをする方法は見つかっていないので、縞ノイズがどうしても気になる場合は、少し面倒ですが、適時LiveStackの露光を一時停止して、マニュアルでランダムに位置を少しずらしてやれば、気にならないレベルに持ってくることができると思います。

SWATとAZ-GTiの組み合わせのSWAgTiというお気楽撮影に、少しだけマニュアルディザーをするという工夫を加えるだけで、ここくらいまでは出すことができることがわかってきました。


まとめ

結論としては、今のところノータッチガイドで撮影すると、どうしても縞ノイズが出てしまいます。ディザーはソフト側の対応が必要そうです。あと、AZ-GTiとの精度差があるので、十分な緩和時間をとることです。

マニュアルディザーである程度回避できるのですが、何かもっと簡単な方法はないのか?どうなるSWAgTi...



寒冷地でのSWAT

ユニテックさんとやりとりしていて、また面白い情報を聞くことができました。もしかしたら興味があるかともいるかと思いますので、共有します。SWATの寒冷地での使用についてで、個別で対応してくれるかもと言うことです。以下、ユニテックさんのメールから抜粋です。

「ちなみにSWAT用のグリスは-50℃に対応したものを使っています。ただし-50℃対応はグリスメーカーの仕様書での値でSWATの動作を保証しているわけではないです(試したことがない)。公称してませんが、実用最低温度は-10℃程度(自分で試した値)としています(-20℃で動いたという報告はあります)。

ただしボールベアリングは汎用のシールド型なので、-20℃くらいが限界と思います。寒冷地仕様の場合は、開放型のボールベアリングにして、上の-50℃対応のグリスにします。金属の収縮率の違いもあるので、極低温動作を保証してトラブルになると大変なので…。

寒冷地仕様は各部クリアランスをわずかに大きくつける(熱収縮を考慮して)ので、遊びが大きくなるデメリットもあり、個別に希望した方のみの対応です。こういった小回りが効くのは手作りの弱小メーカーだからですね。(笑)」

とのことです。もし寒冷地で使うことを想定している場合は、個別に相談してみるのがいいのかと思います。





 
 
 
 
 

今週は週末に近づくにつれ、どんどん晴れてきました。透明度も良さそうです。少し月が沈むのが遅いですが、久しぶりの気合の入った撮影です。


久しぶりに気合を入れて準備

木曜の夜、仕事が終わってから少し撮影しようと準備したらすぐに曇って仕方なく撤収。しばらくして寝る直前に空を見たら快晴で、すごい透明度でした。でも次の日仕事もあるので、泣く泣く諦めることに。

金曜の夜も晴れてそうです。この日も昼間の立山を見る限り透明度はまだ良さそう。せっかく透明度がいいので、たまには暗いところに行こうと、機材を準備して車に荷物を積み込みました。と言っても、前回田んぼに映る天の川を撮ったところ。通勤途中を一本外れて山の上に向ったくらいで、自宅からも20分くらいの近距離です。

ターゲットはアンタレス付近です。焦点距離の短いカメラレンズにするか、FS-60CB+レデューサーにするか迷いました。2年前に同じ場所を撮影した時にはまだレデューサーも持っていなくて、フラットナーも旧タイプのもので撮影していました。まずは少し視野を広げた状態で撮ってみようと、FS-60CB+レデューサーを選びました。うまくいったら、いつかもう少し短い焦点距離のカメラレンズで少し広い視野で撮ってみようと思います。

IMG_0184
TSA-120用に用意したガイド鏡もつけたら、結構禍々しい機器になってしまいました。

このレデューサーをつけると、短いアダプターを外さないとピントが出ません。短いアダプターのところを鏡筒リングで固定していたので、それができなくなり、カメラ回転アダプターを内側に入れ込みその外につけたレデューサーを鏡筒アダプターで固定しなくてはいけません。暗いところでこれをやると難しいので、明るいうちにカメラの角度も含めて変更、調整しておくことがコツです。

月がしばらく明るいので出発までに少し仮眠をとります。22時頃、空を見ると少し雲がありますが、昨日のように途中から晴れることも十分あるのでとりあえず出発です。


自宅外での撮影でトラブル続出

現場に到着しましたが、月のある西方向は晴れ。でも肝心の東から南にかけて厚くはないですが雲がかかっています。少し迷いましたが、とりあえず設置を始めます。運良く設置途中からどんどん晴れてきて、全面快晴になりました。

ところが撮影準備の間、いくつかトラブルがあり撮影開始時間が結構ギリギリになってしまいました。
  1. 最近撮影用PCで活躍しているSurfaceでSharpCapのPolar Alignで極軸を取ります。N.I.N.Aで一眼レフカメラでまだ撮影したことがなかったので、今回挑戦しようと接続までしましたが、温度情報が読み取れなさそうなことに気づき諦めました。
  2. 仕方ないのでBackYard EOSに移ろうとしたら、SurfaceにはBackYard EOSがインストールされていないことに現場で気づき、急遽Stick PCに変更。
  3. Stick PCに交換し、BackYard EOSを立ち上げても、なぜかカメラを認識せず。BackYard EOSを再起動したり、PCを再起動したりで、気づいたのはUSBケーブルがまだSurfaceにつながったままだったこと。これだけで20分くらいロスしました。
  4. そのころにはアンタレスが南中を超え始めていたので、赤道儀を反転させたのですが、その後StickPCがネットワークに繋がらなくなりました。StickPCはモニターがないので、ネットワークに繋がってないと画面を見ることもできないのです。外に出た時はELECOMの小型ルーターを持っていっているのですが、とりあえず原因がわからず、PCを再起動してだめ、ルーターを再起動してやっとつながりました。これで10分くらいのロス。
結局トラブルだけで40分位のロスがあり、やっと撮影を始めたのが月が沈んだ30分くらい後の午前1時少し前でした。

でもその後は順調そのもの。以前この領域の長時間撮影で縞ノイズに悩まされたので、今回はPHD2でガイドしながら、BackYard EOSと組み合わせてディザー撮影をします。FS-60CBに0.72倍のレデューサーをつけるので、焦点距離は255mmでF4.3程度になりかなり明るくなります。なので、ISO800で露光時間180秒としました。

IMG_0177

風が多少強かったですが、CGEM IIに軽い鏡筒を載せているだけなので、多少ガイド信号は揺れますがこの短い焦点距離では問題にならないでしょう。一枚撮りでもすでに色が出ていますし、暗黒帯の暗い部分も見えています。期待できそうです。

IMG_0178

薄明までの2時間少し、意外にもちょっと寒いので基本的に車の中で待機です。その間にTwitterに投稿したり、ちょくちょく外に出て久しぶりの濃い天の川を満喫したりと、少し眠気もありましたが、すぐに時間が経ってしまいました。結局撮影できたのは1時間半分くらい。ディザーがそれぞれ1分くらいかかるので、少しもったいなかったです。途中、マニュアルで数枚に1回だけディザーするようにしました。

あ、そうえいば撮影中、なんでも名前解決の問題か何かでずっと天リフ接続できなくなっていて寂しかったです。普段いかに天リフを見ているか実感できました。

薄明開始の午前3時頃、実際に少し明るくなってきたのがわかり、ダウンロードされた画面を見ても背景の明るさが変わってきたので、ここで撤収としました。夏至の近くだと薄明までいてもまだ時間が早いので、寝る時間があるのがいいですね。片付け後すぐに車を走らせ、午前4時頃には自宅に到着し、そのまま寝てしまいました。

次の日、フラットとダークを撮影して画像処理です。フラットは昼間の自然光を利用して100枚ほど撮影しました。ダークは冷蔵庫と冷凍庫を利用して温度を調節しながら撮影。89枚撮影して、適当な温度に入った34枚を使いました。


画像処理

画像処理はいつものPixInsightで、今回はWeightedBatchPreprocessingを使ってみました。出始めの時に少し使いましたが、あまり変化がわからずその後はBatchPreprocessingでした。NiwaさんのブログでWeightedBatchPreprocessingについて詳しく解説されていたので、久しぶりに使ってみました。と言っても比較とかまではしていないのでただ使っただけです。

撮影したライトフレームは35枚で、全て使うことができました。あとは新たに撮影したフラット、ダークフレーム、使い回しのバイアスを使います。後はいつものStarNet++で分離してPhotoshopで処理です。今回は細部を残したかったのでDeNoise AIは無しです。

「アンタレス付近」
masterLight_EXPTIME_181_5_DBE_PCC_DBE_AS_all_PS8_cut

  • 撮影日: 2020年5月30日0時47分-3時11分
  • 撮影場所: 富山県富山市小糸
  • 鏡筒: FS-60CB+0.72倍専用レデューサー(合計焦点距離255mm)
  • 赤道儀: Celestron CGEM II
  • カメラ:  Canon EOS 6D(HKIR改造, ISO800, RAW)
  • ガイド: PHD2 + f=120mmガイド鏡 + ASI178MCによるディザリング
  • 撮影: BackYard EOS、露光時間180秒x35枚 = 1時間45分  
  • 画像処理: PixInsight、StarNet++、Photoshop CC

透明度など条件が良かったこともあり、1時間半程度の露光時間でしたが、色もそこそこ出てるのでまあ満足です。暗黒帯もきれいに出ています。今回、思うところがあり、少し派手目にしてみましたがどうでしょうか?

反省点を挙げるなら、青と黄色はいいのですが、まだ赤の諧調が乏しいです。特に下の方の広い赤の領域はもう少し時間をかけたいところでしょうか。

Annotationです。少し文字を大きくして見やすくしてみました。あと今回気付いたのですが、文字の大きさとか変えて再度レンダリングすると、前の文字が残ってしまうようです。その場合、一度ImageSolveからやり直すとリセットされて、前の文字は出てこなくなります。

masterLight_EXPTIME_181_5_DBE_PCC_DBE_AS_all_PS8_cut_Annotated



ちなみに、2年前のものがこれです。

light_BINNING_1_integration_DBE_ABE_color_cut

この日も透明度は悪くない日でした。露光時間が51分で少し短いですが、あとの違いはレデューサーだけです。あ、ディーザーもやってなかったですね。やはり2年の間に色々と進化していると思います。この次の週に3時間撮影したのですが、

light_BINNING_1_integration_DBE_min_color_stretch_ps_cut

縞ノイズが酷くてあまりうまくいかなくて、その後、昨年は天気がよくなかったりとかで、なかなかチャンスがありませんでした。2年越しでディザーもできて縞ノイズも克服できて、やっとそこそこ満足です。


まとめ

自宅外での星雲撮影は久しぶりでした。特にこれだけカラフルな領域はフィルターがなかなか使えないので、やはり暗いところはいいです。天気も良く、透明度が良くて、月もなくて、次の日休みでとなると、年間でも何日もあるかどうか。まだやっと自粛ムードが解けたくらいで、遠征とまでは行きませんが、近征でもこれだけ色が出れば悪くない環境です。まあ、田舎暮らしの数少ないいいところでしょうか。


最近話題のNINAを試してみました。すごくいいです。試したのはVISACでM13を撮影したときです。


N.I.N.A.を使ってみた

そもそもAPTをまともに使い始めたばかりなのに、なんでNINAを使ってみたかというと、APTで少し不満があったからです。
  • Live viewの映像がうまくストレッチできない。
  • ピント合わせで拡大できない。
  • 撮影ごとのログが残らない。fitsに特化しているので、各ファイルの中に情報は含まれてますが、いちいちヘッダを見なくてはならないのが少し不満です。
  • 撮影中の設定が結構制限される。例えばカメラのカラーバランスやストレッチの設定など、撮影中も触りたいのにできない。(でも、撮影中に弄れたことも一度だけあるのですが、再現性無しです。不思議です。)
と言っても、上のように細かいことだけで、普通に撮影するだけならAPTは十分な機能を持っています。「今回の撮影は前と同じM13で、余裕があるので失敗してもいいからNINA試してみようか」くらいの気分でした。しかもNINAで上記不満が解決されたかというと、実はそうでもなく、せいぜいLive Viewがマシになったくらいでしょうか。

でもそれ以外にいい所がかなりあり、極めて順調に撮影までできたので、この記事を書いています。


N.I.N.A.のインストール

ダウンロードはここからです。

2020年5月13日現在、最新の安定バージョンは1.9ですが、事前情報から日本語を使うためにはベータバージョンを使う必要があり、Version 1.10 BETA002(5月16日の今日、アクセスしてみたらすでにBETA004になっています)をダウンロードしました。

Windows版のみ存在し、MacやLinux版はないようです。32ビット版と64ビット版がありますので、各自の環境に合わせて選択します。自分のWindowsが32ビットか64ビットか分からない場合はここなどを参考にして確認して下さい。

今回は64ビット版を使ってみましたが、注意事項が書いてあって、もしNINAの64ビット版を使う場合はASCOMも64ビット版を使う必要があるそうです。いくつかのASCOMドライバーは未だ32ビットのままなので、その場合は32ビット版を使うか、64ビット版のドライバーの開発を促してくれとか書いてあります。とりあえず今回の使用(一通りセットアップして、plate solvingして導入、長時間撮影とかするくらいまで)では64ビット版で困ることはありませんでしたが、たくさんの機器を繋いで本格的に稼働させるとかの人は32ビット版の方がいいのかも知れません。

インストールは普通にやれば特に困ることはないでしょう。


最初の設定

インストール後、起動して一番最初にやるべきことは左端アイコン群の一番下「オプション」の「一般」の設定でしょう。そもそも日本語になってないと「Options」の「Genaral」になっています。まずは、そこの「Language」を「Japanese(Japan)」に変えます。変えた瞬間に日本語に切り替わるのが素晴らしいです。でも後から再起動して気づいたのですが、細かいところ、例えば先ほどの「Japanese(Japan)」は再起動して初めて「日本語(日本)」に切り替わるので、全ての項目が瞬時に切り替わるわけではないようです。一応言語を切り替えたら、一旦終了して立ち上げ直した方がいいでしょう。

同じページで「天文測定学」(ちょっと訳が微妙ですが)で緯度、経度を写真のように「137.12」などという形式で「度と分だけを小数点で区切った形」で入れておくといいでしょう。後の「スカイアトラス」のところで正しく表示されるようになり、撮影時間などの目安を立てやすくなります。


IMG_0090

「オプション」「撮像」「画像ファイルパス」で、撮影した画像を保存する場所を指定できます。好みの適当なところにしておくといいでしょう。


機材の接続

最低限の設定がとりあえず終わったら、次は「機材」ページです。この時点で、必要な機器はケーブルなどで実際に接続しておいた方がいいでしょう。今回設定したものはカメラ、望遠鏡(赤道儀のこと)、ガイダーです。これら3つは接続すると縦に並ぶアイコン群の右下に小さな電源マークが出るので、何が接続されているのか一目で分かります。

IMG_0087

それぞれのページの一番上で接続したい機器を選択し、その右の電源マークのアイコンを押して「接続」します。例えばカメラなら、すでにカメラが接続されていれば上の写真のように「ZWO ASI294MC Pro」という選択肢が出てきます。カメラが繋がれていないとASCOMとかN.I.N.A.のシミュレーターカメラとかしか出てこないので注意です。もしきちんとカメラにケーブルをつないでいても、つないだカメラ名が出てこない場合は、接続アイコンの左の矢印が回っている「デバイスの再スキャン」を押すと再認識されて、選択肢として出てくることがあります。

うまくカメラが接続できると温度制御やゲインの設定などができるようになります。冷却は設定温度を決めて、右横の雪の結晶マークのアイコンを押すだけです。撮影終了時の昇温は下の炎マークのアイコンを押します。オフセットはダークファイルのオフセットより大きな値が入っていればいいのかと思います。通常数十とかでしょうか。ゲインは後の「撮像」のところで改めて設定するので、適当でいいです。


適当な天体の導入と、PHD2でオートガイド

とりあえず、赤道儀での自動導入でも、マニュアル導入でもいいので、撮影したい適当な天体を導入します。最初はテスト撮影だと思って下さい。NINA自身の導入機能「フレーミング」については次回の記事で説明します。

一旦撮影したい天体が導入できたら、PHD2を起動してオートガイドを始めます。その際ですが、PHD2で赤道儀に接続した時に出てくる4方向ボタンのの小さな画面が後で導入すうる時に便利になるので、できればボタンを押してきちんと赤道儀が反応するか確かめておくといいでしょう、

きちんとオートガイドされていることが確認できたら、「オプション」「ガイダー」で、PHD2に接続して下さい。もしかしたら自動的に認識されて、すでに接続された状態になっているかも知れません。もし選択肢にPHD2が出てこなかったら、「オプション」「機材」の右下の「ガイダー設定」できちんと「PHD2パス」が設定されているか確認してみて下さい。私は先にPHD2を動かしていて、うまく動いている状態でNINAを立ち上げたので、特に何も設定する必要はなかったですが、うまくいかない場合はここが設定画面になるはずです。

IMG_0096

うまくPH2Dが接続されると、ガイドされているグラフが「機材」「ガイダー」のところに表示されます。PHD2の制御情報がそのままNINAで表示されるのがすごいです。左の方の選択で、y軸、x軸の表示設定とともに、誤差の単位を変えることができます。下の写真ではピクセル単位にしています。概ね0.5ピクセル以内に収まっているでしょうか。

IMG_0089

ついでにここで、NINA上でも赤道儀との接続も済ませておきましょう。PHD2がうまく動いているなら、すでに赤道儀はPCと接続されているはずです。NINAの「オプション」「望遠鏡」で自分の赤道儀のドライバーを選択し、右の「接続ボタン」で接続します。

IMG_0088



撮像

次はNINA画面の左端アイコンの下から二番目「撮像」ページです。ここは盛り沢山で混乱しますが、最初は最低限の機能から試します。

IMG_0094

まずは右上の「撮像」パネルのところのシャッターマークの「露光開始」ボタンを押して一枚テスト撮影して見て下さい。その際、「露出時間」は適当に10秒くらい、「ビニング」は1x1、「ゲイン」は200から400くらいいいでしょう。これらの設定はテスト撮影の時のみ有効で、本撮影では別の設定項目があり、そことは独立に設定ができます。撮影中は左下に「撮像:露出中」とか出て、時間バーが動いていきます。一枚撮影すると画像が出てくるはずです。望遠鏡の蓋がきちんと外れていて、ピントも合っていて、何かターゲットが入っているはずなのに真っ暗な画面しか出てこない場合は、撮影画面の上の右側にあるアイコン群の真ん中の棒のようなマークの「画像の自動オートストレッチをトグルスイッチでオン/オフする(表示のみ)」を押して、ボタンが明るくなるのを確認して下さい。同時にオートストレッチが効いて撮影画面も明るくなり、星などが見えてくると思います。

右上の「撮像」パネルのカメラマークの「ライブビュー」も同様です。「露出時間」を1秒とかにして「オートストレッチ」をうまく使って、リアルタイムで連続してみることができます。ただ、この「ライブビュー」うまくいかないことが何度かありました。「ライブビュー」ボタンを押して「露光開始」を押してうまくいったときもあれば、画面の拡大率を変えてうまく行った時もあります。同様のことをしてエラーが出たこともあります。ライブビューはまだ少し不安定な気がします。

ちなみに、この撮像画面のパネル、入れ替えとかしてぐちゃぐちゃになってしまったら、「オプション」の「撮像」タブにいき、右下の「画面配置のリセット」でデフォルトの設定に戻すことができます。


シーケンス設定

次にNINA画面左のアイコン群の「シーケンス」を押します。撮影計画をここで設定します。最低限
  • トータル#
  • 時間
  • ゲイン
  • オフセット
  • デザリング
だけ設定すればいいでしょう。デザリングはデフォルトでオンになっているようですが(下の写真はオフになっています。この場合ボタンを押して「オン」と表示されるようにしてください。)、PHD2が動いていてサーバーモードになっていれば、これだけでデザリングもできてしまいます。

IMG_0097

ちなみに、ディザー量などは「オプション」「機材」の右下の「ガイダー設定」で設定します。

シーケンス画面の左上の「対象」のところの「ターゲット名称」のところに希望の天体名を打ち込むと候補が出てきます。例えば「M13」と入れると「Herucles Globular Cluster」と出てくるので、それをクリックします。すると何時頃が撮影どきかとかも知らせてくれます。これと関連して、NINA画面左のアイコン群の「スカイアトラス」でも同じようなことができます。

IMG_0098

これらの画面にある「ガイド開始」「対象の導入」「ターゲットをセンタリング」「シーケンスの対象として設定」「導入」などのボタンはまだ試していません。ここら辺を駆使すれば、時間がくれば自動的に導入して撮影を始めるとかができるのかと思います。ドームでの撮影などでは便利なのかも知れません。


いよいよ撮影開始

さて、最低限の撮影準備が整ったと思います。いよいよ本撮影です。

IMG_0094


左端アイコンの下から二番目「撮像」ページに戻り、右側真ん中の「シーケンス」パネルの三角の再生マーク「シーケンスを開始します」を押して下さい。撮影が開始され、順次右下の「画像履歴」パネルに撮影された画像が溜まっていくと思います。Windowsのエクスプローラで実際に保存先フォルダを見て、ファイルがきちんと保存されているか確かめて見ましょう。私は一番最初だけエラーメッセージが出て、ファイルが保存できないと言われました。これは撮影中に保存先を変更してしまったことなどが原因かと思われます。最初の一度きりで、それ以降はこのようなエラーはなく安定して撮影できました。

撮影時の注意事項ですがが、あえてシーケンスの「リセット」ボタンを押さないと、途中枚数からの撮影が続行されてしまいます。テスト撮影で止めてしまった時など、必要枚数に達しなくなる時があるので、本撮影を始める時は必ず「リセット」を忘れないようにします。左端アイコン「シーケンス」に行って、左下のアイコン群の左から三番目の矢印が回っているマークのアイコンを押すとまた0枚に戻ります。

とりあえずここまでで、最低限のディザーの撮影までできるかと思います。


使っての感想など

うーん、NINAかなりいいです。もちろんどのソフトがいいかは機能だけでなく、インターフェースとかの好みはあるでしょうし、安定性なども大きなファクターです。NINAはまだまだ開発がどんどん進んでいる段階で、しかも今回はベータ版にもかかわらず、一度も落ちることはありませんでした。実は立ち上げてから一度も終了することなく撮影までできてしまうくらい分かりやすいインターフェースでした。オープンソースでこれだけのものができるのは、開発者の方々にただただ感謝です。

ベータ版ですが、すでに日本語が選択できるところもありがたいです。日本語訳もおかしなところはほとんどありません。どなたか日本人の貢献者がいらっしゃるのかと思います。感謝いたします。


感想など、細かいところをいくつか。
  • オンオフボタンがわかりにくいです。オンとオフどちらを押してもスイッチが切り替わってしまいます。どうやらボタンのところに「オン」と出ていたら「現在はオンの状態」、「オフ」と出ていたら「現在はオフの状態」という意味のようです。
  • ライブスタックはSharpCapと比べると流石にまだまだですが、APTよりははるかにマシです。多少不安定なところもありましたが、最低限操作の通りには動いてくれます。
  • 結局撮影ごとのログは残せませんでした。全体のログは残せるがトラブル時以外はあまり有用ではなさそうです。
  • 撮影中もほとんどの設定を変更できるところがいい。
  • 非力なStickPCで試さなかったので、重いかどうかがわかりません。でもホームページには2GBで動くと書いてあるので、意外に軽いのかも知れません。

とりあえず今回はここまで。次回はもう少し応用編として、「プレーとソルブ」と「フレーミング」などについて解説します。実はもう試してはいて、プレートソルブは簡単だったのですが、フレーミングに少し手間取りました。お楽しみに。

多分このシリーズ、長くなります。普段の記事を全然長いと思っていない私が長くなると思っているので、多分本当に長くなります。試したいことがありすぎるので、書けるとこまで書きます。途中で力尽きたらごめんなさい。

今回縞ノイズの一つを、多分特定しました。最初に断っておきますが、限られた条件でのことかもしれません。この記事を読んで試してみても、全然効果がなかったと言う方もいるかもしれません。ですが幾らかの悩んでいる方の解決にはなると思います。私自身、他の方の環境でどうなるか興味があるというのもあります。

comp

この比較写真のように違います。左がこれまでの縞ノイズ、右が無くなった(実際には軽減された)場合です。以下、詳しく説明します。


バラ星雲で出た縞ノイズ

この間のEVOSTAR 72EDでのバラ星雲の撮影で、ディザーをしなかったために縞ノイズが出たという報告をしました。

integration_DBE_PCC_AS_cut


その後、上記の縞ノイズを可視化した記事を書きました。この動画は結構反響が大きかったので、ご覧になった方も多いかと思います。






なぜか突然縞ノイズが消えた!?

この後、もう少し縞ノイズの検証をしてみようとファイルをいじってみました。とりあえずシンプルなところからと思って、rawのlight frameをDebayerしてStarAlignmentだけして縞ノイズを再現しようとしたのです。ところがところが、縞ノイズが綺麗さっぱりなくなっています。

integration

拡大です。
integration_cut

え?
なんで?
全然縞ノイズ出てないじゃん!
せっかく縞ノイズの解析しようと思ってたのに!

さあ、ここからが戦いの始まりです。


PixInsight用語

今回、PixInsight (PI)用語がたくさん出てきます。PIに慣れていない方のために、簡単に解説しておきます。
  • PixInsight: 世界的に有名な天体画像処理ソフト。英語でものすごくとっつきにくいが、高機能。
  • BatchPrepocessing: 撮影したファイル(light, bias, dark, flatなどの各frame)を掘り込んでおけば、スタックまでボタン一発でやってくれる便利な機能。
  • master: bias, dark, flatなど、他数枚の補正ファイルを一度処理すると、スタックされた一枚のmasterというファイルをそれぞれ作ってくれる。以降はそれを使うと処理時間を削減できる。
  • ImageCalibration: BatchPrepocessingのような自動で処理する以外に、マニュアルでもっと細かくオプションを指定しながら処理する方法がある。これはbias, dark, flatなどの補正をマニュアルでする機能のこと。
  • Debayer: 同様にマニュアル処理の一つ。モノクロのBayer配列のRawファイルをカラー化すること。
  • StarAlignment: マニュアル処理の一つ。多数枚数の画像の星位置を合わせること。PIでは平行移動、回転にのみならず、画面を歪ませて星の位置をそれぞれ合わせることができる。
  • ImageInteglation: マニュアル処理の一つ。他数枚の画像をスタックすること。
  • ScreenTransferFunction: 簡易的にストレッチ(明るくすること)をする機能。見かけの表示のみをいじるので、ファイルには何の手も加えない。見かけを適用したい場合はHistgramTransfomationを使う。
  • Auto Stretch: ScreenTransferFunctionの一機能。あぶり出しのすんでいないまだ暗い画像などを、そこそこ見やすいように自動でストレッチする機能のこと。超便利。
  • DynamicBackgroundExtraction (DBE): 背景の被りや周辺減光などをソフト的に除去する機能。任意の補正点を指定できるので、星雲部分の補正を避けるなど細かい補正が可能。超便利。
  • AutomaticBackgroundExtraction (ABE): 背景の被りや周辺減光などをソフト的に除去する機能。細かい補正はできないが、大局的に補正してくれるので簡単で便利。
  • TVGDenoise: PI場で最強と言われているノイズ除去機能。

比較条件

今回検証するRAWファイルは全て同じです。他に共通撮影条件は
  • 鏡筒: SkyWatcher EVOSTAR 72ED + x0.72レデューザー、焦点距離300mm
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • ガイド: ASI178MCと50mmのCマウントレンズをPHD2にて
  • 撮影条件: SharpCapでゲイン220、温度-15℃、露光時間300秒x20枚 = 1時間40分
  • ディザー: なし 
  • ファイル保存形式: RAW16bit、fits形式
  • フィルター: サイトロン QBP(アメリカンサイズ)
となります。

今回の検討を始める前までに、縞ノイズが出た時の処理と、出なかった時の処理の違いを書いておきます。処理は全てPI上でやっています。
  • 縞ノイズあり: BatchPreprocessingでbias補正、dark補正、flat補正を適用し、走らせた。
  • 縞ノイズなし: マニュアルでDebayer、StarAlignment、ImageInteglation。
この中に決定的な違いがあるはずです。以下、各補正ファイルの条件です。全てSharpCap上で撮影していて、最初の処理でmaster fileができるので、以降はそれを利用。
  • bias frame: ゲイン220、露光時間が最小の0.032ミリ秒で、100枚撮影。
  • dark frame: frat frame撮影後、片付けの後すぐに、家の中で撮影。ゲイン220、露光時間300秒、-15℃で、28枚撮影。
  • flat frame: light frame撮影後すぐに、鏡筒に状態でスーパーの白い袋を2重に被せて撮影。ゲイン220、露光時間300秒、-15℃で、7枚撮影。

処理結果に大きな違いが出ていて、検証材料も全て揃っているので、何が違いに影響しているのか順に検証していきます。


検証過程

ここからはほぼ実際にやった手順です。
  1. まず、再度BatchPreprocessingとマニュアル処理で再現性を確認。->きちんとBatchPreprocessingのときには縞ノイズ出て、マニュアル処理では出ないです。再現性はきちんとあります。
  2. 次に、一番怪しくないと思ったflat frameのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「うーん、あんまり関係ないよな。」
  3. 次、一番怪しそうなbias framaのみを適用させBatchPreprocessingで処理 -> 縞ノイズ消えた!「そりゃbias必要でしょ。」
  4. 次、flatとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「あれ?flatあまり関係ないはずなのに。」-> ところが、ここでやっと思い違いに気づきます。今回、何も補正していない方が縞ノイズが出なくて、補正した方が縞ノイズが出たのでした。と言うことは、bias関係なしで、flatで縞ノイズ有無が決まっていることになります。え、本当?
  5. 確認で、darkとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「えー、ホントにdarkもbiasも関係ないよ!?」
  6. 念のため、darkのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「確かにdark関係なし。」
  7. さらに念のため、master flatを使うのではなく、改めて個々のflat frameを使ってBatchPreprocessing処理 -> 縞ノイズ出る。「やっぱりflatが原因だ!」
  8. さらに、BatchPreprocessingが何か悪さをしている可能性も考えて、マニュアルのImageCalibrationを使ってflat処理だけしてみます->縞ノイズあり。「少なくともPIで処理する限りflatが悪さをしているのは確定でよさそう」


Flat補正をしない場合、本当に改善されているのか

確かに上の画像で見た通り、flat補正をしないと縞ノイズは無くなって見えているのですが、本当でしょうか?それぞれSTFでオートストレッチをしているのですが、本当に正確な比較をしているのか疑問になってきました。オートストレッチは星雲を含む背景の最大の輝度と最小の輝度から適用範囲が決まります。例えば、flat補正をしていない周辺減光のある画像ではあぶり出しも中途半端で、周辺減光のない平坦に近い画像では極限まで炙り出すことをするので、細かい差(この場合縞ノイズも含めて)をより浮き出させてくれます。

ここでは公平に比較するために、それぞれの画像にAutomaticBackgroundExtraction (ABE)を適用し、周辺減光の影響をできるだけ少なくして比較してみます。flat補正をしたものでもまだ明暗のばらつきは無視できないほど存在していて、ABEを適用することで多少の変化があります。それぞれABEをしてから、STFでオートストレッチをしています。

まず、flat補正ありの画像。

light_BINNING_1_integration_ABE

light_BINNING_1_integration_ABE_cut
これまで通り、縞ノイズは盛大に見えています。

次にflat補正しない場合。
integration_ABE

integration_ABE_cut

結局、周辺減光がABEで補正できる範囲を超えてしまっているので全然補正できていません。そのためオートストレッチ後、少し補正して目で見て、拡大部分の明るさをそこそこ合わせています。多少公平性は欠けてしまいましたが、それでも不公平になる程の違いは無いくらいにはなっているでしょう。結果はというと、flat補正なしであからさまに縞ノイズは改善されていますが、よく見るとやはり完全に無くなりきってはいないです。「相当軽減する」くらいは言っていいでしょうか。

この比較から、flat補正は縞ノイズの影響を悪化させていることは確からしいですが、完全には撮りきれないことから、それだけが原因というわけでもなさそうです。

実際の画像処理では背景はもう少し暗くなるので、flat補正なしにして、この程度の縞ノイズになるのなら個人的には許容範囲でしょうか。


Flat frameについて

でもここでふと我に返ります。でも今回使ったflatってそんなに変なの?

確認してみる限りごくごく普通のflatだと思います。master flatをAuto Stretchしたものです。(blogに載せるためのファイルサイズ制限で、bayer配列を無理にjpegにしているので、偽色が出てしまってノイジーに見えてしまっています。)
flat-BINNING_1

拡大です。pngなので、偽色とかは出ていないはずです。(画像サイズが小さいのでpngでもファイルサイズが大きくなり過ぎず、blogでもアップロードできます。)
flat-BINNING_1_cut

見ている限り、極々ノーマルで、ノイズが特別多いようにも思えません。

でも、master flatをdebayerしてAuto Stretchしてみると少し正体が見えてきます。
flat_BINNING_1_integration_RGB_VNG

拡大です。
flat_BINNING_1_integration_RGB_VNG_cut

カラー化すると結構ノイジーなのがわかります。なんだかカラーノイズと言われているものに似ています。これが固定ノイズとなって、星像を止めたときには逆に、この固定ノイズが流れるのでしょう。

でも本当にこれくらいのことであんなに盛大に縞ノイズが出てくるまで画像を悪化させるのでしょうか?だって直接処理しているのはlight frameの1枚1枚で、それに対してflat frameは枚数少ないとは言え7枚です。それが流れて見えるので、スタックした20枚:7枚でなく、1枚:7枚の比で比較してもいいような気がします。ここは少し疑問が残ります。


flat frameのノイズを改善してみたら?

本当にflatが効いているのか確認するためにもう少し試します。master flatにPI上でTVGDenoiseでノイズを減らしたflat frameを適用して処理してみました。その結果がこれです。
integration

拡大です。
integration_cut

わかりますでしょうか?多分拡大していない方がわかりやすいと思いますが、細かい縞ノイズが消えて、大きな構造の縞ノイズが出てきています。

この結果から考えられることは、flat frame自身でのノイズ除去があまりうまくいっていなくて、細かいカラーノイズが大きな構造のノイズになってしまったからです。

少なくとも、これらの結果からflat frameが縞ノイズに影響を与えているのは間違いないでしょう。ただし、あくまでこれも限られた環境、限られた条件下での話の可能性もあります。ここら辺は次回以降に検討してきます。


とりあえずのまとめ

どうも聞いていると、縞ノイズに困っている人と困っていない人がいるみたいです。なので、一概に今回の結果が正しいとは言えないと思いますが、flat補正の影響は私と同じような状況の人には朗報となるかもしれません。でもflatが原因の全てだなんていうことを言う気は全くありません。あくまで原因の一つであるのではないかということです。

いろいろ検索してみましたが、flat補正が縞ノイズの原因だとバッチリ書いてあるところは見つかりませんでした。むしろこれまで思っていた通り、flat補正をきちんとすると縞ノイズが解決できるはずだと書いてある記述はたくさん見つかりました。普通だとこちらのセンスの方が正しといと思ってしまうのは、ある意味ごくごく普通でしょう。そもそもなんでflat補正が縞ノイズに対してダメなのか、まだよくわかっていません。これからいろいろ検証していきたいところです。

今回、縞ノイズに対する根本的な解決策を示したわけではありませんが、状況によってはflat補正を外して画像処理することで、縞ノイズを軽減できる可能性があることがわかります。その上で、PIのABEやDBE、FlatAidProなどを使ってカブリや周辺減光を減らすことで対応する必要もあるでしょうか。この場合、ゴミやアンプグローなどは除去できません。

もう一つ重要なことはは、きちんとディザーをして散らすことでしょうか。多分縞ノイズって複合原因なんです。1方向に流さないようにすること。これが重要なのは変わりません。ディザーはおそらく根本解決の方法の一つです。


この記事まだまだ続きそうです。今回はバラ星雲での撮影のみ取り上げましたが、次回は過去に出た縞ノイズの場合なども検討してみたいと思います。

 

このページのトップヘ