ほしぞloveログ

天体観測始めました。

2020年04月

少し前にリリースされた、ASILiveを試してみました。かなりいいです。

ZWO社がリリースしたASIカメラ用のASI Studioの中の3つのうちの一つで、主に電視観望などのためにライブスタックに特化したキャプチャソフトになります。 


ASI Studioのインストール

ASIStudioのダウンロードはこのページから。 2020年4月29現在、バージョンは1.01となっています。インストールしてASI Studioを立ち上げると、ASICap、ASIImg、ASILiveの3つのアプリがあるのがわかります。ASICapは惑星撮影用、ASIImgはディープスカイの撮影用、ASILiveが電視観望などのライブスタック用です。今回はASILiveを使います。


ASI Liveを使ってみよう

  1. さて3つあるアイコンの一番右を押して、早速ASILiveを立ち上げてみましょう。この時点で、ASIシリーズのカメラを接続していると、右上のところにカメラ名が出ているはずです。そのすぐ右横の三角の再生マークマークを押してみてください。早速カメラの画像が見えると思います。
  2. この時「Hist」のところがAutoになっていれば「オートストレッチ」がオンになっているので、暗い画面もかなり明るく見えていると思います。カメラに望遠鏡などをつけて星を写してみましょう。ピントもこの時に合わせてしまって下さい。
  3. さて、うまく星が見えたら早速ライブスタックをしてみましょう。 「Stack」のところにある再生ボタンが3つ重なっているようなアイコンを押して下さい。これだけです。あとは勝手に画像がスタックされてノイズがどんどん少なくなっていく様子が分かります。
  4. 調整するべきところは多くないです。「Gain」はLow、Middle、Highの3つだけ。最初はHighで始めた方がいいと思います。あ、Gainをいじることができないですか?そんな場合はライブスタックを一度止めて下さい。先ほどの「Stack」のところにある再生ボタンが3つ重なっているようなアイコンをもう一度押すと、ライブスタックが止まって、Gainが調整できるようになるはずです。
  5. 同じく「Exposure」もかえてみましょう。これもライブスタックを一旦止めて調整します。カメラの種類にもよりますが「1」秒から初めて「30」秒くらいまで写り方をみながら段階的に上げていって下さい。写りが十分ならそこまで長くする必要はないと思います。
  6. 設定を調整し終えたら、一度前回まで見えていたライブスタックの画面を消去した方がいいでしょう。「Stack」のところの、3つ目のアイコン、ホウキみたいなのを押して下さい。出てきたダイアログで「Yes」を押すと、前の残っていた画像がクリアされます。クリアした時にライブスタックがオンになっていないと、画面が出ないことがあります。そんな時はホウキボタンの右のライブスタックモードとライブスタックでないモードのとの切り替えボタンを押して下さい。単独の取り込み画面が出てくるはずです。
  7. 見栄えをよくするために「Image Processing」のところの「Brightness(明るさ)」「Contrast(コントラスト)」「Saturation(彩度)」をいじると画面がきれいになると思います。この調整はライブスタックを止める必要はなく、画面を見ながらいいところを探すことができます。
  8. 左上の矢印が2つ並んでいるところを押すと、フルスクリーンにもなります。この時、カーソルを画面の右に持っていくと、画面サイズを調整できるアイコンが現れます。3つ目のアイコンで画面いっぱいに広がるはずです。人に見せる時はフルスクリーンの方が迫力があります。こんなふうに簡単にフルスクリーン化できるのも特筆すべきことだと思います。

ちょっとやるだけで下の画面くらいのものが簡単に映るようになります。
IMG_9952

これはASI294MC Pro(冷却はしていない)に焦点距離105mmのカメラレンズをつけて、サイトロン社のアメリカンサイズのQBP(Quad BandPass)フィルターを中に入れています。ASILiveのゲインがHigh、露光時間が10秒です。他に触るところがないくらい簡単です。

右下にM8干潟星雲、左上にM17オメガ星雲が写っています。天の川の中心部ですね。10秒露光でスタック適当に何回かしたあとです。


同じ画角をSharpCapで出した時の画面です。

IMG_9946

ShaprCapとくらべてもASILiveの画像が全く遜色ないことが分かります。ASILiveに比べるといろんな調整を頑張って、やっとできた画面です。ASILiveの方がはるかに簡単です。

もう一例です。ASILiveの画面です。北アメリカ星雲とペリカン星雲です。

IMG_9954

比較のSharpCap画像です。同じ日ですが、少し早い時間に観た時のものです。

IMG_9940

SharpCapの場合、私は少し青に寄せがちです。夜空のイメージを少し出しています。でもホワイトバランスをとった方が本当は正解なので、ASIAirの方がより正しいと言えます。ここら辺の好みを反映できるかどうかはASILiveとSharpCapで方向性が違うところです。


ASILiveの特徴

少し技術的な話をします。ASILiveの凄いところは、電視観望のキーと言っていい技術
  1. ホワイトバランス
  2. オートストレッチ
  3. ライブスタック
  4. アラインメント
をデフォルトで全て、あまりユーザーに意識させずに使っているところです。これは結構すごいことです。

SharpCapではこれらを基本的に全てマニュアルで、ユーザーが意識しながらやる必要があります。ASILiveのほうがはるかに簡単で、SharpCapに慣れていないなら、ASILiveの方がおそらくきれいな画面を出すことができるでしょう。少なくとも初心者にはSharpCapよりも圧倒的にASILiveの方が楽でいいと思います。

以下、SharpCapとの比較です。
  • ASILiveではオートストレッチが標準なので楽です。ただし、SharpCapのヒストグラムの一番右の調整線に相当するのがありません。でもほとんど使うことがないので問題ないでしょう。
  • ASILiveではホワイトバランスを自動でとってくれます。自分で調整する必要がないのでかなり便利ですが、逆に微調整したいときは出来ないのもどかしい時があります。
  • アラインメント(星の位置を認識し、画面をずらして星を重ねていく機能)を実装したことはすごいです。これがあるのでライブスタックを名乗れるのだと思います。一方計算スピードはSharpCapの方が早く、一日の長があります。同じ時間をかけるなら、ASILiveは計算しきれない取り込んだ画像を捨てているようなので、短時間露光の他数枚スタックの場合はSharpCapの方がきれいな画面になるはずです。
  • ASILiveではゲインの調整、露光時間の調整はあまり細かくできません。簡単でいいのですが、これが少し不満になるかもしれません。SharpCapは相当細かく設定できます。
  • やはりSharpCapの方がはるかに高機能で、他にいろいろなことができます。もしASILiveに慣れて、調整項目や機能に不満が出るようならSharpCapに移るのがいいでしょう。
  • でも、コントラストやブライトネスはASILiveのみにある機能です。


まとめ

ASILive思ったよりはるかにいいです。ものすごくうまく機能を絞っていて、高機能なところはユーザーに意識させないようにかなり気を使っています。とりあえず電視観望を試してみたい方や電視観望初心者の方は、SharpCapよりもASILiveから始める方がはるかに敷居が低いと思います。

うーんソフトウェアの力はすごいですね。DeNoiseの時も思いましたが、初心者とベテランの技術の差が一気に縮まります。電視観望の普及にも一役買ってもらえるレベルの仕上がりです。


ここからはASIに対する要望みたいなものです。
  • RGBを個別に触れるならさらにいいのです。でもこれは逆に初心者には複雑になりすぎるので、今のスタイルで構わないでしょう。
  • できるなら別途、詳細モードとか作って、ホワイトバランスのマニュアル調整とか、できるならトーンカーブがリアルタイムでできると嬉しいです。
  • 特にRGB別のトーンカーブが実現すると、さらに電視観望での表現力が大幅に増し、LiveStackに関してはSharpCapを完全に越すことになるので、本気で欲しかったりするのですが、これは計算量も多そうなので難しいですかね。

いずれにせよ、電視観望で使えるソフトの選択肢が増えることはいいことです。ZWOさん、ありがとうございます。

第2回目のリモート電視観望のZoom中継。すでにシベットさんが詳細を書いてくれてますが、その時の様を私も少しだけ。


シベットさんとのZoom接続まで

始まりは2度目のリモート電視観望の記事でした。



コメントのところにシベット さんから「次回の中継に参加したいがTwitterアカウント持っていないので、どうしたらいいのか」という相談が入っていたのです。

その後、向こうのブログにメールアドレスを知らせたりして連絡は取れる状態になったのですが、結局シベットさんもTwitter登録したとの連絡が昨日の夕方頃にありました。「じゃあ、今からZoomのテストしてみますか?」ということになり、19時くらいでしょうか、会議室を開いておいたらうまく接続できたようで、無事に会議室に入ってきてくれました。でもその時はマイクがないPCで繋いだので、結局最初は携帯電話で話しながら、あ、iPhoneでも入れるのではと気付いて一旦切ってまた待ちます。その後すぐに、無事にiPhoneのマイクとカメラでやりとりができました。

Zoomはここら辺の臨機応変さと、初めての人でもゲストとして繋ぐだけならアカウントを作る必要もないですし、アドレスワンクリックでアプリも勝手にインストールされるで、ほとんど困らずに使えるところがいいですね。その後、シベットさんもZoomのアカウント作ったと言っていました。ただし無料アカウントは3人以上だと40分までの制限があるので注意です。

接続の確認はできたので、一旦機材の準備をするとのことで、23時に再びZoomに入ることを約束して、一旦終了。


M51のテスト

私はその後、前回の記事の月の残りの撮影と、TSA-120でM51のテストを少しだけしました。まだ未処理で記事にもしていないのすが、この間ASI178MCで撮ったM51があって、それとPowerMATEで4倍にしてASI294MC Proで撮影するのを比較したかったのです。

でもPowerMATEによる4倍の拡大は、明るさで16分の1になることを意味し、さすがに淡い系外銀河ではあえなく撃沈。PowerMATEを抜いて、ASI294MCで常温でテストで1枚だけ撮りました。LiveStackでわずか190秒の露光なので見るまでもないのですが、小さいながらも一応形だけはわかるようです。

Stack_21_17_47_16bits_15frames_192s

でも前回書きましたが、やはり焦点距離900mmではM51は少し小さいので多分VISACで挑戦することになると思います。


再びZoomで

そのあと、Zoom中継に備えて広帯域電視観望の準備。昨晩のテストと同じく、105mm/F2.4をF2,8にしてASI294MCをつけます。準備完了のことにシベット さんが再び入ってきました。今度はマイクつきのPCにしたとのことで、声も普通に入ってきます。ただ、ビデオ映像が少し暗かったので、部屋が暗いかカメラの感度があまりよくないかと思います。私はMacですが、特段明るい部屋でもないのにシベットの映像と比べるとだいぶん明るさに差があるので、ここら辺はカメラによるのかと思います。

シベット さんの方の画面の共有とかもテストをして、大体の操作ができそうになったので、23時半頃でしょうか、Twitterで他の人も呼びかけましょうかということになり、シベットさんTwitter開始記念と銘打ってアナウンスしました。


結局夜中の天文談義に

遅い時間にもかかわらず、結局7人の方が参加してくれました。前回から同じく参加してくれた方もいますし、新規ではM&Mさん、だぼ君と、nabeさんでしょうか。他にもうお一方参加してくれた方がいたのですが、マイクがうまく繋げないようで、結局お話しすることができませんでした。これに懲りずに、もし機会がありましたらぜひともまたおつなぎください。


23時半だとまだ天の川も登ってこなくて、いまいち面白みにかけます。私の電視観望も透明度が悪いせいかあまりパッとしませんでした。その合間に、お互い初めましての方も、顔を見るのも初めての方も多いので、自己紹介とかも進みます。私にとっても何人か初めましての人もいましたが、Twitterとかブログでは知っている人たちなので、あまり初めましての気もしません。

広帯域のがパッとしない中、シベットさんが画面共有してくれて、1000mmとか400mmで電視観望して中継してくれます。nagahiroさんも天文部でZoom中継をやったみたいで、その時の写真を見せてくれたりもしました。

私がレンズを直すとかで、ちょっと外に様子を見に行った時には、皆さんでいろいろ話してくれていたみたいですが「パパがいないのに、なんか他の人の声でうるさかった」と後から妻に文句を言われました。スピーカーもマイクもオンにしっぱなしで外に行ってしまったがまずかったです。ホストなしでも勝手に会議が盛り上がるのが、天文仲間のいいところでしょうか。

0時半頃になると流石に天の川も昇ってきて、見栄えも良くなります。やはり105mmくらいの短焦点レンズだとかなり大きな構造の天体でないと楽しめないです。M13も見てみましたが、まあこんなもん

Stack_23_00_31_16bits_29frames_186s

拡大してもこれくらい。

Stack_23_00_31_16bits_29frames_186s_cut

構成が肥大化しますし、球状星団の魅力の細かい星もわからないので、一応星団と見分けはつくけどぜんぜんおもしろくないです。 

会話ならではの裏話も飛び交ったり、まあ楽しいものです。シベットさんが星まつりでの会話みたいと表現していましたが、まさにそんな感じかもしれません。

結局この日も深夜1時頃まで話は続きました。K君のおやすみなさいがなければまだまだ続いたかもしれません。まだ平日で次の日も仕事の方もいるはずなのに、遅くまでお付き合いくださり、本当にありがとうございました。やはり広域電視観望は天の川があった方が楽しいので、早い時間に中継するならもう少し時期が来てからにしようと思います。今の季節はもう少し焦点距離を長くして、やはりまだ春の銀河祭りでしょうか。自宅からでも十分に見えるので、これもまたやってみたいと思います。


その後

Zoomの話はここまでですが、その後少しだけレンズを変えて試してみました。使ったのはPENTAXの165mm/F2.8です。一例ですが、北アメリカ星雲です。

IMG_9957

一見きれいに見えていますが、一つ問題点に気づきました。

よく見ると恒星に、左が赤、右が青のハロが出ています。原因はすぐにわかりました。ZWO社製のCanonレンズとASIカメラの接続アダプターが昔のタイプでガタガタなのです。PENTAXレンズは重いので、自重でアダプターとレンズの間に隙間が結構空いてしまいます。さすがにこれだと辛いので、アダプターのところにパーマセルテープとかを挟み込んでガタガタしないようにします。

でもカメラレンズはやはり拡大すると星像がどうしてもぼやけてしまいます。レンズの枚数が多いから仕方ないのでしょうか?私は高級レンズと言われているものは持っていないのですが、いいレンズだとカメラレンズでも拡大しても星像肥大は抑えられるものなのでしょうか?こうやってみると、元々電視観望に使っていたFS-60CBはとても優秀です。拡大しても星像肥大が気になることはあまりなく、M57とかもきれいにみえます。今のカメラレンズをあと2倍程度焦点距離を長くしただけでM57がきれいに見えるようになるとは、やはりとても思えません。うーん、FS-60CBにレデューサーをつけるか、もっと短い焦点距離の性能をいいのを探すか。もうBORGくらいしかないですかね?


月曜でしたが、在宅勤務。せっかく明るいうちから自宅にいるので、夕方の月を見ます。


夕方の月と地球照

この日は月齢4日、まだそれほど太くはありません。明るい夕方だと白い月です。最大光度に近い金星も近くにいるはずですが、肉眼だとまだよくわかりません。せっかくなので3倍の星座ビノを使ってみました。これならさすがに青い空の中の金星も一発で見つけることができました。位置さえわかれば簡単です。肉眼でもすんなりと見つけることができました。 

そうだ、地球照でも撮影しようと思い、さっそくTSA-120をセットします。まだ北極もあまり見えていないので、極軸も適当です。

夕方と食後の暗くなってから、何ショットか撮影しました。

18_59_37_lapl2_ap231_RS2_cut
  • 富山県富山市下大久, 2020年4月27日19時6分、月齢4.3
  • タカハシ TSA-120 + 35フラットナー + ZWO ASI294MC Pro (常温17.6℃) + Celestron CGEM II
  • SharpCapで撮影、露光時間 25ms, gain 50, RAW16で記録、800/1000フレームを使用
  • AS3でスタック, Registax6でWavelet, PhotoshopCCで画像処理 、月が画面に広がるようにトリミング
右下に赤い収差が見えているのは大気分散だと思われます。収差の方向と月の向き、高度からのずれの量も計算値とほぼ一致します。

ついでに、目で見た明るさに(感覚で適当に)近づけてみました。こちらはトリミング無しです。でもこういったのってどうやって客観的な明るさにすればいいのでしょう?難しいです。

18_59_37_lapl2_ap231_RS2_evening

さらに地球照です。これもどんな色が正しいかよくわからないですが、夕方感を出してみました。

19_02_07_lapl2_ap3065_evening


PowerMATEを用いての分解能比較

さて、今日の課題はここからです。TSA-120に35フラットナーを付けた状態で、宮路泉さんにまだそのままお借りしている4倍のPowerMATEでどうなるかを見てみます。焦点は出るのか、分解能はどうなるか、変な収差は出ないかなどです。

接続は特に困ることもなく、35フラットナーの後ろにそのままPowerMATEを取り付けて、特に延長塔などつける必要もなく、そのまま少しフォーカス位置をずらすだけでピントが出ました。同様に月の一部を撮影しました。結果には影響ないと思いますが、ミスでRAW8で保存してしまいました。まあ、分解能をみたいだけなので多分問題ないでしょう。

とりあえずその結果です。

20_53_02_lapl2_ap723_RS
  • 富山県富山市下大久, 2020年4月27日20時53分、月齢4.3
  • タカハシ TSA-120 + 35フラットナー + PowerMATE x4 + ZWO ASI294MC Pro (常温16.9℃) + Celestron CGEM II
  • SharpCapで撮影、露光時間 25ms, gain 300, RW8で記録、800/1000フレームを使用
  • AS3でスタック, Registax6でWavelet, PhotoshopCCで画像処理 

でもまあこれはどうでもよくて、見たいのはPowerMATEありなしの比較です。両方の画像を拡大して比較します。

comp2

左が4倍のPowerMATEあり、右がPowerMATE無しです。左はQBPを入れてしまったで色が違うとかは気にしないでください。

PowerMATE無しもかなり検討していますが、やはりジャギーが目立ってしまっています。わかりにくい場合は画面をクリックして拡大してみてください。また、以前の結果と同じくPowerMATEによる変な像の乱れは私が見る限り確認できません。結論としては、今のTSA-120とASI294MCの組み合わせでは、4倍のPowerMATEを入れた方が有意に解像度が高いと言うことが言えます。

ここで少し比較のための情報を。
  • レイリー限界が1秒角くらい1ピクセルが1秒角くらい。なので、1ピクセルがレイリー限界と等価くらい。
  • でもカラーCMOSカメラなので、モノクロCMOSカメラに比べて解像度は4分の1程度のはず。 
レイリー限界を超えて見える可能性についてです。
  • 他数枚をスタックしているのでレイリー限界以上に(多少)解像度が上がってもおかしくはないはず。
  • RegistaxのWavelet変換でシャープになっている
  • 強度の画像処理はしていないので、擬似的に解像度を上げるようなことにはなっていないはず
これらの条件はPowerMATEのある無しに関わらず同じです。また、今回はカラーCMOSカメラなので、PowreMATE無しだとレイリー限界に全然到達していない可能性が高いです。PowerMATEで分解能が上がりましたが、レイリー限界が見えているかどうかは、今回の結果だけでは良くわかりません。PowerMATEで4倍にしているので、一応カラーCMOSであることも考えると、1ピクセルがちょうどレイリー限界と計算上はコンパラなくらいです。

と思って、最後の最後でPowerMATEありの方を1ピクセルが見えるくらいに強拡大してみました。
PowerMATE_Extended
まずは大気分散リミットのようです。どうやら、PowerMATEのおかげで大気分散が姿をあらわにしてきました。一応ちょっと検証します。

赤から青まで約20ピクセル。4倍なので、もともと5ピクセル。ということは画面からの概算は、1.08秒/ピクセルをかけて約5.5秒角。この時の月の高度は14度で、計算によると大気分散は6.2度。読み取り誤差を考えると大気分散で確定でしょう。

どうやら次に進む前に本格的にADCが必要か。


まとめと今後の方針

さて、これらの結果をものすごく単純にまとめると、ASI294MC ProだけではまだTSA-120の分解能を引き出し切れていないということだけは確実に言えます。
  • エクステンダーやバローレンズ
  • よりピクセルピッチの小さいカメラ
  • モノクロのカメラ
などが必要になります。もちろんこれらには欠点もあり、
  • エクステンダーやバローレンズは暗くなりますし、像を歪める可能性もあるので、高性能のものが必要となります。
  • センサーの感度は1ピクセルの大きさに大体比例するので、ピクセルピッチが小さくなると当然感度が落ちます。
  • モノクロカメラはカラーにしたい場合はRGBで撮る必要があるなど、手間も時間もかかります。
など、トレードオフになります。このような対策をして、次は大気分散のことを考えてやる必要が出てきます。


さて、今回の結果をどう活用するか。もともとは焦点距離900mmで撮影できる系外銀河を考えていたのですが、系外銀河って意外に、と言うか当たり前ですが小さくて、900mmで撮影できるものは少ないのです。口径からくる分解能に達しているかどうかを見極めたかったのですが、今のシステムではまだバローとかで焦点距離を伸ばしても得しそうということはわかったわけです。でも拡大すると暗くなるんですよね。4倍のPowerMATEだと焦点距離3600mmですが、明るさ16分の1です。
  1. 2倍くらいの性能の良いバローにして、今のカラーのASI294MC Proで撮り続けるか
  2. 口径の大きいVISACに移すか
  3. それともモノクロのカメラを買うか
うーん、迷いますが、やっぱり2かなあ?夏も近いので一度M57でVISACの再テストですかね。TSA-120では小さい銀河は諦めて、もう少し広い領域を目指すことになりそうです。


週末の土曜日、天気がいいので撮影してたんですが、あまりに風が強くて途中で断念。その代わりに、一昨晩に試したリモート電視観望をさらにブラッシュアップしてみました。ただしこの日は中継は無しです。色々調整しながらやりたかったのと、さすがに二晩連続中継だとヘビー過ぎます。


前回の反省と、今回試したいこと

今回一番試したかったことは広域電視観望でのLiveStackです。原因は亜鈴状星雲M27がほとんと全く見えなかったこと。小さすぎるのもありますが、ノイジーだったのでLiveStackでもう少しノイズが減れば形くらいはわかったかなというものです。でもなぜか広角でのSharpCapでのLiveStackが全くうまくいきませんでした。

原因はStickPCが非力すぎたかもというのと、収差の多いレンズだったので星像が崩れて星として認識されなかった可能性が高いです。また、広角すぎたのも原因の一つかと思いましたが、ROIで画面を区切ってLiveStackしようとしてもできなかったので、広角なことが直接の原因ではない気がします。もしかしたら複合原因の可能性もあります。

というわけで今回のLiveStack実現のための改善点は
  • PCをハイスペックなものに交換。太陽撮影とかにも使っているSurface pro 7を投入します。可搬性は少し悪くなりますが、性能的には問題ないはずです。
  • もう一つは、レンズをPENTAXの6x7の105mm/F2.4に交換
です。よく考えたら、広域電視観望のLiveStackってこれまだやったことがありません。どれくらい改善されるか楽しみでもあります。

さてこのPENTAXの105mm、収差はそこまでよくはないですが、前回のNIKKOR50mmよりは遥かにマシです。というか、明るいレンズを試してくても手持ちで明るいレンズがあまりなくて、これは私が持っているレンズの中でもF3を切っている数少ないレンズの一つになります。あと手持ちの明るいレンズといえばNIKKOR35mm/F1.4、Nikkon135mm/F2.8、PENTAX 165mm/F2.8くらいですが、35mmはさすがに収差大きすぎ、あとは100をずっと超えることになってしまいます。50mmからあまり離れたくないので、今回の105mm/F2.4くらいが適当かというところです。でもこの焦点距離を倍にしたことは次の改善点と合わせて結構当たりでした。


広角時の簡単な初期アラインメント

もう一つの改善点は、
  • AZ-GTiできちんと初期アラインメントをして、自動導入と自動追尾をできるようにした
ことです。これは手間の割にかなり効果が大きかったので詳しく書きます。

そもそも、前回のコンセプトは場所も方向も気にしない「ポン置き」でした。初期アラインメントはこのポン置きを崩してしまうために避けていたのですが、今回のように広角の場合には、初期アラインメントがものすごく簡単であることに気づきました。

まず一つ目の手間は、一番最初に鏡筒をそこそこ北向きに、そこそこ水平におかなければいけないこと。ポイントは「そこそこ」です。ポン置きから考えるとたいそうな手間に思えますが、はっきり言ってかなり適当でいいです。105mmレンズでフォーサーズ相当のASI294MC Proなら計算すると画角は10度近くあるわけです。方角も水平度も10度くらいの精度で置けばいいのなら、まあ相当適当でいいでしょう。

初期アラインメントは水平が取れていない場合は「ツースターアラインメント」がいいでしょう。アラインメントの過程で水平のズレを補正してくれます。その際、明るい星を2つ選びます。今回はベガとアークトゥルス。初期アラインメントで一番難しいのが、見ている画面内に対象天体が入ってこない場合。特に焦点距離の長い鏡筒を使う場合によくあります。でも今回は焦点距離105mmで相当広角なため、余程適当に向きを置いていない限り、初期アラインメント時に一発で画面の中に入ってきます。ベガなんか一番明るい星なので、すぐにわかります。

この状態でPCの画面を見ながら、対象天体が真ん中に来るようにアランメントを2回とります。その後、対象の天体を自動導入してみると、かなりの精度で導入できます。というよりも、広角での自動導入なのであまり精度がなくても、きちんと真ん中に来てしまうと言った方がいいかもしれません。

さらにもう一つ、途中でSynScan Proで矢印ボタンでマニュアルで方向を適当にずらしても、AZ-GTiの中に現在の位置が記憶されているので、次の自動導入時もきちんと対象天体を間違えずに導入します。なので、前回やったリモートでモーターだけを使ってマニュアルで自分で天体を探すということも併用できるわけです。どれだけ好きに動かして迷ったとしても、そのまますぐに自動導入で位置確認することができるわけです。


実際のリモート電視観望

焦点距離が前回から比べて倍なので、より暗い星まで見えますが、逆に見える範囲は狭くなり、どこを見ているのかわかりにくくなります。でも今回は自動導入があるので、基本的に迷うことはありません。迷ってもまた自動導入ですぐに位置を特定することができます。これは思った以上に便利でした。中継の時に迷いながら探すのも臨場感があって楽しいですのが、いざという時に戻ったり次の天体に移動することができるのは安心感があります。

では実際に自動導入をして画面に天体を入れてみましょう。まずは手始めは、建物からのぼるM8干潟星雲。建物からのぼる「月」とかではありません。繰り返しますが建物から上る「星雲」です。
IMG_9916
画面のほぼ真ん中にM8がきているのがわかると思います。自動導入の位置精度はこれくらいなので、十分だとわかると思います。この画面はまだLiveStack無し。1.6秒露光の一発撮りなので、建物も木もぶれていません。

次は昨日見えなかったM27です。LiveStackを使ってノイズを減らしますが、今回はLiveStackも全く問題なくうまくいきました。でもPCがパワーアップしたからなのか、レンズの収差が緩和されて製造が良くなったからなのかは特定できていません。
IMG_9919
M27ですが、それでも小さいので見やすいように少し拡大しています。見え方は前回よりは多少マシで、形もなんとかわかりますが、やはりまだ焦点距離不足です。というよりはしょせんカメラレンズ、強拡大すると星がどうしても肥大化されて見えてしまいます。


あ、一応ネタとしてM57も見せますか。
IMG_9921
真ん中少し下の緑の明るいのがM57です。でも恒星に赤ハロが出ているのとほとんど見分けがつきません。さすがにもう少し焦点距離が必要です。


気を取り直して、次はサドルから少し東方向です。これは三日月星雲で自動導入しています。わかりにくいかもしれませんが、ど真ん中に写っているのが三日月星雲です。画像をクリックして、さらに拡大すると多分わかります。これもLiveStackありです。
IMG_9935


サドルからマニュアルで少し北に寄ったところ。真ん中より少し右下に見えるのがサドルです。
IMG_9936
これもLiveStackあり。左側の淡いところがどこまで見えるか試したのですが、驚くほどよく見えています。この後はまた自動導入に戻りました。

アンタレス周辺ですが、ここら辺が今回のシステムの限界でしょうか。赤と黄色は辛うじてわかるものの、青が(なんかモヤッとしている気もしますが)相当微妙です。
IMG_9926
青色はQBPの苦手とする色の一つなので、青だけヒストグラムで補強するような機能があるといいのですが、今のところリアルタイムではできません。


今回のハイライトでしょうか、屋根から上る北アメリカ星雲。自分の家の屋根なのですが、こんなのが家の中から見えるわけです。臨場感がないわけがありません。

IMG_9940


最後は再び干潟星雲とか、天の川中心部です。今度はLiveStackしています。本当にLiveStackさまさまですが、まあよく見えること。

IMG_9946


今回の問題点とまとめ

前回のシステムから少しの変更でしたが、見え方は相当変わりました。もちろん、そもそものASI294MC Proの感度が素晴らしいのと、光害地でも劇的な見え方の改善を提供してくれるQBP(Quad Band Pass)フィルターの性能があってのことです。

今回、広帯域電視観望で初めて試したLiveStackですが、やはりものすごいです。改めてその威力を実感しました。その一方、きれいな画面を見せようとすると露光時間が長く(今回は最長12.8秒)なり、さらにノイズが緩和されるまでスタックを重ねると、どうしても見栄えが良くなるまで時間がかかってしまいます。ただ、中継の時などでも実際にはそこまで頻繁に移動するわけではないです。中継で話しながら見せることになるので、話している時間でLiveStackをするとちょうどいいのかと思います。画面の移動の時は逆にリアルタイム性を出すために、露光時間を短くしたりして星の軌跡を出したりします。中継ではその辺りの作業の様子も全部見せることができるので、電視観望の技術交換にもなるかと思います。

また、今回AZ-GTiの自動導入を使ったのですが、広域電視観望でも自動導入は使った方が圧倒的にいいです。広角レンズとカメラなら、初期アラインメントで「必ず」ターゲット天体が画角に入ってきます。ベガとか明るい星を選んでおけば画面で確実にどれた対象天体かすぐにわかります。なので初期アラインメントの手間はほとんどかかりません。そしてその後の快適さが半端ないです。

レンズに関しては前回のNIKKOR50mmよりは星像はかなりマシで、自動導入もあるので今回の105mmの焦点距離でも、画角の狭さで今いる位置に迷うことはまずありません。その一方、まだ恒星周りを見ると赤ハロが目立ちます。これはピントが少し甘かったかもしれません。また、炙り出した時に出る明るい星の周りの白い大きなハロ。これは一段絞って2.8にした方がいいのかもしれません。


今後のこと

まだ多少の改善すべき点はありますが、夏の天の川がこれだけ見えるなら相当楽しいです。また時間のある時にZoomを使って中継してみたいと思います。前回参加できなかった方も、次回はよかったらぜひ参加してみてください。

ただ、天の川を見ようとするとまだこの時期は遅い時間からになってしまいます。最初はまだあまりたくさんの人数だとトラブってしまうかもしれないので、もう一回くらい遅い時間に始めるかもしれません。あ、でもこれから月が出てくるんですよね。まあ、月がある時にどれだけ見えるか試すのもいいテストになるのかもしれません。

一方、なかなか遠征などができないこの時期に中継してみなさんと繋がりたいという気持ちもあります。その場合は天の川にこだわらず、話が中心になるんでしょうか。

あと、今回の騒動が落ち着いたらいつか観望会でこのシステムを稼働させて、できるなら科学館とかのもっも街中で天の川を子供たちに見せてあげれたらと思います。

皆さん、この大変な時期に如何お過ごしでしょうか。新月期で天気もいいのに、なかなか遠征にも行けずにヤキモキしている方も多いと思います。

天リフさんでもベランダ天文台が流行っているようですが、私もZoomでの配信も見据えて家の中からリモートで、庭に置いた機材を操作して星を見えるシステムを考えてみました。


自宅からリモートで電視観望

この日は昼からずっと雨で、夜の21時くらいにやっと少し星が見え始めました。本当は庭で撮影したくて、子持ち銀河のM51狙って赤道儀を出そうと思って外に出たら、また雨がふってきました。しばらく待って、また星が見えたと思って準備をしようと思ったらまた雨。こんなことを繰り返してました。

仕方ないので待ち時間の間に超簡単なリモート電視観望装置を組んでみました。基本的には ASI294MC(Pro)に焦点距離50mmのNIKKORレンズを付けた広域電視観望システムがベース同じです。



焦点距離が短いので自動導入とかは必要なく、ただの三脚にカメラとレンズを載せて、普通のカメラのように見たい方向に、手で合わせていました。ターゲットの星雲をPCの画面でリアルタイムで「見ながら」導入するのです。今回はその手で合わせていた部分をAZ-GTiにして「リモート化」しています。

IMG_9893

自動導入もいいのですが、手軽さ重視でAZ-GTiをただのモーター付きの経緯台として使います。ポンと置くだけでいいですし、位置が気に入らなければヒョイと持ち上げて、適当なところに適当な向きにまたポンと置くだけです。

操作はというと今回はiPhoneとかiPadとかの端末は使いません。AZ-GTiをステーションモードで自宅LANに繋いでしまえば、SynScanまたはSynScan ProがインストールしてあるどのPCからでも操作することができるようになります。Wi-Fiが届く範囲にさえAZ-GTiをおくようにしてやれば、端末を持って近くにいる必要もなくなるというわけです。

画像取り込みには撮影用のStickPCを使いました。上の写真のハーフピラーのところに写っていますが、見ての通り超コンパクトです。実際にはハーフプレートにマジックテープをつけて、バッテリーとStickPCにもマジックテープをつけて、亀の子状態でくっつけてあります。ケーブルは少し長めにとって、水平方向位何回か回転しても大丈夫なようにしておきました。ただしこのStickPC、非力なのでよく落ちます。特にSharpCapは結構な計算量を必要とする時があり、今回はLiveStackの時に何度かSharpCapが落ちてしまい、その都度立ち上げなければなりませんでした。ここは少し改良の余地ありです。

機材を組み上げた後は、外に出てポンとそれを庭に置いて、AZ-GTiとStickPCの電源を入れます。別途PCの画面でカメラ映像を見ながらピントさ合わせたらそれでセッティングはおしまいです。超お手軽です。

早速部屋に移動して見てみます。

IMG_9895

画面右下に自宅の屋根が写っています。屋根が見えるということは北向きの空ということになります。この頃にはまだ方角によっては雲が残っていたりしてたのですが、こちらの電視観望の方が面白くなってしまい、この時点でこの日の撮影は諦めました。風が結構強かったこともあります。

最初の頃は、実際の空を見ていない状態での操作に慣れていないせいもあり、いまいちどこを見ているか迷いがちでした。迷うとカメラを下の方に向け、景色を見て方角を確かめます。自宅なら北から東向き、お隣さんなら北から西向き、高い木が見えたら南向きとかです。そのうち、間抜けなことにROIで画面を4分の1に制限していることに気づき、元の画角に戻したら星座全体が一画面に入るようになり、これでどこを見てるか認識できるようになり、やっと快適になりました。

これでだいたいリモートでの電視観望の方の目処がついたので、他の方にも中継で見てもらおうとZoomの準備を始めることにしました。


Zoomによる星空中継

Zoom自身は私は普段使い慣れているので特に問題ないですが、初めてで興味のある人も多いと思います。誰かが開いている会議に参加するだけならものすごく簡単で、どこかで知ったアドレスをクリックするだけです。自動的にソフトがインストールされ、パスワードを入れるなどして会議にアクセスできればそれでおしまいです。デフォルトでは立ち上げ時にマイクが入りっぱなしになっているので、声がダダ漏れになってしまうことくらいでしょうか。ミュートするのを忘れないでください。

会議を立ち上げる場合にはアカウントを作る必要があります。ネットを漁ればいろんなところにやり方は書いてあるので詳しい事は書きませんが、ポイントは会議は自分のIDでの会議室ではなく、毎回会議を個別に立て、毎回必ずIDを変えること。今回のように不特定多数の人が参加する場合はこれが必須でしょう。あとパスワードを設定して、アナウンスの際にパスワードを抜いたアドレスをアナウンスすること。Zoomに言われたアドレスをそのまま晒すと、パスワード込みなので本当に誰でも、スパンユーザーでも入ってきてしまうので注意です。パスワードは別途知らせるようにしましょう。


実際の電視観望中継、参加者は3人

やっとZoomの準備とテストもできたのが0時半頃でしょうか。Twitterで参加を呼びかけたら、このブログでもたびたびコメントしてくれるnagahiroさんがすぐに入ってきてくれました。さらに「星を求めて」でお会いした、お子さんと一緒にKYOEIの赤道儀をいじっていたzhyaさんが参加してくれました。その後しばらくしてスタベのアルバイトのK君も参加。

中継を初めてすぐの私一人の時は、まだ北の空でうろうろしていて、前回撮影したM101が見えないかなと探していたくらいでした。nagahiroさんが入ってきてからは、こと座でM57を見ましたが流石に小さすぎて点にしか見えず、ヘルクレス座の球状星団M13は結局見つからなくて諦め。仕方ないので、そのまま一気に南の空に行きました。もうこの時間だと天の川がそこそこの高度にきています。

IMG_9901

上の画面わかりますでしょうか。部屋のMacから外のStickPCにリモートデスクトップで接続し、そのリモートの画面をZoomで中継している画面です。右下にSyncScan Proも出ていますが、こちらもStickPC上で動かしています。天の川の中心部がはっきりと写っています。リモートデスクトップの遅延も、Zoomの遅延もほとんどきになりません。右下に干潟と三裂星雲、中央上にオメガ星雲とわし星雲がはっきり見えます。この画面が見えた時、nagahirozさんと二人で「おおっ」となりました。

実際の星空中継はかなり楽しく、またZoomの高解像度で遅延の少ない配信により、星のような一見ノイズと勘違いされやすい映像でもそこそこ見ることができるようです。実際自分でもモニター用に別のPCで見ていたのですが、大元で見ている画面からもあまり遜色なく見ることができています。中継中に参加全員にも聞いてみましたが、十分認識できるくらいきちんと見えているようでした。

次の画面は少し後の時間のものですが、左上に干潟と三裂星雲が写っています。この画面でもわかりますがM6とかM7の散開星団はよくわかりますが、画角には入っているはずのM19やM62などの球状星団はわかりにくいようです。この解像度では球状星団は固まりすぎて見分けがつきにくいのだと思います。最初の方のM13が見つからなかったのも仕方ないかもしれません。

IMG_9912

次に、南から東の空に移ります。途中アルタイルが認識でき、矢座がわかったので、M27を探してみました。下の画像の真ん中ら辺の緑色のがそうです。さすがに50mmしかないので、かなり拡大していてもせいぜいこれくら、かろうじて緑と赤の形がわかるかどうかというところでしょうか。

IMG_9896

ここで、LiveStackでノイズを下げようとしましたが、LiveStackが全くうまくいきませんでした。理由ですが、StickPCが非力でLiveStackの計算が重いことがあると思います。ROIでが面を区切って軽くしてもうまくいかないです。LiveStackのAlignmentのオプションで、認識できた星を表示する機能があるのですが、全然星を認識できていません。重すぎるからなのか、画角が広すぎるからか、それとも星像が歪んでいるからか?ちょっと原因不明なので、後日検討します。Zoomでの会話の中で、星の歪みならPENTAXの6x7レンズで試したらどうかという意見がありました。ちょっと暗いですが、暗さは露光時間を伸ばせばなんとかなるので、うまくいくかもしれません。

Alignment無しで、重ねるだけのLiveStackをしてもいいのですが、10秒もすると星がどんどん流れていきます。AZ-GTiのモーターはその方向に向けるためだけに使い、追尾していないので当たり前ですね。本当は自動追尾するように初期アラインメントをきちんとすればいいのですが、それだとポン置きの手軽さが失われてしまいます。ここはトレードオフです。

最後の画像はサドルから、北アメリカ星雲付近です。右下に網状星雲も見えています。

IMG_9909

富山とは言え普通の住宅地。ある意味光害地の自宅からでこれだけ中継できれば十分でしょう。もちろんアメリカンサイズのQBPが入っているおかげもあり、天の川もこれだけ簡単に見ることができます。こうやって中継で星空を見るのももちろん楽しいですが、これをネタに全国の星仲間と話ができるのも何よりの魅力でしょう。

残念ながらzhyaさんがご家族が寝ているとのことで、声を聞くことができませんでした。遅い時間からの開催でzhyaさんには申し訳なかったです。もう少しして天の川が早い時間に上がってくるようになったら、ぜひ星を求めてでお会いしたお子さんにもみてもらえたらと思います。他の二人とは結構ずっとおしゃべりモードでした。実際の交流があまりできないこの時期、こうやって話ができるのはストレス解消にもなります。また、星空中継だけでなく画像処理とかの経緯の中継にも使えそうで、会話が弾みそうです。

夜も更けてきて、zhyaさんは1時半頃には退散、結局nagahiroさんは午前2時前くらいまで、K君は結局2時過ぎまでいてくれました。K君はM57の撮影をしていたらしくて、最後私と二人になったところで、お互いに撮影状況を映しあっていました。K君は自宅すぐ前の、本当に東京近郊の街中での撮影でした。私もカメラを下に下げて横に360度一周して「こんなところだよ」とか言って説明してみました。互いにこんなことができるのもZoomの魅力かと思います。


まとめ

今回は外出が自粛される状況の中、リモート(と言っても庭ですが)で自宅からの星空の電視観望をZomを通して中継するというテストをしてみました。Zoomの性能に助けられたこともあり、ほとんど不満なく星空を共有できたと思います。また、夏の天の川で広域電視観望システムを確かめたかったのですが、こちらも自宅から天の川を十分見ることができることもわかり、大満足です。

今回はテストでしたが、また気が向いたら中継やりたいと思います。Twitterで呼びかけますので、よかったらフォローしてチェックしてください。


回転花火銀河M101を撮影してみました。この天体は電視観望では何度か観たことがありますが、撮影は初めてです。自宅からですが、富山特有の北の明るい空です。さて、どうなることやら。


light_BINNING_1_integration_ABE_DBE_STR_DBE_STR_SNP_all_PS4_cuts
銀河部分を大きくみるために最終結果を切り出したものです。


撮影

今回はもう少し北側のM101に挑戦です。挑戦と言う意味ですが、富山は日本海側のため基本的に北が市街地になっているので、北の空はどうしても明るくなってしまい、これまでも撮影は避けてきました。

前回、三つ子銀河の自宅からの撮影がQBPを入れたまま知らずに撮影してしまうというアクシデントのおかげか、思いの外うまくいったので味をしめてしまいました。これならもう少し明るい領域でもなんとかなるのではと思い、この季節北東から真北に動いていくM101にしました。

機材セットアップは三つ子銀河の時と全く同じで、TSA-120にQPDでASI294MCProです。撮影自身は順調。ガイドもほとんどズレなしです。透明度はというと、三つ子銀河の時よりは悪かったと思います。見た目でもわかるくらい三つ子さんの時は細かい星まで散りばめられていましたが、M101のこの日の空は、悪くはないですが、まあそこそこと言ったくらいでしょうか。普通に星は見えますが、細かい星まではあまり見えません。

撮影はStickPCを利用したリモート撮影です。いったんセットして撮影が始まってしまえば、あとは部屋からヌクヌク状態でモニターすることができます。予定では3時間以上の露光時間を狙います。ところが、天頂越えまでまだ少し時間がある頃、部屋からリモート接続のでダウンロードされる画像を見ていると、星が流れて出していることに気づきました。おかしいと思い、外に出てチェックしてみると、天頂越え直前でカメラが三脚の当たって止まってしまっていました。これまでこんなことあまりなかったのですが、鏡筒が長いと天頂近くになるとカメラ側が脚に当たってしまうこともあるのがわかりました。こんなことならAPTで赤道儀の反転テストを試せばよかったです。赤道儀が明らかにずれてしまったのと、もうしばらくすると月も出てくるので、この日はこれで終了としました。5分露光で30枚なので2時間半分の撮影です。


全体の流れ

ガイドのズレを見るためにいつものように2時間半分の画像を動画にしてみます。

Blink

今回は1方向に動いているわけではなく、一度左に行って、右に戻ってきているような感じです。APTのDithering Distanceで4としてあるのですが、このランダムな動きがその4というので動いているのかもよくわかりません。1方向のドリフトではないのですが、まだたわみか何かが原因で動きすぎている気がします。

上の動画は明るさを規格化してしまっていますが、一番最初と一番最後ではヒストグラムで見ると明るさが1.5倍くらい違います。なぜかだんだん暗くなっていきます。最初北東にあったM101が高度を上げながら真北へ向かっていくくらいまでを撮影したのですが、普通に目で見ても北の方が明るいのは確かです。高度が上がっていくから暗くなるのか、夜中になり町の明かりが減っていったから暗くなっていったのかはわかりませんが、(QBP有り無しで高々3倍の明るさの違いなので)1.5倍は無視できないくらいの違いです。2時間半分あるのですが、淡いところだけを出すのなら後半のみ使うくらいの方がいいのかもしれません。今回は、結局画像処理をやっている過程で、最初の30分を使うのをやめました。そのため淡い部分がもう少し出るようになった気がします。


画像処理

今回結構色々学びました。特にAPTはまだまだ経験不足で慣れていないことも多いので、癖を知っておく必要がありそうです。


1. light frame

撮影した画像を見てみると、どうもホワイトバランスが根本的に取れてません。QBPのせいでしょうか?赤がどうしても強くなってしまいます。でも、後のフラットで逆に赤が暗くなったことを考えると、QBPのせいでもない気がします。

ight_redshift
rawファイルをカラーバランス補正なしでオートストレッチした画面。
ヒストグラムを見ても赤が支配的です。

SharpCapの場合はカラーバランスをソフト側でとることができて、fitsファイルにもそれが反映されてます。APTの場合にはカラーバランスを調整できる場所がありません。いや正確には見かけのカラーバランスは調整する場所はあるのですが、画面だけに反映され、fitsファイルにはそれは反映されないようです。


2. dark補正

今回はdarkの補正の時にアンプグローをうまく差っ引くために、前回のUTOさんのアドバイスを元にOptimizeオプションをオフにして処理しました。  オンとオフで比べてみます。

light-BINNING_1
デフォルトのOptimizeがオンのまま。右上にひどいアンプグローが残っています。

light-BINNING_1
ダーク補正の際のOptimizeをオフにした場合。
アンプグローは相当マシになります。

最初BatchPreProcessで設定場所が見つからなかったので、ImageCalibrationの中でOptimizeをオフにしてバッチ処理でなくその後もマニュアルでやったのですが、後にBatchPreProcessの右側のグローバルオプションのところに設定できる場所があることを見つけました。これでバッチ処理で手間をかけずに進めることができるようになりました。

ちなみに、ダークだけをものすごく炙り出してみるとこんな風になります。

Capture 00_12_39_00001 00_17_12_c_d

右上が目立ちますが、左上にもそこそこのアンプグローがあり、よく見ると右下にも少しあります。3箇所もあるので大変そうですが、ダーク補正でOptimizeをオフにすることで解決できるので、もうそれほど大きな問題ではないのかと思います。


3. bias補正

最初bias補正をすると画面が暗くなりすぎてしまいました。これはbais frameの撮影時のbiasの値(オフセット)が大きすぎたことと、次に書くフラット補正がうまく行っていなかったことが原因かと思われます。

badbias
カラーバランス補正をしてオートストレッチすると青と緑が暗すぎてしまう。
バイアス補正でオフセットが引かれ過ぎていると考えられる。

ligh frameの撮影時、APTでのbias設定が40でした。そのためbias frameの(オフセットの意味での)bais値は撮影時に40以下にしています。最初オフセットを30にしてSharpCapdで0.0032msで撮影したのですがまだ十分下げ切れていませんでした。それに合わせてflat frameのカラーバランスも合っていなかったせいで、赤が過補正のため青と緑が相対的にオフセットを引かれすぎた状態になってしまって、出来上がり画像の青と緑が暗すぎてしまったのかと思います。

そのため改めてbiasを撮影して、その際オフセットを20に下げ、今度は念のためAPTで撮影しました。一応これでうまく行きましたが、実際にはbias値を下げたからよくなったのか、後述のフラットのバランスが取るように対策したからなのかは不明です。


4. flat補正

その中でも、今回の撮影では特にflat補正で学ぶことが多かったです。TSA-120の口径が大きすぎて、いつもやっているようなiPadでのフラット撮影は出来ませんでした。手持ちのiPadでは画面が小さすぎてはみ出てしまうのです。その代わりにMacbook Proのモニターをフラットパネル代わりに使ってやりました。使ったツールは天リフさんのこのページです。



このページはカラーバランスを整えることができるので、非常に便利です。

短時間露光のflat frameなので、最初はディスクへの画像取り込み時間が速いのでSharpCapで撮影していたのですが、条件をそろえる意味で途中からAPTでの撮影に切り替えました。ゲインはlight frameと同じ220、露光時間は以前の検証から100msです。枚数は50枚程度ですが、これも以前の検証からこれくらいの枚数で十分だと思われます。

ここから色々不思議なことがあり、まだ完全に解決できていません。あいからわらずフラットは謎が多いです。

上の「1. light frame」のところでも述べましたが、APTでlight frameを撮影すると赤色が一番強調して撮影されます。上のスナップショットでヒストグラムのところを見ると、赤が青や緑に比べて1.5倍くらい明るいのがわかります。

これは有意なずれで画像処理に影響を与えるくらいかなり大きな差です。最初QBPのせいで赤くなっているのかなと思っていたのですが、不思議なことに鏡筒とカメラの設定を全く状態を変えないでMacのモニターでホワイトバランスをとったものをflat frameとして撮影すると、今度は赤が一番暗くなるのです。青や緑に比べて2分の1以下くらいの明るさです。

flat-BINNING_1

このflat frameを使いフラット処理をすると、もともと1.5倍明るい赤が、2分の1位の暗さの赤で割られるので、その結果赤が3倍くらい明るいlight frameが出来上がることがわかりました。そのため少なくともPIでは、light framとflat frameのカラーバランスは、そこそこ同じようにする必要があることがわかります。実際にはMacの画面のカラーバランスを、あらかじめ赤が3倍くらい明るいものにして、それを撮影することで、そこそこlight flameと同じカラーバランスの取れたflat frameを作ることできるようになりました。

もう一つ問題がありました。撮影したflatの画面のうち赤色だけ様子がおかしいのです。RGBに分解してみてやると、青や緑はいたって普通に見えますが、赤色だけはセンサーの長手方向に蝶形になるような、形が現れてきて、変に見えます。

flat_BINNING_1_integration_RGB_VNG
赤だけ変な形が現れる。

とりあえず軽減する方法は見つけました。どうもフラットパネル(今回はMacbook Proのモニター)で撮影することが悪さをしているようです。まず、フラットパネルを使わずに、昼間にスーパーの袋を二重に重ねてflatを撮影してみると、この変な形は随分とマシになります。カラーバランスはその時に入る光に依るので、少し赤っぽい、実際には電球色の光を入れています。

flat_BINNING_1_integration1_RGB_VNG
蝶のような形はなくなったようにみえます。 

画像を見ても少しマシになっていることがわかると思います。でもマシになっただけで、やはり同じような形は残っています。

で、結局最終的にやったことはというと、flat補正をしないという選択肢を取りました。どう見てもこれが一番マシなのです。そもそもカメラがフォーサーズ相当で周辺減光があまりないので、それほどフラット補正にこだわる必要はないのかもしれまん。

でもここで不思議なのは、同じ鏡筒で同じ条件で撮影しているのに、なんで普通のlight frameの撮影の方では、こんな変な模様が見えてこないかです。まだflat frameの撮影方法に問題があるような気がしています。ここらへんは時間があったらもう少し試してみます。


5. 仕上げ

フラット補正なしにしてスタックした画像がまともになるとやっと、その後の仕上げの画像処理に困ることはなくなりました。ちなみにこれ以前のフラットが合っていない時の画像処理は熾烈を極め、時間も相当かけてしまいました。ちなみに最後のフラット無しの結論に至るまでに、PixInsightでのフルスタックの画像処理の回数は11回。そのうちPhotoshopに移って最後まで処理を進めたのが4回。下処理がきちんとしていればいるほど、画像処理にかける時間も少なくなりますし、出来上がった画像もいいものになります。


結果

画像処理の段階で色々紆余曲折はしましたが、そこそこ満足のいく仕上がりになりました。透明度の差もあるのでしょうか、三つ子銀河の時ほどくっきり出すのは難しかったですが、アンプグローが軽減できたのと、フラットがマシになったぶんもあり、淡い部分をより炙り出すことができていると思います。

light_BINNING_1_integration_ABE_DBE_STR_DBE_STR_SNP_all_PS4_cut
  • 撮影日: 2020年4月16日21時29分-4月17日0時20分
  • 撮影場所: 富山県富山市下大久保
  • 鏡筒: Takahashi TSA-120
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • 撮影条件: ゲイン220、温度-15℃、露光時間300秒x24枚 = 2時間0分 
  • フィルター: サイトロン QBP (48mm)
  • PixInsight、StarNet++、Photoshop CC、DeNoise AIで画像処理

自宅でこれなら、まあ十分ではないでしょうか。これも一度暗いところへ行って撮影してみたい対象です。一体どれくらい変わるのか、真ん中のしわしわの部分をもっときれいに出せたらと思います。

その一方、富山の北の空でこれだけ出るのなら、もう少し自宅で時間をかけていろんな銀河を探っていきたくなりました。自宅からなら、天気さえ良ければ平日でも比較的気楽に試すことができます。


Annotation

天体の名前入りの画像です。こちらも定番になりそうです。

light__integration_ABE_DBE_STR_DBE_STR_SNP_all_PS4_cut_Ann


前回の三つ子銀河は全面縦横ズレなしだったのですが、今回は右はあっていても左側が斜めになっています。北の空だからでしょうか。座標に対しては画面が歪んで写るんですね。


まとめ

TSA-120の自宅での撮影第2段。QBPのおかげもあり、北の空の銀河でもそこそこ写ることがわかりました。銀河の撮影も楽しくなってきました。TSA-120での撮影を今しばらく続けていきたいと思います。

その一方、まだ画像処理では理解不足なところがあります。特にflatはいまだにミステリーです。きちんとしたflat撮影方法をもう少しきちんと考える必要がありそうです。
 

This page is a supplemental document for the picture of Leo triplet here (sorry, it is written Japanese);




When I retouched the image of Triplet, I noticed something for a new strange noise using DeNoise.

That noise does not show up for the normal picture but it shows up when extreme expansion for dark area like dim nebula on astronomical pictures.

This is an example that the background was extended when DeNoise AI was NOT used.

light_BINNING_1_integration_DBE_ST_PCC_no_DeNoise

Then, this is the second example that the backgroung was extended WITH DeNoise AI.

light_BINNING_1_integration_DBE_ST_PCC_with_DeNoise

Difference is obvious. With DeNoise AI, some strange lattice type noise appeared. It was guessed that some neural calculations were applied at limited area, and the process was repeated next by next.

This kind of noise is very critical for out astronomical photographers. For example, similar AI application which devide stars and nebula using AI, called StarNet++;

https://sourceforge.net/projects/starnet/

does not add any such a strange noise. Probably it calculate all the area at a time. This program was developed by one of the astronomical photographer, so probably he/she was thinking to avoid such area depended noise from the beginning. 


This is a request to Topaz labs:

Probably we, astro photographers are struggling most with such a dark and noisy pictures since out targets are always very dim things. The important thing is that we already know that DeNoise is a very very useful tool to suppress many kinds of noises in astro photographs. Please consider the importance seriously for NOT adding such latice noise. It might be  just a dim background noise for almost of photographers, but it is really big issue for all astro photographers.


2020/4/24 追記: Topaz側と何度かやりとりをしたのですが、原因はGPUにあるそうです。DeNoiseのメニューのPrefefenceから「Advanced Preference」ボタンを押して、GPUのところをオフにするとこのノイズが消えるユーザーもいるとのことです。残念ながら私のところはこのGPUのスイッチ、またすぐ下にあるOpenVINOのスイッチも、手持ちのMac、boot camp、別のMac、別のWindows PCなど全て試しましたが、どれもこの格子状のノイズを消す事はできませんでした。一方、Sharpenの方は、それでもごくわずか同様のノイズを加えるようですが、確認するのも難しいくらい軽度のもので、画像処理に影響を与える範囲ではありませんでした。結局解決には至りませんでしたが、引き続きこの問題は認識していくとのことです。

その際のTopazからのメッセージを最後の結論の一部ですが残しておきます。

After sending files and setting informations,
.
.
.
From Topaz labs.
Go back to that window and change enable discrete GPU to NO. This may affect the speed of your processing but for many users it will resolve this issue.

The grids you are seeing is a result of the graphics card on your computer reassembling the image. We know "how" this happens, but we don't yet know "why" it happens for some users and not others for particular devices.

As a result, I don't have an immediate resolution, but I have forwarded your information on to our development team for further research and review.

Thanks!

To Topaz labs.
I tested on/off for GPU and on/off for Intel OpneVINO, on Mac, Bootcamp on Mac, on another Mac, on another Windows I have. Results were all the same the grid noise were NOT gone.

On the other hand, Sharpen AI did not add so terrible grid. It is not no grid but the grid noise by Sharpen is very dim and almost ignorable.

I can avoid this issue if I apply the DeNoise at very end of process, I mean after enough stretched.
However sometimes I wand to use the DeNoise in the middle of process, before the stretching.

Still I hope this issue will be fixed in the future for all users.
I will continue to find a good PC which does not add the grid noise.

Thanks. 




大きな低気圧が抜けていき、透明度のいい日だったので、自宅からですがTSA-120で初めてまともな撮影を試みました。

これまでの準備

TSA-120に関しては、これまで撮影のためにいくつか準備をしてきました。









ガイド鏡のカメラにはこれまでピクセルサイズが2.4umと比較的小さいASI178MCを使っていましたが、カラーなので解像度的には4分の1になり、あまり得をしません。ピクセルサイズは2.9umと少し大きくなりますが、モノクロのASI290MMを使うことにしました。2.4/2.9x4 = 3.3倍くらい分解能が良くなっているはずです。ガイド鏡自身も焦点距離50mmのレンズから128mmにしたので、こちらも2.5倍くらい分解能の面で得しているはずです。合わせると8.5倍くらい分解能が良くなるので、精度向上が期待できます。

撮影するくらいまで準備が整ったので、チャンスを伺っていました。焦点距離880mmで、フォーサーズサイズのCMOSカメラなので、これまでのFS-60Qと6Dとかよりももう少し拡大して撮影できます。そこで、春で構図的にもちょうど治りがいいので、しし座の三つ子銀河をターゲットにすることにしました。


撮影

さて、TSA-120にフラットナーをつけての初のDSO撮影になります。テストでガイドなしのM42とか月とかの撮影はしていますが、今回はガイドありでの銀河です。四隅の星像にも注目したいと思っています。

そういえば、前回の月の撮影の時くらいから、鏡筒に差し込むカメラの回転角度に気を付けています。Facbookのあるフォーラムで解説されていた方法でやってみました。極軸合わせが終わった後、鏡筒が北極付近を向いている状態で、赤緯だけを揺らして星が平行、または(カメラの画角によっては90度傾いた状態だと)垂直に動くように、カメラの角度を調整すればいいというものです。

これまで画角の傾きには全く無頓着で、適当に水平垂直になったかなと思うくらいで合わせていました。ひどいと数十度のずれになっていることもありました。この方法は手軽で正確なのでいいです。後で示しますが、plate solvingで確認すると、ほとんど回転角0度になっていました。

今回のもう一つの大きな進展は、ガイド鏡の強化によりオートガイドの精度が大幅に上がったことでした。PHD2の画面の写真ですが、

IMG_9879

これをみるとRMSで1秒を切っています。

これまでのFS-60Qで撮影してきた時のとかの典型的なやつが
IMG_9761
になります(これでもかなり調子が良い時のものです)。グラフは同じスケールです。赤線、青線が相当フラットになったことからも、同心円のところばらつきが減ったことからも、明らかに精度が上がったことがわかります。

ところが、撮影した画像を位置合わせをせずに順に見ていくと

Blink

ランダムディザーで揺れてはいるのですが、やはり右に流れていきます。オリジナル画像だと1ピクセル1秒角くらいで、最初と最後を比べると約2時間で80ピクセルくらい右に流れていくので、約80秒角くらいずれたことになります。画像1枚が5分で、5分あたり3秒角ちょっとドリフトしてることになります。結構な量です。まだ撓み(たわみ)があるものと考えられます。これは一度きちんと定量的に評価する必要がありそうです。

今(ブログアップ直前)、ガイドグラフを改めて見てて気づいたのですが、ガイドの赤経をよく見ると一方向にのみ定期的にパルスが出ています。これってもしかしたらたわみがフィードバック信号に現れてしまって、その結果ドリフトを起こしているいるのかもしれません。パルス量とその周期から計算した赤道儀の回転量が、画面から計算したドリフト量あっていれば面白いです。このパルスがなくなるような対策をすればいいので、短時間で効果が見えると対策が楽になるはずです。

あと、撮影使ったソフトはAPTなのですが
  • 撮影画面のカラーバランスが取れず、赤く表示されてしまう。
  • やはりヒストグラムがあまり見やすくない。
  • オートストレッチが使いにくい。
  • カラーのヒストグラムを見ることができない。
などの不満がありました。その後、カラーバランスについては、APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。またオートストレッチに関しては、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。でもこの設定、撮影中にできる時と、撮影中はロックされて何も設定できない時がありました。再現性なくあまりよくわかりませんでした。

このとき試せなかったのが、天頂越えでの赤道儀の自動反転です。天頂越えくらいで月画で始めるので、ギリギリまで反転せずに撮っていたからです。いつかチャンスがあったら試したいです。


画像処理

画像処理に関してはまあいつも通りです。透明度が良かったせいか、RAW画像のコントラストが良かったこともあり、あまり苦労することはありませんでした。

フラットは前回までの検証から、100ミリ秒の短時間露光100枚でOKのはずです。ダークはバラ星雲の時に撮ったものの使い回し。

DeNoiseを少し使っています。ノイズが確実に緩和されるので随分と助かります。ヒストグラムで見るとすごいですよ。幅が尋常でないほど狭くなっています。最初、え、別のファイル開いたのか?と思ったくらいでした。

撮影結果です。

M65 M66 NGC3628: 三つ子銀河」
light_BINNING_1_integration_DBE_ST_PCC_SNP_all_PS3
  • 撮影日: 2020年4月14日21時4分-23時1分
  • 撮影場所: 富山県富山市下大久保
  • 鏡筒: Takahashi TSA-120
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • 撮影条件: ゲイン220、温度-15℃、露光時間300秒x22枚 = 1時間50分 
  • フィルター: サイトロン QBP (48mm)
  • PixInsight、StarNet++、Photoshop CC、DeNoise AIで画像処理
各銀河の細かいところもそこそこ出ています。赤いポツポツも出すことができました。四隅の星像は以前報告した通り、バックフォーカス長が調整し切れていないので少し歪みますが、まあ拡大しなければ目立たないでしょう。TSA-120初の撮影ですが、自宅からここまで出るのなら、そこそこ満足です

上手く取れたので、Annotationもつけてみました。nabeさんがやり方書いてくれていましたが、PIでScript -> Image Analysis -> ImageSolver で位置を解決して、そのままScript -> Render -> AnnotateImageでできます。

light_BINNING_1_integration_DBE_ST_PCC_SNP_all_PS3_Annotated

こうやってみるとかっこいいですね。格子がほぼ完全に縦横になっているので、カメラの回転角はかなり合わせることができていたとわかります。でもnabeさんのページにあるように、多少斜めになっていた方がカッコよく見えるのは気のせいでしょうか?(笑)

そういえば今回、PCCでも上のImageSolverでもそうだったのですがplate solvingが全然うまくいきませんでした。いろいろやって、結局解決したのがカタログをUCAC3に変更してからです。オートとか他のカタログは全滅でした。星の数が少ないから?原因不明です。


ところで、今回撮影した三つ子銀河が昔とどれくらい変わったかと言うと、以前FS-60Qで撮影した三つ子銀河が以下のものになります。

light_BINNING_1_Maximum_No_normalization_DBE_PCC

PixInsight使いたての頃で、縞ノイズに悩まされた時です。今回は口径が120mmで2倍になったのもありますが、QBPでコントラストが上がっていることと、縞ノイズを回避したこと、画像処理の腕は多分上がっていること、StarNet++のマスク効果と、DeNoiseの効果もあることなど、いろいろ進化していることがわかります。

でも不満なところもいくつかあって、一つはASI294MC特有のアンプグローです。背景を炙り出そうとすると目立ってくるので、なんとかごまかさないといけません。もう一つは、下の画像を見て欲しいのですが、強度に背景を強調したものです。

light_BINNING_1_integration_DBE_ST_PCC_SNP_all_potato

右上のアンプグローは原因もわかっているからまだいいとして、背景全体にある格子状の模様はサッポロポテト現象の一種なのでしょうか?銀河周りの淡い腕とか出したいときはここらへんまで炙り出す必要があり、どうしてもこの格子が邪魔になります。今回は適当にごまかしましたが、アンプグローも取り切れていないのも合わせて、バイアス補正とかがうまくいってないのでしょうか?今後の課題です。

2020/4/18 追記: Twitterでnagahiroさんから「この格子DeNoiseのせいでは?」と言う情報がありました。「画像をあの格子で区切って、それぞれにニューラルネットかけているのだと思ってます」とのことです。で、改めて確認してみました。その結果、DeNoiseの前後で格子がなかったのが見事に出てきました。DeNoiseの思わぬ欠点発覚ですね。さっそく一つ原因がわかってしまいました。nagahiroさん、どうもありがとうございました。


まとめ

TSA-120にフラットナーをつけて、ガイド、ディザーをしながら撮影してみました。カメラの回転角を合わせることもできるようになりましたし、ガイドもRMSで1秒角以下になっているので十分な精度です。やっと撮影までできる体制が整ったことになります。銀河の分解能から見ても鏡筒自身の性能は申し分ないです。基本的にTSA-120、眼視用で有名ですが撮影でも十分使い甲斐があると思います。

課題は
  • まだガイドが長時間でドリフトすること
  • アンプグローをもう少し取りたい
  • 格子状のノイズが残ること
くらいでしょうか。

今回は自宅でしたが、もっと暗いところに遠征することも考えても良さそうです。
 

縞ノイズ考察(その2): flat補正を他の環境でも試してみる」の続きです。




flatの何が悪いのか?

flat補正がどうも縞ノイズに対して悪さをしているのは、かなり一般的だというのが前回の結論です。flat frameが縞ノイズを作り出すメカニズムとしては、
  1. 出来上がったmaster flatに固定ノイズが存在する。
  2. 固定ノイズが存在するmaster flatで個々のlight frameをflat補正すると、その固定ノイズが個々のlight frameに乗っかる。
  3. ガイド時のずれで流れていく星像を、StarAlignmentで位置合して星が固定になると、今度はこれまで固定だったmaster flatのノイズが流れ出す。
ということです。

ここでの疑問は「なぜflat frameがそんなにノイジーなのか?」これにつきます。この疑問にたどり着いた時に、いくつか原因の答えの候補がありました。ぱっと思いついたのが
  • まずflat frameの枚数が少ない。
  • flat dark補正をしていなかった。
  • カラーバランスが悪かった。
くらいです。その後いろいろ考えていると、何となく答えがわかってきました。答えにたどり着いてから改めて見てみると、上の候補には答えと少し関連することもありますが、ズバリの回答はありませんでした。


推論の検証

では、今回推論したことが正しいかどうかを確認するために、以下の3つのことをこの順序で確認をしてみました。この時点ではまだ考えだけがあって、その考え方が正しいかどうかを検証する方法にたどりついた所で、実際に画像処理をしてみて予測が正しいかどうかを検証してみたということです。
  1. 短時間露光(100ミリ秒)でいいので、多数枚(100枚)のflar frameを新たに撮ってflat補正。
  2. 短時間露光(100ミリ秒)でいいので、前回と少数枚(7枚)のflar frameをを使ってflat補正。
  3. 前回の露光時間と同じ長時間の300秒露光で、そこそこ多数枚(50枚)のflar frameを新たに撮ってflat補正。
この条件を見ると、もう相当ヒントが出ているのですが、何でflatが縞ノイズを盛大に出すくらいノイジーだったのかわかりますでしょうか?少し発想を変えなければ答えにはたどり着かないかもしれません。

それでは結果を順に見ていきます。


1. 短時間露光、多数枚

ケース1、今一度EVOSTAR 72EDにレデューサを取り付け、その先にASI294MC Proを取り付けて、改めてflat frameを撮影します。ただし、短時間露光撮影なので、iPadの「Color Screen」といういつものソフトを使って、画面をRGBそれぞれ128にして鏡筒の前に置きます。ゲインは220と同じですが、露光時間を短く100ミリ秒にして100枚撮影します。カメラと鏡筒の回転角がきちんと再現できないのですが、縞ノイズの影響を見るだけなのでまあいいでしょう。多分ダークノイズも関係ないので、温度も常温でいいでしょう。

出来上がったflat frameを使って、PIのバッチ処理でこれまでと同様に処理ましす。結果は

light-BINNING_1

light-BINNING_1_cut

となり、今回初めてflat補正をしても見事に縞ノイズがほぼ消えています。ということは、やはりflat frameの枚数が多いことで、ノイズが平均化されたことが効いているのでしょうか?

結論を焦らずに、もう少し見てみましょう。


2. 短時間露光、少数枚

ケース2、次は、先ほど撮った100枚のflat frameのうち、もともと持っていたflat frameと同じ枚数の7枚だけ使います。同様の処理をした結果が以下になります。

light-BINNING_1

light-BINNING_1_cut

拡大した画像をよく見ると、先のケース1に比べると多少縞ノイズが目立ちます。なるほど、やはり枚数が問題なのですかね。

いやいや、まだ焦って結論を出してはいけません。


3. 長時間露光、多数枚

では最後、星雲撮影時と同じ露光時間の300秒で試します。その他、ゲインとかもできる限り当時の状況を再現します。違うところは枚数。枚数は当時の7枚からかなり増やして50枚とします。4時間以上分のflat frameになります。
  • 枚数だけで比べたらケース1よりノイジーで、ケース2より滑らかになるはずです。
  • 露光時間だけで考えたら、相当長いのでケース1,2よりも一番きれいになってもいいはずです。
でも私の予測は違っていて、
  • ケース3が一番ノイジー。枚数の少ないケース2よりもノイジーだと予測しました。

では結果はというと

light-BINNING_1

light-BINNING_1_cut

Eureka!!!
何と、やはりケース1よりはもちろん、遥かに枚数の少ないケース2よりもどう見てもノイジーです。露光時間の長いflat frameが一番ノイズが大きいのです!!


露光時間の長いflatが悪さをする理由

なんで?と思う方も多いでしょう。
少し落ち着きましょう。

ここから解説です。まだ答えを見たくないという人は、ここでじっくり考えてみてください。
準備ができたら、下へスクロールしてください。
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

みなさんの中には露光時間を伸ばせばノイズが下がると思い込んでいる人もいるかと思います。でもこれは間違いで、きちんと考えると
  1. 露光時間を伸ばすと信号Sが時間に比例して1次で大きくなる。
  2. ノイズNは時間のルートに比例して大きくなる
  3. その比をとると、時間のルートに比例してS/N(SN比)がよくなる(大きくなる)。
というのが正しい解釈です。で、今回の問題はというと、

スカイフラット撮影時に露光時間を300秒と長くしたのですが、適した明るさのflat frameにするために、露光時間を短い時と同じ明るさに合わせてしまって、信号Sを実質的に何も増やしていないところです。Nはそのまま露光時間のルートで大きくなっていきます。そうするとS/Nは当然露光時間が短い時より悪くなります。この信号が増えていないところが本質的にダメなところです。

逆にいうと、露光時間が短いflat frameの撮影においても、明るさを合わせるために信号は長時間露光の時と同じ。でも撮影時間が短いのでノイズ量はざっくり1/sqrt(300/0.1) = 0.018とわずか2%ほどになります。1枚あたりでこれだけ違うわけです。長時間露のflatを50枚使っても、短時間露光のflat7枚に太刀打ちできるわけがありません。

というわけで、長時間露光flatはSN比でいったら全然得をしていない、いわばノイジーなflat frameになるわけです。やっと答えにたどり着けました。


どうやって考えたか

今一度振り返りますが、今回の考え方はかなり原理に近くて、特に奇異なところもなく、実際に撮影しての比較でも何の矛盾もないので、flatからの縞ノイズに関してはおそらくこれで決着がついたものと思われます。でもなんでこの考えにたどり着いたか?この過程が一番大事だと思うので、自分自身へのメモも兼ねて書いておきます。

まず、今回のflat補正が問題なるということが分かったくらいから、なんでなのかずっと考えている最中に、
  • 縞ノイズに悩まされるのは決まってディザーなし
  • トータル1時間越えとかの長時間露光したとき
だということに気づきました。しかもそんな時は余裕があるので、
  • あえて頑張ってスカイフラットをとったり
しています。この時点で、ある程度スカイフラットが悪いと予測できるようになりました。ディザーをしているケースとしていないケースがあったことがややこしくしていましたが、ディザーをしていなくてスカイフラットの場合は漏れなく縞ノイズが出ていました。

でもなぜスカイフラットが悪いのか?ここを考えるのには結構時間がかかりました。結局、
  • 短時間フラットと長時間フラットで何が違うのか
  • 特にまずはノイズに関してどうなるかを原理からきちんと検証し始めた
のがきっかけでした。すなわり、
  • ノイズに関しては長時間露光の方が当然大きくなる
という、極めて原理的な話です。これはすぐに納得できました。この次に、
  • じゃあ信号は?
と考えた時に、ピンときたわけです。
  • え、長時間露光の場合、信号って得してないのでは?
  • 短時間露光は大きな(明るい)信号を使って時間が短い。
  • その一方長時間露光ではあえて小さい(暗い)信号を長い時間です。
  • 信号の大きさと時間をかけると、どちらも同じ量じゃん!
というところまでたどり着いたのは、ピンときてからわずか30秒くらいです。シャワーを浴びたあと、洗面所で体を拭いている時でした。いつもそうなんですが、シャワーを浴びている時はポーッとしてて、他のことを何も考えずに、そのことだけに集中できる至福の時間。面白いアイデアは、大体シャワー時間近辺で出てきます。

やはりきちんと基本に従って考えるのが一番答えに近かったという、いい例だと思います。ヒントはいろんなところにありましたが、こうやって考えて答えにたどり着く過程はやはり楽しいものです。


まとめ

今回の件、私的には結構な発見でしたが、どうでしょうか?意外な答えでしたか?それとも「当たり前すぎでつまらん」という方もいましたでしょうか?

flat flameからくる縞ノイズの考察については、とりあえずここまで。思ったより早く解決しました。3回の記事でいろいろ検証しましたが、flatに関してはある程度満足した回答を得ることができました。長時間露光flatがノイジーな理由、短時間露光でノイズの小さいflat frameを作る意義も示すことができたのは大きいと思います。これでディザーをしない場合でも、対処する方向性をある程度示すことができたかと思います。

それでも縞ノイズという観点で考えると、まだflatからくるもののみの検証です。他の原因で縞ノイズが出ることもまだまだ考えられます。でも今回考えたことをベースに、ある程度原因を予測することもできそうです。ここら辺はまた折を見て書いていこうと思います。

過去の縞ノイズでも試してみる

もしかしたら、flat補正の効果が今回の撮影だけの特別な場合だった可能性もあります。なので、過去の画像で縞ノイズが出たファイルを再処理してみます。使ったのは、2年以上前のPixInsightを最初に使い始めた頃に撮影したM33。

シンプルにするためにフラットの有無だけで比較します。撮影条件は
  • 鏡筒: タカハシFS-60Q、焦点距離600mm
  • 赤道儀: Celestron Advaned VX
  • カメラ:  ZWO ASI294MC
  • ガイド: ASI178MCと50mmのCマウントレンズをPHD2にて
  • 撮影条件: SharpCapでゲイン270、温度-15℃、露光時間300秒x25枚 = 2時間5分
  • ディザー: なし 
  • ファイル保存形式: RAW16bit、fits形式
です。本質的なところではカメラは常温ですが同じ、長時間、ディザーなしというのでよく似た条件です。Flat frameの内容はというと、記録から
  • flat frame: light frame撮影後すぐに、鏡筒に状態でスーパーの白い袋を2重に被せて撮影。ゲイン270、露光時間300秒、常温で、3枚撮影。
となっているので、これも撮影後すぐにとったとか、枚数が少ないとかの条件も同じです。この似た条件というのが鍵になる可能性がありますが、まずは時期的にも違うという点で検証して一般性を見ます。

まずはflat補正あり。やはり以前と同じように縞ノイズは盛大に出るので再現性もあります。

light-BINNING_1

次にflat補正なし。ゴミの跡とかは目をつぶってください。当然周辺減光も出ますし、アンプグローも残ります。その代わりに、バラ星雲の時と同じで縞ノイズは消えます。厳密に言うとバラ星雲の時も今回のM33の時も同じで少しの縞ノイズは残っています。でもflat補正のあるなしで、いずれも劇的な違いがあることはわかります。

light-BINNING_1

この時点で、PIに限られますが違う画像でも起きているので、一般的にも十分あり得る話だということがわかります。


PixInsight以外では?ステライメージで確かめてみる

もしかしたらこれ、PIのflat補正のアルゴリズムに問題があって、PIだけの問題という可能性があります。他のソフトの代表で、ステライメージ8で確かめてみました。

そう言えば最近Windowsを入れ直してステライメージまだ入れてませんでした。久しぶりに再インストールして、M33を使ってflat補正をしてみました。自動処理モードは使わずに、詳細編集モード(マニュアルモード)で試しました。自動処理モードはこれまでもほとんど使ったことがないのと、一応は試したのですがうまく色が出なかったからです。

最初の結果がこれです。

light

「お、縞ノイズないじゃん!なんで?PIだけの問題か?」と思ったのですが、よくみるとゴミの跡も残っていてフラット補正全くされていないみたいです。自動処理モードでやっても結果は変わらず、flatファイルが悪いのかとか色々疑ったのですが、原因はステライメージのバグ。バージョン8をディスクからインストールしたてで、アップデートしていなかったことが原因でした。現行のバージョン8.0hにして試してみると、

light

ちゃんとflat補正もされて、縞ノイズも盛大に出るようになりました。なので、PIだけの問題でないということが分かります。

ちょっと蛇足です。久しぶりにステライメージ触ったのですが、随分といろんなことを忘れていました。今回サボりましたがflat darkとかも本当は撮らないとダメ(flat darkあるなしで縞ノイズに影響がないことは確かめています)なんですよね。その代わりにbiasファイルを撮らなくていいとか、今思うとPIとはだいぶん違います。

初心者向けの自動処理モードも「ほとんど何も設定出来ない」との批判も多いですが、私はこれでいいと思います。多分ステライメージは、初心者にとっては天体画像処理ソフトとしては唯一の選択肢です。日本語で操作できて、マニュアルも(十分ではないかもしれませんが)日本語で読むことができてという意味で、敷居がずいぶん低いはずです。初めて天体写真に挑む人は、一番最初は本当に何も分からず手探りでやるので、自動モードもこれくらい簡潔にしておくのはある意味正しいと思います。自動モードで理解できてきたら、詳細モードに行って、詳細モードでいろんな操作をして理解して、その上で不満が出たらより高機能なPixInsightという手もあるかと思います。

ステライメージで一つ不満があるとしたら、「ベイヤー・RGB変換」のところでしょうか。バッチ処理が無いので、一枚一枚手で変換しなくてはダメなんですよね。ALTキーでI、ALTキーでYで、Enterで処理、マウスで最小化ボタンを押して次の画像というのを繰り返し、出来るだけ楽に進めてます。今回20枚程度でしたが、100枚とかはやりたくないです。最近はPIで1000枚とかの処理もする時があるので、これだとステライメージでは現実無理です。せめてコンポジットやホット/クールピクセル除去機能みたいにバッチ処理ができるようになるといいのですが。


ついでにDSSでも

あと日本で流行っているスタックソフトの残りは、惑星用除いたらあとは、DSS(DeepSkyStacker)とRAP2くらいでしょうかRAP2は有料で持っていないので試せませんが、DSSはフリーなので試すことはできます。DSSは星を始めた4年前にまだ有料ソフトに手を出す前に、フリーだからと少し試しただけくらいの経験しかありません。もう久しく触っていませんが、いい機会なので試してみます。

昔はものすごく複雑だった印象があるのですが、機能自身は今思うとまあ一直線で素直ですね。少なくともPIに比べるとはるかにシンプルです。特に困ったところは2箇所だけで、一つはRegisteringのところで進まなくなってしまったところ。これは検出する星の数が多すぎたことが原因で、「Register Setting」の「Advanced」タブの「Star Detection Threshold」を増やして、検出する星の数を減らすことで解決しました。もう一つは一度最後まで処理をしたのですが、モノクロのままだったので、メニューの「RAW/FITS Settings」の「FITS Filters」できちんとdebayerしてやることでした。

さて結果です。フラットもうまく補正されたようです。

light

あー、ダメですね。やはり縞ノイズ出ますね。

と言うわけでflat補正問題、PixInsightだけの問題でもなく少なくともステライメージとDSSも含めて、同様に縞ノイズを発生させることがわかりました。日本で使われている3大スタックソフト(惑星用除く)で同じ状況というので、flat補正が縞ノイズに与える影響はかなり一般的と言っていいかと思います。


とりあえず、今回の記事のまとめ

他のデータでも、他のソフトでも同様の傾向で、flat補正の影響はあると言えそうです。

ただしやはり気になるところは、flatの撮り方が2例とも撮影後すぐに同露光時間、同ゲインで、スーパーの袋をかぶせて空で撮っていることです。露光時間が長いので、明るさ的に足りないことはないと思います。ただし、カラーバランスはかなり黄色っぽくなってしまっています。また、枚数が足りない可能性もあります。

次回以降はここら辺のflat frame自身についてもう少し検討できたらと思っています。実は今回の謎の答えもう出ています。今検証を進めているところです。乞うご期待です。



このページのトップヘ