ほしぞloveログ

天体観測始めました。

カテゴリ: 画像処理

最近悩んでいるのが、動画スタックによる画像の分解能の限界です。まだあまりよくわかっていないのですが、とりあえず簡単なことから始めようと思います。今回知りたいことは、そもそも「動画スタックでドーズ限界を超えることができるのかどうか」。印象としてはそんなんとっくに超えてるんじゃない?と勝手に思っていたのですが、実は確かめたことはなかったので、少し検証してみました。

IMG_9336



まずドーズ限界を感覚的に知るために、木星がもしドーズ限界で制限されるとしたらどのような画像になるかを試してみました。元画像はハッブルで最近(2018/4/25)撮影されたのものです。

JupiterOpal_HubbleMasztalerz_1880

検証するには十分な解像度があります(実際の画像は上の画像をクリックして拡大して見てください)。NASAの画像は著作権を主張していないとのことで、このようにブログでも使うことができるのでありがたいです。


これを手持ちのC8の画像と比べてみます。下は去年の惑星シーズン(2017/6/8)に撮影したもの。口径200mmでASI224MCを使いました。C8としてはそれほど悪い方でもなく、ちょっと頑張ればここら辺までは出るくらいかと思います。カメラがASI224MCでカラーなので、モノクロでL画像を撮ればもう少し改善の余地はあると思います。
2017-06-08-1241_5-RGB2


まずはドーズ限界による分解能を計算します。ドーズ限界は

115.8 / D [秒]

で表され、Dは口径をmmで表したものです。C8は口径203mmなので

115.8 / 203 = 0.570秒

となります。木星の視直径は変化しますが、撮影当時の視直径は調べてみると39.6秒だとのことです。なので、木星の直径を39.6/0.570=68.4ドットで表せばいいことになります。

Hubbleの画像の木星の直径(画面全体ではないことに注意)がキリのいい68ドットになるように画像の解像度をPhotoShopで落とし(その際、見かけが近くなるように彩度を落とし、上下逆にしました。)、その後、元のドットになるようにバイキュービック法で再び解像度を上げました。その結果がこちらになります。

JupiterOpal_HubbleMasztalerz_1880_200mm2

自分でC8で撮った上のものと比較してみると、ざっくりいって、ドーズ限界と同じかもう少し悪いくらいの分解能だったことがわかります。うーん、では状況がいいとドーズ限界に近づいていくのか、それでも超えることはないのか?もう少し検証してみます。


次にC14を想定して、355mmの口径の場合で、最近の木星の視直径44.1秒を仮定してドーズ限界での画像を再現してみると

JupiterOpal_HubbleMasztalerz_1880_355mm

くらいになります。これだと木星の直径を136ドットで表すことに相当します。ところが、例えばC14で最近撮影された日本の惑星撮影で代表的な「RB星のブログ」さんの2018/4/21の画像(RB星さんのご好意で掲載許可をいただきました)

j180421s1

と比べると、明らかにドーズ限界を超えて綺麗に見えています。この日はシーイングがベストではなかったとのことですが、C14では最高峰に近い木星画像かと思います。

ちなみにドーズ限界を1.5倍くらいよくしたものが

5

になりますが、これくらいだとだいたい同じくらいか、まだ撮影した方が少しいいくらいでしょうか。高々1.5倍の解像度増ですが、見え味は相当よくなるのがわかります。ちなみに今回の場合、2倍だと明らかに良くなりすぎてしまうので、条件が整えばドーズ限界の1.5倍から、2倍くらまで迫ることが出来そうだということがわかります。

うーん、でも個人的にはドーズ限界なんかはもっとはるかに越えていけるのかと勝手に思っていました。意外に近い結果でしたが、まあ考えてみれば光学的には回折限界から来ているので、当たり前かといえば当たり前ですかね。

ただし、波長によっても分解能は違うはずで、PhotoShopでRGBにチェンネル分解し波長に応じてドーズ限界を求めて再びチャンネル統合して試してみたのですが、Rが解像度が悪くなり、Bが解像度が良くなるので、結果的には相殺しほとんど見た目の影響はありませんでした。なので、上の画像には波長の依存性は入っていません。

こうやってみると、やはり口径の効果は大です。他の素晴らしい成果を出している方々の画像を見比べてみても、C8よりC11、C11よりC14の方がより精細なところまで描写できているので、やはりドーズ限界のような光学的な限界がまだまだ効いていると言えるでしょう。ここにシンチレーションなどの効果が邪魔をしているので、現在の手法はそのシンチレーションの効果を除き、いかに光学的な限界まで迫るのかという状況なのかと思われます。

では他に何が関わってくるかというと、例えばシンチレーションの軽減には
  • 露光時間(転送速度とも関係あり)
  • スタック枚数
などが関わり、ノイズには
  • カメラの感度
が関わってくると言えるでしょうか。カメラをモノクロにしてLを撮影してさらに解像度が上がったりもしているので、感度も解像度に効いてくると思うのですが、まだそのメカニズムがよく理解できていません。また、C14くらいの口径では
  • カメラの解像度
は今回の検証から考えるとまだまだ余裕がありますが、さらに大きい口径だと解像度が効いてくるようになるのかと思います。あと大きな効果は
  • 画像処理
でしょう。特にRegistaxなどのWavelet処理は見た目の解像度に大きく影響します。

さて、モノクロカメラを買うかどうか。まだ結論は出てませんが、まずは今のカラーカメラで口径を250mmで撮影してみて、去年の結果を超えることを目標にして、その結果が出てから考えます。



先週のこととなってしまいますが、太陽撮影のため土、日と天気に期待していたのですが、晴れたのは土曜の夜から。かろうじて日曜朝が晴れていましたが、雲が無かったのは短時間。すぐに薄雲がかかって、昼前には厚い雲で完全に太陽は隠れてしまいました。前々回試したいと言っていたティルトマウントは、土曜朝には届いたのですが、時間切れで試すことはできませんでした。


今回やっと画像処理が少し固まってきましたので、メモがわりに書いておきます。

まず撮影ですが、センサー画素がRGGBでGが2つあるのでそちらを使った方が得だという話があります。そのためRをサチらせるようにして、G(とBも)をサチらせないように撮るということを試しました。ただ、そのせいかどうかまだわかりませんが、画像処理を進めて強調していくと数十ドット角の模様がどうしても出てしまいます。もう少し検討の余地ありですが、これは感度の点からもモノクロカメラを買った方が早い気がしています。

カメラは今回もASI178MCを使っています。SharpCapで16bit RAWモードで.serフォーマットで書き出しています。ソフトはいずれFireCaptureに移行するかもしれませんが、惑星のように激しくぶれることはないので、FireCaptureの1番の魅力の撮影時の自動アラインメントの機能が生きてきません。色などの度合いはSharpCapの方が見やすいので、しばらくはこのままSharpCapでいきます。


太陽表面の画像処理ですが、まずは撮影した動画をAutoStakkert3でスタックします。その後、最初は惑星と同じようにRegistaxに行っていたのですが、どうも全体にギトギトしてうまく出したいところだけ出すということができません。なので、スタックしたtiffファイルをそのままPhotoShopに持って行っています。

2018-03-11-0059_2_lapl6_ap1015


PhotoShop上ではサチっていない色の情報のみを使います。今回はG(Green)のみを使いました。実はモノクロ画像を扱うのは今回がほとんど初の経験になり、操作に少し戸惑いました。ある特定の色のみ使う場合は、普通にPhotoshopでカラーのファイルを開いて、「チャンネル」パネルを選んで、その右上の4本線のアイコンを押して、オプションのところから「チャンネルの分割」を選びます。すると3つの色がそれぞれグレーになった画像ができます。この際、レイヤーが複数あると「チャンネルの分割」が選べないので、その前にレイヤーの統合をしてください。

新たにできた3つの画像から今回はグリーンを使います。なので後の2枚は消してしまっていいでしょう。ここからは主に「庭先天体写真家?」さんのブログの「太陽面の画像処理」を参考にさせていただいています。というか、ここくらいしか画像処理の解説をしているページが見当たらないです。ほとんど同じ説明の繰り返しになってしまいますが
  1. まずは「レベル補正」で左のスライダーで暗い部分をなくしてしまい、右スライダーで明るい部分もギリギリまで削って階調を広げます。
  2. 次に背景をコピーして別のレイヤーに貼り付け、それに「フィルター」「その他」から「ハイパス」を選んで出したい模様が出るくらいのピクセルをセットして適用。そのレイヤーを「オーバーレイ」で重ねます。
  3. ハイパスしたレイヤーをレベル補正でチューニング。左スライダーをあげて適度に強調します。ここと、上のハイパス工程はグリーンだけ引き出してからRegistaxを使うというのでもいいかもしれません。海外のページも当たると、ImPPG(フリー、2018/3/26追記: 後日使ってみました)やAstra Image(有料)がRegistaxよりもいいという記述が各所にあります。
  4. これを「イメージ」メニューの「モード」「RGBカラー」で再びカラー画像に変換します。変換直後はグレーなので、ここから擬似太陽色をつけていきます。
  5. レベル補正で、Rは中央スライダーを左に持って行って強調、Bは中央スライダーを右に持って行って暗くします。これで太陽のような色になります。Gは触る必要はないでしょう。
  6. その後、トーンカーブでBを絞ってやると、P.S.T.の飛び気味なところが目立たなくなって少し模様が見やすくなります。逆に活動領域を白く強調したい場合はBをあげてやるといいそうですが、私はまだ太陽を始めたばかりで活動領域に出会ったことがないので試せていません。
2018-03-11-0059_2_lapl6_green_w
カラーにする手前です。


2018-03-11-0059_2_lapl6_green
カラー化後です。


プロミネンス部分ですが、こちらはエタロンの角度を合わせてプロミネンスが見やすいところを別撮りしています。

  1. まず、暗いプロミネンスが見えるくらいに、露光時間やゲインを上げて太陽表面ではサチルくらいで動画で撮影します。星雲と同じで写っていないものを出すのは難しいみたいです。フォーマットなどは同じです。
  2. あとは惑星と同じで、Autostakkertでスタックして、Registaxを使いWavelet変換で細かいところを出します。
  3. 真ん中を暗くするために、Photoshopで「楕円形選択ツール」で丸く選択して、一旦選択してから「選択範囲の変形」で微調整してリムのキワまで持っていきます。
  4. あとは選択した範囲を「露光量」で暗くするだけです。
2018-03-11-0059_2_lapl6_green


あとは、Photoshopで上の2枚を「比較(明)」で重ねます。

このような工程で3月11日の太陽を処理したのが以下のものになります。前回のような80mmに改造したP.S.T.ではなく、普通の40mmのP.S.T.です。


2018-03-11-0059_2_lapl6_green


プロミネンスもフィラメントもほんの小さなものしかなく、のっぺりしたものです。小さな黒点らしきものも見えているでしょうか。でも解像度、コントラスト不足でまだよくわかりません。


少し方法が見えてきたので、同じようなことを3月4日に80mmで撮っておいたものにも同様な加工をしてみました。ただし撮影時にGreenを最適化しなかったので、Redのみを使っています。

2018-03-04-0559_8_surface


明らかにフィラメントなどが見えてきました。同様に40mmで撮って以前処理したもの(まだ試行錯誤中だったもの)を再掲載しておきます。

2018-03-04-0256_9_surface_lapl4_ap4350_w2_2

少しだけ時間は違いますが、ほぼ同じ太陽です(ちょっと角度がずれてしまっています)。口径の40mm
と80mmの違い、画像処理方法の違いもあって今回かなりマシになったのがわかります。

でもやっていてわかったのですが、
  • フィラメント以外のもじゃもじゃは果たして意味があるのか?他の方の写真とも比べましたが、再現性がなさそうなので、ただランダムなものを撮ったらあのような模様が浮き上がってきたのか、それとも何か確かに写っているのかがまだ判断できません。
  • あと、P.S.T.のエタロンはHアルファを通す場所にかなり偏りがあるので、太陽全景を均等に処理するのはやはり難しそうです。
やはりP.S.T.だと、そもそもこれくらいが限界のようです。P.S.T.のエタロンを使ってもう少し口径を広げて試そうとは思っていますが、コントラストが上がるわけではなさそうです。コントラストを上げるのはダブルスタックがいいらしのですが、手持ちのダブルスタック用の口径40mmを別の大口径の鏡筒に適用するのはなかなか例もないようなので、何か別の手を考える必要がありそうです。90mmダブルスタックの結果はものすごいみたいですが、値段もものすごいです。

さて、明日から香川の天体望遠鏡博物館へ家族4人で大旅行です。今晩夜中に走って、明日の午前は香川観光。午後から博物館入りしてます。夜は観望会があるので、電視観望で参加者に楽しんでもらえればと思っています。


続き P.S.T. (その11): ニュートンリングが消えた
 

週末晴れるかなと思っていたら結局雪みたいなので、諦めています。今週あったこととか、その他諸々を日記がわりに書いておきます。

縞ノイズ続報ですが、FlatAide Proを試させてもらいました。フリー版で制限なしで試せるのでありがたいです。結果としては、残念ながらカラー版COMSカメラではほとんど改善が見られませんでした。そもそもカラーでは難しいはずだと、オリジナルアイデアのあぷらなーとさんも言っているのと、あとASI294MCはクールピクセルよりホットピクセルの方が多いためかと思われます。

結局「縞ノイズ」の結論としては、
  1. ホットピクセルやクールピクセルの数が多いと、除去処理で同じことをする箇所が多くなってしまう。
  2. それが撮影した全枚数に同じ位置に同じ処理をしてしまうものだから、どうしてもコヒーレント(同相)の結果を残してしまう。
  3. それがガイドずれで、画面全体にどうしても残ってしまうコヒーレントな部分をずらしながら重ね合わせて縞や縮緬のようになってしまう
ということです。ならば、「なんとかして処理を枚数の途中で変えてやってコヒーレントにならないようにしてやればいいのでは」と思ったのですが、その具体的な手段を思いつくことができず、ここで断念です。とりあえず今回しし座トリプレットは縞ノイズが目立たないPixInsightのMinimumでIntegrateして、次はditherをかけて結局撮り直すのがリベンジといったところでしょうか。敗北感が拭い去れません。

ZWOのCMOSカメラだと今の手持ちのソフトではditherをするが大変そうなので、ditherをサポートしているというAPTを少し試そうと思っています。CMOSカメラの撮影の場合、ソフトは
  • 惑星: FireCapture
  • 電視: SharpCap
  • 短時間撮影: SharpCap+PHD2
  • 長時間撮影: APT+PHD2でdither
ということになりそうです。CMOSカメラではお気軽撮影を目指しているのに、だんだん複雑になってきてしまうので困りものです。


今週あったもう一つ大きなことは、Macbook Proに入れてあるBootCamp領域が壊れてしまったことです。起動不可になり、0xc0000225というコードを出します。調べていくとどうもSSDが原因のようで、Safe modeで立ち上げようとして失敗するみたいです。そういえばこの直前に、VMwareでWindowsを走らせながらPixInsightでMac側で処理していて、Mac側のSSDがいっぱいになってVMWareが停止するとかいうメッセージが出ているのを思い出しました。色々なページを見て直そうとしたのですが、BootCampでこれが起こると直すのは結構難しいみたいです。普通のWindowsだったら直るなずのことをしても全くダメでした。マスターブートレコードの書き直しとかしている最中に一旦Mac側も立ち上がらなくなって、さすがに焦ってきたので修復は諦めてBootCamp領域を消して、再インストールしました。幸いなことに、Mac側はなんとか立ち上がり、Windows側の領域を見ることはできているので、Windows側のバックアップを取り、無事に戻すことができました。それでもアプリなどはすべてインストールし直しです。


そういえばまた変なものが増殖しました。

IMG_3567


不思議です。増えることはあっても減ることはなかなかありません。

これで昼間も楽しめそうです。ジャンク格安品でしたが、エタロン部分は問題ないらしいので、格好の改造材料です。ファブリーペローキャビティーは比較的経験があるので、そこらへんがエタロンにどれくらい応用できるか楽しみです。でもとりあえず昼間に晴れてくれないとどうしようも無いのですが、残念ながら週末は土曜も日曜も雪の予報です。




 

縞ノイズの考察の続きです。と言ってもほとんど成果なしです。

せっかくのASI294MCを撮影にも使えるのかどうかを判断するためには、縞ノイズ問題を解消しなければどうしようもありません。解決する手段さえあれば、気軽な撮影にも使えると目論んでいます。何れにせよ電視観望には十分(その1その2)なのですでに当初の ASI294MCの目的は十分に達していて、さらにあわよくば撮影もという贅沢な目標です。

具体的には、せっかく長時間撮影をしたしし座の三つ子銀河の画像を有効活用するために「縞ノイズ(斜めノイズ、縮緬ノイズ)」をなくすことですが、今回は少し絞って、
ということを探ることにしたいと思います。

試したことは、
  1. ホットピクセルのみの除去とクールピクセルのみの除去の比較。
  2. ダークフレームの効果。
  3. フラットフレームの効果。
  4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。
  5. Maximum、Minimum、Medianの違いの確認。
などです。他にも色々試していますが、かろうじて意味があることがあることだけ挙げておきます。


1. ホットピクセルのみの除去とクールピクセルのみの除去の比較

1枚のRAW画像を、オートでホットピクセルのみ、もしくはクールピクセルのみ除去して、どちらが効いているかを試しました。結果は前回のあぷらなーとさんのコメントでの推測どおり、ホットピクセルの方が圧倒的に多くて、かなりの部分が除去されているのが確認できたので、一応除去ルーチンはそこそこうまく働いていることがわかりました。一方クールで除去が確認できたのはごく僅かでした。

問題はホットピクセル除去でもクールピクセル除去でも、いずれも除去できないものがまだ結構あることです。これが前回みたMaximumで残った起点に相当するものかと思われます。まずはこの除去を目指します。


2. ダークフレームの効果

1のPixInsightでオートでホット/クールピクセル除去に加えて、ダークフレームのみを使ってホット/クールピクセルがどれくらい変わるか見てみました。結果はほとんど効果なしです。理由はリアルタイム処理をしてみるとわかりました。オートで取れる数の方が多いからで、ダークフレームを使っても除去できる数はそれほど増えないからです。これはパラメータをいじって調整すればうまく残りのダメージピクセルも除去できるのではということを示唆しています。


3. フラットフレームの効果

2の処理に加えて、フラットフレームとフラットバイアスの処理を加えました。意外なことに残ってしまう起点の除去には、このフラットフレームの補正の効果が大でした。フラットバイアスの効果はほとんど関係ないです。残っていた色から判断して恐らくホットピクセルと思われているものですが、ほとんど除去できました。この状態で、もともとバッチ処理でやっていた処理とほぼ近いものになるはずです。ここでやっと最初の疑問の、フラットも含めた前回のバッチ処理で最後だけMaximumでintegrateした時に、輝点が出てこない理由がわかりました。


4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。

それでもまだ少し輝点が残っています。もう少しだけなんとかできないかと思い、2でやったダーク補正のパラメータをいじることにしました。

IMG_3565

下の白丸を押してリアルタイム表示で、オートで幾つ補正されるかを見ながら、それ以上に(今回やったのは3倍の数くらいで、ホットで0.1、クールで0.04くらいにしました)パラメータ調整で補正できる数を増やすことで、残っていた輝点もほぼ除去されることがわかりました。


5. Maximum、Minimum、Medianの違いの確認

上記の3、4ですでに一枚の画像で輝点をほぼほぼ除くことはできるようになったので、これで残った輝点が原因なのかどうかがやっと切り分けられそうです。この状態で撮影した枚数全てで重ね合わせてみました。その際、Integrationのパラメータをデフォルトの「Average」から「Maximum」「Minimum」「Median」にそれぞれ変えてみました。

Average: 最初にバッチ処理でやったものと基本的には同等です。

01_Average

ただ、バッチ処理の時と違い、撮影失敗に近い星像が崩れたものや、人工衛星が通った画像を省かずに全て処理したので、その影響で星像がとりあえず丸いのですがちょっと大きいのと、人工衛星の線が出てしまっています。縞ノイズはやはり盛大に現れます。この状態で画像処理を進めても背景の縞が残ってしまい、不自然に背景を暗くするしかなくなってしまうので、許容範囲を超えています。

でもこのことは意外でした。輝点が十分無くなれば、この状態でも縞ノイズは消えると思っていたのですが、見ている限り元の輝点がある状態とほとんど変わりません。これの示唆するとことは輝点そのものよりも、「輝点を処理する時に出た影響」が各画像にコヒーレントに残ってしまうということでしょうか。

ここで少し考えて、前回フラット補正なしの時に試したのですが、ホットもクールも全く処理をせずに輝点を全て残してIntegrateしたものを見てみました。

nocosmetic_calibration_integration

よくみると明るさの違うRGBの点がいっぱいあります。完全な輝点でなくても、コヒーレントに残る色々な明るさのノイズがあるということです。これらを処理した時の残りがコヒーレントに現れて縞ノイズとして残るということでしょうか。というと、これはホットピクセル除去に関係なく、明るさが違うというころからも、むしろDebayer処理のところに問題があるのではと考えられます。ここら辺もすでにあぷらなーとさんが指摘してくれています。さすがにこれは処理しきれなさそうなので、ここで今回の検証は成果なしという結論に至りました。


Maximum: これまでの検証と同じく、Averageよりも明らかに縞ノイズは少ないです。

02_Maximum_DBE

最大の明るさが出るので、星像がAverageの時よりもブレるのと、人工衛星の線が一本濃く走ってしまっています。残った輝点もはっきり出てしまっています。一つ疑問なのは、右側のアンプノイズがなぜかAverageよりも小さいことです。これはなぜだかよくわかりません。少しだけ残っている輝点は出ているのでMaximum自体の処理はされていると思うのですが。


Minimum: 今回これが一番良かったです。

03_Minimum_DBE

縞ノイズはMaximumと同程度に除去されていて、画像処理をしてもそこそこ耐えうるレベルです。変な星像の乱れもありませんし、星も変に大きくなったりしていません。。ただ一点気になったことが、不必要に暗い(おそらくクールピクセルの残り)があると、そこだけガイドのズレのぶんだけ別の縞ノイズのように目立ってしまいます。でもまあ許容範囲でしょうか。


Median: 最初Mediumと勘違いしていて、Averageと似ているけど何か違いが出るかと期待したのですが、実はMedianでした。

04_Median_DBE

Medianはより飛び抜けたところを省いて重ね合わせるものということなので、人工衛星の軌跡などは取り除かれました。その代わりにノイズを少し犠牲にするそうですが、見た目ではよくわかりませんでした。いずれにせよ、縞ノイズに関してはAverageとほとんど同じで、効果はありません。



うーん、厳しいです。このままMinimumでいっても、今回に限っては画像処理に影響ないくらいにはなっているのでもうこれでも十分な気もします。それでも次はFlatAide Proでカラーカメラでうまく縞ノイズが除去できるかもう少しだけ試してみたいと思います。(2018/2/17追記: 試しましたが、やはりほとんど効果はありませんでした。モノクロでいつか試すことにしたいと思います。)


それにしてもPixInsightの操作方法にもだいぶん慣れて来ました。今回はフラットの補正がステライメージに比べて操作できる箇所が何もないのが少し気になりました。そのためか、まだ右側上部の大きなアンプノイズがフラット補正で取りきれなくて残ってしまっています。それでも他に色々いじれるパラメータがあるのはさすがです。昨日からまた雪が降り続いています。しばらくは天気は期待できなさそうなのでまた画像処理と機器の整備くらいになりそうです。


長時間露光で問題になる縞ノイズの考察です。

  • ガイドのズレと同じ方向に縞が出る。
  • RGBと黒の4色。
  • 太さは一枚のコンポジットされた画像の中ではだいたい一定。でも画像によって細かったり太かったりします。太さは、ずれの長手方向に垂直な方向のずれの大きさに一致している?
  • クールピクセル説が強い。でも本当にこんなに前面にクールピクセルが広がっているのか?
  • カラーセンサーでクールピクセルが一つあると、上下左右のみでなく、斜め方向にも影響が出るので、ある程度の太さになる。
  • 不思議なのは、ガイドでずれたのを比較明合成した星像のずれの長さよりも、縞一本の長さの方が全然長く見えるのです。ずれの長さの3倍くらいは長く見えます。でもRGBと黒の4色しかないので、たまたま同じ色の線が繋がっているのが目立っているだけに見えなくもないです。ある色があった時2色繋がるのが4分の1で、3色繋がるのが16分の1。長いのは目立つのと、短いものも存在するので、長く見えるというのは説明できそうです。
  • 10分単位くらいに分けてコンポジットし、それをさらにコンポジットしてもダメだという報告あり(自分では未確認)。
と、ここら辺まで書いてあぷらなーとさんのコメントとブログを見て、やっとクールピクセルが原因というので納得してほぼ解決したのですが、せっかく自分でも途中まで考えてはいたので、そこまでだけでも書いておきます。


まず試したのは、簡単にするためにクール補正も、フラット補正もダーク補正もせず、三つ子銀河のIntegrationをすることでした。ImageCalibrationがなぜかうまくいかなかったのでStarAlignmentで代用。その結果がこれです。

nocosmetic


赤とか青とか緑とかのかすれた線が無数にあります。全部クールノイズだと思われます。前面に散らばっています。もっとわかりやすくするために、位置合わせをしないただの比較明合成をします。

nocosmetic_nocalibration_integration_a


クールノイズが点になって無数の輝点になって見えます。この時点で、やっとクールノイズの可能性が高そうだと思い始めました。

今度はクール補正をかけたものの比較明合成です。

cosmetic_nocalibration_integration_a


クールピクセルがなくなってかなりましに見えます。これなら変なノイズとかでなさそうなので、これで位置合わせを行います。

cosmetic_calibration_integration_a


でも結果はなぜか縞ノイズが出てしまいます。この理由が最初全くわかりませんでした。ところがIntegrartionの時にAverageを使わずにMaximumを使うと理由がかなりはっきりしました。

cosmetic_calibration_integration_Maximum_a


Maximumなので一番明るいものが残っています。形をよく見ると縞ノイズとかなり一致しているように見えます。Maxmumで見えるということは、このような明るい輝点はまだ存在していて、飛び抜けたもの含んで無理やりIntegrationの時にAverageで平均化したりすれば、さすがにそこにムラができるのは不思議ではありません。ImageIntegrationの時にPixel rejection(1)で「Rejection Algorithm」を「min/max」にすると多少は改善できることもわかりましたが、それでも縞は残ります。

あと、Maximumは星像が歪むという弊害があることもこの時気づきました。昨晩はここで終わって寝てしまいました。


その後、あぷらなーとさんからのコメントに答える形で前々回のページに書いたのですが、今日になってあぷらなーとさんのブログの過去記事を見るとここら辺のようなことがすでに見事に検証されていて、さらに輝点を加算するという解決法まで示してくれています!しかもぴんたんさんがすでにFlat Aide Proにその手法を実装してしまったとは!

カラー画像でもうまく輝点が出ないようにコンポジット前の画面を補正してしまえばいいと思いますが、あぷらなーとさんがやったようなモノクロならまだしも、やはりカラーだとちょっと難しそうです。


HUQさん、あぷらなーとさん、Scopioさんクールノイズにいつまででも納得できなくて色々説明してもらって申し訳ありませんでした。そして、こんな私に付き合っていただいてきちんと説明してくれて本当にありがとうございます。

自分で納得でないないと気が済まないのですが、今回の話は最初からアプラナートさんの2017年の9月くらいの記事を読んでおけば済む話でした。でも自分で試すという方向性はやめたくないので、また変なことを言うかもしれませんが、初心者のたわごとと思って温かい目で見ていただけるとありがたいです。


 


 

ASI294MCでのバーナードループの固定撮影の続きです。

さて、5秒、100枚のスタックですが、三脚にASI294MCを取り付けるだけのお手軽固定撮影のために、時間とともに画面の中で星が動いていきます。歪みが全くないレンズならば問題ないのでしょうが、そんなレンズは存在しません。なのでそのままスタックすると中心と端の方で、どうしても位置にズレが出てきてしまいます。Steller Imageは基本的に並進と回転のみで位置合わせをしているので、このような画面にひずみのようなズレがある画像をうまくスタックすることは苦手なようです。PixInsightはこんなひずみもうまくコンポジットしてくれるとのことなので、今回初めてPixinsightを使ってみました。とりあえずは無料の45日制限のお試し版です。無料といってもフル機能使えるので、試して気に入ったら購入するつもりです。

処理するものはSharpCapでASI294MCを使って5秒露光での撮影で得られた100枚のファイルです。撮影中にダーク補正もフラット補正もしてしまっています。RAW16モードでfits形式で保存したものです。


まず思ったことは、PixInsigtはものすごくとっつきにくいです。ある程度噂では聞いていましたが、これほどとは。とにかくメニューが多すぎて何がどこにあるかわからない。どれがどの機能を指しているのかよくわからないといった状況です。とりあえず迷ったところ全部書いておきます。この方法が正しいかどうかもまだよくわかっていません。かろうじてコンポジットまでできた経緯です。同じように迷えるどなたかの役に立てばという思いです。

  1. まず、ファイルをどうやって開けばいいのかわかりません。「File」メニューから「Open」は意味がありません。「Process」メニューの「Preprocessing」の中のメニューを選択して開くことが大事です。ここまでわかるのに一苦労でした。Preprocessingという言葉はSteller Imageで言うコンポジットまでの一連の処理のことを指すみたいです。
  2. その「Preprocessing」の中からまずは「CosmeticCorrection」を選びます。ホット、クールピクセルの除去などができるようです。「Add Files」ボタンを押して、今回撮影した複数の「.fits」を全て選択して開きます。次に「Output」から保存したいフォルダを指定します。フォルダを指定しないと同じフォルダにファイルが追加されていきます。「Use Auto Detect」にチェックして、「Hot Sigma」も「Cool Sigma」もチェックします。下の左の黒丸を押して実行します。問題があればここでエラーダイアログが出ますが、特に問題がなかければテキストベースのコンソール画面のようなものが出てきて、処理が進んでいくのが見えます。
  3. これまたわかりにくいのですが、それぞれの処理画面の左下の三角をクリックして、クリックしたまま枠の外に出すと「Instance」というものが作成されて、アイコンができます。このアイコンは作業のリンク(ショートカット)のようなものと理解しています。画面を消してしまっても、このアイコンをダブルクリックするとまた同じ画面が出てきます。
  4. 次に再び「Process」メニューの「Preprocessing」にいき、今度は「Debayer」を選びます。白黒の画像をカラー化します。先ほど処理してできた「_cc.xisf」という拡張子がついたファイルを「Add Files」ボタンを押して全て開きます。ここで左下の黒丸ボタンを押してエラーが出て悩みました。この解決方法は一番上の「Bayer/mosaic pattern」を「Auto」から「RGGB」に変更します。どのパターンにするかは事前に調べておいたほうがいいです。SharpCapの方でDebayer方式をかえて、変な色にならないものを見つけました。これで黒丸が押せるようになり実行できます。まだ、黒丸と黒四角の違いはよくわかりません。もし確認したければ、ここでできた「_cc_d.xisf」ファイルを「File」のメニューの「Open」から選んでみると見事カラーになっているのがわかります。ここでも左下の三角を押してInstaceを作っておくといいでしょう。
  5. 再び「Process」メニューの「Preprocessing」にいき、「StarAlignment」を選びます。位置を揃えてコンポジットするための事前計算です。この事前計算は「ImageCalibration」でもできるみたいですが、それぞれの画像で歪んでいるような場合はこちらの「StarAlignment」がいいみたいです。(2018/3/22追記: ImageCalibrationはダーク補正やフラット補正をするプロセスです。本来Debayerの前にする処理です。今回は撮影時にダーク補正もフラット補正もしているので、簡単のため割愛します。)ここも普通に「Add Files」からすぐ上で作ったカラー画像「_cc_d.xisf」ファイルを全て選びます。一つだけ違うのは、さらに基準となるファイルを一番上の「Reference Image」で選ばなければならないことです。「Add Files」で選んだうちの一枚を選びます。すぐ横の「VIew」を押して、「File」を選んで、さらに右の三角を押せば選択できます。色々オプションが選べるみたいですが、よくわからないのでまずはそのままの設定でやってみました。あとは左下の黒丸を押して実行します。
  6. 最後は「Process」メニューの「Preprocessing」の「ImageIntegrartion」でコンポジットです。同じく「Add Files」で最後にできた「_cc_d_r.xisf」ファイルを開きます。ここも色々オプションがありますが、全てデフォルトです。まだ細かいことはよくわかりません。黒丸を押して待つとやっとコンポジットされた画像が出来上がります。画像が2枚出てきて、一枚はコンポジットしたもの、もう一枚は暗い除かれたものみたいです。コンポジットされたものを「File」メニューの「Save As」で適当なファイル形式を選び保存します。同じfits形式でも色々互換性とかの問題があるみたいなので、とりあえずPixinsight標準のxisf形式で保存して、あとは色々な形式で試して目的のソフトで開くことができるか確認するといいかもしれません。Steller Imageでも開くことができるものは限られていました。
  7. ここからPixinsight語で言う「Linear Process」(Steller Imageで言うカブリ補正やレベル補正) に入っていきます。この際Screen Transfer Function (STF)というのを使ってレベル補正に相当することをしていくようなのですが、最初レベルを変えるSTFバーの出る画面がどうしても見つかりませんでした。中途半端に「Image」メニューの「Screen Transfer Function」に色々あるのがわかりにく原因で、バーを出したい場合には「Process」メニューの「IntensityTransformations」のところにある「Screen Transfer Function」を選ばなければいけません。メニューとオプション多すぎです。ここらへんで力尽きました。
ところで、以上の行程はバッチ処理での自動生成もできるみたいですが、今回はダークとかフラットが別のファイルになっていないので、理解する意味も含めて一つ一つ手でやってみました。バッチ処理はかなり便利とのことなので、次にまた試してみようと思います。


さて、比較のためにSteller Image8でも同様にコンポジットしてみました。まずSteller Image バージョン8の売りの「自動処理モード」だと、SharpCapで保存されたfitsファイル(RAW16)が白黒のままコンポジットされてしまい、コンポジットされた画像もカラー化することができませんでした。結局いつものように「詳細編集モード」で100枚を開いて、一枚一枚「ベイヤー・RGB変換」するしかありませんでした。「Altキー+I、Altキー+Y、Enter」で多少早くできますが、それでも100枚を一枚づつ手動で変換しなくてはならないことには変わりありません。この手間だけは冴えないですが、あとはバッチ処理でほぼ自動でできます。

できた画像を比較してみます。まず興味のある中央と四隅を拡大してみます。

cut
Steller Image8(左)                                 Pixinsight (右)


左がSterller Image8、右がPixinsightです。中央はそれほど変わりませんが、四隅を比べるとやはりSteller Image8だと流れたりぼけたりしてしまっています。Pixinsightも少し流れているように見えますが、これはレンズのせいで、一枚一枚の個々の画像ですでに流れてしまっています。f1.4のレンズを一段絞ってf2.0で撮影したのですが、ピクセル等倍で見るとまだ流れが目立つので、もう一段絞ったほうがよさそうです。

つぎに、全体の比較も面白いので見てみます。上がSteller Image8、下がPixInsightです。

Capture 23_35_59_00001-00101_23_36_01

integration

驚異的なのが、Steller Imageの方は、固定撮影のために空が流れていってしまい撮影できていない枚数が少ないところは普通に暗くなっているのに対し、PixInsightの方は撮影できていない部分も枚数で重み付けして明るさを復元していることです。

やはり噂通りPixInsightのコンポジットはかなり強力なようです。


 今回初めてPixinsihgtを使ってみました。確かに高機能で、性能もいいです。でもなぜ日本でSteller Imageがメジャーなのか?やっとわかりました。Steller Imageの方がはるかに簡単だからです。慣れの問題もあるでしょうし、Steller Imageは?なところも多少ありますが、日本語ですし、操作は想像がつきますし、ある程度一本道だし、マニュアルなどもしっかりしています。簡単にできるということは思っていた以上にありがたいことだと実感しました。


今回もコンポジットまではPixinsihgtでやりましたが、それ以降のカブリや周辺減処理、デジタル現像に相当するものはPixinsightでもできるはずですが、まだ手が出ません。PixInsightは疲れたのでしばらくはここからはいつも通りSteller Image8で続けることにします。

integration4

富山県富山市, 2018年1月13日23時36分
NIKKOR NC 35mm f1.4 + ASI294MC 固定撮影
露出5秒x100枚 総露出8分20秒
PixInsight + Steller Image 8、Photoshop CCで画像処理


最後の仕上げにSteller Image8とPhotoshopCCで続きの処理をした画像が上になります。さすがに5秒露光の100枚だとトータル10分もないので厳しいです。画像処理でかなりごまかしています。それでも馬頭星雲あたりは見えていますし、目的のバーナードループも見えています。他にもバラ星雲もなんとか見えますし、うっすらとですがエンゼルフィッシュも少しは出ているみたいです。

自宅の庭で、赤道儀も使わない、ポンと適当に置いた三脚に固定での、わずか10分のお気楽極楽撮影
なら、まあ十分ではないでしょうか。この方法だと部屋の窓際に適当に置くだけでいいので、かなり楽かもしれません。

今の制限は、一回の露光で星が流れないという5秒からきているので、ちょっとめんどくさくなりますが、ポタ赤でも使ってもう少し長い露光時間でやってみるのも面白いと思いました。



先日の馬頭星雲と燃える木ですが、この間志摩で一緒だったAさんのFacebookでの投稿に刺激され、淡い上品な表現を目指したくなりました。それでも暗くなってしまうのを避けたいのもあり、今まで手をつけていなかった、星マスクに挑戦してみました。

先に出来上がった画像を示しておきます。前回の画像と比べてもかなり趣が変わったのと、恒星の飛びが抑えられているのがわかると思います。

HORSE_7c_20171128-00h09m_x34_kb_masked_PS_photo_ps



Steller Image8でのダーク減算、フラット補正、ホット/クールピクセル除去、コンポジット、レベル補正、デジタル現像までは同じなので、SI8からPhotoshopに受け渡したところから始まります。

まず、星マスクの作り方ですが、ホームページを漁るといくつか出て来ますが、どうやらよっちゃんさんが源流のようです。ここのページも合わせてみると理解しやすいかと思います。流れとしては
  1. 元画像から恒星以外の星雲を消し去って白黒反転させたマスクを作り
  2. そのマスクをアルファチャンネルに登録する
  3. マスクを加工しながら、適用範囲を調整する
  4. 元画像を白飛びを気にせず思う存分加工する
というような順序で実現するようです。

基本的には上記ページに従うのですが、私がやった過程も書いておきます。


マスク画像の作成1: 微恒星のマスク

  • まず、Photoshopで開いた元の画像を全選択してからコピーして、それをペーストして別のレイヤーを作ります。
  • ペーストして作ったレイヤーを「フィルタ」の「明るさの最小値」で2ピクセル程度に設定して適用します。ダスト&スクラッチでぼかしすのもいいようです。どこまで微恒星を残すかによるのですが、私の場合は後者の方がうまくいったようです。
  • そのレイヤーを「差の絶対値」として表示すると恒星のみが残ります。この際、大きな恒星は表示されないので、後で別にマスクを作ります。
  • これをグレースケールに変換します。その際下の画像と統合かと聞かれますが、統合しないと次のレベル補正がうまくいきません。
  • 一部星雲が残っているところはレベル補正で消します。
  • これを「階調反転」します。
  • さらに適用範囲を微調整するために、ガウスぼかしを0.5~1ピクセルくらいで適用します。
  • これをマスク画像1としますが、上の調整は適時行います。
IMG_3200



マスク画像の作成2: 大きな恒星のマスク
  • 再び元の画像開いて、これをコピーしてペースとして別のレイヤーを作ります。
  • 同様に「フィルタ」の「明るさの最小値」で恒星の大きさに合わせて5〜20ピクセル程度に設定して適用します。
  • その画像そのものをグレースケールに変換します。下の画像と統合かと聞かれます上と同様に統合します。
  • 一部星雲が残っているところはやはりレベル補正で消します。
  • これを「階調反転」します。
  • さらに適用範囲を微調整するために、「フィルタ」の「明るさの最小値」で恒星の大きさに合わせて5〜20ピクセル程度に設定して適用し、ガウスぼかしを10~40ピクセルくらいで適用します。
  • これをマスク画像2としますが、これも適用範囲を見ながら随時調整します。
IMG_3201


マスク画像の適用
  • マスク画像1と2を統合して、全選択してからコピーします。
IMG_3202

  • もとの画像を開き、「チャンネル」タブを選択し、一番下の「新規チャンネルを作成」というアイコンをクリックします。できたアルファチャンネルを選択して、そこに先ほどのマスク画像をペースとします。
IMG_3203

  • 一番下の「チャンネルを選択範囲として読み込む」アイコンをクリックするとマスク画像が適用状態になります。同じチャンネルタブのRGBを選択状態にすると、マスクが適用されたもと画像をいじることができます。
IMG_3204

  • あとは、普段なかなか思いっきりあげられない露光量や無理なレベル補正も思いのままです。
  • もし思ったっ通りにマスクが適用されていない場合には、アルファチャンネルを調整することで適用範囲を調整することができます。私の場合さらにレベル補正でもっと黒塗り部分を濃くすることでマスクの適用を強調したり、思ったより大きな恒星があったので、さらにガウスでぼかしたりしました。
いろいろやっていて思ったのですが、HDR用に3秒程度の撮影を毎回しているのですが、それをそのままマスクとして使っても楽なのではと思いました。

さて、できた画像が一番上に示したのものです。前回上部が赤カブリ、下部が少し緑カブリだったので、それも補正しました。ホワイトバランスもあまり崩れないようにしました。何よりピンクというよりは上品な桃色をめざしました。かなり印象が変わったのと、前回より時間をかけたので丁寧な仕上がりになっていると思います。自宅の庭でここら辺までできるのなら、自分的には結構満足です。こうなってくるといつでも撮影できる天体ドームが欲しくなってきます。天文趣味は本当にキリがないです。

星マスクは敷居が高く感じていたので、なかなか手が出せなかったのですが、やってみると思ったほど難しくは感じなかったです。むしろ明るい星の飛びに悩んでいたのですが、その効果は絶大なので、もっと早くにマスターしておけばよかったと思うテクニックです。






先日の志摩での観望会で、Kさんと話をしている時に、ダークフレームは何枚必要かという話になりました。私はライト画像と同程度の枚数が必要なのではと話したのですが、Kさんはもっと少なくてもいいのではということです。で、色々考察してみました。

目的はダーク減算による改善ではなく、ダーク減算をした時に何枚くらい使えばダークフレームからのノイズでライトフレームが汚されないかを見積もることです。例えば何十枚とコンポジットしたライトフレームではノイズが平均化されて滑らかになるのですが、その際のダーク減算をザラザラの一枚だけでやってしまったら、せっかく綺麗にするはずのライトフレームの滑らかさを逆に汚すのではないかとか、そういうことです。


今回ノイズを無相関に出てくる「ランダムなノイズ」と、相関を持って同じように出てくる「コヒーレントなノイズ」に分けて考えます。

ランダムなノイズとは統計的な信号のゆらぎのことを指し、例えば光に関して言うと「カメラの画素に光を入れた時に、単位時間あたりの光量が一定でないために、ある時間露光して積分した時に一つの画素に溜まる光の量にばらつきがある」ということをいいます。また、一つの画素のADCの読み取りにも統計的にランダムな読み取り誤差が存在するので、それらも画像になった時には結果としてノイズとなります。これらのランダムノイズは時間的に無相関であるために時間的に平均化してやると時間のルートに比例して小さくなっていきます。

一方コヒーレントなノイズは、例えば光害のように、何回撮影しても同様に相関を持って入ってくる光です。センサー温度が高い時に画面の一部が明るくなるアンプノイズも相関があるノイズです。これらのノイズは相関があるため時間とともに足し合わさっていくだけなので、時間に比例して一次で増えていくノイズです。

あといくつか仮定ですが、ダークフレームもライトフレームも同じカメラで同じISO、同じ露光時間で撮影するとします。センサーの温度も変わらないとします。


さてまずダーク一枚で考えてみます。基本的に光は入れていないので、センサーに流れる暗電流で決まるようなノイズです。この一枚あたりの無相関なランダムノイズをN_darkとします。これらをn_d枚コンポジットします。コンポジットは加算して枚数で割って平均化すると言う過程なので、

sqrt( n_d x N_dark^2 ) /  n_d = N_dark / sqrt( n_d)

となって枚数のルートでノイズが減っていきます。

次にライトフレームの信号をSとすると、ライトフレームのノイズN_lightは統計的に信号のルートに比例するので

N_light ∝sqrt(S)

と書くことができます。ライトフレームもコンポジットしてn_l枚を重ねるとすると上と同様に

N_light / sqrt( n_l)

というノイズが残ります。

通常はライトフレーム一枚に対しコンポジットしたダークフレームで補正します。ダーク補正は差に相当するので、無相関なノイズにとっては2乗和のルートになるので、その場合のS/N比は

S / sqrt( N_light^2 + N_dark^2 / n_d)

となります。このダーク補正したライトフレームをコンポジットするので、信号は

n_l x S

ノイズは

sqrt( n_l x N_light^2 + n_l^2 x N_dark^2 / n_d )

となります。ここで、N_light / sqrt( n_l)は各ライトフレームに適用されているので、無相関ではなく正の相関を持っているコヒーレントノイズになり、そのまま和になることに注意です。なのでn_lの2乗で足してあります。

これらをn_l枚で平均化するので、信号は

n_l x S / n_l = S

ノイズは

sqrt( n_l x N_light^2 + n_l^2 x N_dark^2 / n_d )  / n_l = sqrt( N_light^2 / n_l + N_dark^2 / n_d )

となるため、S/N比は

S / sqrt( N_light^2 / n_l + N_dark^2 / n_d )

となります。



やっと式ができました。この式を具体的に考察します。

まず、ライトフレームをダークに近いくらい暗い空で撮るとか、そもそも非常に低いISOとか短い露光時間でとったりして、ライトフレームのノイズとダークノイズが非常に近い場合には

N = N_light = N_dark

とおいて、さらにライトもダークも同じn枚撮るとするとS/N比は

S / sqrt( N^2 / n + N^2 / n ) = S / ( sqrt (2) x N/sqrt(n) )

となり、sqrt(2)倍だけノイズが大きくなってしまいます。すなわちこのようにライトの背景とダークが近い場合はダークの枚数をライトの枚数よりも増やしてやらないとルート2倍損をしてしまいます。

ちなみにルート2倍損をすると言う意味は、ライトフレームの撮影枚数が半分になったことと等価ですので、ずいぶん勿体無いですね。

一方、ライトフレームのノイズがダークノイズよりも十分に大きい場合(十分に明るい場合ということ)にはダークの枚数を減らしていいことになります。例えば、ライトフレームが十分に明るくて、明るさに起因するショットノイズが問題になる様な状況を考えてみます。具体的にはライトフレーム一枚あたりのショットノイズがダークノイズの10倍大きいような状況を仮定してみましょう。このショットノイズをダークノイズと同じくらいの大きさにするためには、ショットノイズを10分の1くらいにする、すなわち100枚撮影してショットノイズをsqrt(100) = 10で10分の1にする必要があります。言い換えると、100枚ライトを撮ってコンポジットした時のショットノイズと一枚だけダークを取った時のノイズがやっと同等になるくらいで、この場合ダークノイズがあまり効いてこないのでダークの枚数を増やしてもこうかがあまりないことになります。例えば、上記の状況で100枚ライトを取り1枚だけ撮ったダークで補正して、やっと上と同じ様にルート2倍損することになります。式で書くと、ライトフレームのノイズをNとすると

S / sqrt( N^2 / 100 + (N/10)^2  / 1 ) = S / (sqrt( (N^2 + N^2)/100 ) = S / (sqrt(2) x N/10)

 となります。 

こんな場合でも高々ダークを10枚とってやれば

S / sqrt( N^2 / 100 + (N/10)^2  / 10 ) = S / (sqrt(1+1/10) x N/10)

となり、sqrt(1.1) ~1.05なので、5%くらいの悪化で抑えることができます。


さて、ライトフレームの背景のノイズとダークノイズの実際の比は一体どれくらいなのでしょうか?先日撮った馬頭星雲の画像で比べてみます。Photoshopには便利な機能があって、選択したエリアの輝度のばらつきを標準偏差で示してくれます。これで直接比較ができるはずです。

ライトフレームの何も写っていない背景部分(光害のため背景が十分に明るくショットノイズがダークノイズに比べて大きいと思われるような領域)の標準偏差は10くらい、ダークフレームの同程度の領域の標準偏差は3くらいです。比は3.3程度と、思ったより小さいです。

IMG_8798

ダークフレーム一枚のノイズを標準偏差で見てみる。
「明るさ」で変化させると平均値と標準偏差は比例するので、
この標準偏差は変なこと(例えば暗すぎて片側が欠けているとか)が起きていない生きた値です。 




ライトフレームは36枚撮影していて、ダークは30枚"も"使ったので、

S / sqrt( N^2 / 36[枚] + ((N/3.3[倍])^2) / 30[枚] ) = S / (sqrt(1+1/10/30x36) x N/sqrt(36) )

となります。

sqrt(1+1/10/30x36) = 1.05

なので、約5%の悪化となります。36枚のライトフレームをもし33枚しか取らなかったら約4-5%の悪化になるので、この場合ダーク補正がなかったら33枚で同等のノイズを出せたことになります。

一応確認ですが、ダーク補正の元々の目的は「ダークフレームを多数取ることでダークフレームの揺らぎを小さくし、それでも残った各ダークフレームに残った共通の、言わば真のダークノイズをライトフレームから取り除くこと」です。今回議論したのは、「ダークフレームの揺らぎの部分の残りがどれだけライトフレームに影響するか」ということです。ダーク補正の最大の効果である、真のダークノイズの除去のことについては何の言及もしていません。

真のダークノイズが存在するならそれを取り除くことはもちろん効果があります。さりとてそれも、他のライトフレーム内のノイズなどと相対的に議論すべきで、もちろんダーク補正はした方がいいですが、絶対必要だとか、絶対いらないという議論にはならず、あるライトフレームがあった時にダーク補正は有効であるかということを考えながらやると、効率的に進めることができると思います。例えば、昼間の明るいい写真にダーク補正をする人は誰もいませんね。


というわけで、またかなり長い記事になってしまいましたが、結論としては、ダークフレームのノイズとライトフレームの背景のノイズの比が重要で、空が暗くてダークに近ければ近いほど枚数が多い方がいいが、空が明るくてショットノイズなどの他のノイズが多い場合は少なくてもいいということになりそうです。志摩観望会で間違ったことを言ってしまったことになります。Kさんごめんなさいm(_ _)m。

 

先週本当に久しぶりに月のない時に晴れていたので、撮影をしました。と言っても平日なので、自宅での撮影です。ターゲットは北アメリカ星雲。FS-60CB+flattenerで少し広角を狙いました。

19時頃から月が23時頃に出るまでの4時間が勝負だと思ったのですが、撮影を始めたのが20時半頃、22時半前には雲が出て来てしまい、結局約1時間分しか撮影できませんでした。

ひとつめのポイントは6月に参加したCANPでの講演での話を参考に、フラット画像をその場で鏡筒にコンビニ袋を被せて取るようにしてみました。以前フラットの検証をした際に、どうしても4隅で一致しない部分があり謎でした。CANPの講演の中に一緒の場所で撮るのが一番いいとあったので、そうか!周りの光源の影響があると、iPadとかのLED光ではズレは残ってしまう可能性があるにかと納得できたからです。実際の撮影では、雲が明るいせいか、フラット用なのになぜかすごく赤側に寄るのでうまく補正できるか心配だったのですが、フラット補正の後必ず行なっていたステライメージでのカブリと周辺減光の微調整をほとんどする必要がなかったので、うまくいったような気がします。また、フラットが一致すればするほどあぶり出しを攻めることができるはずで、下に示す仕上がり具合を見ても、撮影時間の割に結構色も出ているので、このその場でフラットを取るという方向が正しそうだということがわかります。

2つめのポイントは、今回画像処理に初めてSteller Image 8(SI8)を使いました。これもCANPでデモを見てそれほど悪くないと思ってバージョンアップしたのですが、今回やっとインストールして使ってみました。SI8では処理の自動化が売りなのですが、これだとやはりやれることが制限されてしまうようで、結局従来の詳細モードで処理しました。詳細モードでやっているぶんにはSI7とほとんど変わりはない印象です。彗星とかを処理するときは結構すごいらしいので、将来彗星に手を出した時の楽しみにしておきます。

他はこれまでの撮影方法、画像処理方法とほぼ同じで、HDRのために3秒の画像も撮っています。できあがった画像です。

「北アメリカ星雲」

NORTH_60s_3200iso_+27c_20170913-20h36m_x55_digital_ps_HDR3


富山県富山市, 2017年9月13日20時38分
FS-60CB+flattener + Advanced VX赤道儀
EOS 60D(新改造, ISO3200, RAW), 露出1分x57枚+露出3秒x30枚 総露出58分30秒
f50mm+ASI224MC +PHD2による自動ガイド
Steller Image 8、Photoshop CC + Nik collectionで画像処理


  • よく考えたらHα系の星雲はバラ星雲以来で、前は色を出すのに苦労したのを思い出しました。なので今回少し色を強調してみました。ちょっとどぎつくなり過ぎかもしれませんが、色が出るのが面白くて少し調子に乗ってしまいました。
  • 周辺が少し流れています。やはりFS-60Qのエクステンダー付きで撮ったものよりも、FS-60CB+flattenerの方がどうしもて光学設計上見劣りするのは、以前本で読んだ通りみたいです。
  • 所詮1時間分の短時間撮影なので、ノイズ分が消しきれていなくて、特に右半分の淡い赤色のところに粒状感が残ってしまっています。もう少し長い時間をかけて撮りたいといつも思うのですが、準備に時間がかかったりでなかなか難しいです。一枚に10時間以上撮っている方もいらっしゃるのですが、単純にすごいと思ってしまいます。
  • こもれ同様ですが、所詮富山の自宅の庭で、都会よりはマシとはいえ、ベストの場所からは程遠く、どちらかといえば光害地と言ってもいいくらいです。今回も60DのISO3200で1分間でヒストグラムのピークが半分くらいまで来てしまうくらいです。

いろいろ反省点はありますが、逆にいえば自宅という手軽な環境で、わずか1時間でこれだけ色が出たのは、元々の「星雲とかも撮ってみたい」というお気楽な希望から考えたら、ある意味満足です。


  

 

先ほど一枚だけアップしたのですが、撮影した227枚を使ってタイムラプス映像を作ってみました。無加工のjpg画像から作った動画です。動画の作成にはSirius Compを使ってみました。

こと座流星群もいくつか見えますし、人工衛星の軌跡も見えます。


立山に行った経緯は次の記事で書きます。

このページのトップヘ