ほしぞloveログ

天体観測始めました。

タグ:PixInsight


めずらしく晴れた!さあ撮影だ!

1月20日と21日、珍しく1日半程度、撮影ができるくらいに晴れました。しかも昼間の立山があまりにきれいにくっきり見えました。透明度はいいに違いありません。

もうずっと晴れてなくて、途中短時間の電視観望や太陽撮影はありましたが、星雲に関して言えば前回の撮影日が12月9日でオリオン大星雲なので、もう一月以上撮影できていません。



M42は楽しかったですが、昔撮ったものの取り直しも飽きてきたので、今回はあまりにメジャーな明るいものでなく、少し淡いモクモクしたものを撮りたくなってきました。そのための最初の一歩になります。平日なので自宅撮影です。でもそもそもそんな淡いモクモク、遠征せずに撮れるのでしょうか?

ターゲットですが、この時期でTSA-120と6Dで撮れる画角のものから選びます。いろいろ考えてオリオン座の上の方のM78としました。まだ真面目に撮影したことがないので、初撮影になります。かなり昔、電視観望では見たことがありましたが、中心以外はかなり暗いのでほとんど何も映らなかった記憶があります。


半月が出ててもフィルター無しで撮影

今回は少し課題をつけます。
  1. 平日なので自宅になるため光害は気にしない
  2. 冬の北陸で天気のいい日がかなり限られているので、月があっても厭わない。この日は月齢7日で、ほぼ半月。沈むのは0時頃ですが、そのころにはオリオン座も結構西に傾いてしまっているので、夜の早いうちから撮影を始めます。
  3. M78は白色や青色が豊富なので、フィルターを入れるとどれくらい色が変わってしまう可能性があります。なのでNo光害フィルターでいきます。ただし、恒星にハロが出る可能性があるのがわかっているので2インチのUV/IRカットフィルターを入れます。
要するに、ほとんど光害対策をしなくてどこまで淡い天体が出るかということです。

これまでQBP、CBPなどを使って、自宅でも輝線スペクトルをそこそこコントラスト良く出せることを示してきました。しかしながら、これらはかなり強力な光害防止フィルターのようなものなので、たとえ輝線スペクトルをきちんと通すとしても、カラーバランスが崩れてしまうことはどうしても避けられないのかと思います。例えばQBPではかなり赤によりがちになります。CBPは青をもう少し出してくれるのでまだマシかと思います。ところが、特に今回のM78のように、反射星雲だと波長は恒星によるはずで、QBPやCBPでは本来あるべき波長がカットされてしまっている可能性があります。また、暗黒星雲とその周りのモクモクの色なんかも光害カットフィルターで様子が変わってしまうのでは思っています。これはCBPで網状星雲を撮影したときに、右側に出るはずの広い暗黒星雲が全く出てこなかったことに起因します。

実はこのフィルター無しでとこまで写るのか、ずっとやってみたかったのです。だってHIROPNさんが都心で低ISOで成果を出しているし、トータル露光時間を伸ばせば背景光ノイズは相当小さくできるはずで、必ず記録はされているはずの天体情報は、うまくすれば引き出すことができるはずだからです。でも失敗してせっかくの撮影時間をまるまる潰す可能性があるので、なかなか勇気が出ませんでした。


撮影開始、でもやはり光害の影響はすごい

そんなこんなでいろいろ考えながらも、準備を焦らずゆっくりして、22時近くから撮影を始めました。6DでISO800、露光時間は3分です。ところが途中で試しに1枚、ABEで滑らかにしてオートストレッチ後、HTしてみたのを試しに見てみたのですが、もうひどいものです。

LIGHT_180s_ISO800_0c_20210120_23h55m36s483ms_RGB_VNG_ABE

リングは多分ABE由来ですが、M78自身が中心以外ほとんど何も写ってません。センサーの汚れも目立ちます。衛星もたくさん写り込んでそうです。どうもこの超ノーマル状態での光害下での撮影はだめそうです。

ちなみに撮って出しJPEGだとそれこそほとんど何も写ってません。

LIGHT_180s_ISO1600_+8c_20210120-21h32m46s782ms

この時点でかなりやる気をなくしたのですが、また設定し直すのも面倒なので、そのままフテ寝してしまいました。朝起きて確認すると夜中の1時頃でカメラのバッテリー切れで止まっています。トータル3時間、月が沈むのが0時だったので、最初の2時間分はまだ月が出ていたことになります。もうだめそうだし、時間も途中で切れてかけれなかったのでここで諦めても良かったのですが、次の日も途中までは晴れそうです。

結局二日目も同じ構図で、少し撮り増し。というか、どうせ途中で曇る予報なので新たに別の天体を撮り切る時間もなさそうですし、M78なら前日の設定が全て残っているので、楽だったからと言うのが実際の理由です。二日目は準備もほとんどできているので、少し早めの18時過ぎから撮影を始めました。天気予報通り、21時すぎで雲が出てきたのでここで終了。この日も3時間程度の撮影時間でした。


スタックした画像を見てみると!

こんな状態だったので、画像処理もあまりやる気にならずに半ば諦めて放っておいたのですが、一応後日フラットとフラットダークを撮影してPixInsightでスタックまでの画像処理をしてみました。

ダークとバイアスは以前の使い回しなので、最近は楽なもんです。ISOと露光時間を合わせておくと、冷蔵庫法のダークライブラリの構築がそこまで大変でないです。スタック後の画像を見てみると、なんと意外にいけそう。下はオートストレッチ後、HistgramTransformation (HT)で適用したものです。

masterLight-BINNING_1-FILTER_NoFilter-EXPTIME_180.8

失敗画像を除いても5時間越えぶんの露光時間が効いたのでしょうか?色もきちんとついてますし、暗黒体の部分も結構出ています。

これは俄然やる気になってきました。


フラット補正とカブリ

ただし上の画像、フラットフレームを部屋で別撮りで撮ったので、実際の空とは違いどうしても1次的なカブリが残ってしまっています。

今回フラットフレームの撮影も簡易的な方法に置き換えました。昼間に太陽が出てる時、もしくは全面曇りの時に、部屋の中の窓から少し遠い白い壁を写すだけです。注意点は
  • 鏡筒の影を避けるために、壁に近づけすぎないこと。
  • 以前は鏡筒の先にスーパーの白い袋をかぶせていたが、今回はそれも外したこと。
  • ISOを同じにして、露光時間を短くしてヒストグラムのピークが中央らへんにくるようにすること。
  • その場で蓋をしてフラットダークも一緒に撮影してしまうこと。
などです。以前は晴れの日を選んで、スーパーの袋をかぶせていました。太陽が出ていて雲が横切ると明るさが変わってあまり良くなかったのですが、空一面の曇りなら大丈夫ではということです。あと、どうせピントは合わないので(多少壁はざらざらしているが)スーパーの袋はなくてもいいのではと言うところが改善点です。

さて、上の画像に残るカブリを取りたいのですが、左下の赤い部分はバーナードループなのでこれは残したいです。こんなときはABEはあまり使えません。実際にABEを1次で試しましたが、赤い部分が大きく取り除かれてしまいした。こんな時はDBEの方がよく、しかも点数をかなり制限してやります。実際打ったアンカーは数えたら10個ちょいでした。

DBE
(アンカーが見やすいように少し画面を暗くしています。)

これでできたのが以下のようになります。カブリが取れて、かつ左下の赤いのはしっかりと残ってます。

masterLight_180_8_integration_DBE4


ここでPCCのトラブルに直面

この後はPCCで、恒星の色を合わせます。ところがところが、肝心な時にPCCがなぜかうまく動きません。これで2日ほどストップしてしまいましたが、その顛末は前回の記事にまとめてあります。




ストレッチからPhotoshopに渡して仕上げへ

PCCがうまくいったあとはArcsinhStretch (AS)を何度かに分けてかけ、ストレッチします。ASは彩度を落とさない利点があるのですが、恒星の鋭さが無くなるので、StarNetで恒星が分離しきれない問題があります。そのため、ストレッチ前の画像から改めてScreenTransferFunctionでオートストレッチして、HTで適用することで恒星を鋭くしました。こうすることでStarNetできちん恒星と背景を分離できるようになります。分離した恒星画像から星マスクを作ります。実際にMaskとして使うにはMohologiacalTransformationのDilationをかけて少し(1.5倍位)星像を大きくします。

あとはPhotoshopに渡していつものように仕上げです。基本はほとんどが先ほど作った恒星マスクを当てての作業になります。DeNoiseも使います。そういえばDeNoiseのバージョンが2.4.0に上がり、Low Lightモードのノイズがさらに改善されたとのことです。DeNoiseは非常に強力ですが、それでもやはりマスクの境や、モコモコしたカラーノイズのようなものが出るなど、悪影響がどうしても残ってしまうことは否めません。今後はいかにDeNoiseから脱却することが課題になってくるのかもしれません。

結果を示します。少しトリミングして90度回転しています。

「M78」
masterLight_DBE4_crop_PCC_pink_AS3_cut

  • 撮影日: 2021年1月20日21時51分-1月21日1時12分、1月21日18時12分-21時20分
  • 撮影場所: 富山県富山市
  • 鏡筒: タカハシ TSA-120 (口径120mm, 焦点距離900mm) + 35フラットナー + SVbony 2inch UV/IRカットフィルター
  • 赤道儀: Celestron CGEM II
  • センサー: Canon EOS 6D HKIR改造
  • ガイド: PHD2 + 120mmガイド鏡 + ASI120MM miniによるディザリング
  • 撮影: BackYard EOS, ISO800,  露光時間: 180秒 x 108枚 = 5時間24分
  • 画像処理: PixInsight、Photoshop CC, DeNoise
どうでしょうか?光害下で、Noフィルターとは思えないくらい出たのではないかと思います。自分でもびっくりです。M78はこれまでも何度か挑戦しようとして諦めていたので、これくらい出ればそこそこ満足です。

ついでにAnotationです。

masterLight_DBE4_crop_PCC_pink_AS3_cut_Annotated



考察

今回の結果はある意味一つの挑戦です。

光害や月明かりが、実際の仕上げまでにどこまで影響するかです。はっきり言って、庭で半月でフィルターなしでここまで出てくるとは全く思っていませんでした。少なくとも1枚画像を見たときはこのチャレンジは失敗だと思っていました。

色バランスを考えた場合、フィルターは少なからず影響を与えます。なので色の再現性だけ考えたときには、フィルター無しの方が良いのかと思います。その代わり当然ですが、フィルターが無いと光害地では明るい背景光やカブリが問題になります。

明るい背景光は大きなノイズ(ノイズは明るさのルートに比例します)を出すので、淡い天体はノイズに埋もれてしまいます。それでも背景光に比べて、天体の明るさの分、少しだけ明るく記録されます。背景光のノイズは多数枚スタックすることで小さくなります。ヒストグラムで考えると、ピークの広がりが小さくなるということです。ノイズピークの広がりが小さくなれば、その一定値に近くなった明るさの中央値をオフセットとして引くことで、天体をはっきりと炙り出すことができるようになります。トータルの露光時間が増えれば、多少の光害地でも淡い天体を炙り出すことは不可能ではないということです。

ではフィルターの役割はなんでしょう?まずは背景光のノイズを光の段階で軽減させることが一番の理由でしょう。もちろん程度問題で、暗いところで撮影したら光害防止フィルターの効果は小さいでしょう。逆にあまりにひどい光害地でフィルターなしで撮影しても、一枚あたりの露光時間をろくにとれなくなったりするので、どうしてもフィルターが必須という状況もありえるでしょう。

あとこれは個人的な意見ですが、フィルターのメリットの一つは画像処理が圧倒的に楽になることではないかと思います。今回の光害下での撮影の画像処理は結構というか、おそらく初心者から見たらかなり大変です。例えばカブリ取りなんかは相当戦略を考えて進めることになります。こういった困難さを避けることができるのなら、光害防止フィルターは大きな役割があると言っていいのかと思います。

逆にフィルターのデメリットの一つは、すでに書きましたがカラーバランスが崩れるということがあると思います。画像処理で多少は回復できますが、それはそれで負担になってしまいます。あと、高級なフィルターの場合、値段もデメリットの一つと言えるのかと思います。

フィルターを使う使わないは、状況に応じて臨機応変に考えれば良いのかと思います。それでも今回、光害地で半月が出ている状況で、フィルターなしでも、画像処理によっては淡い天体をある程度炙り出すことも可能であるということが、多少は示すことができたのではないかと思います。このフィルター無しの方法が、どのくらいひどい光害まで適用できるのか、ここら辺は今後の課題なのかと思います。

今回は失敗かと思ったところからの大逆転、かなり楽しかったです。



 

昨年9月に自宅に遊びに来てくれたあんとんシュガーさん。その時はまだ機材を揃え始めたばかりで、長時間の撮影はできてませんでした。その後自宅前でアンドロメダ銀河を、FS-60CBをポラリスUに載せ、FUJIFILMのX-T2で約1時間半を切るくらいの時間で撮影したそうです。撮った画像は自分自身で、時にはTwitterでの猛者たちの力も借りて、PixInsightの練習も兼ね画像処理を熱心に進めてきてました。その様子はあんとんしゅガーさんのTwitterでの投稿を見てるとよくわかり、私もいくつかコメントを返し、いつかまた一緒に画像処理やりましょうと約束してました。


直前に訪問が決まる

1月22日の金曜日「そろそろどうですか?」と聞いてみたら「それでは明日の土曜日に」となり、急遽自宅に来てもらうことに。新潟の考太郎さんも以前から参加したいと表明されていたので、声をおかけしたのですが、直前のお誘いのためにやはり仕事で都合がつかないとのこと。とても残念がってくれたので、次回こそはぜひ参加していただきたいです。


到着

久しぶりのお客さんなので、午前中少し部屋を片付けました。午後1時過ぎ、あんとんシュガーさんが到着。早速見せてくれたのが、大阪あすとろぐらふぃ〜迷人会の井戸端さん製作の自由微動雲台の改良版。

IMG_1528

以前テストしたものよりも見た目もシンプルに、より頑丈そうになっていて、動きもスムーズそうでした。ただ、星を見てのテストまではできてないので、できれば実測でテストしてみたいです。ちょうどTwitterで井戸端さんと繋がって聞いてみると、揺れを収めるための制振用の柔らかい金属を挟み込んでいるとのことでした。でもこれは後から聞いた情報で、その場で見ただけではわからなかったです。これを聞いてますます実際の星で見てみたくなりました。Twitter上でも、他に手に入れられたからの意見で「相当頑丈に固定できる」との意見が出ていたので、かなりいいものに仕上がっているのかと思います。数は出ていないと思うので、手に入れられたユーザーは多分相当ラッキーなのかと思います。末長く実用レベルで使えるのか思います。


画像処理へ

さて、会話のままに引き続き画像処理になだれ込んでいったのですが、どうやってやるかが考えものでした。あんとんシュガーさんは見事にPixInsight (PI)門下になってしまって(笑)、WeightedBatchPreprocessing (WBPP)でIntegrationしたくらいの画像までは出せるようにはなっています。ただ、それ以降の炙り出しをPIの中だけでやろうとしているため、なかなか苦戦しているようです。まずはあらかじめPIでIntegrationまでした画像を用意して、今回はストレッチまで進めるところを実際にやってもらって、その後は別のソフト(今回はPhotoshop)に移して(あんとんシュガーさんはPhotoshopは持っていないので)やり方を「見て」もらう、としました。


PixInsightにて

まずIntegrationした直後の画像は、当然ですがPI上では真っ暗です。あんとんシュガーさんは、そもそもきちんと撮影できているかどうか不安で、この画像にどれくらいの情報が入っているのか理解し切れていないようでした。なかなか細部まで出てこなかったことから来ている不安だと思います。少し安心してもらいたくて、以前Twitterに投稿された画像(JPEG)から、私の方でStarNetで分離して、少しだけ炙り出した画像をTwitterで再投稿したことがあります。

Epqa74tVEAQiGyN_ABE_DBE_back

JPEGから出したものなので、情報は既に欠落しているはずです。それでもこれくらいの淡いところまで残っているので、もう素材としては十分なものが撮れているわけです。その眠っている情報を引き出すことはやはり多少の技術がいるので、今回はそこを重点的に説明することになりました。

といってもやったことは当たり前のことで、
  • AutomaticBackgoundExtractor(ABE)、DynamicBackgroungExtraction(DBE)で周辺減光など、できるだけフラット化しておくこと。
  • PhotometricColorCalibration(PCC)で恒星の色を正しいと思われるものに合わせること。
  • 主にArcsinhStretch(AS)を使って、彩度を落とすことなくストレッチすること。
がメインです。

まずABEですが、2次と4次で個別に処理してみましたが、どちらも結果にあまり変わりはなく、銀河の周りに大きなリングが残ってしまいました。ここでABEは諦めてDBEに。今回は銀河なので、暗黒帯や広い範囲にわたる星雲もなく、DBEでのアンカーは銀河以外のところに数多く、明るさの差があるところは細かく打っていきます。その結果、ABEの時よりはかなりマシになりましたが、それでもリングはうっすらと残ってしまっています。ちょうど良いタイミングでniwaさんがDBEの面白い使い方を示してくれていました。



この情報はあんとんシュガーさんが帰ってから読んだので、今回は試せませんでしたが、これでうまくリングが消えるかもしれません。それでもDBEで相当フラットになったので、M31のかなり淡いところまで出てくるようになります。ここがまず一つ理解してもらいたかった点です。

PCCはデフォルトの12等星まででなく15等星くらいまでにすること、Apartureをデフォルトの8でなく12くらいまで増やすことで、おかしな色バランスになることを防ぎます。詳しくはniwaさんたち委員会の結果を見るといいです。ちなみに私は(どこで知ったか、もう覚えていないのですが)おまじないのように15等星までやっていたので、これまで色バランスがおかしいと思ったことはないです。




次ですが、あんとんシュガーさんは色を出すのに苦労しているようなので、ASで彩度を落とさないようにストレッチしてみます。ASにはハイライトを防ぐオプションがあるのですが、これは通常オンにしておきます。ところが今回はこれをオンにしたことで少し苦労しました。ASを何段階かに分けてかけ、最後のみScreenTransferFunctionとHistogramTransformationで微調整して以下のようになりました。

_60_30__ABE_DBE1_Sam_toPS

最大にストレッチしきる手前で止めてあります。ASのハイライト防止のオプションのために恒星がサチることはいです。この状態でStarNetをかけると、一部の恒星が銀河や星雲などととして認識され、うまく分離できないという問題が出ました。恒星としての鋭さがないことが原因です。そのため、別途ストレッチを戻してから再びSFTとHTをかけて、あえて恒星をサチらせるようにすると、きちんと恒星と背景を分離できました。ここで作った恒星部をMorphologicalTransformation(MT)でDilationをかけて少し恒星を拡大してマスクとしました。

そうそう、このときあんとんシュガーさんから「サチる」がわからないと質問されました。Twitterとかでも使われてるのをみるけど意味が分からないというのです。多分これ理系用語なんですよね。「飽和」を意味するSaturationからきていますが、実験とかして電圧が測定範囲外で上に張り付いたりするときに「あ、サチってる」とか普通に使っています。

恒星をサチらせていない上の画像と、別で恒星をサチらせて作ったマスクを、16bitのTIFFフォーマットで保存して、Photoshopで開きます。でもここからはあんとんシュガーさんがPhotoshopを持っていないので、あらかたの作業工程を見せるだけになります。


Photoshopにて

Photshop上ではアルファチャンネルを利用して星マスクをかけて、銀河部分をあぶりだし、且つ銀河以外の背景のノイズを軽減します。特に銀河部の色出しは彩度、明度をともに調整しつつ自分の好みになるように調整します。中でもCamera Rawフィルターは便利なので初心者にも使いやすいと思います。

今回は星マスクを使いPhotoshopで処理しましたが、StarNetで分離した恒星画像とその他銀河を含んだ背景画像に分けた状態で処理し、レイヤーで重ねる方法もあります。ただ、PI上でArcsinhStretchを使ったために恒星が一部分離できなかったので、今回はこの方法を取ることができませんでした。後のレイヤーでの合成をうまくできるなら、初心者にはこちらの方がやりやすいと思います。

ノイズに関してはNik CollectionのDfine2やDeNoise AIが強力です。それでもこれらツールには限界はあるのと、ときには強力すぎることもあるので注意が必要です。

_60_30__ABE_DBE1_Sam_low

Photoshopに持ってくる前の画像と比べると、銀河の色は出ていますが、どこまで淡いのが出てるかに関しては、Photoshopで処理してもそこまで変わらないのかと思います。背景は銀河の炙り出しとともに荒れてきたのでDeNoiseをかけています。本当は銀河部だけのマスクを作って、銀河だけ炙り出すようなことをやるともう少しましになるのかと思いますが、今回はそこまで時間をかけることができませんでした。


課題

それらのことを含めて、まだできそうな改善の余地をあげておくと
  • DBEでもう少し銀河回りのリングをうまく除去する
  • Pink starの除去
  • 銀河部だけのマスクを使った処理、そのための銀河以外の背景のノイズ処理
  • 最後の微調整に時間をかけること
などかと思います。

結局午後6時くらいまででしょうか、5時間くらいずっとほぼ休憩なく画像処理でした。私自身いつものように紆余曲折しながら長い時間かけましたが、こういったごちゃごちゃした過程を、丁寧に一つ一つ潰しながら、時に後ろに戻って時間をかけてやっていくということを見せたかったのです。

あんとんシュガーさんはすごく熱心なので、多分今回やったこと、見てもらったことを、また自分で繰り返してくれるのかと思います。その場でも話していたのですが、前回9月にきたときにはまだ処理する画像ファイルも無いような状態だったので、すでに今回までに相当大きく進歩しています。春になれば北陸も晴れる日が増えてくるはずなので、撮影もどんどん重ねていくのかと思います。

重要なのはせっかく撮影した画像からいかに情報を引き出してやるか。環境の良いところで長時間撮影したものは処理も楽なのですが、自宅前で撮影したようなものは、画像処理もある程度手間をかけてやらなければなかなか見栄えのするものにならないです。これからも楽しんで画像処理をすすめて頂けたらと思います。



すごい雪

もう天気があまりに悪くて、全くネタがありません。たまに昼間晴れるときや、たまに雲間から星が見える時もありますが、長くは続かず、撮影も電視観望も厳しいような状況です。それにまして雪が酷すぎます。今日あたりやっと少し溶けてきましたが、庭に望遠鏡を出すのを躊躇してしまうような雪の量でした。先週末はずっと降り続いていました。自宅周りでの積雪は1mを優に超えました。

IMG_1430


日曜、久しぶりに青空を見ました。太陽望遠鏡を出そうとも思いましたが、庭も犬走りも雪で埋まって断念。それよりも車の雪かきの方が優先です。

IMG_1441

IMG_1449


際画像処理

何もネタがないので、昔の画像の再処理をしてみました。約2年前に撮影したIC443くらげ星雲です。自宅庭撮りの一環で、QBPを手に入れて結構すぐのものです。FS-60QとEOS 6Dで、ISO3200で300秒露光、約2時間半の露光時間になります。

これがBeforeで
light_DBE1_PCC_stretched_sat_ps_denose_ps2a

これがAfter

masterLight_cut_ABE_PCC_AS_MS_STF_star_Saturation2_cut


QBPを手に入れて初期の頃の上の画像と、いろいろクセなど分かった上での画像処理を施した下の画像を比較すると、随分変わっていることがわかります。細部が出ているのはもちろん、恒星の色の再現がかなりマシになりました。恒星の肥大も防げています。Hαも赤一辺倒から、青成分、緑成分も入り階調豊かになっています。


相違点

画像処理において前回と違うところがいくつかあります。
  • 同温度のダークフレームのストックがあったので枚数を増やしたこと。
  • バイアスを枚数の多いものに変えたこと。
  • PixInsightでの処理もBPPからWBPPになったこと。
などありますが、ここら辺はあまり影響ないです。大きく違うところの一つは、ストレッチ方法が柔軟になったこと。以前はおそらくArcsinhStretchで恒星が真っ赤になって、STFだけで済ませてたのが、今回は
  • ArcsinhStretchとMaskedStretchを併用したこと、その結果恒星の色がかなり豊かになっています。
多分一番影響が大きかったのがStarNetの存在です。
  • StarNetで背景と恒星部分に分けることで、背景を思う存分いじることができます。
背景の炙り出しに集中できる状態にして、どこまで炙り出せるか限界を知ることができます。いちばんの問題は、どうやって恒星を合わせるか。Photoshopで背景と恒星を合成できますが、やはりどうしても不自然さが残ってしまいます。なので最近は恒星部分をマスクとして保存し、StarNetで分ける前の画像にPhotoshop上で適用しています。それでも星マスクをうまく適用しないと、不自然さが出てしまうので大変さは残ります。Before画像の2年前はマスクを使ったりしていなかったので、背景を炙り出し切ることができていませんでしたし、逆に恒星は肥大化してしまっています。


QBPの色について

恒星に関してですが、QBPの欠点でオレンジの恒星はやはり出にくいのは補正し切れなくて、赤い星のようになってしまっています。これはUV/IRカットフィルターを併用すると解決するかもしれません。もしくはCBPだと星のオレンジ色は出ているので、再度撮影からするときはQBPよりもCBPの方がより自然になるかもしれません。

あと、星雲の色に関しての処理も初期のQBPの時の扱いから大きく変わっています。QBPはその名の通り4つの輝線スペクトルを取り出すようなフィルターのため、カラーバランスがどうしても崩れてしまいます。PCCで恒星の色は合わせますが、そのことが星雲部の色を合わせている保証は何もないはずです。しかも、そもそも恒星の色も限られた波長から、既存のデータベースとできるだけ一致するように合わせたというだけなので、一見合っているように見えても元のスペクトルが全然違い、正しいとは限りません。とりあえずは見た目で合っている恒星の色のバランスは崩さないように、星雲の方の色バランスは結構ずらしています。具体的には
  • トーンカーブで星雲の青と緑の成分を増やすことで、階調よく見えるようにしている。正しい色はわからないので、これは自分の好みに。
と言ったところでしょうか。この方法が正しいかどうかは全くわかりませんが、少なくとも赤一辺倒の、のっぺりした色よりは(見た目だけでも)良くなるのではと思っています。


ノイズ

あと、ノイズに関しはそもそも露光時間がそこまで長いわけではないので、素材としてまだノイジーなのは否めません。
  • 今回DeNoiseを使っているので、ノイズに関してはかなり軽減できています。
それでも拡大すると分かる通り背景のノイズが取り切れてなくて、多少星雲部も不自然なところが残っています。DeNoiseは細かいノイズは得意なのですが、大きなノイズがどうも苦手みたいです。もやもやのカラーノイズのようなものがどうして残ってしまいます。Nik CollectionのDfine2を掛けてからDeNoiseを施すと比較的カラーノイズが出にくくなることもあるのですが、今回は細部が出にくくなってしまったのでDfine2は使ってません。


今後の課題

この背景のモコモコカラーノイズは課題の一つです。露光時間を伸ばすのが一番の解だと思うのですが、露光時間が稼げない時もあり、画像処理でもっとうまくなんとかならないかといつも思っています。

いまだにPixInsightでのノイズ除去や、細部出しの処理を実戦投入できていません。かと言って、使ったことがないわけではなく、毎回いろんな方法を試しています。でも今のところPhotoshopとDeNoiseなどのツールとの組み合わせに結果として勝つことができていないような気がして、結局元に戻ってやり直してしまっています。DeNoiseを使うのは少し悔しい気もするのですが、今のところまだ他の手法を確立し切れていません。


 

ここしばらくシリーズ化しているメジャー天体撮り直しシリーズ、M31アンドロメダ銀河M45プレアデス星団に続き今回はM42オリオン座大星雲です。







これまでのオリオン大星雲

M42は初期の頃からのFS-60Qでの撮影も含めて、


QBPのテスト
の時や、


AZ-GTiの赤道儀化のとき


ラッキーイメージングなど細部出しに特化したもの、


また明るい天体のため、電視観望でもよく見ることができ、見ている画面を保存して簡易的に画像処理してもそこそこ見栄えのするものができてしいます。


電視観望の応用でAZ-GTiの経緯台モードでの撮影も試したりしました。


TSA-120を手に入れてからも、フラットナーがない状態でも解像度ベンチマークなどでトラペジウムの撮影を中心に何度も撮影してきました。分解能に関して言えば、この時が最高でしょう。


その後、昨シーズン終わりにやっとTSA-120用に35フラットナーを手に入れてから一度テストしていますが、四隅の星像の流れはもちろん改善していますが、中心像に関してはフラットナーなしの方が良かったというのが以前の結論でした。



でもテスト撮影も多く、なかなか満足のいく露光時間はかけていませんし、仕上がりに関してもまだまだ細部を出すことができるはずです。今回はそれを踏まえての、初めてのまともな長時間かけての撮影になります。


撮影開始

撮影日は平日でしたが冬シーズンにしてはたまたま晴れていた(次の日からはまたずっと天気が悪い予報)のと、月が出るの午前1時過ぎと、多少の撮影時間が確保できそうでした。平日なので自宅での庭撮りになります。夕食後準備を始めました。このシーズンオリオン座は夜の始めはまだ低い高度にいるので、焦らずに準備できます。

鏡筒はTSA-120。これに35フラットナーをつけて、前回M45の撮影の時に準備したCA-35とカメラワイドアダプターをつけます。カメラはEOS 6D。フィルターはここのところ光害地では定番のCBPです。青を少し出したいことと、赤外での星像肥大を避けることが目的です。赤道儀はいつものCGEM IIです。撮影環境はStick PCにBackYardEOSを入れて、PHD2で二軸ガイド。

一つ気をつけたことが、Stick PCの電源を最初から大容量バッテリーのAC電源出力からとったことです。これは、これまでSharpCapでの極軸合わせなど計算量が多くなった時に何度か落ちたことからの反省です。前回のM45の撮影時の画像連続チェックで落ちてからAC電源に交換して、それ以降落ちなかったので、その経験から今回は最初からAC電源です。効果はテキメンで、SharpCapでの極軸合わせの時も全く問題ありませんでした。ダメな時はネットワークが不安定になるところから始まるのですが、そんな兆候も全然なく、やはりネットワークがダメだったのも計算負荷にで電力がネットワークアダプターのほうに回っていなかった可能性が限りなく高かったと言う結論になりそうです。


オリオン大星雲の撮影目標

せっかくの明るい星雲なので、
  • 階調と分解能をできるだけ出すこと。
  • 長時間露光でノイズを抑えること。
  • 星雲周りの分子雲を出すこと。
  • トラペジウム周りで飛ばないこと。
などを目標とします。

露光時間は淡いところを出したいので300秒とします。自宅庭撮りでこれだけ長くできるのはCBPなどの光害カットフィルターがあるからです。長時間露光の代わりに、ダイナミックレンジを稼ぎたいのでISOは少し低めの800としました。これでヒストグラムのピークが1/5くらいのところになりました。それでもトラペジウム周りは完全にサチってしまうので、別途同じISOで1秒露光のものを20枚、最初に撮影しておきました。同じISOにしたのはバイアスとフラットが使いまわせると目論んだからです。でも、後で書きますが、この目論見は失敗に終わります。


露光時間とISO

ISO800にした理由ですが、このページを見るとISO100の時のダイナミックレンジが12bit=4096、ISO800で11.5bit=2896とそこまで落ちないからです。さらに300分の1の露光時間の1秒露光で20枚ほど撮影してあるので、うまくつなぐとさらに300倍のダイナミックレンジ(2896x300= ~869000)を稼ぐことができることになります。

でもまあ、画像に写っている中で一番明るいオリオン座のι(イオタ)星のHatysa(ハチサ)が2.75等級なので、それより例えば15等級下の17.75等級を見ようとすると100万のダイナミックレンジが必要になり、既に不足となります。300秒露光の画像は既に背景のヒストグラムで最大値の1/5位のところにあるので、ということは背景の5倍の明るさで既にサチることになってしまいます。こうやって考えると恒星に割り当てることのできるダイナミックレンジはものすごい小さいことになってしまいますが、これでいいのでしょうか?何十枚もスタックして背景のランダムなノイズを下げ、オフセットは引くことができるので、もちろん1枚の時よりダイナミックレンジは増えます。画像処理のストレッチ過程で暗い恒星を炙り出すので、RAW画像の見た目の5倍というよりは実際にはもっと広いダイナミックレンジを扱うことができます。それでもサチっているところはサチったままです。

逆に言うと、背景に近い暗黒帯などは(低い方の)ダイナミックレンジが十分にあるところで情報としてRAW画像の中に残しておかないと、きちんとした諧調で表現することができなくなります。例えばPhotoshopでRAW画像を見たときに背景ピーク位置が256段階の3くらいのところにあったとします。ピークの幅が3くらいで、この中に暗い部分の背景の情報が入っているとします(実際には欲しい部分は背景のピークより少し値が大きいところにありますが、幅は同程度と仮定しています)。16bit=65536で処理するとすると1段回で65536/256=16階調あることになるので、3段階だとわずか48階調で背景の暗黒帯や対象天体の淡い部分などを表現することになります。ところが、背景ピークが10倍の30あたりにあり、その幅が30程度あるとすると、16階調をかけて480階調で表現できるようになります。ADCの量子化ノイズなどと言われたりしますが、一番見たいところをADCのどこの位置に持ってくるかを露光時間はゲインで調整するというわけです。でも実際にはたとえ階調不足でも、今のソフトはよくできていて、飛び飛びになっている階調を自動で補完してくれるので、見かけ上は階段状に見えるようなことがあまりなかったりします。

とりあえず今回は明るすぎる恒星は主に画像処理で回復し、トラペジウム周りの白飛びのみを1秒露光の画像で補完することにします。

セットアップ後は自宅からぬくぬくリモートモニターです。月が出る午前1時過ぎまで仮眠でも取ろうと思いましたが、結局そのまま起きていて、片付けが終わって寝たのが2時過ぎだったので少し寝不足になってしまいました。


6Dのセンサー面の清掃とフラット画像

後日、画像処理のためにフラットなどを撮影します。まずはカメラを外せないフラットからです。本当は太陽が出ている明るい時に撮影したかったのですが、北陸はしばらく冬型の気圧配置で、今後天気は期待できそうにないので、曇りの日に撮影することに。そういえば今回はM42の撮影前にカメラのセンサー面の掃除をしたので、フラットフレーム最近いつもあるゴミの後はほぼ一掃されていました。清掃といってお、カメラの清掃モードを利用してセンサー面を露出し、エアーで吹き飛ばしただけです。これだけでかなりの効果がありました。

フラットダークとバイアスに関しては同じISOの以前使ったマスターファイルがあるので、それを再利用できます。

ダークは冷蔵庫と冷凍庫にカメラを入れて冷却状態で撮影します。温度がばらつくので、多少多めに撮影しておきます。それでも枚数が稼げないこともあるので、その場合はダーク補正なしでCosmetic Correctionのみにする時もありますが、今回はそこそこの枚数を稼げたので撮影時の温度に合わせて選択して使うことにしました。


画像処理

撮影したファイルをPIのWBPPで処理します。できたファイルをPCCにかけます。背景に分子雲が大量にあるのでカブリとの見分けがつかず、ABEやDBEは使わないことにしました。ノイズ処理とDecombolutionもPIで試しましたが、やはりまだDeNoiseの方が有利な気がして、今回も使いませんでした。いずれ移行したいですが、もう少し検討してからにしてみたいです。

恒星中心の回復はRepaired HSV Separation Scriptを使い、Masked Stretchで恒星を保ちながら炙り出しました。

問題はStarNetの適用のタイミングです。今回はPhotoshopでも炙り出す余地を残したために背景と恒星の分離を少し早い段階で済ませました。そのため、PSでの処理時に恒星をさ散らすことになってしまったので、あまりMasked Stretchの意味がなかったかもしれません。でもその一方、恒星を全くサチらせずに処理すると、恒星が野暮ったい感じになりインパクトに欠けることにもなります。今回はサチらせる方向を取りましたが、ここはもう少し検討したいところです。もしかしたら再処理するかもしれません。

1秒露光の画像の処理も同様にPIでやったのですが、WBPPが全くうまくいきませんでした。仕方ないので、マニュアルでCosmeticCorrectionから順番に確認していくと、ImageCaibrationのバイアスやフラット補正が全くうまくいきません。バイアスファイルやフラット補正ファイルは、ISOを合わせた300秒露光の補正で使ったものの使い回しなので問題ないはずです。ファイルが問題と言うよりは、補正すること自体がダメなようです。簡単に言うと暗かったライトフレームが補正で明るくなってしまうような状態です。どうやってもうまくいかなかったので、補正は諦め、撮影した21枚、21秒分を位置合わせしてスタックしただけにして、トラベジウム周りだけを使うことにしました。

300秒画像のトラペジウム周りはサチっているので、境目が滑らかになるように輝度を落とし、そこに1秒露光の画像をPhotoshop側で合成しました。

結果は以下のようになります。
masterLight_PCC_pink_MS_all5


2020/12/14追記: 次の日少し見直して1から処理し直しました。StarNetを使わずにマスク処理で恒星部を調整し不自然さと幸理をできるだけ無くしています。あと、まだ赤寄りだったのでもう少し青寄りにして色調豊かにしました。まだ不満はいくつか残っていいます。
  • 分子雲の中の微恒星周りが不自然です。これはマスクの領域を拡大しすぎたからかと思います。明るい領域の微恒星と暗い領域の微恒星では多分マスクの扱いが違うのかと思います。最後に気づいたので力尽きて諦めました。またそのうちに解決策を手段を考えます。
  • 分子雲と背景のノイズ処理が甘くてボコボコしているようなところがあります。DeNoiseの効果なのですが、他のノイズ除去フィルターでも同じようになってしまいます。Dfine2で大まかなノイズを除いてからDeNoiseで解決できる可能性もありますが、根本的には露光不足なのでさらに長い時間撮影するのが一番です。
  • かなり炙り出しているので、人工衛星の軌跡が目立ち始めています。軌跡が残っている画像は全て捨てるのが解決策なのですが、今回もかなりの枚数に軌跡が映り込んでいます。これだけ衛星が多いとオリオン座はもう難しいのかもしれません。
それ以外のところは、「今のところ」不満はありません。でも気づいてないことがまだたくさんあると思うので、あくまで今のところです。

masterLight_integration2_ABE1_PCC_SCNR_HSV_MS_all3_cut
  • 撮影日: 2020年12月9日20時57分-12月10日1時10分
  • 撮影場所: 富山県富山市
  • 鏡筒: タカハシ TSA-120 (口径120mm, 焦点距離900mm) + 35フラットナー + CBPフィルター
  • 赤道儀: Celestron CGEM II
  • センサー: Canon EOS 6D HKIR改造
  • ガイド: PHD2 + 120mmガイド鏡 + ASI178MCによるディザリング
  • 撮影: BackYard EOS, ISO1600,  露光時間: 300秒 x 50枚 = 4時間10分 + 1秒 x 21枚
  • 画像処理: PixInsight、Photoshop CC, DeNoise
分子雲については十分に出ていて、星雲本体の階調も分解能も満足できます。トラペジウム周りもそこそこ自然に出ています。

その一方、恒星部にはまだ少し不満もあります。露光時間が300秒と長いために星像がガイド揺れやシンチレーションでボテっとなるのは仕方ないです。でも1秒露光の方でトラペジウム部分を見てもあまり分離できていません。ピントがずれている可能性もありますが、おそらくこの日はシンチレーションが酷かった可能性が高そうです。

トラペジウムもピシッと見えていて、背景もきちんと出ているようなものを多露出露光合成なしで撮れるような、タイミングと機器とパラメーターが揃った時に、いつかまた気合を入れて撮影してみたいものです。でもまだ今の機材でももう少し攻めることができる(ラッキーイメージングでしょうか?)はずなので、今後も継続して挑戦していきたいと思います。オリオン大星雲は深いです。


まとめ

メジャー天体際撮影シリーズはこれで終わりかと思います。4年半前に星を始めて、最初の頃に挑戦したものでしたが、機器も技術も4年半の間に随分進歩したことがわかります。ソフト的な進歩も大きいです。

特にPixInsightでのDBEやストレッチの技術と種類の多さ、StarNetでの分離、Nik CollectionやDeNoiseなどの細部だしやノイズ除去など、自分の腕の不足を明らかに助けてくれます。今後はこういった便利なソフトから少し離れて、自分の腕で画像処理を極めたいと思っていますが、実際この楽な状況から本当に脱却できるのか?まあ、当分はそのままかもしれません。


おまけ

Annotationです。

masterLight_PCC_pink_MS_all5_Annotated


恒例の以前FS-60Qで撮影したものです。約4年前と

cut

1年半前です。

light_M42_PCC_maskstretched_ok_HDR_dark

今回の撮影もまだ不満はありますが、自己ベストは明らかに更新です。何年か経つととりあえず進歩の跡が見られるのはいいものです。オリオン大星雲は楽しいので、また条件を変えて挑戦します。



過去の縞ノイズでも試してみる

もしかしたら、flat補正の効果が今回の撮影だけの特別な場合だった可能性もあります。なので、過去の画像で縞ノイズが出たファイルを再処理してみます。使ったのは、2年以上前のPixInsightを最初に使い始めた頃に撮影したM33。

シンプルにするためにフラットの有無だけで比較します。撮影条件は
  • 鏡筒: タカハシFS-60Q、焦点距離600mm
  • 赤道儀: Celestron Advaned VX
  • カメラ:  ZWO ASI294MC
  • ガイド: ASI178MCと50mmのCマウントレンズをPHD2にて
  • 撮影条件: SharpCapでゲイン270、温度-15℃、露光時間300秒x25枚 = 2時間5分
  • ディザー: なし 
  • ファイル保存形式: RAW16bit、fits形式
です。本質的なところではカメラは常温ですが同じ、長時間、ディザーなしというのでよく似た条件です。Flat frameの内容はというと、記録から
  • flat frame: light frame撮影後すぐに、鏡筒に状態でスーパーの白い袋を2重に被せて撮影。ゲイン270、露光時間300秒、常温で、3枚撮影。
となっているので、これも撮影後すぐにとったとか、枚数が少ないとかの条件も同じです。この似た条件というのが鍵になる可能性がありますが、まずは時期的にも違うという点で検証して一般性を見ます。

まずはflat補正あり。やはり以前と同じように縞ノイズは盛大に出るので再現性もあります。

light-BINNING_1

次にflat補正なし。ゴミの跡とかは目をつぶってください。当然周辺減光も出ますし、アンプグローも残ります。その代わりに、バラ星雲の時と同じで縞ノイズは消えます。厳密に言うとバラ星雲の時も今回のM33の時も同じで少しの縞ノイズは残っています。でもflat補正のあるなしで、いずれも劇的な違いがあることはわかります。

light-BINNING_1

この時点で、PIに限られますが違う画像でも起きているので、一般的にも十分あり得る話だということがわかります。


PixInsight以外では?ステライメージで確かめてみる

もしかしたらこれ、PIのflat補正のアルゴリズムに問題があって、PIだけの問題という可能性があります。他のソフトの代表で、ステライメージ8で確かめてみました。

そう言えば最近Windowsを入れ直してステライメージまだ入れてませんでした。久しぶりに再インストールして、M33を使ってflat補正をしてみました。自動処理モードは使わずに、詳細編集モード(マニュアルモード)で試しました。自動処理モードはこれまでもほとんど使ったことがないのと、一応は試したのですがうまく色が出なかったからです。

最初の結果がこれです。

light

「お、縞ノイズないじゃん!なんで?PIだけの問題か?」と思ったのですが、よくみるとゴミの跡も残っていてフラット補正全くされていないみたいです。自動処理モードでやっても結果は変わらず、flatファイルが悪いのかとか色々疑ったのですが、原因はステライメージのバグ。バージョン8をディスクからインストールしたてで、アップデートしていなかったことが原因でした。現行のバージョン8.0hにして試してみると、

light

ちゃんとflat補正もされて、縞ノイズも盛大に出るようになりました。なので、PIだけの問題でないということが分かります。

ちょっと蛇足です。久しぶりにステライメージ触ったのですが、随分といろんなことを忘れていました。今回サボりましたがflat darkとかも本当は撮らないとダメ(flat darkあるなしで縞ノイズに影響がないことは確かめています)なんですよね。その代わりにbiasファイルを撮らなくていいとか、今思うとPIとはだいぶん違います。

初心者向けの自動処理モードも「ほとんど何も設定出来ない」との批判も多いですが、私はこれでいいと思います。多分ステライメージは、初心者にとっては天体画像処理ソフトとしては唯一の選択肢です。日本語で操作できて、マニュアルも(十分ではないかもしれませんが)日本語で読むことができてという意味で、敷居がずいぶん低いはずです。初めて天体写真に挑む人は、一番最初は本当に何も分からず手探りでやるので、自動モードもこれくらい簡潔にしておくのはある意味正しいと思います。自動モードで理解できてきたら、詳細モードに行って、詳細モードでいろんな操作をして理解して、その上で不満が出たらより高機能なPixInsightという手もあるかと思います。

ステライメージで一つ不満があるとしたら、「ベイヤー・RGB変換」のところでしょうか。バッチ処理が無いので、一枚一枚手で変換しなくてはダメなんですよね。ALTキーでI、ALTキーでYで、Enterで処理、マウスで最小化ボタンを押して次の画像というのを繰り返し、出来るだけ楽に進めてます。今回20枚程度でしたが、100枚とかはやりたくないです。最近はPIで1000枚とかの処理もする時があるので、これだとステライメージでは現実無理です。せめてコンポジットやホット/クールピクセル除去機能みたいにバッチ処理ができるようになるといいのですが。


ついでにDSSでも

あと日本で流行っているスタックソフトの残りは、惑星用除いたらあとは、DSS(DeepSkyStacker)とRAP2くらいでしょうかRAP2は有料で持っていないので試せませんが、DSSはフリーなので試すことはできます。DSSは星を始めた4年前にまだ有料ソフトに手を出す前に、フリーだからと少し試しただけくらいの経験しかありません。もう久しく触っていませんが、いい機会なので試してみます。

昔はものすごく複雑だった印象があるのですが、機能自身は今思うとまあ一直線で素直ですね。少なくともPIに比べるとはるかにシンプルです。特に困ったところは2箇所だけで、一つはRegisteringのところで進まなくなってしまったところ。これは検出する星の数が多すぎたことが原因で、「Register Setting」の「Advanced」タブの「Star Detection Threshold」を増やして、検出する星の数を減らすことで解決しました。もう一つは一度最後まで処理をしたのですが、モノクロのままだったので、メニューの「RAW/FITS Settings」の「FITS Filters」できちんとdebayerしてやることでした。

さて結果です。フラットもうまく補正されたようです。

light

あー、ダメですね。やはり縞ノイズ出ますね。

と言うわけでflat補正問題、PixInsightだけの問題でもなく少なくともステライメージとDSSも含めて、同様に縞ノイズを発生させることがわかりました。日本で使われている3大スタックソフト(惑星用除く)で同じ状況というので、flat補正が縞ノイズに与える影響はかなり一般的と言っていいかと思います。


とりあえず、今回の記事のまとめ

他のデータでも、他のソフトでも同様の傾向で、flat補正の影響はあると言えそうです。

ただしやはり気になるところは、flatの撮り方が2例とも撮影後すぐに同露光時間、同ゲインで、スーパーの袋をかぶせて空で撮っていることです。露光時間が長いので、明るさ的に足りないことはないと思います。ただし、カラーバランスはかなり黄色っぽくなってしまっています。また、枚数が足りない可能性もあります。

次回以降はここら辺のflat frame自身についてもう少し検討できたらと思っています。実は今回の謎の答えもう出ています。今検証を進めているところです。乞うご期待です。



多分このシリーズ、長くなります。普段の記事を全然長いと思っていない私が長くなると思っているので、多分本当に長くなります。試したいことがありすぎるので、書けるとこまで書きます。途中で力尽きたらごめんなさい。

今回縞ノイズの一つを、多分特定しました。最初に断っておきますが、限られた条件でのことかもしれません。この記事を読んで試してみても、全然効果がなかったと言う方もいるかもしれません。ですが幾らかの悩んでいる方の解決にはなると思います。私自身、他の方の環境でどうなるか興味があるというのもあります。

comp

この比較写真のように違います。左がこれまでの縞ノイズ、右が無くなった(実際には軽減された)場合です。以下、詳しく説明します。


バラ星雲で出た縞ノイズ

この間のEVOSTAR 72EDでのバラ星雲の撮影で、ディザーをしなかったために縞ノイズが出たという報告をしました。

integration_DBE_PCC_AS_cut


その後、上記の縞ノイズを可視化した記事を書きました。この動画は結構反響が大きかったので、ご覧になった方も多いかと思います。






なぜか突然縞ノイズが消えた!?

この後、もう少し縞ノイズの検証をしてみようとファイルをいじってみました。とりあえずシンプルなところからと思って、rawのlight frameをDebayerしてStarAlignmentだけして縞ノイズを再現しようとしたのです。ところがところが、縞ノイズが綺麗さっぱりなくなっています。

integration

拡大です。
integration_cut

え?
なんで?
全然縞ノイズ出てないじゃん!
せっかく縞ノイズの解析しようと思ってたのに!

さあ、ここからが戦いの始まりです。


PixInsight用語

今回、PixInsight (PI)用語がたくさん出てきます。PIに慣れていない方のために、簡単に解説しておきます。
  • PixInsight: 世界的に有名な天体画像処理ソフト。英語でものすごくとっつきにくいが、高機能。
  • BatchPrepocessing: 撮影したファイル(light, bias, dark, flatなどの各frame)を掘り込んでおけば、スタックまでボタン一発でやってくれる便利な機能。
  • master: bias, dark, flatなど、他数枚の補正ファイルを一度処理すると、スタックされた一枚のmasterというファイルをそれぞれ作ってくれる。以降はそれを使うと処理時間を削減できる。
  • ImageCalibration: BatchPrepocessingのような自動で処理する以外に、マニュアルでもっと細かくオプションを指定しながら処理する方法がある。これはbias, dark, flatなどの補正をマニュアルでする機能のこと。
  • Debayer: 同様にマニュアル処理の一つ。モノクロのBayer配列のRawファイルをカラー化すること。
  • StarAlignment: マニュアル処理の一つ。多数枚数の画像の星位置を合わせること。PIでは平行移動、回転にのみならず、画面を歪ませて星の位置をそれぞれ合わせることができる。
  • ImageInteglation: マニュアル処理の一つ。他数枚の画像をスタックすること。
  • ScreenTransferFunction: 簡易的にストレッチ(明るくすること)をする機能。見かけの表示のみをいじるので、ファイルには何の手も加えない。見かけを適用したい場合はHistgramTransfomationを使う。
  • Auto Stretch: ScreenTransferFunctionの一機能。あぶり出しのすんでいないまだ暗い画像などを、そこそこ見やすいように自動でストレッチする機能のこと。超便利。
  • DynamicBackgroundExtraction (DBE): 背景の被りや周辺減光などをソフト的に除去する機能。任意の補正点を指定できるので、星雲部分の補正を避けるなど細かい補正が可能。超便利。
  • AutomaticBackgroundExtraction (ABE): 背景の被りや周辺減光などをソフト的に除去する機能。細かい補正はできないが、大局的に補正してくれるので簡単で便利。
  • TVGDenoise: PI場で最強と言われているノイズ除去機能。

比較条件

今回検証するRAWファイルは全て同じです。他に共通撮影条件は
  • 鏡筒: SkyWatcher EVOSTAR 72ED + x0.72レデューザー、焦点距離300mm
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • ガイド: ASI178MCと50mmのCマウントレンズをPHD2にて
  • 撮影条件: SharpCapでゲイン220、温度-15℃、露光時間300秒x20枚 = 1時間40分
  • ディザー: なし 
  • ファイル保存形式: RAW16bit、fits形式
  • フィルター: サイトロン QBP(アメリカンサイズ)
となります。

今回の検討を始める前までに、縞ノイズが出た時の処理と、出なかった時の処理の違いを書いておきます。処理は全てPI上でやっています。
  • 縞ノイズあり: BatchPreprocessingでbias補正、dark補正、flat補正を適用し、走らせた。
  • 縞ノイズなし: マニュアルでDebayer、StarAlignment、ImageInteglation。
この中に決定的な違いがあるはずです。以下、各補正ファイルの条件です。全てSharpCap上で撮影していて、最初の処理でmaster fileができるので、以降はそれを利用。
  • bias frame: ゲイン220、露光時間が最小の0.032ミリ秒で、100枚撮影。
  • dark frame: frat frame撮影後、片付けの後すぐに、家の中で撮影。ゲイン220、露光時間300秒、-15℃で、28枚撮影。
  • flat frame: light frame撮影後すぐに、鏡筒に状態でスーパーの白い袋を2重に被せて撮影。ゲイン220、露光時間300秒、-15℃で、7枚撮影。

処理結果に大きな違いが出ていて、検証材料も全て揃っているので、何が違いに影響しているのか順に検証していきます。


検証過程

ここからはほぼ実際にやった手順です。
  1. まず、再度BatchPreprocessingとマニュアル処理で再現性を確認。->きちんとBatchPreprocessingのときには縞ノイズ出て、マニュアル処理では出ないです。再現性はきちんとあります。
  2. 次に、一番怪しくないと思ったflat frameのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「うーん、あんまり関係ないよな。」
  3. 次、一番怪しそうなbias framaのみを適用させBatchPreprocessingで処理 -> 縞ノイズ消えた!「そりゃbias必要でしょ。」
  4. 次、flatとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「あれ?flatあまり関係ないはずなのに。」-> ところが、ここでやっと思い違いに気づきます。今回、何も補正していない方が縞ノイズが出なくて、補正した方が縞ノイズが出たのでした。と言うことは、bias関係なしで、flatで縞ノイズ有無が決まっていることになります。え、本当?
  5. 確認で、darkとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「えー、ホントにdarkもbiasも関係ないよ!?」
  6. 念のため、darkのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「確かにdark関係なし。」
  7. さらに念のため、master flatを使うのではなく、改めて個々のflat frameを使ってBatchPreprocessing処理 -> 縞ノイズ出る。「やっぱりflatが原因だ!」
  8. さらに、BatchPreprocessingが何か悪さをしている可能性も考えて、マニュアルのImageCalibrationを使ってflat処理だけしてみます->縞ノイズあり。「少なくともPIで処理する限りflatが悪さをしているのは確定でよさそう」


Flat補正をしない場合、本当に改善されているのか

確かに上の画像で見た通り、flat補正をしないと縞ノイズは無くなって見えているのですが、本当でしょうか?それぞれSTFでオートストレッチをしているのですが、本当に正確な比較をしているのか疑問になってきました。オートストレッチは星雲を含む背景の最大の輝度と最小の輝度から適用範囲が決まります。例えば、flat補正をしていない周辺減光のある画像ではあぶり出しも中途半端で、周辺減光のない平坦に近い画像では極限まで炙り出すことをするので、細かい差(この場合縞ノイズも含めて)をより浮き出させてくれます。

ここでは公平に比較するために、それぞれの画像にAutomaticBackgroundExtraction (ABE)を適用し、周辺減光の影響をできるだけ少なくして比較してみます。flat補正をしたものでもまだ明暗のばらつきは無視できないほど存在していて、ABEを適用することで多少の変化があります。それぞれABEをしてから、STFでオートストレッチをしています。

まず、flat補正ありの画像。

light_BINNING_1_integration_ABE

light_BINNING_1_integration_ABE_cut
これまで通り、縞ノイズは盛大に見えています。

次にflat補正しない場合。
integration_ABE

integration_ABE_cut

結局、周辺減光がABEで補正できる範囲を超えてしまっているので全然補正できていません。そのためオートストレッチ後、少し補正して目で見て、拡大部分の明るさをそこそこ合わせています。多少公平性は欠けてしまいましたが、それでも不公平になる程の違いは無いくらいにはなっているでしょう。結果はというと、flat補正なしであからさまに縞ノイズは改善されていますが、よく見るとやはり完全に無くなりきってはいないです。「相当軽減する」くらいは言っていいでしょうか。

この比較から、flat補正は縞ノイズの影響を悪化させていることは確からしいですが、完全には撮りきれないことから、それだけが原因というわけでもなさそうです。

実際の画像処理では背景はもう少し暗くなるので、flat補正なしにして、この程度の縞ノイズになるのなら個人的には許容範囲でしょうか。


Flat frameについて

でもここでふと我に返ります。でも今回使ったflatってそんなに変なの?

確認してみる限りごくごく普通のflatだと思います。master flatをAuto Stretchしたものです。(blogに載せるためのファイルサイズ制限で、bayer配列を無理にjpegにしているので、偽色が出てしまってノイジーに見えてしまっています。)
flat-BINNING_1

拡大です。pngなので、偽色とかは出ていないはずです。(画像サイズが小さいのでpngでもファイルサイズが大きくなり過ぎず、blogでもアップロードできます。)
flat-BINNING_1_cut

見ている限り、極々ノーマルで、ノイズが特別多いようにも思えません。

でも、master flatをdebayerしてAuto Stretchしてみると少し正体が見えてきます。
flat_BINNING_1_integration_RGB_VNG

拡大です。
flat_BINNING_1_integration_RGB_VNG_cut

カラー化すると結構ノイジーなのがわかります。なんだかカラーノイズと言われているものに似ています。これが固定ノイズとなって、星像を止めたときには逆に、この固定ノイズが流れるのでしょう。

でも本当にこれくらいのことであんなに盛大に縞ノイズが出てくるまで画像を悪化させるのでしょうか?だって直接処理しているのはlight frameの1枚1枚で、それに対してflat frameは枚数少ないとは言え7枚です。それが流れて見えるので、スタックした20枚:7枚でなく、1枚:7枚の比で比較してもいいような気がします。ここは少し疑問が残ります。


flat frameのノイズを改善してみたら?

本当にflatが効いているのか確認するためにもう少し試します。master flatにPI上でTVGDenoiseでノイズを減らしたflat frameを適用して処理してみました。その結果がこれです。
integration

拡大です。
integration_cut

わかりますでしょうか?多分拡大していない方がわかりやすいと思いますが、細かい縞ノイズが消えて、大きな構造の縞ノイズが出てきています。

この結果から考えられることは、flat frame自身でのノイズ除去があまりうまくいっていなくて、細かいカラーノイズが大きな構造のノイズになってしまったからです。

少なくとも、これらの結果からflat frameが縞ノイズに影響を与えているのは間違いないでしょう。ただし、あくまでこれも限られた環境、限られた条件下での話の可能性もあります。ここら辺は次回以降に検討してきます。


とりあえずのまとめ

どうも聞いていると、縞ノイズに困っている人と困っていない人がいるみたいです。なので、一概に今回の結果が正しいとは言えないと思いますが、flat補正の影響は私と同じような状況の人には朗報となるかもしれません。でもflatが原因の全てだなんていうことを言う気は全くありません。あくまで原因の一つであるのではないかということです。

いろいろ検索してみましたが、flat補正が縞ノイズの原因だとバッチリ書いてあるところは見つかりませんでした。むしろこれまで思っていた通り、flat補正をきちんとすると縞ノイズが解決できるはずだと書いてある記述はたくさん見つかりました。普通だとこちらのセンスの方が正しといと思ってしまうのは、ある意味ごくごく普通でしょう。そもそもなんでflat補正が縞ノイズに対してダメなのか、まだよくわかっていません。これからいろいろ検証していきたいところです。

今回、縞ノイズに対する根本的な解決策を示したわけではありませんが、状況によってはflat補正を外して画像処理することで、縞ノイズを軽減できる可能性があることがわかります。その上で、PIのABEやDBE、FlatAidProなどを使ってカブリや周辺減光を減らすことで対応する必要もあるでしょうか。この場合、ゴミやアンプグローなどは除去できません。

もう一つ重要なことはは、きちんとディザーをして散らすことでしょうか。多分縞ノイズって複合原因なんです。1方向に流さないようにすること。これが重要なのは変わりません。ディザーはおそらく根本解決の方法の一つです。


この記事まだまだ続きそうです。今回はバラ星雲での撮影のみ取り上げましたが、次回は過去に出た縞ノイズの場合なども検討してみたいと思います。

 


縞ノイズを時間的に見てみる

もしかしたら興味がある人もいるかと思い、縞ノイズを時間的に可視化してみました。先のバラ星雲の1日目のディザーなしで撮影した失敗画像約2時間ぶんの24枚を使っています。中心あたりの一部を拡大して見ています。といってもやったことは簡単で、ディザーなしで撮影した画像を、PixInsightで動画にしただけです。

Blink

これはガイドをしていても、たわみなどでガイド鏡と撮影鏡筒の相対的な視野が一方向にずれてしまうために起きます。それでももしノイズが完全にランダムなら、このように流れるようには見えないはずです。ノイズが流れて見えるということは、ノイズに時間的なコヒーレンスがあるということです。うーん、結構ありますね。あれだけの縞ノイズになるのもわかる気がします。

integration_DBE_PCC_AS_cut



縞ノイズ動画の作り方

さて、この動画の作り方です。今回縞ノイズを時間的にみる目的でしたが、このやり方覚えておくと色々応用が効きそうです。基本的に、PixInsightを使います。
  1. 普通にBatchPreprocessing 処理などで進めます。
  2. master以下のregsteredフォルダに入っている、位置合わせまで終わって、Integrationする寸前のファイルを使います。ここまでは普通にDebayerしてStarAlignmentでも構いません。
  3. Blinkでそれらのファイルを開きます。
  4. とりあえずは、デフォルト機能の再生ボタン(右三角)を押すと確認できますが、順に動画のようになるように見せるだけです。オートストレッチもできるのでみやすくなります。カラーバランスが悪い場合は、RGBのリンクをオン/オフする「鎖マーク」のアイコンを押してください。
  5. Previewで一部を切り取るとその部分だけ拡大して見えます。
  6. それをBlink画面の右下の一番右端の撮影開始マークアイコンで動画にします。
  7. ffmpegがない場合は別途インストールしてください。
  8. ffmpegがインストールされていても、実行ファイルをフルパスで入れないとダメでした。/usr/local/bin/ffmpegとかいうことです。
  9. オプションは秒20コマのgifファイルにしたかったので、 -y -r 20 -i Blink%05d.png Blink.gifとしました。
このように結構簡単に動画を作ることができます。


M42の場合

もう一つ例です。TSA-120でM42を撮影した時のものです。約30分くらいの撮影時間で、枚数は14枚です。これはディザーもそうですが、ガイドさえもしてないので赤道儀の極軸の精度が悪くてずれていってしまっているものです。上のバラ星雲のように画像の一部ではなくて、ほぼ全体像を示しています。解像度はこのブログにアップできるように(一画像当たり5MBが制限)落としてあります。

Blink

縞ノイズの原因となるクールノイズなどに混ざって、おそらくバイアスノイズに相当する縦線のように見えるノイズも流れていることがわかります。基本的にランダムでないノイズは、全て縞ノイズになり得るだろうことがわかります。

これを普通にスタックすると下のように縞ノイズが盛大に出てくるわけです。

integration



バラ星雲のもそうですが、時間的にこれだけ明らかに変化しているのがわかるのなら、なんとか分離してペラっと一枚皮を剥ぐようにこのノイズだけ取れないですかね?

このページのトップヘ