ほしぞloveログ

天体観測始めました。

カテゴリ:アイデア、理論など > ノイズ


低ISOの方がいい!?

HIROPONさんが、画像処理まで含めたら低ISOの方がいいという記事を書かれました。



HIROPONさんは東京都心に住んでいるため、明るいところでの撮影を得意としています。確かに、都心のような超光害地ではHIROPONさんの言っていることは正しいと思いますし、HIROPONさん自身も光害地での撮影を前提に記事を書いているのかと思います。ただし、その「光害地での撮影」が前提であることを考慮せずに、低ISOが常に正しいと思い込んでしまう低ISO信者になってしまう人が出てくるのを少し心配しています。何事も鵜呑みにするのではなく、状況に応じて自ら考えることが大切なのかと思います。

HIROPONさんは、暗い場所でもさらに低ISOで露光時間を伸ばす方向に進めたいような発言もされてますが、光害地でISOが低いと不利になることの一つは、時間の制限があるからかと思います。無限に時間があるなら、低いISOで露光し続け、淡い天体まで出した方が得です。でも現実にはガイドずれや、人工衛星などの邪魔な光が入る可能性などがあるので、ある程度の時間で区切らざるを得ない。そんな時はISOを上げ、露光時間を制限した方が得になります。HIROPONさんもこのことをきちんと理解している旨の発言をしていますので、必ずしも全て低ISOがいいと言っているわけではないのかと思います。




高ISOの方がいいのか?

光害地での低ISOが有利な理由はHIROPONさんがすでに述べられているので、ここでは暗いところで高ISOが有利な理由を中心に述べていきたいと思います。

ISOを上げる一つの理由が、読み出しノイズよりも淡い天体を見たい場合です。読み出しノイズが加わる時点以前にゲインを上げることができるなら、より小さな信号を見ることができます。でもよく考えるとこれも先に挙げた露光時間を伸ばす代わりに時間制限があるのでISOを上げることと根は一緒ですね。

言うなれば、明るさ、時間という物理量に対して、露光時間、ISOというカメラ側の機能を駆使して、いかにカメラの持っている生のダイナミックレンジ(ファイルフォーマットでは16bit、一眼レフカメラは14ビット程度が多い)に入れ込むかという話に行き着きます。「明るさ」という物理量には、ターゲット天体の明るさ、背景光(+背景光ノイズ)、リードノイズ、その他ダークノイズ、ショットノイズなどがありますが、今回話題としているのはターゲット天体の明るさ、背景光なので、基本的にこれに絞り、必要ならノイズ(特にリードノイズ)を考えることにします。

2020/11/1 追記: Zoom会議で、やはり都心の超光害地で撮影されている方から、とにかく何も写らないのである程度滑らかにしておかないとダメ、だから天体からの光子数を少しでも稼げる低ISOがいいのではないかとの発言がありました。皆さん納得してましたし、私もその通りかと思います。


Twitte上での疑問

黒・天リフさんが今回のHIROPONさんの記事に対して、Twitter上で色々疑問を呈してくれています。勝手に引用してしまっているので申し訳なくて、まずかったらすぐに消しますが、折角の疑問なので、私(Sam)のわかる範囲で答えてみようと思います。私自身はノイズに関しては多少勉強はしてますが、センサーに関してはプロでもなんでもないので間違ったことを言っているかもません。なのでここで書いたことは正しいとは限らないですし、簡単に答えの出ないものもあるのかと思います。自分で考える発端になればいいかなと思っているくらいです。


黒・天リフさん
一番重要なのは、コンポジット前の1枚画像のヒストグラムが偏らない(いわゆる中央より右)ことではないか?根拠は一つ、それが一番限られたビット幅を有効に使えるであろうから。
反論)天体写真においてはヒストグラムの山から左は基本的にゴミデータ。ゆえに「意味のある階調のビット幅」は山から右端までの間になる。それなら山は左に寄せた方がより階調が広くなるのではないか?
反論の反論)・・・・・・「ヒストグラム山右寄せ」は多くの方が実践し好結果を得ているように思えます。私はチキンなのでいまだにヒストグラムを2/3より右にできませんが、人によってはびっくりするほど右寄せにされている模様。なぜ「右寄せの方がよりよい」のかが自分にとっては未解明。 

Sam
量子化ノイズの問題だと思います。左寄せはADCのLBS (量子化単位)に近くなっていくので損なはずです。階調不足と言った方がいいでしょうか。なので右寄せの方が好結果を得ているというのは正しいと思います。でも右寄せはダイナミックレンジを犠牲にしているので、当然恒星とかはサチりやすくなります。nagahiroさんがもっとわかりやすく説明してくれていて「見た目の明るさが2倍違う天体AとBを撮影したとして、ヒストグラムの左側を使っているとそれぞれ画像上の輝度値が5,10だったのが、右側を使うと50,100になって、後者のほうが諧調が豊か」ということです。

デジタルゲインでは階段上のまま増幅されるが、アナログでゲインを上げると階調豊かになる。


黒・天リフさん
天体の光は実際にはどのくらいの光子をセンサーに届けているのか?たとえばごく淡い分子雲を総露出120分で撮影したとき、1画素に分子雲の光子は「何個」届いているかです。これがもし「1」なら直感的には鑑賞写真では判別不能に思えますが、では何個なのかと。

Sam
天体を仮定して計算するのは大変なのですが、Unity gainがわかっているなら画像から逆に計算することができます。Unity gainは1つの光子が1ADCの単位(=1LBS、最小量子化単位)という意味なので、Unity gainで長時間露光して撮影した画像で天体が写っていたなら、そのカウント数を数えればそれがそのままま光子数となります。


黒・天リフさん
バイアスノイズ≠リードノイズ?バイアスはセンサーの輝度値の「ゲタ」と認識しているのですが、これは「リードノイズ」とは別物と考えていいのでしょうか。ゲインをかけて増幅した値を読み出す際のノイズがリードノイズ?

Sam
同じと考えていいのではないでしょうか?バイアス補正はするけれどもリードノイズ補正はしないし、メーカーのデータにはリードノイズは出てくるけれどもバイアスノイズは出てきません。リードノイズとはどれだけ光を無くしても、露光時間を短くしてダークノイズを減らしても、どうしても読み取り時に出てくるノイズです。最短露光時間にしてバイアスノイズを測れば時間に比例するダークノイズの効果は無視できるようになるので、それは定義から言ったらリードノイズになると思います。リードノイズもバイアスノイズもISO(ゲイン)に依存します。

2020/11/1 追記: Zoom会議中で出てきた結論は、バイアスとリードノイズは別物という意見が大半でした。素子レベルでのオフセットがバイアス。バイアスはオフセットであって、ノイズではないというもの。でも私はまだ少し納得ができてなくて、結局あるゲインでのバイアスフレームをとるとそれはそのままあるゲインでのリードノイズに一致するのではないかと思うからです。でないと他にリードノイズを測る方法がないです。概念としてバイアスがオフセットなので別物というのは理解ができます。
さらに新たに出た疑問として、バイアスの時間変化はあるのだろうか?とうのがありました。例えばSony α7S3では一定の期間でバイアスを取得して書き換えてると言うことです。あぷらなーとさんがバイアスに関してはかなり解析されてました。


黒・天リフさん

「ゲインをかけて増幅した値を読み出す際のノイズがリードノイズ」だとすると、「ISO100 15秒」と「 ISO1600 15秒」ではリードノイズの影響はISO1600の方が少ないことになると推測。現実にはCMOSセンサーのリードノイズは今やとても低いので大きな差にはならないのかも。 

Sam
リードノイズはゲインに依存します。メーカー値を見てもそうですが、例えばSharpCapを使ってZWOのASIカメラとかで実測すると、その依存性が出て、高いゲインの方がリードノイズが小さくなると出ます。ただし、この「小さくなる」というのは入力換算での話で、ゲインで割った後のノイズの値が小さいという意味です。ゲインで割らないと当然ノイズもゲイン倍されて測定されるので、ゲインが高い方がノイズの値は大きくなるのはいうまでもありません。
そのため、露光時間が同じ場合、淡い天体を撮る場合にはISOが大きい方が得だと思います。でも当然ダイナミックレンジは犠牲になります。
でも少し疑問もあって、そもそもISOで上げるゲインはどこにあるのでしょうか?回路的にゲインを上げるならリードノイズ前で増幅するので高ISOが得をします。一方、読み取った後に計算機上でゲインを上げるなら、リードノイズは変わらず、むしろダイナミックレンジで損をします。一応データでリードノイズがゲインとともに下がるとでているので、前者が正しいのかと思っています。

2020/11/1 追記: 実際の天体からくる光子数をあぷらなーとさんが過去に計算してくれてます。
https://apranat.exblog.jp/27577057/

これによると、M27で1秒間に1ピクセルに0.7個だそうです。


黒・天リフさん
理想的なセンサーと完璧な背景光キャリブレーションがあれば、背景光の輝度に関係なく、同じ画像を得ることが可能。これって実現可能性はゼロに近いですが、論理としては間違ってませんよね?
常々、光害地と遠征地でのディープスカイの写りの差はもっと少なくできてもいいはずなのにと思うのですが、その根拠?となる仮説です。でも実感値としては全く間違ってるような気がしますね・・背景光の「揺らぎ」のレベルが違うのでしょうか。 

Sam
そもそも光の揺らぎも0ということはあり得ません。光子数のルートに比例する統計的な揺らぎが必ず存在します。なのでたとえ理想的なセンサーがあってもダメです。
信号が全て中央値だけのような統計的にばらつきのないものなら、背景光なども完全に引くことができるのですが、実際には(光子数、センサー読み取り値ともに)ノイズは必ずばらつきがあるので、完全に取り去ることはできません。背景光が明るければその分そこからくる(統計的に明るさのルートに比例した)ノイズも大きいです。なので、ゲインをあげて、背景光のノイズが効かない分解能が高いところでノイズを差っ引いた方が有利です。
HIROPONさんが画像処理が前提の場合はISOが高くても低くても差はほとんどないと発言されてるのですが、これも天リフさんと同じような仮定をしているからだと思います。画像処理が前提でも、ADCのレンジのどこに落とし込むかを考えないと、特に低ISOの場合は量子化ノイズに制限されることがあります。また画像処理にはノイズを差っ引くような処理が多いのですが、ノイズの平均値を差っ引くことはできますが、ノイズ(揺らぎ)そのものを差っ引くことはできないので、ゲインをあげてRead Noiseなどのゲインステージよりも前に入ってくる信号をあらかじめ増幅した方が得です。量子化ノイズ、リードノイズよりも天体の情報の方が十分大きく、量子化ノイズ、リードノイズが無視できる範囲で、かつADCのレンジ内に十分入るならば、画像処理を前提にすればHIROPONさんの言う通り、ISOに関係なく同じ結果になると思います。この場合は背景光の効きは同じになるので、ISOによって有利不利はありません。

2020/11/1 追記: Zoom会議中に黒・点リフさんはライトフレームをスタックした場合を想定していて、私はライトフレーム一枚を補正することを前提として考えていることが判明しました。ライトフレームを無限にスタックしていけば、信号である天体に比べて、無相関なランダムノイズは統計的に枚数のルートに比例して揺れが小さくなっていくので、原理的に消すことができます。でも現実的にはライトフレームの枚数を増やしていってもあるところで改善が見られれなくなると思います。どこかに時間的に相関があるノイズが支配的になったりしてしまうなどが理由と思います。


黒・天リフさん
短秒多数枚はリードノイズが枚数分だけ乗ってしまうのが弱点(のはず)。リードノイズの大きな冷却CCDではあり得なかった戦略。でもISOを上げればリードノイズの影響を減らせる?という気になっているのだが、そこが根拠レスなので知りたいところ。

Sam
ISOの効果がリードノイズが加算される以前で効いているなら正しいです。ただしデジタルゲインと呼ばれているような、ゲインがリードノイズ加算の後に適用されている場合は正しくないです。むしろダイナミックレンジを削るので不利になります。でもダイナミックレンジで不利というのも程度問題で、計算機上で無限の(例えば32ビットとか、64ビットの)レンジがあれば無視できる問題です。


2020/11/1 追記: Zoom会議中の質問など
  • 高いISOだと温度が上がったりしないか? -> 経験上あまりそういうことはない。
  • リードノイズが枚数を増やすことで消せない理由が知りたい。 -> たくさん重ねると確かに得するが、他のノイズに比べるとその効きが悪いのであまり得しない。詳しくはここの「読み出しノイズ」を参照。
  • PIはファイルを読み込んだ時にビット数拡張分を上に加えるだけなので、最初ものすごく暗く見える。その状態でスタックして加算「平均」して平均するところで割ってしまうと、狭いビットレンジのところに戻ってきてしまうので、階調が改善されないのではないか? -> 内部の計算が整数ならダメだが、不動小数点で計算しているなら大丈夫だろう。もしくはファイルに落とす時にビット数を選択できるくらいなので、計算機内部ではもっと情報量を保っているのではないか?ただし、ファイルに落とす時に、暗いままで、整数で、低ビットで保存すると情報が失われるので注意。
  • ヒストグラムは対数かリニアでみてるか?Steller Imageで縦軸を対数で見ると、何も信号がないと思っているところでも小さな信号が残っていることがわかる。また、横軸をリニアで見るとかなり暗く見えてしまっている場合があるがそれでも大丈夫なのか?-> 上と同じ理由で計算機内部で情報を保っていれば大丈夫なのでは?でも同様に、ファイルに落とすときは注意。
  • ISO側でなにか画像処理をしているのではないか? -> 少なくとも拡張感度というのはデジタルゲインで、さらに何か処理をしている可能性が高い。それだけでなく、常用感度でもなにか画像処理している可能性は否定できない。さらにRAWと言われているものでも、色々処理している可能性がある。例えば、オフセット、カットオフなどは触っている模様。でもカメラメーカーの裁量で決めていることで、情報としては出てこない。
  • さらに、CMOSカメラも色々複雑。例えばASI294なんかは、ゲイン120のところからリードノイズがガクンと良くなる。これはノイズの違うアンプを2つ使っているから。それぞれのアンプはアナログの可変ゲインアンプで、外部入力で単体でゲインが変わるアンプが各画素に入っている。なので、大きなゲインでリードノイズが改善される。でもASI294はゲイン391以上でデータが1ビット間引かれ、以後ゲイン60(2倍)ごとに1ビットずつ抜かれていく。センサーメーカーのデータがそもそもゲイン390以上ないので、ゲイン390より上はカメラメーカーの後付けでデジタルゲインではないだろうか?
  • 本来のハードウェアビニングは、リードノイズが効いてくる読み出し前に加算してしまうもの。昨今のCMOSセンサーのように、隣接ピクセルのリードノイズが加わった読み出した後の演算ではありません(それだとソフトウェアビニングになります。なんちゃってハードウェアビニングなどともよばれてます)。CCDとは異なり、CMOSの場合は原理的に読み出し前の加算が不可能らしい。それでリードノイズに違いが生じて、真のハードウェアビニングはリードノイズが4分の1になるのに、なんちゃっての方はそのルートで2分の1にしかならない。
  • ASI294MCとASI294MMはセンサーの型番がIMX294とIMX492と違いがあれ、ほぼ同様のものと推測。そもそも294の方もクワッドベイヤー配列で、ユーザーが見る1つの素子が実は4つの素子からなっている。そのために本来12bitのダイナミックレンジが、14ビットに拡張されているのでは?
  • サッポロポテト現象がASI294MCだと全く出ない。普通はほぼ全てのセンサーで出るので、これは驚異的。クワッドベイヤー配列の恩恵か。不思議なのはMMでも出ない。カラーベイヤーでフィルタリングしているのがサッポロポテト現象が出ない理由の一つのはずなので、MMで出ないのは不思議。理由は不明。

回路との比較

これらのことは回路のことを少し知っていると理解しやすいかもしれません。

光害地で背景光が大きい状態は、回路でDCオフセットが大きすぎて信号が見えにくい状況に似ています。例えばオシロで10Vレンジで1mVの振幅の揺れは見えないようなものです。

高いISOで淡い星雲を見やすくすることは、回路でサチらない範囲で適度にゲインを上げてSN比を上げることに相当します。

実際の回路でノイズのことを学ぶのは、役に立つと思います。例えば「計測のためのアナログ回路設計―OPアンプの実践回路から微小信号の扱いまで」の最初の方はものすごくわかりやすくノイズについて書いてくれています。実際にこれをみながら低雑音オペアンプを作ってみると、ノイズについてよくわかるかもしれません。

これらの電気信号を計算機に取り込む必要があり、こちらはまた別の話になります。量子化ノイズについては、ADCについてもよく理解しておく必要があります。

センサーの個々のピクセルに関しては回路の話になるのですが、多数のピクセルが集まったセンサー全体の話になると、また特有の事情が出てきます。conversiion factorなんかはたくさんのピクセルの統計的な振る舞いから求める典型で、初めて学んだ時は眼から鱗でした。

画像処理まで考えるとさらに複雑ですね。天体画像処理には、ターゲット天体の情報を持つヒストグラムの極範囲の狭い領域を、可視全域まで広げるという特殊な事情があります。逆に言えば、この領域を生かすような撮影方法を考えるべきで、あとはむしろ外に追いやってしまうような手法がセンサーに近い側で確立されると、もっと得すると思います。でも今の市場規模だと大変なのと、やはりRAW出力を求めるので、なかなかとっぴなことは難しいと思います。


まとめ

すみません、黒・天リフさんの疑問が散らばっていたので勝手にまとめてしまいました。まずかったら消しますので言ってください。

とりあえずバババッと短時間で答えてみましたが、どこまで合っていることか。色々疑問もあると思いますので、コメントとかTwitter上でもまた議論してもらえればと思います。

ノイズに関しては昔色々書いています。





でもよく考えたらADCの量子化ノイズについて言及したのは今回が初めてかもしれません。

こういった話も天体写真の別の面白い一面だと思います。これからも続けて議論していければと思います。


ノイズネタを肴にしたZoom飲み会開催のお知らせ

追記です。10月31日午後21時から、ノイズをネタにZoom飲み会を開催しようと思います。

Zoomに始めて参加される方はアプリが自動でインストールされるはずです。Windows、Mac、Linux、アンドロイド、タブレット、iPhone、iPadなど各種対応しています。発現する場合はマイクが必要です。顔出しOKの方はビデオカメラもあるといいかと。

たくさんの質問をTwitterに投稿していただいた黒・天リフさんも参加されるとのことです。他にも大物ゲストが来るかもしれません。

めんどくさい込み入った話になるかもしれないので、聞いているだけでも構いません。たくさんの方のご参加お待ちしています。



This page is a supplemental document for the picture of Leo triplet here (sorry, it is written Japanese);




When I retouched the image of Triplet, I noticed something for a new strange noise using DeNoise.

That noise does not show up for the normal picture but it shows up when extreme expansion for dark area like dim nebula on astronomical pictures.

This is an example that the background was extended when DeNoise AI was NOT used.

light_BINNING_1_integration_DBE_ST_PCC_no_DeNoise

Then, this is the second example that the backgroung was extended WITH DeNoise AI.

light_BINNING_1_integration_DBE_ST_PCC_with_DeNoise

Difference is obvious. With DeNoise AI, some strange lattice type noise appeared. It was guessed that some neural calculations were applied at limited area, and the process was repeated next by next.

This kind of noise is very critical for out astronomical photographers. For example, similar AI application which devide stars and nebula using AI, called StarNet++;

https://sourceforge.net/projects/starnet/

does not add any such a strange noise. Probably it calculate all the area at a time. This program was developed by one of the astronomical photographer, so probably he/she was thinking to avoid such area depended noise from the beginning. 


This is a request to Topaz labs:

Probably we, astro photographers are struggling most with such a dark and noisy pictures since out targets are always very dim things. The important thing is that we already know that DeNoise is a very very useful tool to suppress many kinds of noises in astro photographs. Please consider the importance seriously for NOT adding such latice noise. It might be  just a dim background noise for almost of photographers, but it is really big issue for all astro photographers.


2020/4/24 追記: Topaz側と何度かやりとりをしたのですが、原因はGPUにあるそうです。DeNoiseのメニューのPrefefenceから「Advanced Preference」ボタンを押して、GPUのところをオフにするとこのノイズが消えるユーザーもいるとのことです。残念ながら私のところはこのGPUのスイッチ、またすぐ下にあるOpenVINOのスイッチも、手持ちのMac、boot camp、別のMac、別のWindows PCなど全て試しましたが、どれもこの格子状のノイズを消す事はできませんでした。一方、Sharpenの方は、それでもごくわずか同様のノイズを加えるようですが、確認するのも難しいくらい軽度のもので、画像処理に影響を与える範囲ではありませんでした。結局解決には至りませんでしたが、引き続きこの問題は認識していくとのことです。

その際のTopazからのメッセージを最後の結論の一部ですが残しておきます。

After sending files and setting informations,
.
.
.
From Topaz labs.
Go back to that window and change enable discrete GPU to NO. This may affect the speed of your processing but for many users it will resolve this issue.

The grids you are seeing is a result of the graphics card on your computer reassembling the image. We know "how" this happens, but we don't yet know "why" it happens for some users and not others for particular devices.

As a result, I don't have an immediate resolution, but I have forwarded your information on to our development team for further research and review.

Thanks!

To Topaz labs.
I tested on/off for GPU and on/off for Intel OpneVINO, on Mac, Bootcamp on Mac, on another Mac, on another Windows I have. Results were all the same the grid noise were NOT gone.

On the other hand, Sharpen AI did not add so terrible grid. It is not no grid but the grid noise by Sharpen is very dim and almost ignorable.

I can avoid this issue if I apply the DeNoise at very end of process, I mean after enough stretched.
However sometimes I wand to use the DeNoise in the middle of process, before the stretching.

Still I hope this issue will be fixed in the future for all users.
I will continue to find a good PC which does not add the grid noise.

Thanks. 




縞ノイズ考察(その2): flat補正を他の環境でも試してみる」の続きです。




flatの何が悪いのか?

flat補正がどうも縞ノイズに対して悪さをしているのは、かなり一般的だというのが前回の結論です。flat frameが縞ノイズを作り出すメカニズムとしては、
  1. 出来上がったmaster flatに固定ノイズが存在する。
  2. 固定ノイズが存在するmaster flatで個々のlight frameをflat補正すると、その固定ノイズが個々のlight frameに乗っかる。
  3. ガイド時のずれで流れていく星像を、StarAlignmentで位置合して星が固定になると、今度はこれまで固定だったmaster flatのノイズが流れ出す。
ということです。

ここでの疑問は「なぜflat frameがそんなにノイジーなのか?」これにつきます。この疑問にたどり着いた時に、いくつか原因の答えの候補がありました。ぱっと思いついたのが
  • まずflat frameの枚数が少ない。
  • flat dark補正をしていなかった。
  • カラーバランスが悪かった。
くらいです。その後いろいろ考えていると、何となく答えがわかってきました。答えにたどり着いてから改めて見てみると、上の候補には答えと少し関連することもありますが、ズバリの回答はありませんでした。


推論の検証

では、今回推論したことが正しいかどうかを確認するために、以下の3つのことをこの順序で確認をしてみました。この時点ではまだ考えだけがあって、その考え方が正しいかどうかを検証する方法にたどりついた所で、実際に画像処理をしてみて予測が正しいかどうかを検証してみたということです。
  1. 短時間露光(100ミリ秒)でいいので、多数枚(100枚)のflar frameを新たに撮ってflat補正。
  2. 短時間露光(100ミリ秒)でいいので、前回と少数枚(7枚)のflar frameをを使ってflat補正。
  3. 前回の露光時間と同じ長時間の300秒露光で、そこそこ多数枚(50枚)のflar frameを新たに撮ってflat補正。
この条件を見ると、もう相当ヒントが出ているのですが、何でflatが縞ノイズを盛大に出すくらいノイジーだったのかわかりますでしょうか?少し発想を変えなければ答えにはたどり着かないかもしれません。

それでは結果を順に見ていきます。


1. 短時間露光、多数枚

ケース1、今一度EVOSTAR 72EDにレデューサを取り付け、その先にASI294MC Proを取り付けて、改めてflat frameを撮影します。ただし、短時間露光撮影なので、iPadの「Color Screen」といういつものソフトを使って、画面をRGBそれぞれ128にして鏡筒の前に置きます。ゲインは220と同じですが、露光時間を短く100ミリ秒にして100枚撮影します。カメラと鏡筒の回転角がきちんと再現できないのですが、縞ノイズの影響を見るだけなのでまあいいでしょう。多分ダークノイズも関係ないので、温度も常温でいいでしょう。

出来上がったflat frameを使って、PIのバッチ処理でこれまでと同様に処理ましす。結果は

light-BINNING_1

light-BINNING_1_cut

となり、今回初めてflat補正をしても見事に縞ノイズがほぼ消えています。ということは、やはりflat frameの枚数が多いことで、ノイズが平均化されたことが効いているのでしょうか?

結論を焦らずに、もう少し見てみましょう。


2. 短時間露光、少数枚

ケース2、次は、先ほど撮った100枚のflat frameのうち、もともと持っていたflat frameと同じ枚数の7枚だけ使います。同様の処理をした結果が以下になります。

light-BINNING_1

light-BINNING_1_cut

拡大した画像をよく見ると、先のケース1に比べると多少縞ノイズが目立ちます。なるほど、やはり枚数が問題なのですかね。

いやいや、まだ焦って結論を出してはいけません。


3. 長時間露光、多数枚

では最後、星雲撮影時と同じ露光時間の300秒で試します。その他、ゲインとかもできる限り当時の状況を再現します。違うところは枚数。枚数は当時の7枚からかなり増やして50枚とします。4時間以上分のflat frameになります。
  • 枚数だけで比べたらケース1よりノイジーで、ケース2より滑らかになるはずです。
  • 露光時間だけで考えたら、相当長いのでケース1,2よりも一番きれいになってもいいはずです。
でも私の予測は違っていて、
  • ケース3が一番ノイジー。枚数の少ないケース2よりもノイジーだと予測しました。

では結果はというと

light-BINNING_1

light-BINNING_1_cut

Eureka!!!
何と、やはりケース1よりはもちろん、遥かに枚数の少ないケース2よりもどう見てもノイジーです。露光時間の長いflat frameが一番ノイズが大きいのです!!


露光時間の長いflatが悪さをする理由

なんで?と思う方も多いでしょう。
少し落ち着きましょう。

ここから解説です。まだ答えを見たくないという人は、ここでじっくり考えてみてください。
準備ができたら、下へスクロールしてください。
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.

みなさんの中には露光時間を伸ばせばノイズが下がると思い込んでいる人もいるかと思います。でもこれは間違いで、きちんと考えると
  1. 露光時間を伸ばすと信号Sが時間に比例して1次で大きくなる。
  2. ノイズNは時間のルートに比例して大きくなる
  3. その比をとると、時間のルートに比例してS/N(SN比)がよくなる(大きくなる)。
というのが正しい解釈です。で、今回の問題はというと、

スカイフラット撮影時に露光時間を300秒と長くしたのですが、適した明るさのflat frameにするために、露光時間を短い時と同じ明るさに合わせてしまって、信号Sを実質的に何も増やしていないところです。Nはそのまま露光時間のルートで大きくなっていきます。そうするとS/Nは当然露光時間が短い時より悪くなります。この信号が増えていないところが本質的にダメなところです。

逆にいうと、露光時間が短いflat frameの撮影においても、明るさを合わせるために信号は長時間露光の時と同じ。でも撮影時間が短いのでノイズ量はざっくり1/sqrt(300/0.1) = 0.018とわずか2%ほどになります。1枚あたりでこれだけ違うわけです。長時間露のflatを50枚使っても、短時間露光のflat7枚に太刀打ちできるわけがありません。

というわけで、長時間露光flatはSN比でいったら全然得をしていない、いわばノイジーなflat frameになるわけです。やっと答えにたどり着けました。


どうやって考えたか

今一度振り返りますが、今回の考え方はかなり原理に近くて、特に奇異なところもなく、実際に撮影しての比較でも何の矛盾もないので、flatからの縞ノイズに関してはおそらくこれで決着がついたものと思われます。でもなんでこの考えにたどり着いたか?この過程が一番大事だと思うので、自分自身へのメモも兼ねて書いておきます。

まず、今回のflat補正が問題なるということが分かったくらいから、なんでなのかずっと考えている最中に、
  • 縞ノイズに悩まされるのは決まってディザーなし
  • トータル1時間越えとかの長時間露光したとき
だということに気づきました。しかもそんな時は余裕があるので、
  • あえて頑張ってスカイフラットをとったり
しています。この時点で、ある程度スカイフラットが悪いと予測できるようになりました。ディザーをしているケースとしていないケースがあったことがややこしくしていましたが、ディザーをしていなくてスカイフラットの場合は漏れなく縞ノイズが出ていました。

でもなぜスカイフラットが悪いのか?ここを考えるのには結構時間がかかりました。結局、
  • 短時間フラットと長時間フラットで何が違うのか
  • 特にまずはノイズに関してどうなるかを原理からきちんと検証し始めた
のがきっかけでした。すなわり、
  • ノイズに関しては長時間露光の方が当然大きくなる
という、極めて原理的な話です。これはすぐに納得できました。この次に、
  • じゃあ信号は?
と考えた時に、ピンときたわけです。
  • え、長時間露光の場合、信号って得してないのでは?
  • 短時間露光は大きな(明るい)信号を使って時間が短い。
  • その一方長時間露光ではあえて小さい(暗い)信号を長い時間です。
  • 信号の大きさと時間をかけると、どちらも同じ量じゃん!
というところまでたどり着いたのは、ピンときてからわずか30秒くらいです。シャワーを浴びたあと、洗面所で体を拭いている時でした。いつもそうなんですが、シャワーを浴びている時はポーッとしてて、他のことを何も考えずに、そのことだけに集中できる至福の時間。面白いアイデアは、大体シャワー時間近辺で出てきます。

やはりきちんと基本に従って考えるのが一番答えに近かったという、いい例だと思います。ヒントはいろんなところにありましたが、こうやって考えて答えにたどり着く過程はやはり楽しいものです。


まとめ

今回の件、私的には結構な発見でしたが、どうでしょうか?意外な答えでしたか?それとも「当たり前すぎでつまらん」という方もいましたでしょうか?

flat flameからくる縞ノイズの考察については、とりあえずここまで。思ったより早く解決しました。3回の記事でいろいろ検証しましたが、flatに関してはある程度満足した回答を得ることができました。長時間露光flatがノイジーな理由、短時間露光でノイズの小さいflat frameを作る意義も示すことができたのは大きいと思います。これでディザーをしない場合でも、対処する方向性をある程度示すことができたかと思います。

それでも縞ノイズという観点で考えると、まだflatからくるもののみの検証です。他の原因で縞ノイズが出ることもまだまだ考えられます。でも今回考えたことをベースに、ある程度原因を予測することもできそうです。ここら辺はまた折を見て書いていこうと思います。

過去の縞ノイズでも試してみる

もしかしたら、flat補正の効果が今回の撮影だけの特別な場合だった可能性もあります。なので、過去の画像で縞ノイズが出たファイルを再処理してみます。使ったのは、2年以上前のPixInsightを最初に使い始めた頃に撮影したM33。

シンプルにするためにフラットの有無だけで比較します。撮影条件は
  • 鏡筒: タカハシFS-60Q、焦点距離600mm
  • 赤道儀: Celestron Advaned VX
  • カメラ:  ZWO ASI294MC
  • ガイド: ASI178MCと50mmのCマウントレンズをPHD2にて
  • 撮影条件: SharpCapでゲイン270、温度-15℃、露光時間300秒x25枚 = 2時間5分
  • ディザー: なし 
  • ファイル保存形式: RAW16bit、fits形式
です。本質的なところではカメラは常温ですが同じ、長時間、ディザーなしというのでよく似た条件です。Flat frameの内容はというと、記録から
  • flat frame: light frame撮影後すぐに、鏡筒に状態でスーパーの白い袋を2重に被せて撮影。ゲイン270、露光時間300秒、常温で、3枚撮影。
となっているので、これも撮影後すぐにとったとか、枚数が少ないとかの条件も同じです。この似た条件というのが鍵になる可能性がありますが、まずは時期的にも違うという点で検証して一般性を見ます。

まずはflat補正あり。やはり以前と同じように縞ノイズは盛大に出るので再現性もあります。

light-BINNING_1

次にflat補正なし。ゴミの跡とかは目をつぶってください。当然周辺減光も出ますし、アンプグローも残ります。その代わりに、バラ星雲の時と同じで縞ノイズは消えます。厳密に言うとバラ星雲の時も今回のM33の時も同じで少しの縞ノイズは残っています。でもflat補正のあるなしで、いずれも劇的な違いがあることはわかります。

light-BINNING_1

この時点で、PIに限られますが違う画像でも起きているので、一般的にも十分あり得る話だということがわかります。


PixInsight以外では?ステライメージで確かめてみる

もしかしたらこれ、PIのflat補正のアルゴリズムに問題があって、PIだけの問題という可能性があります。他のソフトの代表で、ステライメージ8で確かめてみました。

そう言えば最近Windowsを入れ直してステライメージまだ入れてませんでした。久しぶりに再インストールして、M33を使ってflat補正をしてみました。自動処理モードは使わずに、詳細編集モード(マニュアルモード)で試しました。自動処理モードはこれまでもほとんど使ったことがないのと、一応は試したのですがうまく色が出なかったからです。

最初の結果がこれです。

light

「お、縞ノイズないじゃん!なんで?PIだけの問題か?」と思ったのですが、よくみるとゴミの跡も残っていてフラット補正全くされていないみたいです。自動処理モードでやっても結果は変わらず、flatファイルが悪いのかとか色々疑ったのですが、原因はステライメージのバグ。バージョン8をディスクからインストールしたてで、アップデートしていなかったことが原因でした。現行のバージョン8.0hにして試してみると、

light

ちゃんとflat補正もされて、縞ノイズも盛大に出るようになりました。なので、PIだけの問題でないということが分かります。

ちょっと蛇足です。久しぶりにステライメージ触ったのですが、随分といろんなことを忘れていました。今回サボりましたがflat darkとかも本当は撮らないとダメ(flat darkあるなしで縞ノイズに影響がないことは確かめています)なんですよね。その代わりにbiasファイルを撮らなくていいとか、今思うとPIとはだいぶん違います。

初心者向けの自動処理モードも「ほとんど何も設定出来ない」との批判も多いですが、私はこれでいいと思います。多分ステライメージは、初心者にとっては天体画像処理ソフトとしては唯一の選択肢です。日本語で操作できて、マニュアルも(十分ではないかもしれませんが)日本語で読むことができてという意味で、敷居がずいぶん低いはずです。初めて天体写真に挑む人は、一番最初は本当に何も分からず手探りでやるので、自動モードもこれくらい簡潔にしておくのはある意味正しいと思います。自動モードで理解できてきたら、詳細モードに行って、詳細モードでいろんな操作をして理解して、その上で不満が出たらより高機能なPixInsightという手もあるかと思います。

ステライメージで一つ不満があるとしたら、「ベイヤー・RGB変換」のところでしょうか。バッチ処理が無いので、一枚一枚手で変換しなくてはダメなんですよね。ALTキーでI、ALTキーでYで、Enterで処理、マウスで最小化ボタンを押して次の画像というのを繰り返し、出来るだけ楽に進めてます。今回20枚程度でしたが、100枚とかはやりたくないです。最近はPIで1000枚とかの処理もする時があるので、これだとステライメージでは現実無理です。せめてコンポジットやホット/クールピクセル除去機能みたいにバッチ処理ができるようになるといいのですが。


ついでにDSSでも

あと日本で流行っているスタックソフトの残りは、惑星用除いたらあとは、DSS(DeepSkyStacker)とRAP2くらいでしょうかRAP2は有料で持っていないので試せませんが、DSSはフリーなので試すことはできます。DSSは星を始めた4年前にまだ有料ソフトに手を出す前に、フリーだからと少し試しただけくらいの経験しかありません。もう久しく触っていませんが、いい機会なので試してみます。

昔はものすごく複雑だった印象があるのですが、機能自身は今思うとまあ一直線で素直ですね。少なくともPIに比べるとはるかにシンプルです。特に困ったところは2箇所だけで、一つはRegisteringのところで進まなくなってしまったところ。これは検出する星の数が多すぎたことが原因で、「Register Setting」の「Advanced」タブの「Star Detection Threshold」を増やして、検出する星の数を減らすことで解決しました。もう一つは一度最後まで処理をしたのですが、モノクロのままだったので、メニューの「RAW/FITS Settings」の「FITS Filters」できちんとdebayerしてやることでした。

さて結果です。フラットもうまく補正されたようです。

light

あー、ダメですね。やはり縞ノイズ出ますね。

と言うわけでflat補正問題、PixInsightだけの問題でもなく少なくともステライメージとDSSも含めて、同様に縞ノイズを発生させることがわかりました。日本で使われている3大スタックソフト(惑星用除く)で同じ状況というので、flat補正が縞ノイズに与える影響はかなり一般的と言っていいかと思います。


とりあえず、今回の記事のまとめ

他のデータでも、他のソフトでも同様の傾向で、flat補正の影響はあると言えそうです。

ただしやはり気になるところは、flatの撮り方が2例とも撮影後すぐに同露光時間、同ゲインで、スーパーの袋をかぶせて空で撮っていることです。露光時間が長いので、明るさ的に足りないことはないと思います。ただし、カラーバランスはかなり黄色っぽくなってしまっています。また、枚数が足りない可能性もあります。

次回以降はここら辺のflat frame自身についてもう少し検討できたらと思っています。実は今回の謎の答えもう出ています。今検証を進めているところです。乞うご期待です。



多分このシリーズ、長くなります。普段の記事を全然長いと思っていない私が長くなると思っているので、多分本当に長くなります。試したいことがありすぎるので、書けるとこまで書きます。途中で力尽きたらごめんなさい。

今回縞ノイズの一つを、多分特定しました。最初に断っておきますが、限られた条件でのことかもしれません。この記事を読んで試してみても、全然効果がなかったと言う方もいるかもしれません。ですが幾らかの悩んでいる方の解決にはなると思います。私自身、他の方の環境でどうなるか興味があるというのもあります。

comp

この比較写真のように違います。左がこれまでの縞ノイズ、右が無くなった(実際には軽減された)場合です。以下、詳しく説明します。


バラ星雲で出た縞ノイズ

この間のEVOSTAR 72EDでのバラ星雲の撮影で、ディザーをしなかったために縞ノイズが出たという報告をしました。

integration_DBE_PCC_AS_cut


その後、上記の縞ノイズを可視化した記事を書きました。この動画は結構反響が大きかったので、ご覧になった方も多いかと思います。






なぜか突然縞ノイズが消えた!?

この後、もう少し縞ノイズの検証をしてみようとファイルをいじってみました。とりあえずシンプルなところからと思って、rawのlight frameをDebayerしてStarAlignmentだけして縞ノイズを再現しようとしたのです。ところがところが、縞ノイズが綺麗さっぱりなくなっています。

integration

拡大です。
integration_cut

え?
なんで?
全然縞ノイズ出てないじゃん!
せっかく縞ノイズの解析しようと思ってたのに!

さあ、ここからが戦いの始まりです。


PixInsight用語

今回、PixInsight (PI)用語がたくさん出てきます。PIに慣れていない方のために、簡単に解説しておきます。
  • PixInsight: 世界的に有名な天体画像処理ソフト。英語でものすごくとっつきにくいが、高機能。
  • BatchPrepocessing: 撮影したファイル(light, bias, dark, flatなどの各frame)を掘り込んでおけば、スタックまでボタン一発でやってくれる便利な機能。
  • master: bias, dark, flatなど、他数枚の補正ファイルを一度処理すると、スタックされた一枚のmasterというファイルをそれぞれ作ってくれる。以降はそれを使うと処理時間を削減できる。
  • ImageCalibration: BatchPrepocessingのような自動で処理する以外に、マニュアルでもっと細かくオプションを指定しながら処理する方法がある。これはbias, dark, flatなどの補正をマニュアルでする機能のこと。
  • Debayer: 同様にマニュアル処理の一つ。モノクロのBayer配列のRawファイルをカラー化すること。
  • StarAlignment: マニュアル処理の一つ。多数枚数の画像の星位置を合わせること。PIでは平行移動、回転にのみならず、画面を歪ませて星の位置をそれぞれ合わせることができる。
  • ImageInteglation: マニュアル処理の一つ。他数枚の画像をスタックすること。
  • ScreenTransferFunction: 簡易的にストレッチ(明るくすること)をする機能。見かけの表示のみをいじるので、ファイルには何の手も加えない。見かけを適用したい場合はHistgramTransfomationを使う。
  • Auto Stretch: ScreenTransferFunctionの一機能。あぶり出しのすんでいないまだ暗い画像などを、そこそこ見やすいように自動でストレッチする機能のこと。超便利。
  • DynamicBackgroundExtraction (DBE): 背景の被りや周辺減光などをソフト的に除去する機能。任意の補正点を指定できるので、星雲部分の補正を避けるなど細かい補正が可能。超便利。
  • AutomaticBackgroundExtraction (ABE): 背景の被りや周辺減光などをソフト的に除去する機能。細かい補正はできないが、大局的に補正してくれるので簡単で便利。
  • TVGDenoise: PI場で最強と言われているノイズ除去機能。

比較条件

今回検証するRAWファイルは全て同じです。他に共通撮影条件は
  • 鏡筒: SkyWatcher EVOSTAR 72ED + x0.72レデューザー、焦点距離300mm
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • ガイド: ASI178MCと50mmのCマウントレンズをPHD2にて
  • 撮影条件: SharpCapでゲイン220、温度-15℃、露光時間300秒x20枚 = 1時間40分
  • ディザー: なし 
  • ファイル保存形式: RAW16bit、fits形式
  • フィルター: サイトロン QBP(アメリカンサイズ)
となります。

今回の検討を始める前までに、縞ノイズが出た時の処理と、出なかった時の処理の違いを書いておきます。処理は全てPI上でやっています。
  • 縞ノイズあり: BatchPreprocessingでbias補正、dark補正、flat補正を適用し、走らせた。
  • 縞ノイズなし: マニュアルでDebayer、StarAlignment、ImageInteglation。
この中に決定的な違いがあるはずです。以下、各補正ファイルの条件です。全てSharpCap上で撮影していて、最初の処理でmaster fileができるので、以降はそれを利用。
  • bias frame: ゲイン220、露光時間が最小の0.032ミリ秒で、100枚撮影。
  • dark frame: frat frame撮影後、片付けの後すぐに、家の中で撮影。ゲイン220、露光時間300秒、-15℃で、28枚撮影。
  • flat frame: light frame撮影後すぐに、鏡筒に状態でスーパーの白い袋を2重に被せて撮影。ゲイン220、露光時間300秒、-15℃で、7枚撮影。

処理結果に大きな違いが出ていて、検証材料も全て揃っているので、何が違いに影響しているのか順に検証していきます。


検証過程

ここからはほぼ実際にやった手順です。
  1. まず、再度BatchPreprocessingとマニュアル処理で再現性を確認。->きちんとBatchPreprocessingのときには縞ノイズ出て、マニュアル処理では出ないです。再現性はきちんとあります。
  2. 次に、一番怪しくないと思ったflat frameのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「うーん、あんまり関係ないよな。」
  3. 次、一番怪しそうなbias framaのみを適用させBatchPreprocessingで処理 -> 縞ノイズ消えた!「そりゃbias必要でしょ。」
  4. 次、flatとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「あれ?flatあまり関係ないはずなのに。」-> ところが、ここでやっと思い違いに気づきます。今回、何も補正していない方が縞ノイズが出なくて、補正した方が縞ノイズが出たのでした。と言うことは、bias関係なしで、flatで縞ノイズ有無が決まっていることになります。え、本当?
  5. 確認で、darkとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「えー、ホントにdarkもbiasも関係ないよ!?」
  6. 念のため、darkのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「確かにdark関係なし。」
  7. さらに念のため、master flatを使うのではなく、改めて個々のflat frameを使ってBatchPreprocessing処理 -> 縞ノイズ出る。「やっぱりflatが原因だ!」
  8. さらに、BatchPreprocessingが何か悪さをしている可能性も考えて、マニュアルのImageCalibrationを使ってflat処理だけしてみます->縞ノイズあり。「少なくともPIで処理する限りflatが悪さをしているのは確定でよさそう」


Flat補正をしない場合、本当に改善されているのか

確かに上の画像で見た通り、flat補正をしないと縞ノイズは無くなって見えているのですが、本当でしょうか?それぞれSTFでオートストレッチをしているのですが、本当に正確な比較をしているのか疑問になってきました。オートストレッチは星雲を含む背景の最大の輝度と最小の輝度から適用範囲が決まります。例えば、flat補正をしていない周辺減光のある画像ではあぶり出しも中途半端で、周辺減光のない平坦に近い画像では極限まで炙り出すことをするので、細かい差(この場合縞ノイズも含めて)をより浮き出させてくれます。

ここでは公平に比較するために、それぞれの画像にAutomaticBackgroundExtraction (ABE)を適用し、周辺減光の影響をできるだけ少なくして比較してみます。flat補正をしたものでもまだ明暗のばらつきは無視できないほど存在していて、ABEを適用することで多少の変化があります。それぞれABEをしてから、STFでオートストレッチをしています。

まず、flat補正ありの画像。

light_BINNING_1_integration_ABE

light_BINNING_1_integration_ABE_cut
これまで通り、縞ノイズは盛大に見えています。

次にflat補正しない場合。
integration_ABE

integration_ABE_cut

結局、周辺減光がABEで補正できる範囲を超えてしまっているので全然補正できていません。そのためオートストレッチ後、少し補正して目で見て、拡大部分の明るさをそこそこ合わせています。多少公平性は欠けてしまいましたが、それでも不公平になる程の違いは無いくらいにはなっているでしょう。結果はというと、flat補正なしであからさまに縞ノイズは改善されていますが、よく見るとやはり完全に無くなりきってはいないです。「相当軽減する」くらいは言っていいでしょうか。

この比較から、flat補正は縞ノイズの影響を悪化させていることは確からしいですが、完全には撮りきれないことから、それだけが原因というわけでもなさそうです。

実際の画像処理では背景はもう少し暗くなるので、flat補正なしにして、この程度の縞ノイズになるのなら個人的には許容範囲でしょうか。


Flat frameについて

でもここでふと我に返ります。でも今回使ったflatってそんなに変なの?

確認してみる限りごくごく普通のflatだと思います。master flatをAuto Stretchしたものです。(blogに載せるためのファイルサイズ制限で、bayer配列を無理にjpegにしているので、偽色が出てしまってノイジーに見えてしまっています。)
flat-BINNING_1

拡大です。pngなので、偽色とかは出ていないはずです。(画像サイズが小さいのでpngでもファイルサイズが大きくなり過ぎず、blogでもアップロードできます。)
flat-BINNING_1_cut

見ている限り、極々ノーマルで、ノイズが特別多いようにも思えません。

でも、master flatをdebayerしてAuto Stretchしてみると少し正体が見えてきます。
flat_BINNING_1_integration_RGB_VNG

拡大です。
flat_BINNING_1_integration_RGB_VNG_cut

カラー化すると結構ノイジーなのがわかります。なんだかカラーノイズと言われているものに似ています。これが固定ノイズとなって、星像を止めたときには逆に、この固定ノイズが流れるのでしょう。

でも本当にこれくらいのことであんなに盛大に縞ノイズが出てくるまで画像を悪化させるのでしょうか?だって直接処理しているのはlight frameの1枚1枚で、それに対してflat frameは枚数少ないとは言え7枚です。それが流れて見えるので、スタックした20枚:7枚でなく、1枚:7枚の比で比較してもいいような気がします。ここは少し疑問が残ります。


flat frameのノイズを改善してみたら?

本当にflatが効いているのか確認するためにもう少し試します。master flatにPI上でTVGDenoiseでノイズを減らしたflat frameを適用して処理してみました。その結果がこれです。
integration

拡大です。
integration_cut

わかりますでしょうか?多分拡大していない方がわかりやすいと思いますが、細かい縞ノイズが消えて、大きな構造の縞ノイズが出てきています。

この結果から考えられることは、flat frame自身でのノイズ除去があまりうまくいっていなくて、細かいカラーノイズが大きな構造のノイズになってしまったからです。

少なくとも、これらの結果からflat frameが縞ノイズに影響を与えているのは間違いないでしょう。ただし、あくまでこれも限られた環境、限られた条件下での話の可能性もあります。ここら辺は次回以降に検討してきます。


とりあえずのまとめ

どうも聞いていると、縞ノイズに困っている人と困っていない人がいるみたいです。なので、一概に今回の結果が正しいとは言えないと思いますが、flat補正の影響は私と同じような状況の人には朗報となるかもしれません。でもflatが原因の全てだなんていうことを言う気は全くありません。あくまで原因の一つであるのではないかということです。

いろいろ検索してみましたが、flat補正が縞ノイズの原因だとバッチリ書いてあるところは見つかりませんでした。むしろこれまで思っていた通り、flat補正をきちんとすると縞ノイズが解決できるはずだと書いてある記述はたくさん見つかりました。普通だとこちらのセンスの方が正しといと思ってしまうのは、ある意味ごくごく普通でしょう。そもそもなんでflat補正が縞ノイズに対してダメなのか、まだよくわかっていません。これからいろいろ検証していきたいところです。

今回、縞ノイズに対する根本的な解決策を示したわけではありませんが、状況によってはflat補正を外して画像処理することで、縞ノイズを軽減できる可能性があることがわかります。その上で、PIのABEやDBE、FlatAidProなどを使ってカブリや周辺減光を減らすことで対応する必要もあるでしょうか。この場合、ゴミやアンプグローなどは除去できません。

もう一つ重要なことはは、きちんとディザーをして散らすことでしょうか。多分縞ノイズって複合原因なんです。1方向に流さないようにすること。これが重要なのは変わりません。ディザーはおそらく根本解決の方法の一つです。


この記事まだまだ続きそうです。今回はバラ星雲での撮影のみ取り上げましたが、次回は過去に出た縞ノイズの場合なども検討してみたいと思います。

 

このページのトップヘ