ほしぞloveログ

天体観測始めました。

タグ:画像処理

ここしばらくは別の記事でしたが、再び実画像のノイズ解析です。前回の記事はこちらになります。


ここまでで、画像1枚の中にある各ノイズの貢献度が定量的にわかるようになりました。


また天体部分の信号にあたる大きさも定量的に評価でき、S/Nが評価できるようになりました。


S/Nは1枚画像では評価しきれなかったので、スタック画像で評価しましたが、あくまで簡易的な評価にすぎません。簡易的という意味は、ダーク補正はフラット補正でノイズの貢献度がどうなるかをまだ評価できていないということです。

今回の記事では、ダーク補正やフラット補正で画像の中にあるノイズがどうなるかを評価し、他数枚をインテグレートしたときに信号やノイズがどうなるのかを議論してみたいと思います。


スタック(インテグレーション)

そもそも、天体写真の画像処理で言うスタック(PixInsightではインテグレーションですね)とはどういったことなのでしょうか?

基本的には以下のように、重ね合わせる枚数に応じて、信号SとノイズNで、それぞれ個別に考えることができます。
  1. 画像の天体などの「信号部分」Sに関しては、多数枚の画像同士で相関がある(コヒーレントである)ので、そのまま足し合わされるために、信号Sは枚数に比例して増えます。
  2. 画像の天体以外の「ノイズ部分」Nに関しては多数枚の画像同士で相関がない(インコヒーレントである、コヒーレンスが無い)ので、統計的には2乗和のルートで重なっていきます。例えば5枚のノイズNがあるなら、sqrt(N^2 + N^2 + N^2 + N^2 + N^2) = sqrt(5) x Nとなるので、√5倍となるわけです。
そのSとNの比(S/N、SN比、SNR (Signal to Noise ratio))を取ることで、スタックされた画像がどれくらいの質かを評価することができます。S/N等は技術用語ですが、ある特殊分野の技術単語というわけではなく、かなり一般的な単語と言っていいかと思います。

n枚の画像をスタックすると、1の信号Sのn倍と、2のノイズNの√n倍の比を取ると、
  • S/N = n/sqrt(n) = sqrt(n)
と√n倍改善されるということです。

よくある誤解で、スタックすることでノイズが小さくなるという記述を見かけることがあります。ですが上の議論からもわかるように、ノイズが小さくなっているわけではなく、実際には大きくなっています。ノイズの増加以上に信号が増えるのでS/Nがよくなるということです。また、スタックするという言葉の中には、足し合わせた輝度をスタックした枚数で割るという意味も含まれていることが多いです。S/Nが良くなった画像をスタックした枚数で割ることで1枚画像と同じ輝度にした結果、1枚画像と比較してノイズが小さい画像が得られたということです。

もちろん、こういったことをきちんと理解して「スタックすることでノイズが小さくなる」と略して言うことは全く構わないと思います。ただ、定性的にでもいいので、どういった過程でスタックが効いてくるのかは、理解していた方が得することが多いと思います。


ダーク補正

天体写真の画像処理でも一般的な「ダーク補正」。一番の目的はホットピクセルやアンプグローなど固定ノイズの除去です。ホットピクセルは、センサーがある温度の時に撮影すると、いつも決まった位置に飽和状態に近い輝度のピクセルが現れることです。ホットピクセルの数は温度とともに多くなると思われます。アンプグローはセンサーの回路の配置に依存するようです。これが温度とどう関係があるかはほとんど記述がなく、よくわかっていません。ホットピクセルやアンプグローなどは、どのような過程、どのような頻度で出るのかなど、カメラに依存するところも多くあり、私自身あまりよくわかっていないので、今回は詳しくは扱いません。いつか温度とホットピクセルの関係は実測してみたいと思います。

ダーク補正でダークノイズは「増える」:
これまたよくある誤解が、ダーク補正をするとダークノイズが小さくなると思われていることです。ここで言うダークノイズとは、ダークカレント(暗電流)がばらつくことが起因で出てくるノイズのことです。ダークカレントとは、センサーに蓋をするなどしていくら真っ暗にしても出てくる一定の電流からの信号のことで、センサーの温度によって単位時間あたりの大きさが決まります。この信号のバラツキがダークノイズとなります。最近はメーカのカメラのところにデータが掲載されているので、そこからダークカレントを読み取ることができ、これまでもその値からダークノイズを計算し、実測のダークノイズと比較して正しいかどうか検証してきました。

何が言いたいかというと、ダーク補正をするとホットピクセルは除去できるが、ダーク補正ではどうやってもダークフレームが持っているダークノイズ(ホットピクセルでないラインダムなノイズの方)は消すことができなくてむしろ必ず増えるということです。

さらにいうと、個々のダークファイルには当然読み出しノイズ(Read noise)も含まれているので、ダーク補正時に読み出しノイズも増やしてしまうことにも注意です。読み出しノイズの増加については、次回以降「バイアスノイズ」という記事で、独立して説明します。

コヒーレンス(相関)があるかないか:
ホットピクセルは、個々のダークファイルに全て(ほぼ)同じ位置、(ほぼ)同じ明るさで出てくる、輝度が飽和しかけているピクセルのことです。アンプグローもカメラが決まれば同じ位置が光ます。どのファイルにも同じように明るく出てくるので、ばらつき具合は(中間輝度を基準とすると)全て正の方向で、互いに正の相関があり ( =「相関がある」、「コヒーレンスがある」、「コヒーレント」などとも言う)、全て足し合わされます。

一方、ダークカレンと起因のダークノイズはランダムなノイズです。個々のダークファイルのある一つのピクセルに注目して、全てのファイルの同じ位置のピクセルの値を見てみると、全ファイルのそのピクセルの輝度の平均値を基準として、個々のファイルの輝度の値は正負がバラバラになります。このことを相関がない ( =「無相関」、「コヒーレンスがない」、「インコヒーレント」などとも言う)といい、それらの値を全て足し合わせると正負なのである程度打ち消しすことになります。

ノイズの数学的な定義:
個々のダークファイルの画像のある面積を考えてみましょう。その面積の中の輝度も、平均値を中心に正負がバラバラで、その大きさも「ばらつき」があります。この「ばらつき具合」がノイズそのものです。数学的には面積内の各ピクセルの値から平均値を引いて、2乗して足し合わせたものを統計用語として「分散」と呼び、そのルートを「標準偏差」と呼びます。この標準偏差をここではノイズと呼ぶことにしましょう。

ここで注意ですが、ある面積を選ぶ時にはホットピクセルやアンプグローを含めてはいけません。ホットピクセルやアンプグローは背景のダークに比べて格段に明るく、特にホットピクセルは飽和気味の場合も多いのでで、そもそもここで考えている統計に従いません。ホットピクセルやアンプグローなどの明るい固定ノイズを除いた領域でダークノイズを測定する必要があります。ちなみに、飽和気味のホットピクセルを含んで測定してしまうと、とんでもなくばらついているようなものなので、結果はノイズがとんでもなく大きく出てしまうということは、言うまでもありませんね。

ノイズの重ね合わせの直感的なイメージ:
あるダーク画像1枚のある面積のノイズがNだったとします。他のダーク画像も同様にノイズNがあるとします。このダーク画像を例えば2枚足し合わせると、個々のピクセルは正負バラバラなのである程度打ち消します。その打ち消し具合は統計的には無相関の場合は「2乗和のルート」で合わさることになります。この場合2枚なので、
  • sqrt(N^2+N^2) = √2 x N
とルート2倍になります。正負で打ち消すということで、2倍にはならずに、元から減ることもなく1倍以下にもならなくて、結局その中間くらいということは直感的にイメージできるかと思います。

負の相関について:
あと、負の相関も考えておきましょう。ある画像で特徴的な形で明るい部分があるとします。もう一枚の画像では同じ形ですが、1枚目の明るさを打ち消すようにちょうど逆の暗い輝度を持っているとします。2枚の画像を足し合わせると、正負で、しかも明るさの絶対値は同じなので、ちょうど打ち消すことができます。このようなことを互いに「負の相関がある」と言います。でも天体写真の画像処理の範疇ではあまりない現象なのかと思います。


ダーク補正の定量的な扱い:
実際の画像処理では、ダーク補正というのはライト画像からマスターダーク画像引くことです。マスターダークファイルとは、個々のダークファイルを複数枚重ねて、輝度を元と同じになるように枚数で割ったものですから、 個々のダークノイズをNとして、n枚重ねて、輝度を枚数nで割ったとすると、マスターダークファイルのダークノイズ
  • N_ masterはsqrt(n x N^2) / n = 1/√n x N
となり、元のノイズのルートn分の1になります。

各ライトフレームにも当然ダークノイズは含まれています。ダーク補正をする際に、各ライトフレームのダークノイズと、マスターダークファイルに含まれるダークノイズは、ここまでの議論から2乗和のルートで「増える」ことになります。

1枚のライトフレームのダーク補正:
個々のライトフレームがマスターダークファイルで補正されると、補正後のダークノイズは
  • sqrt(N^2+N_ master^2) = sqrt(N^2+(1/√n x N)^2) = N x sqrt(1+1/n)
となり、sqrt(1+1/n) 倍にごく僅か増えます。

ダーク補正されたライトフレームのスタック:
これらのダーク補正されたライトフレームをスタックします。スタックの際、ライトフレームに元々あったダークノイズは個々の補正されたライトフレームでランダムに(無相関に)存在するので2乗和のルートで合わさり、輝度を揃えるために最後にライトフレームの枚数で割るとします。

マスターダークファイルで足された(ルートn分の1の小さい)ダークノイズは、スタックされる際に「(同じマスターダークファイルを使い続けるために)正の相関を持っている」ことに注意です。

2枚のスタック:
  • sqrt([sqrt(N^2+N^2)]^2 + [N/sqrt(n)+N/sqrt(n)]^2) = N sqrt(sqrt(2)^2 + [(2/sqrt(n)]^2) = N sqrt(2 + (2^2)/n) 
大外のsqrtの中の、1項目が無相関で2乗和のルートで足し合わさるノイズ。2項目が正の相関を持ってそのまま足し合わさるノイズ。それぞれがさらに2乗和となり大外のsqrtでルートになるというわけです。

3枚のスタック:
  • sqrt([sqrt(N^2+N^2+N^2)]^2 + [N/sqrt(n)+N/sqrt(n)+N/sqrt(n)]^2) = N sqrt([sqrt(3)^2 + (3/sqrt(n)]^2) = N sqrt(3 + (3^2)/n)

ライトフレームの枚数をnl枚として、
nl枚をスタックすると:
  • N sqrt([sqrt(nl)^2 + (3/sqrt(nl)]^2) = N sqrt(nl + (nl ^2)/n)

スタックされたライトフレームの輝度を、1枚の時の輝度と合わせるためにnlで割ると、上の式は少し簡単になって:
  • N sqrt(nl + (nl ^2)/n) /nl = N sqrt(1/nl + 1/n)
と ライトフレームの枚数nl分の1とダークフレームの枚数n分の1の和のルートで書ける、直感的にもわかりやすい形となります。

簡単のため、個々のライトフレームの枚数と、個々のダークフレームの枚数は同じnとしてみましょう。
n枚のスタックは:
  • N sqrt([sqrt(n)^2 + (n/sqrt(n)]^2) = N sqrt(n + (n^2)/n) = N sqrt(n + n) = N sqrt(2n)

となり、結局は「1枚当たりのライトフレームのダークノイズNがn枚」と「1枚当たりのダークフレームのダークノイズNがn枚」合わさったものと同じで、√2n倍のノイズとなります。

マスターダークを考えずに、ダーク補正をまとめて考える:
これは直接「n枚のライトフレーム」と「n枚のダークフレーム」のダークノイズを全て足し合わせたものを考えることと同等で、実際に計算してみると
  • sqrt(n x N^2 + n x N^2) =  N sqrt(2n)
と、1枚1枚処理した場合と同じなります。数学的には
  1. 事前にマスターダークを作ってから個々のライトフレームに適用しても、
  2. 全てのダークノイズをライトフレーム分とダークフレーム分を一度に足しても
同じ結果になるということです。これは直感的にわかりやすい結果ですね。

重要なことは、たとえ頑張ってライトフレームと同じ枚数のダークフレームを撮影して補正しても、補正しない場合に比べてノイズは1.4倍くらい増えてしまっているということです。もっと言うと、補正しない半分の数のライトフレームで処理したものと同等のダークノイズになってしまういうことです。ホットピクセルを減らすためだけに、かなりの犠牲を伴っていますね。

枚数が違うダークフレームでの補正:
例えばある枚数のライトフレームを枚数が違うダークフレームで補正する場合を具体的に考えてみます。

例えば10枚のライトフレームと、同じ露光時間とゲインのダークフレームが10倍の100枚あるとするとします。ダークノイズ起因のS/Nはライトフレームは1/√10=0.316となり、ダークフレームでは1/√100 =1/10となります。ダーク補正したライトフレームは
  • sqrt(1/10+1/100)=sqrt(11/100)=√10/10=0.332
となり、ダーク補正する前の0.316よりほんの少し悪くなる程度に抑えることができます。同様の計算で、2倍のダークフレームだと約4分の1のノイズ増加、3倍のダークフレームがあれば約10分の1のノイズ増加に抑えられます。

では闇雲にダークフレームの数を増やせばいいかというと、それだけでは意味がなくて、他のノイズとの兼ね合いになります。画面のノイズがダークノイズで制限されていいればどの通りなのですが、例えば明るい空で撮影した場合にはノイズ全体がスカイノイズに支配されていることも多く、こんな場合にはダークフレームの枚数は少なくても、それによるノイズの増加は無視できるということです。


フラット補正

フラットフレームは一般的にライトフレームと同じゲインですが、露光時間は異なることが普通です。そのためフラット補正を真面目に計算すると、ダーク補正よりもさらに複雑になります。

ただし、ライトフレームの輝度はライトフレームの背景よりもはるかに明るいことが条件として挙げられるので、補正の際にフラットフレームの輝度を、ライトフレームの背景の輝度に合わせるように規格化する(割る)ので、ノイズに関してもその分割られて効きが小さくなると考えられます。

その比はざっくりフラットフレームの露光時間とライトフレームの露光時間の比くらいになると考えていいでしょう。最近の私の撮影ではライトフレームが300秒露光、フラットフレームが最も長くても10秒露光程度で、通常は1秒以下です。ノイズ比が30分の1以下の場合、2乗和のルートとなると1000分の1以下となるので、実際にはほとんど効いてきません。さらにフラットファイルも多数枚をスタックするので、スタックされたライトフレームと比べても、効きは十分小さく、無視できると考えてしまっていいでしょう。

ただし、暗い中でフラットフレームを作る場合はその限りではなく、ノイジーなフラットフレームで補正をすることと同義になるので、注意が必要です。ここでは、フラットフレームは十分明るい状態で撮影し、フラット補正で加わるノイズは無視できるとします。


まとめ

スタックとダーク補正でノイズがどうなるか計算してみました。理屈に特に目新しいところはないですが、式で確かめておくと後から楽になるはずです。

今回は計算だけの記事で、しかもスタックを1枚づつ追って計算しているので、無駄に長く見えるような記事になってしまいました。でもこの計算が次のバイアス補正のところで効いてきます。ちょっと前にX上で黒天リフさんがバイスについて疑問を呈していましたが、そこらへんに答えることができればと思っています。










CP+のセミナー、いかがでしたでしょうか?細かい操作も多かったので、その場では少し見にくいところなどもあったかもしれません。すでに動画配信が用意されているので、わかりにくかったところは繰り返しチェックしてみてください。

 

今回の記事は、動画配信を元に、わかりにくかったところの補足をしようと思います。


処理画像の準備

セミナーの中で話した、撮影までの状況と、SharpCapでの再ライブスタックは、これまでの記事で書かれています。







今回の記事は、セミナーで示した中でも、特に画像処理の部分について補足していきたいと思います。「なぜ」この操作をするべきなのかという意味を伝えることができればと思います。

セミナーは
  1. (23:50) 入門用にMacの「プレビュー」を使って、その場で処理
  2. (27:05) 初心者用にPhotoshopを使って、その場で処理
  3. (32:40) 中級者用に「GraXpert」とPhotoshopを使って、その場で処理
  4. (41:50) 上級者用に「PixInsight」をあらかじめ使った処理の結果を流れだけ
という内容 (括弧内の時間は配信動画での位置) でした。

使用した画像は、SharpCapで1分露光で撮影したオリオン大星雲を60枚したものです。これを、上の1と2はオートストレッチしたものをPNGフォーマットで8ビットで保存されてもの、3と4はRAW画像のfitsフォーマットで16ビットで保存されたものです。

オートストレッチで保存できるのは2種類あって
  1. 「Save with Adjustments」を選ぶ、LiveStackでのオートストレッチのみかかったもの
  2. 「Save exactlly as seen」を選ぶ、LiveStackでのオートストレッチに、さらに右パネルのオートストレッチが重ねてかけられてもの
です。今回は後者の2の保存画像を元に画像処理を始めます。いかが、SharpCapで保存されたライブスタック済み、オートストレッチ済みの初期画像です。

ここでオートストレッチについては少し注意が必要で、何度か試したのですが、ホワイトバランスや輝度が必ずしも一定にならないことがわかりました。全く同じRAWファイルをスタックした場合は同じ結果になるのですが、スタック枚数が変わったり、別のファイルをスタックしたりすると、見た目に色や明るさが変わることがあります。どうも比較的暗いファイルでこれが起こるようで、ノイズの入り具合で左右されるようです。明るさはまだ自分でヒストグラムの黄色の点線を移動することで調整できるのですが、RGBのバランスは大まかにはできますが、極端に暗い画像をストレッチするときの微妙な調整はSharpCap上ではできないようです。Photoshopでは背景と星雲本体を個別に色合わせできるのでいいのですが、WindowsのフォトやMacのプレビューでは背景も星雲本体も同じように色バランスを変えてしまいます。このことを念頭においてください。


Windowsのフォトでの簡易画像処理

まず、入門用のOSに付いている簡易なアプリを使っての画像処理です。

セミナー当日はMacとWindowsの接続が不調で、SharpCapのライブスタックとWindowsのフォトでの加工をお見せすることができませんでした。手持ちの携帯Wi-FiルーターでMacからWindowsにリモートデスクトップで接続しようとしたのですが、2.4GHzの信号が飛び交い過ぎていたようで、遅すぎで使い物になりませんでした。あらかじめテストはしていたのですが、本番でこんなに変わるとは思ってませんでした。

お詫びではないですが、Windowsのフォトについては、配信動画の代わりに、ここでパラメータと結果画面を追加しておきます。画像処理前の、SharpCapのオートストレッチで保存された画像は以下のものとします。

Stack_60frames_3600s_20_34_59_WithDisplayStretch

これをWindowsのフォトで処理します。
  1. WindowsではPNGファイルをダブルクリックすると、フォトが立ち上がります。画像処理をするには、上部真ん中にあるアイコン群のうち、左端の「画像の編集」アイコンをクリックします。
  2. 上部に出てくるメニューの「調整」を押します。
  3. フォトの弱点は、背景を暗くするのがしにくいことでしょうか。今回は「コントラスト」を右に寄せることで背景を暗くします。
  4. 星雲中心部が明るくなりすぎてます。トラペジウムを残したいので「強調表示」を左にして明るい部分を暗くします。
  5. 色バランスは「暖かさ」と「濃淡」で整えます。「暖かさ」左に寄せて青を出し。「濃淡」を右に移動しバランスを整えます。
  6. 「彩度」をあげて、鮮やかにします。
setting

画面が暗い場合は「露出」を少し上げるといいかもしれません。「明るさ」は変化が大きすぎるので使いにくいです。

上のパラメータを適用すると、結果は以下のようになります。
photo

たったこれだけの画像処理でも、見栄えは大きく変わることがわかると思います。


Macのプレビューでの簡易画像処理

Macのプレビューでの画像処理過程はセミナー中に見せることができました。でも今動画を見直していたら、どうも本来処理すべき初期画像を間違えていたようです。

Windowsとの接続がうまくいかなくて、内心かなり焦っていたようで、本来は上のフォトで示した初期画像にすべきだったのですが、間違えて出してしまったのがすでに加工済みの下の画像で、これを元に画像処理を進めてしまいました。焦っていたとはいえ、これは完全に私のミスです。本当に申し訳ありませんでした。
Stack_60frames_3600s_20_34_59_WithDisplayStretch 2

ここでは、改めて本来加工するはずの下の画像で進めようと思います。フォトで使ったものと同じものです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch

最終的なパラメータはこれくらいでしょうか。一つづつ説明してきます。
setting
  1. オートストレッチで星雲本体を炙り出た状態だと、星雲中心部が明るくなりすぎます。トラペジウムを残したいので「ハイライト」を下げます。
  2. 背景が明るすぎるので、上のヒストグラムの左のマークを右に動かします。星雲本体を炙り出すために、真ん中のマークを左に少し寄せます。これは後のPhotoshopの「レベル補正」に相当します。
  3. 色バランスは「色温度」と「色合い」で揃えるしかないようです。「色濃度」は左に動かすと青っぽくなります。「色合い」は右に動かすとバランスが整います。最後は画面を見ながら微調整します。
  4. 「シャープネス」を右に寄せると、細部を少し出すことができますが、今回はノイズがより目立ってしまうので、ほとんどいじっていません。

結果は以下のようになりました。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
これをみると、セミナー本番中にプレビューで処理を開始したものとよく似ているかと思います。要するに、練習でプレビューで処理をしたものを間違えて開いてしまったと言うわけです。こんなことも気づかないとは、やはりその時はかなり焦っていたんですね。それでも次のPhotoshopの処理はそれに気づいて、SharpCapから直接保存されたものを処理に使っています。


Windowsのフォトも、Macのプレビューも、いじることができるパラメータはそう多くはないので、解はある程度一意に決まります。むしろパラメータは画像処理を始めるときの初期のホワイトバランスと、初期の背景の明るさに依りますでしょうか?これはSharpCapの保存時に決まるのですが、保存時に細かい調整ができないのが問題です。それでも、方針さえしっかりしていれば、パラメータに関してはここら辺しかありえないというのがわかるかと思います。繰り返して試してみるといいかと思います。


Photoshopを使った画像処理

次はPhotoshopです。こちらはできることが一気に増えるので、パラメータ決定の際に迷うかもしれません。それでも方針をしっかり立てることで、かなり絞り込むことができるはずです。

初期画像は上と同じもので、SharpCapでストレッチされたPNGファイルです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
  1. (27:10) まず、背景の色バランスの調整です。これはPhotoshopのメニューから「イメージ」「色調補正」「レベル補正」を使うと楽でしょう。RGBの各色をそれぞれ個別に調整して、まずは各色の山のピーク位置と、各色の山の幅を調整します。調整の様子は動画で確認してみてください。山の位置が揃うと、背景の色バランスがとれたことになります。
  2. (27:40) 次に動画では、同じ「レベル補正」を使って背景を暗くしています。左の三角を少し右に移動します。暗くしすぎると、後から分子雲が出にくくなるので、これはもしかしたら必要無かったかもしれません。
  3. (27:55) 次に、青を少し強調します。一般的に星雲本体の青は出にくかったりします。特に今回は光害防止フィルターでQBP IIIを使っているので、そのまま処理すると、赤でのっぺりした星雲になりがちです。「イメージ」「色調補正」「トーンカーブ」と行って、「ブルー」を選び、ここは慎重に真ん中ら辺を少しだけ上げます。トーンカーブは左の方が暗い背景に相当し、真ん中ら辺が星雲の淡いところ、右が星雲の明るいところや、恒星に相当します。
  4. ただし真ん中を上げると、せっかくバランスをとった背景も青くなってしまうので、トーンカーブの線上の左の方をクリックしてアンカーを打ち、暗い背景部分があまり変わらないようにします。アンカーの部分だけが動かなくなるので、アンカーの右の方の線を動かすと、アンカーの左側も変わってしまって背景のバランスが崩れることがあります。そんな時は、左の方にアンカーを複数打って、背景バランスが崩れないようにしてください。
  5. (28:20) 少し地味なので、彩度を上げて各色の諧調が豊かな、見栄えがする画像にします。「イメージ」「色調補正」「自然な彩度」と選びます。その中に2つ触れるパラメータがありますが、「彩度」の方はかなり大きく変わってしまうので、私は「自然な彩度」の方を触ることが多いです。
  6. 補足ですが、色を出そうとしてよくあることなのですが、彩度を単体であげるとくすんだような俗にいう「眠い」画像になります。そんな時はまずは輝度を上げるようにしてください。輝度に関しては、画面に集中してしまうと、暗い状態でもいいと思ってしまうことがよくあります。一度ネットなどで自分が一番いいと思う画像をブラウザ上で見て、そのすぐ横に今編集している画像を並べてみてください。思ったより明るさも色も出ていないことに気づくかもしれません。客観的になるのは難しいですよね。並べて比べながら、まずは一番いいと思う画像くらいになるように明るさや彩度を出してみるのがいいのかと思います。
  7. (28:40) Photoshopで便利な機能が、「フィルター」の中の「CameraRawフィルター」です。まずは「ライト」の中の「ハイライト」を下げることでトラペジウムを守ってやります。
  8. (29:10) 次に、背景に含まれる分子雲を引き出すために「ブラック」を右に振り、「シャドウ」を左に振ります。ブラックとシャドウはよく似ていますが、逆にブラックを左にシャドウを右に振ってやると、似て非なるものだとわかるでしょう。この分子雲の炙り出しは、「効果」の「明瞭度」も効き目があります。セミナーでは説明しませんでしたが、「コントラスト」も同じような効果がありますが、こちらは強すぎる感があるので、使うとしても微妙に調整します。
  9. セミナーでは説明しませんでしたが、細部は「効果」の「テクスチャ」である程度出すことができます。同時に背景のノイズや不自然な大きな構造も出すことになるので、かけすぎには注意が必要です。
  10. (29:35) ここまで分子雲をかなりあぶり出してきたことになるので、かなりノイズが目立っていると思います。Photoshopでも簡単なノイズ処理ができます。その一つが「CameraRawフィルター」の「ディテール」の「ノイズ軽減」です。ノイズの具合に応じて、50とか、最大の100とかに振ってやります。同時に「カラーノイズ」も除去してしまいましょう。カラーノイズは画像を拡大すると、RGBの細かい色違いのノイズがあるのがわかると思います。拡大しながらカラーノイズが除去されるのを確認してみるといいかと思います。
  11. (30:45) ノイズを除去すると、どうしても細部が鈍ってしまいます。これは同じところの「シャープ」を上げてある程度回避できますが、完全に戻すことはPhotoshop単体ではできないかと思います。ノイズ処理に関してはここら辺がPhotoshopの限界でしょうか。
  12. (31:15) 最後に仕上げで再びトーンカーブをいじっています。ここら辺は好みでいいと思いますが、今回はまだ青が足りないのでBのを少し上げました。派手さは赤色で決まるので、Rも少し上げます。緑は自然さを調整します。赤とか青が強くて、全体に紫っぽくて人工的な気がする場合は、Gをトーンカーブで気持ち上げると自然に見えたりします。セミナーでは説明しませんでしたが、必要ならばトーンカーブの右側にも適時アンカーを打って、明るい部分が明るすぎにならないようにします。特にせっかく撮影時に残ったトラペジウムを、明るくしすぎて消さないようにします。
Photoshop

こんなところで完成としましたが、いずれにせよここでは、背景と星雲本体を個別に色バランスをとりつつ、背景を炙り出し、コントラストを上げることが重要です。背景はそもそも暗いためにノイズが多く、分子雲を炙り出すとどうしてもノイズが目立つようになるので、何らかのノイズ処理が必要になってきます。

WindowsのフォトやMacのプレビューだけで処理したものと比べると、背景と本体のバランスがとれていて、それらしい画像になってきたのかと思います。


GraXpert

ただし、Photoshopでの処理だけだと、背景の分子雲はまだあまり見えていないですね。この淡いところを出すにはどうしたらいいでしょうか?基本は、星雲本体と背景の輝度差をなくすことです。特に、画面全体に広がるような大きな構造(「空間周波数が低い」などと言います)での輝度差をなくすことが重要です。ここでは「GraXpert」という無料のアプリを使います。WindowsにもMacにも対応しています。

GraXpertは操作がそれほど多くないので複雑ではないのですが、少しクセがあります。

1. (32:35) GraXpertにストレッチ機能があるので、今回はすでにストレッチされたPNGではなく、暗いままのRAWフォーマットのFITSファイルを使いましょう。ストレッチされてない画像なので。最初にGraXpertの「1」の「Load Image」で開くとこんなふうに真っ暗に見えるかと思います。
Stack_16bits_60frames_3600s_20_21_42_fits_nostretch

2. (33:05) GraXpertの「2」の「Stretch Options」で何か選ぶと、明るい画像になるかと思います。ここでは見やすくするために「30% Bg」を選びます。

3. (33:15) 画像の周りに黒いスジなどある場合はフラット化がうまくいきません。ライブスタックの時にディザリングなどで少しづつ画像がずれていくと、黒い筋になったりするので、まずはそれを左メニュー一番上の「Crop」の横の「+」を押して、出てきた「Crop mode on/off」を押します。黒い筋を省くように選択して、クロップして取り除きます。クロップ機能がGraXpertにあるのは、画像周辺の情報の欠落に敏感だからなのでしょうね。実際の取り除きの様子は配信動画を参考にしてください。

4. 「Saturation」は彩度のことなので、少し上げておくと後から彩度を出すのが楽になるかもしれません。今回は1.5を選びました。

5. (33:48) 「3」の「Points per row」と「Grid Tolerance」は画像によって適時調整してください。「Create Grid」を押します。目安は星雲本体が黄色の枠で選択されないくらいです。ここであまり神経質にならなくてもいいのがGraXpertのいいところでしょうか。

6. (34:00) 「Interporation Method」ですが、これは4種類ありますが、各自試してみてください。場合によって適不適があります。私はKriging>RBF>AI>Splineくらいの印象でしょうか?セミナーでは時間のかからないRBFを選びました。Methodによっては差が出る場合もありますが、ほとんど差が出ない場合もあります。

7. (34:25) しばらく待って結果が出たら、画面真ん中上の「Processed」と「Original」で比較してみるといいでしょう。その差が「Background」で見ることができます。
bg
こうやってみると、左が緑に寄っていて、右が赤に寄っていたことがわかります。

8. (35:28)できた画像をこのまま保存すると、ストレッチがかかりすぎているので、「Stretch Options」で「10% Bg」程度を再度選びます。その後「5」の「Saving」で「16bit TIFF」を選択し、「Save Stretched & Processed」を押して、ファイルを保存します。

TIFFファイルはサイズが大きくなるので、ここではTIFFファイルをjpgに変換したものを表示しておきます。
Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert

9. (36:14) 保存されたTIFFファイルをPhotoshopで開き、あとは上でPhotoshopで処理したものとほぼ同様に進めます。

10. (36:20) 今回の場合、ヒストグラムで全ての山がそろっています。GraXpertで背景のホワイトバランスも合わせてくれています。

11. (36:28) 背景が暗いのですが、中心部は明るいので、Camera RAWフィルターで、ハイライトを下げ、黒レベルを上げ、さらに露光を少し上げると、背景の分子雲がPhotoshop単体で出したものよりも、すでに黙々しているのがわかります。これがGraXpertのフラット化の効果です。

12. (37:17) あとは同様にトーンカーブで青を少し出します。

13. (37:35) GraXpertのフラット化の弊害として、色が出にくいというのがあります。彩度を少し強調するといいでしょう。

14. (38:15) Camera RAWフィルターの「ディテール」の「ノイズ軽減」でノイズが目立ちにくくなります。ここまでの完成画像を示します。

Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert_final

明らかにPhotoshop単体より、GraXpertでフラット化することにより、背景の分子雲が出たのかと思います。

よりあぶり出せたのはいいのですが、その分ノイズが目立つと思います。そのため、動画では (40:13)あたりで DeNoise AIを紹介しています。これはAIを利用したノイズ除去ツールで、非常に強力なのですが、恒星の処理が苦手で、星が崩れたりしてしまいます。今回は中心が抜けたような星になってしまいました。

これは次に話すように、星と背景を分離するなどして、背景のみに実行することでうまく使うことができますが、ここまで来ると今回の範囲を超えてくるので、参考までにノイズツールはこのようなものもあるということだけ認識しておいてください。


PixInsight

セミナーでは最後にPixInsightでの処理を紹介しましたが、これは今回の目的の範囲を超えていると思いますので、参考程度に処理したものを順に示すだけにしました。なのでここでも詳細な解説は控えておきます。というか、これを解説し出すとこの一記事では到底収まりきりません。

ポイントは
  1. (42:40) BlurXTerminatorで収差を改善し星を小さくシャープにすること
  2. (44:47) 星と背景を分離すること
でしょうか。これらはPhotoshopでの処理とは全く異なり、天体画像処理専用ソフトの強いところです。最初からここまで手を出す必要は全くないと思いますが、いつか自分の処理が不満になった時に、こんな手法もあるということくらいを頭の片隅に入れておけばいいでしょう。


比較

最後に、今回それぞれで画像処理をした
  1. Macのプレビュー
  2. Photoshotp
  3. Graxpert
  4. PixInsight
の4枚を並べて比べてみます。左上からZの字を書くように、上の1、2、3、4と配置しています。

all

Macのプレビューだと、背景と星雲本体を別々に色合わせできなかったことがよくわかります。Photoshopになると、色がある程度バランスよくなっています。分子雲のモクモクはGraXpertが一番出ているでしょうか?

セミナー当日見せるのを忘れてしまいましたが、同じ4枚を拡大したものも比較してみます。
all_magnified

Macのプレビューはノイズ処理がないので、やはりノイジーです。拡大すると、PhotoshopのみとGraXpertが入った時の違いもよくわかります。モクモクのあぶり出しと同時に、細部もでています。それでも細部はPixInsightがBXTのおかげで圧倒的でしょうか。

セミナーの最後でも言いましたが、4枚目でも情報を引き出し切ったかというと、かなりいいところまで入っていると思いますが、まだ少し余地が残っていると思います。マスクを使ったりすることで、ノイズ処理やあぶり出しをもう少し改善することはできるかと思います。


まとめ

さて、今回のセミナーと合わせての一連のブログ記事いかがだったでしょうか?電視観望から始まり、撮影に発展し、画像処理までを解説してきました。セミナー本番は少し詰め込みすぎたかもしれませんが、後の配信を前提に動作を示すことを中心としたので、よろしければ動画を繰り返し見ながら確認して頂ければと思います。皆さんの画像処理の何かのヒントになるのなら、今回のセミナーを引き受けた甲斐が十分にあるというものです。

画像処理はとても奥深いところがあり、今回示したBlurXterminatorもそうですが、まだまだ今後ソフトや技術も進化していくはずです。大切なことは、ここまで説明したことの繰り返しになるかもしれませんが、闇雲に処理を進めるのではなく、何が問題で、どうすれば解決するかの方針を立てて、手持ちの技術で実際に進めていくことかと思います。画像処理といっても、いわゆる普通の問題解決プロセスと同じですね。

今回色々な手法を示しましたが、これが唯一の方法だなんてことは口が裂けても言えませんし、正しい方法かどうかもわかりません。あくまで一例で、他の方法もそれぞれ皆さんで、試行錯誤もあるかと思いますが、いろいろ編み出して頂ければと思います。











恒例の1年のまとめ記事です。ほしぞloveログでは年末は書くのをサボって、たいてい1月中にのんびりと書いています。

昨年のまとめはここにあります。昨年は2月に公開しているので、今年の方が早いくらいですね。


さて、今年もテーマ別に振り返っていきましょうか。まずは機材からです。


機材関連

ここでは2023年に使った機材で、特筆すべきものを3つ書いておきます。

1. ε130D

上のリンクにある昨年のまとめを見直してみると、2023年の機材の目標は
  • 短焦点で広角で淡いところまで撮影する
と書いてあります。これは4月にε130Dを手に入れたので、目標達成と言えるでしょう。


最初の頃はテスト撮影をしながら、問題点を挙げていきました。四隅の星像問題や、迷光の問題などです。四隅はバックフォーカスを合わせることでかなり改善しましたが、迷光はある程度許容して画像処理で誤魔化すことが必要そうだと分かりました。それでもある程度実用レベルで撮影できるようになってきたので、主力鏡筒として今後もどんどん活用していくことになりそうです。


2. SWAgTi

SWATにAZ-GTiをくっつけた命名「SWAgTi(スワッティ、gは発音せず)」はとても楽しい試みでした。おそらくこれまでになかったアイデアで、高精度追尾のSWATと自動導入可能なAZ-GTiの互いにいいところを持ち寄って、高機能高精度追尾でお気軽撮影を実現できたのかと思います。惜しむらくは、長時間撮影では縞ノイズが出てしまい、ディザーで散らすことを試みたのですが、撮影中はAZ-GTiの自動追尾を切って高精度化を実現していて、その状態だとディザーができないことです。ソフトで解決できる問題のはずなので、いつか解決できたらと思っています。





 
SWAgTiの過程で、SharpCapを使えば一眼レフカメラでも極軸合わせとプレートソルブができることを示しました。SWATユーザーには一眼レフカメラを使っている方も多いと聞いたからです。

これは、CP+で話した一眼レフカメラで電視観望をやってみようという話にもつながっています。


3. トラバース
もう一つ、トラバースはミニマム電子観望をさらに押し進めました。カバンなどにすっぽり入るサイズで、PCと合わせても歩きの持ち運びで全然余裕です。


最初の頃はAZ-GTiに比べて少し不安定なところもありましたが、SynScan Proのアップデートと、SharpCap独自のプレートソルブで不安定なところはほぼなくなり、完全に実用レベルで観望会で使えるようになりました。最近は、持ち運びの便利さと見た目のコンパクトさでAZ-GTiにとってかわり、トラバースを使うことがほとんどです。





目標
さて、機材関連の2024年の目標ですが、今の天体撮影の主力機材は2つで
  1. SCA260(1300mm)+ASI294MM Pro(マイクロフォーサーズ)
  2. ε130D(430mm)+ASI6200MM Pro(フルサイズ)
です。他にも鏡筒はある(撮影レベルの冷却カメラは残りはカラーのみ)のですが、効率を考えて明るいものに限定すると上の2つになってしまいます。仮にこの2種だけだとすると、画角にすると一辺で6倍くらい違い、面積だと36倍くらい違うので、せめてその中間くらいがあるといいなと思い始めています。

簡単なのは、今ある手持ち鏡筒で口径の大きいF4のBKP200を使うかとかでしょうか。これに例えば今と同じASI294MMとか取り付けるか、いっそのこと使っていないカラー冷却のASI294MC Proでもいいかもしれません。コマコレクターは持っているのですが、ε130DやSCA260に比べるとそれでも多少星像は伸びるので、BXT2が前提になると思います。

もう一つのアイデアは、今は鏡筒とカメラを固定にして外さないようしていて、これは外した時のホコリの侵入を防ぐのが第一なのですが、この制限を取り除いてカメラと鏡筒を交互に入れ替えるかです。これだと
  1. SCA260(1300mm)+ASI294MM Pro(マイクロフォーサーズ) = 2380mm (フルサイズ換算) 
  2. SCA260(1300mm)+ASI6200MM Pro(フルサイズ) = 1300mm (フルサイズ換算)
  3. ε130D(430mm) +ASI294MM Pro(マイクロフォーサーズ) = 806mm (フルサイズ換算)
  4. ε130D(430mm)+ASI6200MM Pro(フルサイズ) = 430mm (フルサイズ換算)
となって、2と3がちょうど間を補完します。3はASI6200でROIで切り詰めるか、後でクロップしても同じことなので、意味がないかもしれません。これだととりあえず鏡筒もカメラも追加はないので、経済的な負担も少ないです。カメラ交換の手間と、スケアリングの問題が出ないかと、ホコリの混入をどうするかなどが問題です。そう頻繁に換えないとかにすれば大丈夫な気もします。ここら辺を今年一年悩んでみます。


撮影

去年の目標のところに「Sh2-240:スパゲティ星雲やSh2-129:ダイオウイカ星雲などの広くて淡い難物を自宅でどこまで出るかを試してみたい」と書いています。ε130Dでスパゲティー星雲はなんとか撮影できました

 
自宅からこれだけ出れば、まあまあではないでしょうか。ダイオウイカ星雲も撮影は完了していて、現在画像処理で苦労しています。ある程度目標は達成と言っていいでしょう。その一方、今回わかった反省点もあるので、これ以上はやはり暗いところに行って撮る方がいいのかもしれません。2022年に自宅で撮影したM81(未記事化)と2023年に開田高原で撮影したM81で比較して、少なくともLRGB撮影ではIFNなどの淡い部分は自宅では限界があることを身をもって理解しました。ナローバンドでも、本当の本当に自宅だと明るすぎるのかどうかは、一度きちんと検証してみたいと思っています。

淡いところを出す技術は上がってきましたが、自宅で出すには相当無理しているところもあり、画像処理に徐々に時間がかかるようになってきました。そのため結構気合を入れる必要があり、撮影は終わっていrても、画像処理が残っているものが結構あります。パッと思いつくだけでも
  • 2022年に撮った星景が2つほど
  • 2023年春に撮ったM104ソンブレロ銀河
  • 燃える木の拡大撮影
  • M45プレアデス星団、モザイク撮影
  • ダイオウイカ星雲
などです。ダイオウイカ以外はお蔵入りになりそうな雰囲気です。まだ撮影中のものもあり
  • ドルフィン星雲
  • カモメ星雲
は晴れた時にさらに進めようと思っていますが、冬はなかなか晴れないので、一向に進みません。

太陽や月はほとんど手をつけていなくて、唯一PST本体を2台目にしたことくらいでしょうか。良像範囲が少し広がりました。粒状斑はまだ何かだめなのか、いまだに満足した画像を撮ることができていません。





画像処理

天体写真の方については、年末に別記事でまとめてあります。再処理も合わせて12枚だったので、数はあまり多くはありません。


画像処理で特筆すべきは、やはりBXTでしょうか。元々恒星処理がかなり苦手だったのですが、BXTでdeconvolution処理をほぼ自動で、しかも収差まで緩和するようなすごいレベルで補正してくれるようになったので、相当楽になりました。

StarNet2も地味に構成と背景の分離精度が徐々に上がっていて、BXTと合わせて、淡いところの炙り出し、分解能向上なども楽になっています。特に、BXTとdrizzleを合わせた処理で分解能をさらに引き出すことができたのも面白い結果でした。


BXTについてはつい最近バージョンアップし、相当ひどい収差なども補正すること、最微恒星を取りこぼさないようにするなど、精度が格段に上がっています。



バージョンアップ前のBXTを使っていますが、いくつか再処理をした結果が以下の4枚になります。どれも前後で見た目ですぐわかるレベルで改善があり、例えば三日月星雲とトールの兜星雲は、同じ元画像かと思うくらいの進化が見られます。






アップデートされたBXTはさらに強力そうなので、かなり昔に撮った技術的にまだまだな画像でも再処理してみたいと思います。

目標
ε130Dで撮影したアメペリ星雲網状星雲クワガタ星雲などがそうなのですが、最近は背景をかなり炙り出しています。





これらは全てAOO合成で、赤成分はほぼHα撮影からきています。淡いところまで出せるようになってきたのはいいのですが、背景まで赤っておかしい気がしてきています。多分これって、茶色い分子雲がHαの波長も持っていて、それが出ただけなのではと。例えば、網状星雲の右半分ってRGBで丁寧に撮った画像だと茶色の分子雲で暗くなっているのが見えたりします。また、智さんが撮影したRGBで撮影したスパゲッティ星雲だと淡いながらも茶色い分子雲がはっきり見えていますが、これも自分が撮影したAOOだと言われると気づくかもしれませんが、かなり赤に寄っていて見分けがあまりつきません。

これらを踏まえて2024年の目標ですが、RGBを駆使するのかLを駆使するのか、まだ全然アイデアは固まってませんが、なんとかして背景の分子雲を、色も含めて分子雲らしく出すこにしたいと思います。多分ナローじゃなくなるので自宅だと無理かもです。


電視観望

2023年にブログで単独で電視観望を主に扱っている記事はわずか3本。トラバース天の川電視観望リモートヘルプのみです。




さらに、「電視観望」で検索してみたり、自動で保存された画像が残っているフォルダも数を数えると、実際に電視観望で見た回数は星まつりとか観望会とか合わせて18回とのことでした。月平均1.5回と考えると、ずいぶん少なくなりました。

電視観望の回数が少なくなってきていることは昨年の反省でも同じことを書いていて、よく言えば技術的には成熟してきた、悪く言えばネタがなくなってきたことを示しています。とくに2023年後半から電視観望ではSeestarが話題の中心になっています。私は結局購入していないのですが、初心者には機能的にもコスパ的にもかなりいいと思います。天文人口の裾野が広がることは超ウェルカムで、私も電視観望を始めた頃からずっと願っていたことです。Seestarはこの点、ものすごく貢献しているのかと思います。

一体型のスマート電視観望機器と言っていいものは、eVscope、Vespera、Seestar、DWARFなどと、どんどんコンパクトになってきています。そう言った意味では、一体型に対してカスタム型電視観望としてトラバースにFMA135を載せて、三脚を小さくしたセットアップは、いまだにミニマムという点では健闘していて、性能的にもコンパクト性においても私的には最近はこれが一番稼働率が高いです。


もう一つ、電視観望が繋いだ縁として、「カフェぽうざ」の訪問があります。


もともと天リフさん主催の会議で私の電視観望の基調講演の動画にコメントを頂いのがきっかけだったのですが、実際に茨城県石岡市まで訪問しました。電視観望を主とした、おそらく日本で唯一のカフェで、その後この記事を見た星ナビさんが2023年9月号で大きく取り上げてくれて、私も少しだけ記事を書かせていただきました。


講演

2023年は電視観望については講演が多かった年でもあります。パッと数えただけでもCP+天教福島志賀高原小海と5回にもなります。しかも全てオンラインではなく、実際に面と向かってのリアルでの講演です。これだけ考えても、コロナが収束に向かった年だったことがよくわかります。







特に、CP+については3回目にして初の念願の現地参加です。2021年の初の全面オンラインCP+では講演時間をわざわざ夕方遅くからにして頂きZoomで電視観望の生中継をして、北陸の冬の悪天候にも負けずに見事バーナードループを観ることができました。2022年のCP+ではNEWTONYとCeres-CとAZ-GTiを組み合わせた、安価な初心者向けの電視観望を紹介しました。この系譜はシュミットの2024年の福袋セットにも引き継がれていて、AZ-GTiがトラバースに変わっていますが、電視観望セットとしては最安で販売されています(ただし2024年1月14日23時59分まで)。



2023年のCP+は現地開催記念でCP+本来のカメラユーザーを意識して、一眼レフカメラで電視観望ができることを紹介しました。2024年のCP+も何か話せたらいいと思っています。小海の「星と自然のフェスタ」での電視観望実演で画像処理の需要がかなり高そうということが実感できたので、今後講演をもしするとしたら、そんな方向の話ができたらといいな思っています。

天教の講演会は2022年の公開天文台協会の島根の全国大会に続いて、非常に貴重な機会でした。普段接するのはアマチュア天文家なのですが、天文教育に関わるプロの意見はやはり違った側面を持っていて、とても参考になりました。

星の村天文台での講演は土壇場で決まったものでした。準備時間がわずか10分くらいと、先の天教の講演があったので何とか持ち堪えることができました。

志賀高原のセミナーは実演も合わせてのセミナーになります。この時遠くから参加してくれて手伝ってくれた大鹿村のKさんとは、その後の大鹿村の観望会、元気村での集まりへとつながっています。

小海の「星と自然のフェスタ」は比較的新しい星まつりで、過去に何度か講演させていただいています。元々の主催者のSさんが始めたもので、今では規模としては3大星まつりの一つと言っていいでしょう。せっかく定着しつつある星まつりです。運営も大変だと聞いていますが、講演会が特徴のこの星まつり、是非とも続いて欲しいと思ってやみません。

基本的には上に書いた2023年の講演は全て電視観望についてでした。画像処理についての話もしてみたいですし、でも本当はこの記事の下の方でも出てくるノイズ解析みたいな話を思う存分したいのですが、流石にマニアックすぎて聞いてくれる人はほとんどいないと思うので躊躇しています。でもいつか...どこかで...もしチャンスがあれば...。


観望会、遠征など

私の天文活動は、相変わらず平日を含めた自宅がメインなので、外にはそれほど多く出ていません。昨年の反省でもすでに書いてありますが、2023年中の遠征撮影は1月の開田高原のみです。
 

観望会もそう多くはなく、8月に富山環水公園で天の川電視観望を見せた他、長野県下伊那郡大鹿村でも(天気が良くなかったので)広域の天の川電視観望がメイン、あとは全く星が見えなくて観望会にはならなかった2泊3日の 愛知県豊田市旭高原の元気村tくらいでしょうか。





特に元気村は星こそ見えませんでしたが、母校の高校の天文部の若い生徒たちと触れ合えたのがとても刺激になりました。次の日の気ままに星空観望仲間の方達の集まりに参加させていただいたのも、とても楽しかったです。

定例の飛騨コスモスの観望会も4月22日5月21日6月17日と参加していますが、天気が悪かったり、コロナにかかって体調が悪かったりで3回(1回はドームの修理だけなので実質2回)しか参加できていません。修理も完了していないので、春になったら早々に直したいと思っています。






星まつり

星まつりですが、福島胎内星もと小海と、例年行くものは2023年も全て行っています。特にコロナが終息して胎内に久しぶりに行けたのが良かったです。やはり国内最大の星まつりなので、現地開催が一番です。






この中でいまだに進化し続けているのが小海の「星と自然のフェスタ」でしょうか。2023年はメイン会場がホテル前の広場から、少し下がったところの大きな室内会場になりました。雨が降っても、夜に寒くなっても、室内なので快適に過ごすことができます。夜の観望も室内会場を出たすぐ目の前に展開できたので、簡単に行き来できてとても便利です。眼視会場が離れたところになってしまったとか、初めての試みでまだこなれないところが残っていたかもしれませんが、実際年々快適になっていくので、来年以降はさらに快適になっていくでしょう。期待したいと思います。

残念なのは、3大星まつりの一角を担っていた原村の星まつりが、以前とは全く違った形になってしまったことでしょうか。コロナが収束しても実質以前の星まつりの雰囲気ではなくなってしまったようで、私は参加を見送りました。以前の形に戻ってくれるのか、それとも今後ももうこのままの形なのか、2024年の方向性に注目したいと思います。


解析など

1. 撮影画像のノイズ解析

2022年は解析とかあまりできなかったと反省に書きましたが、2023年の特筆すべきはノイズ解析が大きく進んでいることでしょうか。3月に(その1)を書き始めて、その後不定期に書き足しています。現在その4まで来ていますが、まだまだ終わりは見えず、今もその5以降を書き溜めていて、ライフワークになりそうな勢いです。でもこの面白さはなかなか伝わらないかもしれないので、全体を見渡して少し解説しておきます。

まず面白いのは、(その1)でスカイノイズを数値的に示したことでしょうか?読み出しノイズとかダークノイズは計算できるのですが、スカイノイズがどれくらいかということを明確に示した解説記事はほとんどないようです。画像からスカイノイズがどれくらいあるのか見積もり、同時に読み出しノイズやダークノイズが計算と実測でどれくらい合うのかを示しているので、実際に撮った画像がどのようなノイズに支配されているかが、数値で具体的にわかります。ノイズだけでなく、その後、(その3)で信号も評価し、S/Nを実測で求めているところです。まだ今の所は1枚画像での評価がメインですが、次の記事でインテグレート(スタック)された場合にどうなるかを示そうと思っています。その後はどう展開しようか?まだ迷っていて、多分ですが色々なパラメータをいじってみてグラフ化して、どのようなパラメータの時に最適化ができるかなどを示せたらと思っています。例えば、天体撮影と電視観望では最適なパラメータが違うはずで、それぞれにおいてどのような値を選んだら良くなるかなどです。アイデアはいろいろあるのですが、どうやってわかりやすく記事にまとめるか...、時間をかけながらじっくり進めていければと思っています。







2. ビニング

同時に、派生的に出てきた感のあるビニングについてです。ノイズのことをよく考えていると、これまでビニングではっきりしてこなかったことが、かなりわかってきました。ビニングについては調べてもほとんどきちんとした定量的な話が見つからないんですよね。でもそれもそのはずで、そもそもスカイノイズとかきちんと評価しないと何も言えないからなのかと、今は思っています。なのでこれまではすごい定性的な話で止まっていたり、神話的に根拠の説明なしに話が伝わってきたのではないかと思います。





3. LRGB合成

LRGB合成についても少し議論しました


だいこもんさんやNiwaさんたちとTwitter上で議論したり、ちょうど蒼月城さんが同時期にLRGB合成についての動画をアップしていて、とても参考になりました。LRGB合成はノンリニアでやるのが大原則というのはわかりましたが、まだ本質的なところでなぜノンリニアでやる必要があるのかは完全に理解できていません。リニアなうちでも問題があまり出てこない範囲でなら、絶対ダメというわけではないのかと思ってしまっています。私自身がもう少しきちんと理解する必要がありそうですが、課題として残しておきます。


解説記事など

上の電視観望のところとちょっと重なるかしれませんが、SharpCapの解説記事なども書いています。





NINAのオートフォーカスについても書きまし。


短い記事でも意外に評判がいいので、こういったものを増やしていけたらと思います。


書籍

2023年に手に入れた書籍関連です。そのほかに天文ガイド、星ナビを定期購読しているので、それぞれ12冊づつあります。

IMG_8895

これまで書籍はブログでは一部を除いてほとんど紹介してこなかったですが、特に星を始めてから数年間は結構な量を購入しています。2023年は流石に落ち着いてきて上記くらいになってきました。君は放課後インソムニアが完了したのが大きいですね。舞台の石川は富山からも近いので、地震の被害が落ち着いたらまた一度、ゆっくり聖地巡礼がてら能登半島に行ってみたいと思います。

あと、貴重なInterractiveを全冊お借りしたので、近いうちにまとめ記事を書きたいと思っています。


ブログ

2023年の一年間の投稿記事を数えたら74本でした。2022年が104本、2021年が114本となっているので、かなり減っています。月5−6本程度なので、週に1本か気が向くと2本とか書く程度になってしまっています。理由は、撮影時間が10時間オーダーに伸びてきて仕上がる枚数が減っていることと、画像処理に時間がかかっていること、あとは無駄に一本当たりの記事が長いことなどでしょうか。

これまで何度も記事を短くしようと試みてますが、ことごとく失敗しています。短い記事の方が読まれやすくてPVも伸びたりしているのですが、長い記事は多分私の習性です。この記事もそうですが、最近は諦めていて、思いの丈を書こうと思うようになりました(笑)。


まとめ

星を始めたのが2016年のゴールデンウィークくらいなので、もう7年半も経ってしまいました。流石にペーペーの初心者とは言えなくなってきました。星を始めた頃は1年がすごく長く感じましたが、最近は1年があっというまに過ぎてしまう感じです。1年で進めることができる量も徐々に少なくなってきている気がします。2023年はノイズ解析が進んだので、それでも少しマシでしょうか。

最近すごいと思うのは、私よりもはるかに短い期間で、素晴らしい天体写真を仕上げてくる人がいることです。かなり研究されているのかと思います。だんだん若い人(年齢というよりは、この世界に新しく入ってきた人と言った方がいいかもしれません)に追い抜かれていくので、ちょっと悔しいところもあるのですが、その一方で自分ではとてもできないような若い人のアイデアや成果とかに期待してしまいます。

BXTもそうでしたが、ソフトの進化はまだまだ革新的なものが出てきそうです。PixInsightのMARS計画も楽しみです。CMOSカメラもまだまだ進化しそうですね。でも進化とともに値段が上がるのではなく、フラッグシップモデルの価格が一定になって、その分こなれた機能のカメラが安価になっていくと、もう少し敷居が下がる気もします。

Seestarで参入した新しい人たちのうち、幾らかの人はのめり込んでくれるかと思いますが、初心者もベテランもあわせて、天文人口そのものが増えてくれると盛り上がっていくのかと思います。この趣味が尻つぼみにならないように、若い人(こちらは本当に年齢という意味で)が増えてくれると、とてもありがたいと思いみます。大学生とか高校生の天文好きな人達を見ていると、結構期待できそうな気もします。


この記事は「小海「星と自然のフェスタ2023」参加記: 2日目前半」からの続きとなります。




講演終了後

電視観望の講演が終わって部屋に戻り、妻に「48人も入ったよ」と報告したら「見てた!すごい!」と言ってくれました。全員が席に着くまで案内を手伝ってくれてたので、ある程度の人数は既に知ってくれていたようです。妻は元々あまりたくさんの人がきてくれるとは思ってなかったみたいで、ちょっと見直してくれたみたいです。「講演も聞いてたの?」と聞くと、案内だけしてすぐに部屋に戻ったとのこと。あとはゴロゴロしてたみたいです。

とにかく今回メインの講演が無事に終わったので、私は部屋でしばし放心状態でした。本番まではかなり気を張っていたのであまり感じなかったのですが、有料講演だったということもあり、実際にはかなりプレッシャーを感じていたみたいです。終わってから、改めて思いました。

でもあまりのんびりもしれられません。次はサイトロンブースでのデモです。18時には準備を始めたいので、程なくして講演で使った機材を一部再び持って、車で下の第一会場に向かいます。


第1会場で電視観望デモ

下の第1会場に着くと、すでにかなり暗くなっていました。必要な機材を車から持ち出して、打ち合わせで決めてあった場所に向かいます。途中、暗がりの中からサイトロンスタッフさんが私の姿に気づいてくれて、声をかけてくれました。結局少し手前に場所を移したそうです。VixenさんがPENTAXの150mmでしょうか、大型屈折を出していた場所の手前あたりに陣取ることになりました。

予報では心配だった天気も、空を見る限りかなりいいです。少しだけ雲も見えますが、昨晩よりは遥かにましでしょう。この日は土曜でメインの日なので、お客さんもたくさんくるはずで、大型の32インチのモニターと、私の方は少し小ぶりの24インチモニターを出します。32インチの方はメインのハイエンド電視観望でAskarの151PHQ。なんと150mmクラスのフォトグラフィークラスのアポです。私の方は小さいモニターにつなぎ、気軽に天の川電視観望です。手軽さと広角という、ハイエンドとは逆方向の電視観望の楽しさを伝えれればとの思いです。

天の川電視観望は準備も気軽で、三脚と自由雲台、あとはCOMSカメラに明るめ広角のカメラレンズだけです。赤道儀も経緯台さえも必要なく、当然自動導入や自動追尾さえもなくて、全部マニュアル導入で追尾なしの放ったらかしです。今回カメラはフォーサーズサイズのASI294MC、レンズは35mm F1.4の1970年台のNIKKORレンズです。F1.4だと明るい星の周りに大きくハロが出ることがわかっているので、F2.0に絞って使います。この日はほぼ満月だったので、光害防止フィルターとしてサイトロンのDBP(Dual Band Pass)フィルターを入れています。

途中、講演を聞いてくれた方も含めて、このシンプルさに興味を覚えてくれる人が多かったです。古くからカメラファンの方には、手持ちのレンズで気軽に試せそうなとことも興味を引いたようです。ほぼ満月の日に6.4秒露光一枚撮りでこれくらい見ることができます。フィルターのせいもありますが、SharpCapのリアルタイムフラット補正がかなり効いています。この機能、以前はベータ版の身についていましたが、現在は4.1の最新版の正式機能として採用されています。
Stack_16bits_1frames_6s_18_08_41

天の川電視観望を見せている間に、サイトロンスタッフの方が151PHQで導入まで準備してくれています。この時点でまだ開始予定時刻の19時前だったのですが、少し雲が多くなってきたので、本番中に曇った時のためにM27をしばらくライブスタックさせておいて、予備画像として残しておくことにしました。でもこの時点ですごくて、途中の高々十数分のライブスタック画像で画像ですでに亜鈴状星雲本体の周りにある、蝶の形をした羽の部分がうっすらですが出てきてしまっています。
Stack_63frames_1890s_WithDisplayStretch_cut

さて、19時くらいになりお客さんもかなり集まっているので、改めて今回のコンセプトを話します。
  1. まず特徴は、ハイエンド機材を使うことで電視観望がどこまで行けるのか、その一端を見て頂きたいこと。
  2. その後の簡易画像処理で、その場で見るということに主眼を置いて、どこまで綺麗になるのか示してみようというものです。
具体的には、気軽にトータル15分程度のライブスタックで、見たままの画像を、フォーマットも気軽に8ビットのPNGで保存し、Photoshopでこれも気軽にほぼcamera RAWフィルターだけで5分程度で画像処理をしたら、どこまで出るのかのデモンストレーションということです。

最初はらせん星雲にしました。上下に雲がありますが、星雲本体あたりはちょうど雲が開けていて、10分程度なら露光できそうです。ここで151PHQならではの問題が。なぜかライブスタックがうまくいきません。どうやら、微恒星が点像で鋭すぎてノイズと見分けがつかなくて、星認識がうまくいっていないようです。これはライブスタックのノイズリダクションをオフにすることで、無事にスタックし続けることができました。私自身もこんな経験は初めてで、ハイエンド屈折の能力の一端を見た気がします。このやりとりを見ていたお客さんの中にはかなり驚いていた方もいたようですが、サイトロンの方が「性能もすごいですが、価格もすごいです」と今月発売開始された際の価格を伝えるとそちらも「オオーっ」という反応が。

曇りになるまでの十数分、ライブスタックを重ねた画像をPNG形式で保存して、
Stack_32frames_960s

それをPhotoshopで画像処理します。それでも保存時でストレッチまで済んでいるので、そこそこ出ています。背景を少し黒く締めて、彩度を上げて色を出します。流石に虹彩のような放射状の線は出ませんでしたが、十数分の露光に5分程度の画像処理で仕上げただけでそこそこ見える画像になったのは、やはり151mmの口径の威力もあったのかと思います。
Stack_32frames_960s_01

自宅に帰ってから改めて画像を見ましたが、さすがに5分程度の画像処理だとまだまだ持っている情報を引き出せていない気がしました。始まりの画像は同じ8bitのPNGですが、30分程度時間をかけて、ソフトには制限をかけずにもう少し炙り出してみました。本体周りの淡いところと、本体の構造はもう少し出せたのかとと思います。
Stack_58frames_1740s_WithDisplayStretch_ABE_cc_1_cut

続いて、網状星雲です。網状星雲の「い」の字の形のうち、今回は明るい星が入っている東側のNGC6992-5の方です。内側の淡いところがどこまで出るかも興味があります。ちょうどはくちょう座方向はこの時十分に晴れていたので、焦ることはなくライブスタックで十数分の露光をかけました。まずはライブスタック直後です。
Stack_47frames_1410s

かなり淡いですが、現場で5分程度でPhotoshopで画像処理をしたものです。
Stack_52frames_1560s

これだけでもかなり出てきたのがわかります。改めてもう少し時間をかけて処理したものが以下です。
Stack_79frames_2370s_WithDisplayStretch1_ABE
さらに隠れていた淡い部分が出てきたのかと思います。これもあくまで8bitのPNG画像で簡単に見たままで保存した画像から処理しています。それでもこれくらいは情報が隠れていることがわかります。

IMG_8757

今回特に思ったことは、画像処理に対する需要がかなりあるのではということです。凝った画像処理はキリがないのですが、もっと基礎的な最初のとっかかりというか、今後扱うことになる本流とはどういうものかという紹介とか、例えば今回なら電視観望で得た画像をどう処理するべきかといったような、初心者がせっかく撮った画像をいかに鑑賞するくらいまで仕上げるかといったことです。画像処理も慣れてしまえばいろんな方法があることもわかってくると思うのですが、最初のうちは何から手を出していいのかわかりにくのかと思います。もしかしたら、来年の講演はこういったことを話せればいいのかもしれません。


片付け

21時近くになると、空もだんだん曇ってきました。最後まで見ていてくれたお客さんに今回のデモのまとめを話し、解散となりました。私も片付けを始め、21時半頃には第1会場を後にします。

部屋に戻る前に上の方も見ていこうと、アストロカーのところに寄ってみると、ちょうど最後のお客さんが終わるところでした。そのまま主催者のSさんとお会いすることができ、講演に招待していただいたお礼と、来年どうなるのかなどを少し話しました。

その後、第2会場に立ち寄って、やっとRYOさんとお話することができました。今回の講演では私のが電視観望の基礎、RYOさんのが電視観望の応用というような、連動企画のような状況になっていました。RYOさんとは準備段階でも連絡を頂くなど、いろいろお世話になっていました。今回の講演は二人ともかなり盛り上がったと思うもで、RYOさんとはいつかなにか合同で企画してみたいと思います。あいにく期待のRYOさん自慢のシステムGOZENSAMAは雲が出てきて稼働するところは見えなかったですが、RASA8を使ってリアルタイム電視観望の流れを汲むということで、原点復帰で非常に興味深いです。

この時点でかなり寒くなってきていて、22時15分くらいだったでしょうか、部屋に戻りちょうどウダウダしていた妻も誘って、そのまま温泉へ。どうも聞いてみたら、妻も大1会場まで見にきてくれていたみたいです。一角だけ人だかりができていたと言っていました。

温泉が冷えた体を温めてくれました。温泉を出た後の恒例のアイスを食べながら、たまたま同じ時間になったサイトロンスタッフさんと、画像処理の反応の大きさとかについて話していました。

部屋に戻って、初日朝にかった菓子パンをひとつだけ食べて(結局この日の夕食はこれだけでした)、疲れ果てて寝てしまいました。でもかなり満足した疲れでした。


3日目

朝ちょっとゆっくりめに起きて、8時頃から朝食に。休日ということもあり、子供づれの家族もたくさんいて、かなり混んでいて2階の空いている席に案内されました。昨晩はほとんど何も食べてなかったので、朝はやっとお腹が空いてそこそこ食べることができました。でも調子に乗ってまた食べ過ぎてしまい、この日も昼食抜きとなってしまいました。

朝食後は荷物をまとめてチェックアウトです。その後に、第1会場に少しだけ寄ってみると、エーデルワイス内の片付けはすでに終わっていて、キャンプ会場も撤収をしている方が多かったです。会場に残っていた何人かの方と挨拶をして、星フェス会場を後にします。

帰り道は、来た時の佐久経由ではなく、松本経由にしました。来るときに通れなかった、メルヘン街道を行ってみます。昨年より開催時期が一月近く早くなり、雪や道路が凍る心配もないので、一度走ってみたかったのです。でも、昨年までに実際通ってきた人から聞いていたのは「かなりの悪路で、あまり使いたくない」という声です。砂利道か何かなのかと想像していたのですが、実際通ってみたら全然そんなことはなく、多少クネクネしているものの、全然普通に通れる道です。アスファルトも少し凸凹していたところもありますが、富山の地元の山の狭い道とかと比べたら全然まともでした。しかもちょうど紅葉シーズンです。下の方はまだ少し早く、最高高度近くはもう葉っぱが散っているような状況だったので、高さに応じて紅葉度合いが楽しめ、とてもきれいでした。道には宣伝の看板なども皆無で、頂上あたりは尾根沿いにあたるのか、クネクネ道も少なく、昔海外にいた頃に走った道を思い出しました。

IMG_8762

メルヘン街道も頂上を越えどんどん進んでいくと、高度もだんだん下がり紅葉をピークから早い状態へと逆戻りしていきます。別荘がが出てきて、レストランとかの店も出てきて、普通の民家も出てきて、最後諏訪の市街地に入り車の渋滞が始まると、とうとうリゾート気分も終わりです。

高速は諏訪ICから松本ICまでで、大した距離ではありません。行きとの高速代の差額は5000円位、距離が100km近く短くなるので、ガソリン代の差額が1500円くらいでやはり無視できない額になります。高速は少しの間なので、諏訪SAに入り、少しお土産を買い、松本で高速をでてすぐに給油。そこから下道なのと、眠くなってしまったので妻に運転を代わってもらい、無事に帰宅しました。


妻の感想

恒例の妻の意見です。今年はどうでしたでしょうか?
  • いつもより1ヶ月近く早いので、紅葉が楽しめてよかった。
  • お風呂は源泉でいつもながらよかった。23時の終了間際だと星を見ていた人がたくさん一度に来るので、混んで大変かもしれない。
  • 去年ほど(自分が)ドタバタしていなかった。初日の夜に一緒に(私Samと)食事ができたからかもしれない。前回は何か行事(古スコ懇親会)があって一人で夕食だったからかも。
  • 何もしない贅沢が素晴らしく快適で、だんだん海外リゾートっぽいイメージになってきた。
  • ホテルの対応もかなりよかった。お客さんが大人数でもドタバタしていなかった。(これは私も思いました。昨年も一昨年に比べかなり改善されたと思いましたが、今年は不満が全然なかったです。)
  • ウェルカムスイーツが想像より本格的だった。
  • やはりここはガトーキングダム(日本語で「お菓子の王国」?)の名に恥じない夢にまで見た「お菓子の城」だった。でも食べすぎた。さすがシャトレーゼ。(妻は普段からシャトレーゼの大ファンです。)
  • お腹をこなすのに、美術館まで散歩で往復した。適度な距離で楽しかった。
  • 佐久ICからの、高い所を走る天空の道のような高速道路(実際には無料の道路)も良かったが、帰りの諏訪へ向かうメルヘン街道もすごくよかった。
とのことです。どうやら今年はほとんど不満もなく、いつもの辛口批評も口を潜めています。見ている限りかなり満足していたようでした。星に関してほとんど感想がなかったので、星以外で十分楽しんでいたということでしょうか。あまり相手ができなかったので、私としては勝手に楽しんでくれていたようでありがたいのですが...。


まとめとお礼

最後にですが、今回の星フェス、私としてはとても充実していて、十分に楽しむことができました。講演とデモがあり、準備なども含めると時間が少し足りないくらいで、もっと現場をゆっくり見て、他の方ともたくさんお話ししたかったというのも少しありますが、多分体力的にもほぼ限界かと思います。

会場では至る所でボランティアさんたちが、会場の設営準備から星フェスの役割分担までたくさんのことをこなしてくれていました。本当にありがとうございました。主催のテレスコ工房のSさんには、講演のお誘いから、星フェス開催までの相談など、大変お世話になりました。今回の星フェスは、これまでとは違ったエーデルワイスという新たな会場で、特に寒い夜など相当快適でした。まだまだこの星フェスは進化し続けるのではと思わせてくれました。今年も開催までにおそらく相当な困難がたくさんあったかと思います。それでも3日間、楽しい星フェスとなったのは、Sさんはじめ、スタッフの方々、ボランティアの方々のお力のおかげかと思います。心から感謝しています。小海の星フェスは、今では完全に日本の大型星まつりの一翼を担っています。できることなら来年以降も続いてほしいと、心から思います。私自身も来年以降も微力ながらも協力できればと思っています。

とにかく楽しかったー!!!


 



この記事は、実画像のノイズ評価(その1): 各ノイズの貢献度合


の続きになります。


前回の復習

かなり前の記事になってしまうので、私自身忘れてしまったことも多くて記事を読み返しながら今回の記事を書いています。前回の記事で何がポイントだったのか、復習がてら少しまとめ直してみます。

前回の記事では読み出しノイズ、ダークノイズ、スカイノイズの3つについて、実際に撮影した画像を元に数値的に具体的な値を見積もりました。特にこれまでスカイモイズをどう見積もるかが難しかったこともあり、あまりきちんと評価されてこなかったようです。前回の記事では画像の明るさからコンバージョンファクターを使いスカイノイズを見積もるという手法を提案し、実際のスカイノイズを数値で出すという試みをしています。

その結果、撮影地で有名な暗いと言われる開田高原の空でさえ、スカイノイズが支配的で、15.9[e] 程度ありました。読み出しノイズ、ダークノイズがそれぞれ1.8[e] と1.5[e] で10分の1程度です。実際の効きは2乗して比較すべきなので、それぞれスカイノイズに対して(15.9/1.8)^2 = 1/78、(15.9/1.5)^2 = 1/112と78分の1とか、112分の1とかしか影響していないことがわかります。

これが富山の街中の自宅になると、スカイノイズがさらにひどいことになり48.0[e] となり、3倍近くの大きさです。開田高原と同じクオリティーにしようとしたら、(48/15.9)^2 = 9.1で9.1倍ほどの露光時間を必要とします。開田高原で5時間45分かけているので、自宅だと52時間20分かけて撮影すると同じになるというわけです。自宅だと平日も撮影して放って置けるのですが、北陸で冬に1週間も連続で晴れることはほぼありえないので、実質不可能です。こうやって具体的な数値を入れてみると、大きな違いになることがわかります。

このように、スカイノイズが支配的な場合は読み出しノイズやダークノイズはほとんど効いていないので、露光時間をもっと増やしてもいいのではないかと疑問を投げかけた形で前回の記事を終えています。今回はその疑問に応えるような形で、撮影条件やパラメータを変えながら、検討してみます


どこまで露光時間を縮めることができるか?

簡単のため、L画像のみを考えます。カラー画像も原理は同じですが、ディベイヤーなど計算が複雑になるので、とりあえずここではモノクロとします。

読み出しノイズ:
まずは露光時間を短くして、スカイノイズを小さくして、読み出しノイズと同程度になるような状況を考えてみましょう。露光時間をどこまで短くできるかを求めてみます。

今回使った開田高原で撮影したM81の画像では、露光時間300秒の時に、スカイノイズと読み出しノイズの比が

15.9[e] : 1.8[e] = 8.8 : 1

で約9倍の差があります、スカイノイズを約9分の1にすればいいので、明るさで考えると2乗で81分の1にしてやればいいことになります。露光時間で考えると300秒を81分の1にしてやればいいので、300[s] / 81= 4.8 [s]と、露光時間をわずか3.7秒にまで短くするとやっとスカイノイズが読み出しノイズと同等になります。こんなに短くていいんですね!?

ダークノイズ:
次に、スカイノイズがダークノイズと同程度になる温度を求めてみます。まずは300秒露光だとすると、スカイノイズとダークノイズの比は前回記事の計算から

15.9[e] : 1.5[e] = 10.6: 1

と10.6倍程度の余裕があるので、−10℃で撮影した時のダークノイズが10.6倍程度になるには、暗電流で考えると2乗になるので、−10℃での暗電流が10.6^2 = 112倍程度になるところの温度を暗電流のグラフ(縦軸が2倍ごとの対数グラフであることに注意)から読み取ってやればいいはずです。−10℃での暗電流が0.007程度なので、112倍だと0.79とかなってしまい、もう30℃超えとかの温度になってしまいます。今回くらいスカイノイズが支配的ならばもう冷却に関しては全然気にしなくていいと言うことになってしまいます。


本当にそんなに余裕はあるのか?

開田高原の暗い空でさえ、露光時間は3.7秒以上ならOK、温度は30℃以下ならOKと、にわかには信じ難い数字が出てきました。さらに(今回撮影した日の)開田高原より明るい空ではこの条件は緩和され、さらに短い露光時間でも、高い温度でもよくなります。これまでおまじないのように露光時間を伸ばし冷却をしてきたのですが、実際にはほとんど効いていなくて、1枚あたりの露光時間を減らしていいし、センサー温度ももっと高くてもいいということになります。

でも、ここまでの検証、本当に正しいでしょうか?

答えは原理的にはYesですが、実用上はNoでしょう。まず、暗い空に行けば行くほどこのパラメータの余裕は少なくなっていきます。また光害防止フィルターを使うと、実質的に暗くなるのでスカイノイズは小さくなり、上記露光時間と温度の余裕は少なくなっていきます。これらの場合1枚あたりの露光時間を増やした方が有利になるし、センサー温度も低い方が余裕が出ます。

例えばHαのようなナローバンド撮影の場合を考えます。典型的な7nmのナローバンドフィルターを使うとしましょう。7nmというのはフィルターを透過する光の波長の(多分ですが)FWHM(Full Width Half Maximum、半値全幅、縦軸のピークの半分の値をとる時の横軸の全部の幅、他にも半値半幅などがある)が7nmということなので、仮にASI294MMが可視である波長のFWHMを380nmから800nmの420nmとしましょう。420nmが7nmとなるので、単純に考えると明るさは60分の1になります。スカイノイズにするとルートで効くので8分の1程度でしょうか。

今回の計算ではスカイノイズと読み出しノイズの比が8.8分の1、スカイノイズとダークノイズの比が10.6分の1と見積もっていたので、大きく余裕あると思っていました。でもナローバンド撮影の場合スカイノイズが8分の1になるいうことは、この余裕を全て取り去ってしまいます。ナローバンド撮影だと300秒露光と−10℃での撮影で、スカイノイズと、読み出しノイズと、ダークノイズが大体一緒くらいになるということになります。


現実的な露光時間と温度

ナローバンドでは300秒という露光時間も、−10℃というセンサーの温度も妥当だということは分かったのですが、明るいL画像ではやはりこれまでの検証に特におかしなところはなく、露光時間も温度も全然余裕があるということは(私が大きな勘違いをしていなければですが)事実です。

でも、途中の複雑な機器設定の変更で撮影が失敗するリスクなどを考え、同じようなセッティングで全ての光学フィルターに対して対応しようとするのは戦略として全然おかしくはなく、その場合、一番厳しいところにセッティングを合わせることは十分妥当でしょう。
 
このように全部一緒のセッティングにするということも一理ありますが、明るい場合にはパラメータに余裕があることを理解した上で、フィルターによっては露光時間を変える、ゲインを変えるという戦略を立てることは次の可能性につながるのかと思います。例えばHαをRGBに混ぜる赤ポチ画像を作るのに、StarNetなんかで背景と恒星を分離するときなんかは特にそうです。この場合、恒星は大きさも色情報も使えなかったりもするので、背景のみにダイナミックレンジを振ることができ、余裕ができるはずです。

ただし、露光時間やゲインを変えてパラメータ数を闇雲に増やすと、その後の画像処理に対して必要なダークファイル、フラットファイル、フラットダークファイル、バイアスファイルなどの種類も増えていく羽目になります。少しまとめておきます。

露光時間とゲインという観点では:
  • 露光時間もゲインも変えたくないもの: ダークファイル
  • ゲインを変えたくないもの: フラットファイル、フラットダークファイル、バイアスファイル
光学フィルターごとという観点では:
  • それぞれのフィルターに対して撮影するもの: フラットファイル
  • 共通で撮影できるもの: ダークファイル、フラットダークファイル、バイアスファイル
くらいになりますでしょうか。

特にダークファイルは撮影に時間がかかるので、できるだけ種類を少なくしておきたいです。明るい時と暗い時の2パターンくらいに決めておけるなら、ダークだけ設定ごとに一度撮ってしまって使いまわすことで、後の手間はそれほど変わらないと思います。あらかじめダークライブラリーを作っておくと気にしないでよくなるかもしれません。バイアスもゲインごとのライブラリを作ることができますね。

フラットはホコリなどの状況でかわってしまうので、その都度撮影した方がいいかもしれませんが、センサー面やフィルター面を暴露しないようにしてホコリなどの混入があまりない状況を作れるのなら、使い回しが効くと思います。

多分大丈夫だとは思うのですが、フラットとフラットダークはできれば同時に取ったほうがいい気がしています(温度が変わると縞ノイズに影響があるかも、でも未検証)。


まとめと今後

今回は露光時間とセンサー温度について、本当に理屈通りでいいのか、実際の撮影などのことも含めて少し検証してみました。実用上はフィルターなどの変更もあるので、これまで通りの露光時間やセンサー温度でも構わないかもしれませんが、これらのパラメータを変更する場合にどれくらい余裕があるかを知っておくことは、今後の方針を立てる上で有利になるのかと思います。

まだまだ検証したいことはたくさんあって、ゴールまではかなり遠いです。これまではノイズのみの議論で、ノイズ同士がどうなるかだけを問題にしていて、信号についてはまだ何も議論していません。ノイズに対して、撮影目標の天体が信号ということになるのですが、信号SとノイズNの比S/N (SN比)が重要になります。また、スタックすることでS/Nを稼ぐことができます。でも真面目に信号部分を考えるのって結構大変なんですよね。またゆっくり考えてみます。


この記事の続き



になります。実際に信号を考えてS/Nを求めています。








一連のBXTによる再画像処理の4例目です。これまで以下のように3つの再処理例を記事にしてきました。





元々BXTで言われていた星雲部分の分解能、あまり話題になってなくて遥かに期待以上だった恒星の収差補正など、劇的な効果があります。

その一方、最近のM106の画像処理で分かったのは

  • BXTで銀河中心部の飽和が起きることがある。
  • BXTの恒星認識に引っかからない微恒星が小さくならなくて、恒星の明るさ位に対する大きさの逆転現象が起きる。
  • 光軸調整が不十分なことから起きる恒星の歪みはBXTで補正できなくてむしろ変な形を強調してしまうことがある。
  • BXTはリニア段階(ストレッチする前)で処理すべき(とBXTのマニュアルにも書いてあります)だが、LRGB合成はノンリニア(ストレッチしてから)処理すべきなので、リニアでできるRGB合成した後の段階ではBXTを使うことができるが、(額面通りに理解すると)LRGB合成した段階でBXTを使うことはできないということになる。
など、弊害や制限も少なからずあるということです。

M106も2度処理しているのである意味再処理なのですが、BXTを使っての「過去画像の」再処理という意味では、銀河を扱うのは今回初めてになります。これまで手をつけなかったことには実は明確な理由がありますが、そこらへんも記事に書いておきました。

そう言ったことも踏まえて、今回のBXTを使った処理では何が分かったのでしょうか?


子持ち銀河

ターゲットのM51: 子持ち銀河ですが、昨年4月に自宅でSCA260を使い、ASI294MM ProのRGB撮影で総露光時間4時間半で撮影したものです。

実はM51の再処理、かなり初期の頃に手掛けています。時期的は最初のBXTでの再処理の最初の記事の三日月星雲よりも前に試しています。銀河はBXTで分解能が上がることをかなり期待していました。でも改善がほとんど見られなかったのです。

BTX導入直後くらいに一度M51の再処理を試み、その後三日月星雲とかを処理してある程度技術的にも確立してきた後に、さらに再処理してみたM51です。
Image199_ABE_ABE_ABE_DBE_NTX_HT_CT_CT_NXT_CT2_cut1

同じ画角の元の画像を下に載せます。
64da897b_cut

再処理ではHαを載せていないので、派手さはないのは無視してください。2つを比較してみると、確かに少し分解能は上がったかもしれません。でも思ったほどの改善ではありませんし、むしろノイジーになるなど、悪くなっているところも見受けられます。なんでか色々考えたのですが、恐らくですが以前の処理はDeNoise AIを利用するなどかなり頑張っていて、すでにそこそこの解像度が出ていたということです。言い換えると、(今のところの結論ですが)いくらAIと言えど、画像に含まれていない情報を引き出すことは(例え処理エンジンは違っても)できないのではということです。逆に情報として含まれていないものを飛び抜けて出したとしたら、それは流石にフェイクということになります。

BTXとDeNoise AIを比べてみると、DeNoise AIの方が(天体に特化していないせいか)大きくパラメータを変えることができるので、おかしくなるように見えると思われがちですが、おかしくならない程度に適用する分には、BXTもDeNoise AIもそこまで差がないように思いました。DeNoise AIはノイズ除去と共にSharpen効果もあるのですが、BXTはノイズについてはいじることはないので、DeNoise AI = NoiseXTerminator + BlurXTerminatorという感じです。

それでは、DeNoise AIではなくBlurXTerminatorを使う利点はどこにあるのでしょうか?最も違うところは、恒星の扱いでしょう。DeNoise AIは恒星ありの画像は確実に恒星を劣化させるので、背景のみにしか適用できないと思っていいでしょう。その一方、BlurXTerminatorはAIと言っても流石にdeconvolutioinがベースなだけあります。星像を小さくする効果、歪みをかなりのレベルで補正してくれる効果は、BlurXTerminatorの独壇場です。恒星を分離した背景のみ、もしくは恒星をマスクした背景のみの構造出しならDeNosie AIでもよく、むしろノイズも同時に除去してくれるので時には便利ですが、やはり恒星をそのままに背景の処理をできるBXTとNXTの方が手間が少なく恒星のダメージも全然少ないため、天体写真の処理に関して言えばもうDeNoise AIを使うことはほとんどなくなるのかと思います。


L画像を追加してLRGBに

さて、上の結果を見るとこのままの状態でBXTを使ってもあまり旨味がありません。根本的なところでは、そもそもの元画像の解像度がをなんとかしない限り何をやってもそれほど結果は変わらないでしょう。

というわけで、RGBでの撮影だったものに、L画像を新たに撮影して、LRGB合成にしてみたいと思います。当時はまだ5枚用のフィルターホイールを使っていて、Lで撮影する準備もできていくてLRGBに挑戦する前でした。この後のまゆ星雲ではじめて8枚用のフィルターホイールを導入し、LRGB合成に挑戦しています。

撮影日はM106の撮影が終わった3月29日。この日は前半に月が出ているのでその間はナローでHα撮影です。月が沈む0時半頃からL画像の撮影に入ります。L画像だけで合計47枚、約4時間分を撮影することができました。

ポイントはASI294MM Proで普段とは違うbin1で撮影したことでしょうか。RGBの時もbin1で撮影していますが、これはM51本体が小さいために高解像度で撮影したいからです。bin2で2倍バローを用いた時と、bin1でバローなど無しで用いた時の比較は以前M104を撮影した時に議論しています。


解像度としてはどちらも差はあまりなかったが、バローをつける時にカメラを外すことで埃が入る可能性があるので、それならばbin1の方がマシというような結論でした。

以前RGBを撮影した時は1枚あたり10分露光でしたが、今回は5分露光なので、ダーク、フラット、フラットダークは全て撮り直しになります。


画像処理

画像処理は結構時間がかかってしまいました。問題はやはりLとRGBの合成です。前回のM106の撮影とその後の議論で、理屈上は何が正しいかはわかってきましたが、実際上は何が一番いいかはまだわかっていないので、今回も試行錯誤です。今回下記の6つの手順を試しました。Niwaさん蒼月城さんが指摘されているように、LinearでのLRGB合成で恒星の色がおかしくなる可能性があるのですが、今回は際立って明るい恒星がなかったので、LinearでのLRGB合成がダメかどうかきちんと判断することができなかったのが心残りです。
  1. RGBもL画像もLinear状態で、LRGB合成してからBXT
  2. RGBもL画像もLinear状態で、BXTをしてからLRGB合成
  3. RGBもL画像もLinear状態で、だいこもんさんがみつけたLinLRGBを使い、HSI変換のうちIとL画像を交換
  4. RGBとL画像とLinear状態でBXTまでしてから、フルストレッチしてNon Linear状態にしてからLRGB合成。
  5. RGBとL画像とLinear状態でBXTまでしてから、フルストレッチしてNon Linear状態にしてからLab変換して、aとbをconvolutionでStdDev=5でぼかしてからLab合成。
  6. RGBとL画像とLinear状態でBXTまでしてから、少しだけストレッチしてLinearに近いNon Linear状態にしてからLab変換して、aとbをconvolutionでStdDev=5でぼかしてからLab合成。
と試しました。赤は間違ったやり方、紫はまだ検証しきれていないやり方です。

ちなみに
  • BXTはリニアで使うべし。
  • LRGBはノンリニアで使うべし。
というルールがあるので、最も正しいと思われる順番は
  • WBPP -> ABE or DBE -> RGB合成 -> RGB画像にSPCC -> RGB画像、L画像それぞれにBXT -> ストレッチ -> LRGB合成
かと思われます。この手順は4番に相当します。RGBがノイジーな場合には5番もありでしょうか。

それぞれの場合にどうなったか、結果だけ書きます。赤はダメだったこと、青は良かったことです。
  1. 星雲の明るい部分に青飛びが見られた。(極端に明るい恒星はなかったので)恒星などの飛びは見られなかった。LRGB合成した後でBXTをかけるので、本来恒星が小さくなると期待したが、うまく小さくならず、変な形のものが残った
  2. 星雲の明るい部分に青飛びが見られた。(極端に明るい恒星はなかったので)恒星などの飛びは見られなかった。1に比べて恒星が明らかに小さくなった。
  3. 星雲の明るい部分に青飛びが見られた。(極端に明るい恒星はなかったので)恒星などの飛びは見られなかった。1に比べて恒星が明らかに小さくなった。ちなみに、LinLRGBはPixInsightに標準で組み込まれているものではなく、Hartmut Bornemann氏が作ったもので、ここにインストールの仕方の説明があります。
  4. 青飛びが少し改善した。1に比べて恒星が明らかに小さくなった。ただし最初にストレッチしすぎたせいか、解像度があまり出なかった。
  5. 青飛びが無くなった。1に比べて恒星が明らかに小さくなった。ただし最初にストレッチしすぎたせいか、解像度があまり出なかった。
  6. 青飛びが無くなった。1に比べて恒星が明らかに小さくなった。ストレッチしすぎてなかったせいか、一番解像度が出た

というわけで、正しいと思われる4番は悪くないですが、青飛びを完全に解決できなかったことと、ストレッチの度合いがRGBとLが別だとどこまでやっていいかの判断がつきにくく、結局6番を採用しました。でもストレッチをあまりかけずにLを合成することが正しい方法なのかどうか、いまだによくわかっていません。その一方、Lab変換でabをボカしたことが青飛びを完全に回避しているので、手段としては持っておいてもいいのかもしれません。


仕上げ

その後、Photoshopに渡して仕上げます。分解能を出すのにものすごく苦労しました。AstrtoBinでM51を検索するとわかりますが、形の豪華さの割に、大きさとしては小さい部類のM51の分解能を出すのはなかなか大変そうなのがわかります。物凄く分解能が出ている画像が何枚かあったので「おっ!」と思ったのですが、実際にはほとんどがHubble画像の再処理でした。1枚だけHubble以外でものすごい解像度のものがありましたが、望遠鏡の情報を見たら口径1メートルのものだったのでさすがに納得です。それよりもタカsiさんが最近出したM51の解像度が尋常でないです。口径17インチなので約43cm、これでAstroBinにあった口径1メートルの画像に勝るとも劣りません。43cmでここまででるのなら、自分の口径26cmでももう少し出てもおかしくないのかと思ってしまいます。今回私の拙い技術で出せたのはこれくらいです。クロップしてあります。

「M51:子持ち銀河」
masterLight_ABE_crop_BXT_BXT_Lab_conv5_Lab_CT_bg2_cut_tw

  • 撮影日: RGB: 2022年4月2日20時32分-4月3日3時50分、LとHa: 2023年3月29日20時17分-3月30日4時34分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB、Hα
  • 赤道儀: Celestron CGX-L
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 240で露光時間10分がR: 7枚、G: 7枚、B: 10枚、Gain 240で露光時間5分がL: 47枚、Hα: 21枚の計27枚で総露光時間240+340 =580分 =9時間40分
  • Dark: Gain 240で露光時間10分が64枚、Gain 240で露光時間5分が128枚
  • Flat, Darkflat: Gain 240で露光時間 RGB: 0.03秒、L: 0.01秒、Hα: 0.2秒、 RGBがそれぞれ64枚、LとHαがそれぞれ128枚
  • 画像処理: PixInsight、Photoshop CC

元の大きさではこうなります。ただしbin1のままだと画素数が多すぎてブログにアップロードできないので、解像度を縦横半分のbin2相当にしてあります。

masterLight_ABE_crop_BXT_BXT_Lab_conv5_Lab_CT_bg2_lowreso

中心部を比較してみます。左が昨年のRGBだけのもの、右がL画像とHα画像を撮り増ししたものです。
comp

見比べると、明らかに今回のL画像が入った方が分解能が増していることがわかります。ただすでに画像処理がキツすぎる気もしています。今の機材でこれ以上の分解能を求めるにはどうしたらいいのでしょうか?

考えられる改良点は、
  • シーイングのいい時に撮影する。
  • Lがフィルター無しなので、UV/IRカットフィルターを入れて赤外のハロなどをなくす。
  • 振動が問題になる可能性があるので、三脚の足に防震シートなどを入れる。
  • 読み出しノイズに制限されているわけではなさそうなので、揺れ対策で1枚あたりの露光時間を3分ほどにしてみる。
  • Lの総露光時間をもっと増やす。
  • 暗い空で撮影する。
  • バローを入れて焦点距離を伸ばし、かつbin1で撮影する。
などでしょうか。小さな天体を撮影する際の今後の課題としたいと思います。


まとめ

BXTという観点からはあまり大したことは言えていません。分解能という観点からはDeNoise AIとそこまで能力は差がなさそうなことがわかりますが、恒星の収差補正などに利点があり、今後DeNoise AIを使うことはほぼなくなるでしょう。リニアなステージで使うことが正しそうで、RGBとLで別々に処理して合成しても問題なさそうなことがわかりました。BXTなしとありでは分解能に圧倒的に差が出て、今回もM51としてはそこそこの分解能になっていますが、まだ鏡筒の性能を引き出し切っているとは言い難いのかと思います。

RGBだけの場合と、Lがある場合では分解能にあからさまに差が出ることが改めてわかりました。でもなぜそこまで差が出るのか、自分自身本質的にはあまりよくわかっていません。単にLの露光時間が長いからなのか? R、G、Bとフィルターで光量が減るので、それに比べて全部の光子を拾うLが得なのか? それとも他に何か理由があるのか? 一度、R、G、B、Lを全て同じ時間撮影して、RGB合成したものからLを引き出して比較してみるのがいいのかもしれません。

とまあ色々議論したいことはありますが、庭撮りで着実に進歩はしてきていて、M51がここまで出たこと自身はある程度満足しています。でももう少し出るかと淡い期待を抱いていたことも事実です(笑)。


このページのトップヘ