ほしぞloveログ

天体観測始めました。

2023年03月

2022年の反省でも述べましたが、最近自分で考えることがあまりできてなかったので、今回の記事は久しぶりに計算です。内容は、撮影した画像にはどんなノイズが入っていて、それぞれどれくらいの割合になっているかを見積ってみたという話です。


動機

まずは動機です。1月に開田高原でM81を撮影した時に、M81本体に加えて背景のIFNが見えてきました。下は300秒露光を28枚撮影したL画像を強度にオートストレッチしています。
masterLight_BIN-2_4144x2822_EXPOSURE-300.00s_FILTER-L_mono

一方、2022年の5月にも自宅で同じM81を撮影しています。背景が埃とスカイノイズで淡いところがまってく出なかったので記事にしていないのですが、下は露光時間600秒を22枚撮影したL画像で、強度にオートストレッチして、かつできるだけ見やすいようにABEとDBEをかけてカブリを排除しています。開田高原の時よりもトータル露光時間は1.6倍ほど長く、被りを除去しても、淡い背景については上の画像には全く及びません。
masterLight_600_00s_FILTER_L_mono_integration_ABE_DBE3
明らかにスカイノイズの影響が大きいのですが、これを定量的に評価してみたくなったというものです。

もう一つの動機ですが、このブログでも電視観望について多くの記事を書いています。電視観望はリアルタイム性を求めることもあるので、露光時間を短くしてゲインを高く設定することが多いです。この設定が果たして理に適っているのかどうか、これも定量的に議論してみたいとずっと思っていました。


目的

これからする一連の議論の目的ですが、
  1. 画像に存在するどのノイズが支配的かを知ること。
  2. 信号がノイズと比較して、どの程度の割合で効くのかを示す。
  3. 電視観望で高いゲインが有利なことを示す。
を考えてたいと思っています。今回の記事はまずは1番です。こちらはスカイノイズをどう評価するかが鍵なのかと思っています。

2番は意外に難しそうです。信号である天体は恒星ならまだしも、広がっている天体の明るさの評価ってなかなか大変です。これは後回しにするかもしれません。

3番は長年の電視観望がなぜ短時間で天体を炙り出せるのかという疑問を、定量的に表す事ができたらと考えています。こちらは大体目処がついてきたので、近いうちに記事にするかと思います。


基本的なノイズ

天体画像撮影におけるノイズは5年くらい前にここで議論しています。SN比の式だけ抜き出してくると

S/N=ntSsigAnσ2+AntSsky+AntSdark+ntSsignS/N=ntSsigAnσ2+AntSsky+AntSdark+ntSsign
と書くことができます。ここで、
  • AA [pix] : 開口面積
  • nn : フレーム枚数
  • σσ [e-/pix] : 読み出しノイズ
  • tt [s] : 1フレームの積分(露光)時間
  • SskySsky  [e-/s/pix] : スカイバックグラウンド
  • SdarkSdark  [e-/s/pix] : 暗電流
  • SsigSsig  [e-/s] : 天体からの信号
となり、S/Nとしては何枚撮影したかのルートに比例する事がわかります。今回のノイズ源としては読み出しノイズ、スカイノイズ、ダークノイズを考えます。ショットノイズは天体などの信号があった場合に加わるノイズですが、今回は天体部分は無視し背景光のみを考えるため、天体からのショットノイズは無視することとします。

重要なことは、読み出しノイズは露光時間に関係なく出てくるために分母のルートの中にtがかかっていないことです。そのため、他のノイズは1枚あたりの露光時間を伸ばすとS/Nが上がりますが、読み出しノイズだけは1枚あたり露光時間を増やしてもS/Nが上がらないということを意識しておいた方がいいでしょう。その一方、撮影枚数を稼ぐことは全てのノイズに対してS/N改善につながり、読み出しノイズも含めて撮影枚数のルートでS/Nがよくなります。繰り返しになりますが、一枚あたりの露光時間を伸ばすのでは読み出しノイズだけは改善しないので、他のノイズに比べて効率が悪いということです。

分子にあたる天体信号の評価は意外に大変だったりするので、今回は分母のノイズのみを考えることにします。


パラメータ

上の式を元に、ここで考えるべきパラメータを固定しやすいもの順に書いておきます。
  1. カメラのゲイン(gain)
  2. 温度 (temperature)
  3. 1枚あたりの露光時間 (time)
  4. 空の明るさ
の4つで実際に撮影した画像の各種ノイズを推定できるはずです。少し詳しく書いておくと、
  • 1は撮影時のカメラの設定で決める値です。読み出しノイズ (read noise)を決定するパラメータです。
  • 2は撮影時のセンサーの温度で、冷却している場合はその冷却温度になります。単位は[℃]となります。この温度と次の露光時間からダークノイズを決定します。
  • 3は撮影時の画像1枚あたりの露光時間で、単位は秒 [s]。2の温度と共にダークノイズ (dark noise)を決定します。ダークノイズの単位は電荷/秒 [e/s]。これは[e/s/pixel]と書かれることもありますが、ここでは1ピクセルあたりのダークノイズを考えることにします。なお、ホットピクセルはダークノイズとは別と考え、今回は考慮しないこととします。ホットピクセルは一般的にはダーク補正で除去できる。
  • 4は撮影場所に大きく依存します。今回は実際に撮影した画像から明るさを測定することにします。単位は [ADU]で、ここからスカイノイズを推測します。ちなみに、3の露光時間も空の明るさに関係していて、長く撮影すれば明るく写り、スカイノイズも増えることになります。

実際のパラーメータですが、今回の記事ではまずはいつも使っている典型的な例で試しに見積もってみます。私はカメラは主にASI294MM Proを使っていて、最近の撮影ではほとんど以下の値を使っています。
  1. 120
  2. -10℃
  3. 300秒
これらの値と実際の画像から背景光を見積もり、各種ノイズを求めることにします。


読み出しノイズ

読み出しノイズはカメラのゲインから決まります。ZWOのASI294MM Proのページを見てみると、


真ん中の少し手前あたりにグラフがいくつか示してあります。各グラフの詳しい説明は、必要ならば以前の記事



をお読みください。上の記事でもあるように、カメラの各種特性はSharpCapを使うと自分で測定する事ができます。実測値はメーカーの値とかなり近いものが得られます。

グラフから読み出しノイズを読み取ります。gain 120の場合おおよそ

1.8 [e rms]

ということがわかります。rmsはroot mean sqareの意味で日本語だと実効値、時系列の波形の面積を積分したようなものになります。例えば片側振幅1のサイン波なら1/√2で約0.7になります。他のノイズも実効値と考えればいいはずなので、ここではrmsはあえて書かなくて

1.8 [e]

としていいでしょう。

読み出しノイズは、実際の測定では真っ暗にして最短露光時間で撮影したバイアスフレームのノイズの実測値に一致します。以前測定した結果があるので、興味のある方はこちらをご覧ください。



ダークノイズ

ダークノイズの元になる暗電流に関しては温度と1枚あたりの露光時間が決まってしまえば一意に決まってしまい、これもZWOのASI294MM Proのページから読み取ることができます。

私はこの値を実測したことはないのですが、そーなのかーさんなどがSV405CCですが同系のIMX294センサーで実測していて、メーカー値とほぼ同じような結果を得ています。

グラフから温度-10℃のところの値を読み取ると暗電流は

0.007 [e/s/pixel]

となるので、1枚あたりの露光時間300秒をかけると

2.1 [e/pix]

となります。/pixはピクセルあたりという意味なので、ここは略してしまって

2.1[e]

としてしまえばいいでしょう。単位[e]で考えた時に、暗電流のルートがダークノイズになるので、

sqrt(2.1)=1.5[e]

がダークノイズとなります。

(追記: 2023//4/19) ちょっと脱線ですが、だいこもんさんのブログを読んでいると、2019年末の記事に「dark currentはgain(dB)に依存しないのか?」という疑問が書かれています。答えだけ言うと、[e]で見ている限り横軸のゲインに依存しないというのが正しいです。もしダークカレント、もしくはダークノイズを[ADU]で見ると、元々あったノイズがアンプで増幅されると言うことなので、単純に考えて横軸のゲイン倍されたものになります。実際の画面でも横軸ゲインが高いほど多くのダークノイズが見られるでしょう。でも、コンバージョンファクターをかけて[ADU]から[e]に変換する際に、コンバージョンファクターが横軸のゲイン分の1に比例しているので、積はゲインによらずに一定になるということです。

ちなみに、ホットピクセルはダーク補正で取り除かれるべきもので、ここで議論しているダークノイズとは別物ということを補足しておきたいと思います。

(さらに追記:2023/10/15)
ダークファイルを撮影したので、実際のダークノイズを測定してみました。画像からのノイズの読み取り値は2.6 [ADU]でした。コンバージョンファクターで単位を[e]にすると、2.6x0.9 = 2.3 [e]。ここから読み出しノイズを引いてやると、2乗の差のルートであることにちゅいして、sqrt(2.3^2-1.8^2) = 1.5 [e] と見積り値に一致します。このように、見積もりと実測が、かなりの精度で一致することがわかります。


スカイノイズ

ここが今回の記事の最大のポイントです。読み出しノイズとダークノイズだけならグラフを使えばすぐに求まりますが、恐らくスカイノイズの評価が難しかったので、これまでほとんど実画像に対してノイズ源の評価がなされてこなかったのではないでしょうか?ここでは実画像の背景部の明るさからスカイノイズを推測することにします。

まず、明るさとノイズの関係ですが、ここではコンバージョンファクターを使います。コンバージョンファクターはカメラのデータとして載っています。例えばASI294MM Proでは先ほどのZWOのページにいくと縦軸「gain(e/ADC)」というところにあたります。コンバージョンファクターの詳しい説明は先ほど紹介した過去記事を読んでみてください。コンバージョンファクターは他に「ゲイン」とか「システムゲイン」などとも呼ばれたりするようです。名前はまあどうでもいいのですが、ここではこの値がどのようにして求められるかを理解すると、なぜスカイノイズに応用できるか理解してもらえるのかと思います。

コンバージョンファクターの求め方の証明は過去記事の最後に書いてあるので、そこに譲るとして、重要なことは、画像の明るさSとノイズNは次のような関係にあり、
(N[ADU])2=S[ADU]fc[e/ADU](N[ADU])2=S[ADU]fc[e/ADU]明るさとノイズの二つを結ぶのがコンバージョンファクターfcとなるということです。逆にいうと、このコンバージョンファクターを知っていれば、明るさからノイズの評価が共にADU単位で可能になります。

もっと具体的にいうと、コンバージョンファクターがわかっていると、スカイノイズが支配していると思われる背景部分の明るさを画像から読み取ることで、スカイノイズを直接計算できるということです。これは結構凄いことだと思いませんか?


実際のスカイノイズの見積もり

それでは実画像からスカイノイズを見積もってみましょう。最初に示した2枚のM81の画像のうち、上の開田高原で撮影した画像の元の1枚撮りのRAW画像を使ってみます。

上の画像は既にオートストレッチしてあるので明るく見えますが、ストレッチ前の実際のRAW画像はもっと暗く見えます。明るさ測定はPixInsight (PI)を使います。PIには画像を解析するツールが豊富で、今回はImageInspectionのうち「Statistics」を使います。まず画像の中の暗く背景と思われる部分(恒星なども含まれないように)をPreviewで選び、StatisticsでそのPreviewを選択します。その際注意することは、カメラのADCのbit深度に応じてStatisticsでの単位を正しく選ぶことです。今回使ったカメラはASI294MM Proなので14bitを選択します。輝度の値は「mean」を見ればいいでしょう。ここでは背景と思われる場所の明るさは約920 [ADU]と読み取ることができました。ついでに同じStatisticsツールのノイズの値avgDevをみると17.8 [ADU]と読み取ることが出来ました。

もっと簡単には、画像上でマウスを左クリックするとさまざまな値が出てきますので、その中のKの値を読み取っても構いません。ここでも同様に、単位を「Integer Renge」で手持ちのカメラに合わせて「14bit」などにすることに注意です。

いずれのツールを使っても、背景と思われる場所の明るさは約920[ADU]と読み取ることができました。

前節の式から、輝度をコンバージョンファクターで割ったものがノイズの2乗になることがわかります。gain120の時のコンバージョンファクターはグラフから読み取ると0.90程度となります。

これらのことから、背景に相当する部分のノイズは以下のように計算でき、

sqrt(920/0.90) = 32.0 [ADU] -> 28.8 [e]

となります。どうやら他の読み出しノイズやダークノイズより10倍程大きいことになります。あれ?でもこれだとちょっと大きすぎる気がします。しかも先ほどのStatisticsツールでの画面を直接見たノイズ17.8[ADU]をコンバージョンファクターを使って変換した

17.8 [ADU] x 0.90 [e/ADU] = 16.0 [e]

よりはるかに大きいです。これだと矛盾してしまうので何か見落としているようです。

計算をじっくり見直してみると、どうやら測定した輝度は「背景光」とオフセットの和になっているのに気づきました。撮影時のオフセットとして40を加えてありますが、この値に16をかけた640がADUで数えたオフセット量として加わっているはずです。実際のマスターバイアス画像を測定してみると、輝度として平均で約640 [ADU]のオフセットがあることがわかったので、これは撮影時に設定したものとぴったりです。この値をを920 [ADU]から引いて、280 [ADU]を背景光の貢献分とします。その背景光からのスカイノイズ成分は

sqrt(280/0.90) = 17.6 [ADU]


これを[ADU]から[e]に変換するためにさらにコンバージョンファクター[e/ADU]をかけて

17.6 [ADU] x 0.90 [e/ADU] = 15.9 [e]

となります。これだと画面からの実測値16.0[e]と少なくとも矛盾はしませんが、既に実測のトータルノイズにかなり近い値が出てしまっています。果たしてこれでいいのでしょうか?


各ノイズの貢献度合い

次にこれまで結果から、各ノイズの貢献度を見ていき、トータルノイズがどれくらいになるのかを計算します。

画像1枚あたりの背景に当たる部分の各ノイズの貢献度は多い順に
  1. スカイノイズ: 15.9[e]
  2. 読み出しノイズ: 1.8 [e]
  3. ダークノイズ: 1.5[e]
となります。Statisticsツールで測定した実際の1枚画像の背景のノイズの実測値は14.9[e]程度だったので、上の3つのノイズがランダムだとして2乗和のルートをとると、

sqrt(15.9^2+1.8^2+1.5^2) = 16.0 [e]

となり、実測の16.0[e]になる事がわかります。スカイノイズに比べてトータルノイズがほとんど増えていないので、読み出しノイズとダークノイズがほとんど影響していないじゃないかと思う方もいるかもしれません。ですが、互いに無相関なノイズは統計上は2乗和のルートになるので本当にこの程度しか貢献せず、実際にはスカイノイズが支配的な成分となっています。

ここまでの結果で、今回のスカイノイズ成分の推定は、定量的にも実画像からの測定結果とほぼ矛盾ないことがわかります。この評価は結構衝撃的で、暗いと思われた開田高原でさえスカイノイズが圧倒的だという事がわかります。


富山の明るい空

ちなみに、最初の2枚の画像のうち、下のものは自宅で撮影したM81です。富山の明るい北の空ということもあり、そのRAW画像のうちの最も暗い1枚(2022/5/31/22:48)でさえ、背景の明るさの読み取り値はなんと3200[ADU]程度にもなります。バイアス640を引くと2560[ADU]で、開田高原の背景光の値240に比べ約10倍明るく、ノイズは

sqrt(2560/0.90) = 53.3 [ADU] -> 48.0 [e]

となります。実際の画像からPIのStatisticsで読み取ったトータルノイズの値が53.4[ADU]->48.1[e]でした。

スカイノイズ48.0[e]に、読み出しノイズ1.8 [e] 、ダークノイズ1.5[e]を2乗和のルートで考えるとトータルノイズは

sqrt(45.0^2+1.8^2+1.5^2) = 48.1 [e]

となり、明るい画像でも背景光の輝度から推測したノイズをもとに計算したトータルノイズ値と、画面から実測したノイズ値が見事に一致します。

開田高原の暗い画像でさえスカイノイズが支配的でしたが、富山の明るい空ではスカイノイズが読み出しノイズ、ダークノイズに比べて遥かに支配的な状況になります。淡いところが出なかったことも納得の結果です。

うーん、でもこんなスカイノイズが大きい状況なら
  • もっと露光時間を短くして読み出しノイズを大きくしても影響ないはずだし、
  • 冷却温度ももっと上げてダークノイズが大きくなっても全然いいのでは
と思ってしまいます。でもそこはちょっと冷静になって考えます。早急な結論は禁物です。次回の記事では、そこらへんのパラメータをいじったらどうなるかなどに言及してみたいと思います。


まとめ

背景の明るさとコンバージョンファクターから、スカイノイズを見積もるという手法を考えてみました。実際の撮影画像のノイズ成分をなかなか個別に考えられなかったのは、スカイノイズの評価が難しいからだったのではないかと思います。

今回の手法は背景の明るさが支配的と思われる部分がある限り(天体写真のほとんどのケースは該当すると思われます)スカイノイズを見積もる事ができ、状況が一変するのではと思います。また手法も輝度を測るだけと簡単なので、応用範囲も広いかと思われます。

今回の手法を適用してみた結果、実際に遠征した開田高原のそこそこ暗い空で撮影した画像でさえもスカイノイズが支配的になる事がわかりました。もっと暗い状況を求めるべきなのか?それとも露光時間を短くしたり、温度を上げてしまってもいいのか?今後議論していきたいと思います。

とりあえず思いつくアイデアをばっとまとめてみましたが、もしかしたら何か大きな勘違いなどあるかもしれません。何か気づいたことがありましたらコメントなどいただけるとありがたいです。


この記事の続き



になります。露光時間と温度について、実際の撮影においてどの程度にすればいいか評価しています。









BlurXTerminator (BXT)を使った、過去画像の再処理の第3弾です。

第1弾は三日月星雲、第2弾は青い馬星雲でした。



三日月星雲は主に星雲本体、青い馬星雲は主に恒星の収差の改善でしたが、今回もすごいです。


トールの兜星雲

今回のターゲットは、NGC2359: トールの兜星雲です。昨年1月に撮影しているので、1年ちょっと前になります。


SCA260で撮影していますが、この時はまだ、今使っている大型赤道儀のCGX-Lではなくて、もう一つ小さいCGEM IIに重いSCA260を載せています。そのため、今見ると3分露光でも揺れの影響が残ってしまっているようで、恒星像が今一ピシッとしていません。これがBXTでどこまで改善できるかがまずはポイントになります。


再処理の途中で

処理をしている途中で、BXTで明るい恒星が崩れる現象が見られました。
Image07_ABE1_DBE_SPCC_BXTbad_NXT_stretch_cut

原因は、元画像の恒星自身が何か歪んでいたことで、よく見ると以前の画像でもその兆候が見られますが、気づいていませんでした。BXTでその歪みが助長されて気づくことができました。BXTといえど全然万能ではなく、元画像がダメな時はどうしようもないです。

ではその恒星の乱れはなんだったかというと、Integrationの時に起こっていて今回はrejectionにWinsorized Sgma Clippingを選んでいたことが原因でした。High側で恒星中心付近がいくつかrejectされていて、非連続になっていたというわけです。今まで気づいたことがなかったので、恒星がおかしい時はrejectionにちょっと気をつけた方がいいかもしれません。

masterLight_BIN-2_4144x2822_EXPOSURE-180.00s_FILTER-HA_mono_cut
明るい恒星の右側がrejectionで不連続になってしまっています。

結局、WBPPでのIntegrationのRejection algorithmをAutoにして解決したのですが、マニュアルでのPreprocdessing からのIntegrationとWBPPのIntegrationでは少し振る舞いが違うようです。マニュアル操作ではそもそもWinsorized Sgma Clippingでも(WBPPのときと同じパラメータにしても)rejectonの度合いはもっと緩やかで、問題が露呈しないレベルで抑えられます。WBPPのWinsorized Sgma Clippingのパラメータをどういじっても解決はできなかったので、諦めてAutoにしたらあっさり解決しました。

それ以外はBXT、NXT合わせて特に困ったことはありませんでした。しかも青い馬星雲の背景出しで相当な時間をかけたので、それがいい練習になっていて、今回の再処理は短時間で終わりました。


結果の比較

結果ですが、以前のものと比べます。まずは以前のもの。背景が暗いので、今回の再処理でもう少し淡いところが出るかもしれないという目論見です。あとはやはりSCA2660とCGEM IIの組み合わせでの揺れのせいでしょう、今見ると恒星の締まりがないのが気になります。
Image07_DBE_PCC_DBE_AS_HTx3_reducestar2_3_crop_mod

次に、今回再処理した結果の画像です。一皮どころか、二皮も三皮もむけた感じです。ちょっとやり過ぎの感もあります。
Image07_ABE1_DBE_SPCC_BXTbad_NXT_stretch2_cut

まず、兜本体の分解能が尋常でないです。これはひとえにBXTのおかげです。また、恒星の大きさですが、不自然でない程度にとどめておきましたが、かなりシャープに絞ることができています。微恒星もより暗いものまではっきりと出ています。

comp1

あと、背景も積極的に炙り出せました。前回の青い馬星雲で練習した成果になるでしょうか。ただ、背景についてはは自宅の明るい場所での撮影なのでこれくらいが限界です。すでにノイズの荒々しさが残ってしまっています。本当はもっと広い範囲で淡い青いところが広がっているはずなのですが、これ以上出したかったら、露光時間をさらに増やすか、もしくはもっと暗い所へ行くべきです。それでもまあ、今回の再処理でとりあえずここまで出たのでよしとしましょう。


まとめ

これまで何度か試したBlurXTerminatorですが、これは天体写真の解像度向上に革命を起こすくらいのツールと言えそうです。その一方、今のAI技術はまだまだ発展途中、もしくは遠い将来から見たら出始めのかなりあやふやな技術だと評価されるかもしれないので、疑似的な画像を作り上げる可能性も否定はできません。中身がほとんどブラックボックスという心配もあります。

そうは言ってもこの素晴らしいツール、手間の軽減、時間の短縮、星像のシャープさ、分解能の向上などメリットの方が遥かに遥かに大きいです。私個人としては新しいツールにかなり寛容なので、DeNoise AIの時もそうでしたが、趣味の範囲では見た目でよさそうなら積極的に使っていきたいと思っています。DeNoiseの時もフェイクになる可能性があるという批判はありましたが、大きな目で見れば今回のBXTはそのアップグレードと考えることもでき、順当な進化なのかと思います。

AIと画像処理は研究ベースでも親和性がとてもいいようなので、今後もアマチュア天文を対象にAIを利用したソフトがさらに出てくることと思います。個人的には拒否反応など示すことなく、冷静にいいところを見つけて、積極的に使っていきたいと思っています。

BlurXTerminator (BXT)を使った、過去画像の再処理の第二弾です。

第一弾は三日月星雲でした。


この時は主に背景の改善が特徴でしたが、今回は特に恒星の改善がすごいです。

BXTの収差補正能力

昨年ゴールデンウィークに、近くの牛岳においてFS-60CBにASI2400MC Proを取り付けて撮影した青い馬星雲。



当時出来上がった画像はASI2400MCの能力が思う存分発揮されたもので、背景の淡い部分が十分に表現され、遠目で見る限り素晴らしいものです。自分的にも十分満足していました。その一方、遠征先で撮影時に接眼側の延長筒の長さが手持ちで合わず、バックフォーカスがずれてしまい、四隅が思いっきり流れてしまいました。
mosaic1

これはさすがに救いようがないとずっと思っていたのですが、BXTはこのレベルでも大幅に改善してくれます。しかも今回使ったのは「Collect only」だけで、恒星を小さくしたりハロを押さえたりする機能は使っていません。
mosaic3

左上だけまだ少し流れていますが、他の8枚は完全に許容範囲です。これだけでもBXTの収差改善は圧倒的にすごいです。

しかもFS-60CBには、昔から指摘されている弱点の一つとして、撮影の際に赤と青とでピント位置がどうしてもずれてしまうという問題があります。現場において赤に合わせるか、青に合わせるか、もしくはその中間に合わせるかいつも大問題です。どうするかは場合によるのですが、今回は青い領域なので青にピントを合わせたために、全ての恒星周りに赤いハロが出てしまっています。ところが、これらの赤ハロも今回のBXTはものの見事に綺麗に除去してくれています。これはFS-60ユーザーにとっては大きな福音となるのではないでしょうか。


背景と仕上げ

この四隅で仕上げた画像です。今回はNXTも使いノイズをある程度除去しています。また、青い馬付近は意外に赤い領域もあり、前回はこの特徴をあまり出せなかったので、今回は少し強調してあります。

masterLight_180_00s_RGB_integration_ABE_SPCC_ABE3_cut

下はこれまでの画像ですが、今回のと比べると、やはり少し緑に寄っている気がしますし、赤が弱いと思います。
masterLight_180s_ABE_PCC_ASx4_SCNR_bg2_cut_s

これまでと、今回の再処理の2枚を比較して検討してみます。まず恒星ですが、明らかに分解能が増しています。特に首元にある青い明るい2つの星の下の方のものは、2つの星がかなり近接しています。前回のものでは明るすぎて分離できていませんでしたが、今回のでは余裕で分離しています。また、微恒星に関しても、拡大して比べるとよくわかりますが、より暗い星までかなりはっきりと写っています。恒星に関してはほとんどの処理がPixInsightで閉じるようになったのでずいぶん楽になったのと、その恩恵でしょうか仕上がりも大分良くなったと思います。BXTのおかげですね。

その一方、分子雲に関しては今回かなり苦労しました。前回のレベルまで全然持っていけないのです。前回の時点ですでにかなりのレベルで淡いところを引き出し切っていて、しかも最後のところをPhotoshopでやっていたので、肝心要の最淡の部分でどうやったか記録が全く残っていません。元々の素材が良かったので、画像処理はかなりシンプルだったはずです。色々試しても、ごくわずかのところでどうしても前回のレベルまで持っていけません。結局今回は第9バージョンまで処理し直して、やっとそこそこ満足しました。ポイントはマスクの使い方だったのですが、前回シンプルにやっていたのを、今回凝りすぎていたというのが原因でした。本当にシンプルに星マスクをうまく適用することで、背景の分子雲モクモクを再現することができました。

あと今回はNXTも使ったので、背景が全体的にノイジーだったのが改善されています。ある程度拡大して比較するとよくわかります。


まとめ

BXTを使い再処理すると、やはり有意に違いがわかるレベルで改善します。今回に関しては主に恒星です。その一方、今回実感できたことは、BXTは恒星や星雲部の分解能は向上させることはあっても、諧調に関してはほぼ何も貢献しないということです。前回の三日月星雲の再処理では背景の階調が改善しているように見えますが、あくまで副次的な効果で、基本的にはこれまで通り丁寧に階調のある部分をうまく拡大させることが必要となるということがよくわかりました。


BXTによる再処理シリーズの第三弾はトールの兜星雲です。
 

この記事はCP+2023参加記(前編)からの続きになります。



天文仲間の溜まり場所

前編記事で会場の見どころの様子をお伝えしました。大したところを見ていないと思われるかもしれませんが、実際にホントにこれくらいで、あとは多少毛が生えたくらいしか見てないんです。じゃあ何をしていたかというと、サイトロンブースのところでウロウロしていると、天文の人がかなりの頻度で訪れて、そこでずっと話しこむことになるというわけです。

今回天文の人にとってはサイトロンとVixenとBORGくらいがメインで、あとはやっぱりカメラなんです。なのでサイトロンブースが入り口にあることもあり、天文民ホイホイ状態になっているわけです。首から下げているCP+の参加証のところにに「Sam」と書いたネームプレートを入れておくと、ブログを読んでいる人が話しかけてきてくれます。実際、初顔合わせの方がかなり多くて、ふだんTwitterなどでよく知っていてハンドルネームだけ認識しているなど、やっとお顔が認識できた方も何人かいました。

一番大きかったのは、初日夕方近くのことですが、KAGAYAさんと直接話せたことでしょうか。以前「ノイズ飲み会」の時にZoomで参加して頂いてお話ししたことはあるのですが、直接顔を合わせたことは初めてでした。話していると、まだ私が20代の頃仕事でKAGAYAさんに(私から直接ではないですが)絵を依頼したことがあって、そのことをKAGAYAさんが覚えていてくれていて、私が思っていたよりはるか前からつながりがあったことがわかりました。今月末で閉館になってしまうKAGAYAさんの全作品を上映している飛騨プラネタリウムの話や、もちろんZoom飲み会の話でももりあがりました。ちょうどその時のメンバーが星ナビさんのTweetで流れてましたが、そうそうたるメンバーで少し気後れしてしまいます。



そういえばこのメンバー、星ナビ編集部のお二方は、以前まだZoomが流行り始めたことに一緒に電視観望中継で参加してくれて、そのことを星ナビの記事にしていただきました。また今回同じサイトロンブース枠で講演もされたカメラマンの飯島さんは、これまた天リフの超会議でZoomで朝の5時まで、最後二人になって話し込んでいました。KAGAYAさんも含めて、Zoomで話したメンバーがこうやってリアルで写真に収まるというのは、コロナもやっと終わりになってきたと実感でき、感慨深いものがありました。

このあと天リフ編集長と夕食に行くのですが、ちょっと食事事情を書いておきます。

食事事情

初日昼食は会場内を見ていたらすぐに時間が来てしまって、ヒロノさんからちょうど昼食を取るところだ連絡があり、駅に向かう途中の和食レストランでかま飯を食べました。結構な人が待っていたのですが、先にヒロノさんが席を取ってくれていたので、すぐに注文して食べることができました。この時点でもう会場はあらかた見ていたので、のんびり食べていたら14時過ぎになってしまいました。

結局夕方過ぎまで会場にいて、ちょうど収録が終わった天リフ編集長と桜木町駅に向かうところで夕食を取るところを探しました。最初ディンダイフォン(鼎泰豐)に行こうとしたのですが、待っている人がいっぱいです。よく見ると他のレストランもかなり満席に近い状態です。上の階にあったバーが小さいテーブルですが二人座れるということで、そこでハンバーガーを食べました。その後ヒロノさんから連絡があり、3人席に移って合流。21時半近くまで話していました。

今回会場内のレストランとかはほとんど見なかったのですが、コンビニは2軒あるので不便に思うことはないはずです。また駅に向かう途中にレストランはたくさんあるので、困ることはほとんどないはずです。でもさすが横浜です、富山と比べるとどこも混んでいるので久しぶりに都会の気分を味わうことができました。


2日目: 再びCP+会場へ

実はこの日の宿は東京駅近くに予約をとっていました。2月過ぎに宿を探した時は横浜周りには高いホテルしか残っていなくて、電車なら30分の距離で大したことないので、いっそのこと東京でもいいかと思ったからです。あと、当時はスターベースとかに寄ることも考えていて、初日にCP+会場に行くか迷っていたという理由もあります。途中コンビニなどに寄ってのんびり移動しても22時半過ぎにはチェックインでき、そこから少し次の日の公演の準備をして、それでも早めに寝てしまいました。

朝はそこまで慌てていません。11時50分からリハーサルなどの準備ができるというので、最悪それまでに会場に行けばいいのです。それでも9時にはホテルを出て電車で横浜まで移動し、みなとみらい線に乗り換えます。みなとみらい駅からは、普通は建物の中をずっと歩いて行けばそのままパシフィコ横浜に着くのですが、この日は少し外を歩いてみました。横浜をうろうろしていたのは学生の頃でもう30年くらい前になります。景色もすっかり変わっていますが、赤レンガ倉庫とかが観光地化されてまだ残っているみたいでした。昨晩は横浜駅で雪がちらついていたのですが、この日は朝から青空が広がり、とてもいい天気です。

IMG_7522

IMG_7523


会場の様子

CP+会場に着いたのは10時半くらいだったでしょうか。ずいぶんお客さんが少なかったのに気づいたのですが、後から聞いたら宇都宮ら辺で事故が起きて、宇都宮線直通にあたる東海道線が止まっていたらしいです。私は、ちょうどこの日は地下鉄都営浅草線から京急経由で横浜まで移動したので、東海道線を使わずにラッキーでした。

会場についてからすぐにサイトロンのスタッフさんと共に、講演ステージの下見と、何時から入れるか、どこから入ればいいかだけ確認しました。あとは少しだけ会場内のブースを見たあと、ほとんどサイトロンブースで人と話していました。あ、今日の長尺一脚の妖艶お姉さま(?)はこんな衣装でポーズをとって下さいました。

IMG_7528

自分の講演の直前でしたが、サイトロンブース内で聞いた変形菌の撮影トークがものすごく面白かったです。すごい拡大率のマクロレンズで菌を接写するのですが、ピントが合う範囲がものすごい限られているので、カメラをステージに乗せて少しずつ位置をずらすことで何十枚も撮影し、ピントが合っているところだけをつなぐ深度合成という手法を使うそうです。会場で実際に何枚も撮影して、画像処理でピントが合っていく様子を見せてくれました。下の写真で、右の方がピントが合っている範囲が多いのがわかると思います。

IMG_7546

多少のサイド出しはしているのかと思いますが、それにしても菌の世界はビックルするほど色鮮やかです。もしかしたらちょっと面白いかもと思ってしまいました。


とうとう自分の講演

サイトロンブースには講演の案内が出ています。記念に写真を撮っておきました。

IMG_7544
なんとあこがれのKAGAYAさんと隣同士で並んでいます!
あぷらなーとさんもいます!

講演の準備はほとんどしてあったのですが、やはり直前に準備をする時間はほとんど取れなかったので、きちんと準備しておいて正解でした。事前の申し込みでは締め切り前に少しトラブルがあったとのことで、当日の人数的にはまだ余裕があったようです。当日ステージに並んでの入場も可能で、全員入れたかどうかはわかりませんでたが、ステージ内の座席はほぼ埋まっていました。

FC6E559F-D14F-4BFC-8AB7-0BEE2E8B0633

実は今回の話は、天文の人よりもむしろカメラが好きな人に聞いてほしかったので、会場に来ていた方が飛び込みで参加してくれるというのは願ったり叶ったりです。多分CP+に来るような人なら、一眼レフカメラと50mmくらいのレンズ、三脚と自由雲台を持っている人が多いのではないか、そんな人が手持ちの機材で星雲を見ることで、少しでも天文に興味を持っていただければと思っています。

ちょっと緊張してましたが、講演は無事に滞りなく終わりました。会場の中で一人大きく頷きながら聞いてくれた方がいたので、その方の反応を見ながら話すことができ、うまくペースを掴むことができました。多分天文の方だとは思いますが、SharpCapを一眼レフカメラに接続するのも詳しそうな反応でした。

講演のアーカイブ配信はこちらにあります。一眼レフカメラをお持ちでこれまで星雲とか見たことない方、是非この配信をご覧ください。これまでと違った面白い世界が見えてくるはずです。

この配信ですが、最初の方で話と身振りが合っていないところがありますのでご了承ください。機材のトラブルで、当日のリアルタイム配信もうまくいってなかった時間があったと、講演終了後に天リフ編集長から本当に申し訳あまりませんという謝罪を受けました。私は天リフ編集長がたった一人でどれほど熱心に活動されているかよーく知っているので、謝罪なんてとんでもなく、いつも本当にありがとうございますという気持ちで一杯です。すぐに(450GBもある)プレゼンファイルをパワポ形式のまま渡して、後日再編集していただき、晴れて上のアーカイブ配信となりました。

vNxNBCo6
サイトロンブースの脇でファイルを渡す時の写真。
(結局大きすぎてネット経由で渡しました。)

と、こんな事情があったので、配信を見るときはご注意ください。この動画を見てもらうことで、ジワジワでいいので、カメラ民が天文民に流れてくれることを密かに期待しています。

講演終了後も、サイトロンブースのほうで講演に参加してくれた方から質問を受けたり、何人かの天文仲間と話していました。それでも昼ごはんを食べていなかったことと、さすがに少し疲れてきたので、午後2時半頃には会場を後にしました。


中華街へ

IMG_7563

ちょっと遅めのお昼ですが、何にしようか迷っていて、まだ少し時間があるから久しぶりに中華街に行ってみようと思い立ちました。昔はJRしかなくて、パシフィコ横浜の位置からだと少し歩く必要があったのですが、今はみなとみらい線があるので、ほぼ直通です。中華街は確か日本に帰ってから一度行っているはずなのですが、ほとんど記憶がありません。昔と違うなーと思ったのは、学生の頃はまだスマホとかなかったので、地図をその場で確認するわけにもいかず、当然中華街の地形図はある程度覚えていました。でも今回はどこを歩いたかさえ認識できなかったです。スマホの地図さえ見ていれば、どこにいても駅の方向がわかります。日曜であまりに混んでいたのと、ちょっと道に入って買い食いして、あとは駅のほうに戻ってきてしまいました。

IMG_7560
IMG_7562

でも昔って、こんなに食べ歩きがメインでなかった気がします。もちろん今も普通のレストランもありますが、昔はレストランがメインで、普通に店の中で食べて、歩きながら店頭でパッと買えるものはもっと少なかった気がします。と言ってももう20-30年位前のことなので、ずいぶん変わったのでしょう。今回は時間がなくて、そのまま横浜経由で東京駅のほうに向かいましたが、そのうち時間がある時に若い頃歩いたところをいろいろ見て回れればと思います。

17時の新幹線に乗ることができ、自宅には20時頃に到着しました。これより遅くなるとバスの本数も少なくなって余計に時間がかかってしまうので、ちょうどいいくらいの帰宅時間になりました。


まとめ

4年ぶりのリアル開催のCP+で、実際に自分が行くのは6年ぶりです。いろんな人に実際に会うことができてとても楽しかったです。講演も多くの方に興味を持って頂けたようで、電視観望がジワジワと広まっていって、さらに天文ファンが増えてくれればと願っています。

このような機会を与えて頂いたサイトロンさんにはとても感謝しています。本当にありがとうございました。

よく考えると、そもそも関東で星に関するイベントってあまりないんですよね。実際に星を見るわけではなくて、明るい場所のみで会うという、ちょっと星まつりとは違っている状況が、予想に反して面白かったです。カメラの方をもっと楽しめると尚よかったですが、これは次回CP+にリアル参加するときの課題にしておきたいと思います。






このページのトップヘ