ほしぞloveログ

天体観測始めました。

タグ:画像処理

友人が撮影した北アメリカ星雲の画像を触る機会がありました。画像処理は初心者で、有料のソフトは使っていないとのことです。あらかじめ画像をダウンロードさせてもらって、事前に処理しておいて、その結果を元に時間が合う時にZoomで繋いで画面共有しながら画像処理について検討します。

私としてはいい機会だったので、普段とは違う画像処理を試しました。というわけで、今回のブログ記事のお題は「全て無料の画像処理ソフトで進めた場合、有料のものにどこまで迫れるか」としてみます。

といっても、忘備録がわりの自分のメモ用の側面が強いので、あまり初心者向けの記事にはなっていません。需要があるとしたら、普段PixInsightとか使っていて、他の無料ソフトを試してみようかとか思うような、ちょっと珍しい人向けです。


有料/無料画像処理ソフト

ダウンロードした画像を、まず最初はいつも通りPixInsightとPhotoshopで進めます。撮影されたファイルはライトファイルとダークファイルです。フラットファイル、バイアスファイルはなしです。
  1. WBPPでダーク補正とスタック
  2. ABEの4次でカブリ取り
  3. SPCCで色合わせ
  4. BXTで星を小さくし
  5. GHSでストレッチ
  6. NXTでノイズ除去
  7. StarNetで恒星と背景を分離
  8. その後Photoshopに送り、仕上げ
となります。この流れはいつものことなので、詳しい処理内容は省きます。できた画像は以下のようになります。

masterLight_60_00s_ABE_BXTc_SPCC_BXT_GHSx2_NXT3_cut

一方、無料ソフトに制限すると、最近の状況を見るに、以下の選択肢が現実的ではないかとでは思っています。
  1. ダーク補正してスタックするのにSiril
  2. 同じくSiri上で色合わせとDeconvolution
  3. GraXpertに移ってフラット化とストレッチとdenoise
  4. StarNetで恒星と背景を分離
  5. その後GIMPに移って仕上げ
できた画像は以下のとおりです。

starless_result_PCC_deconv_stretched_GraXpert_cut

鮮やかさは誤差の範囲として、恒星の大きさ、背景のノイズ、明るいところの細かい構造などが大きな違いでしょうか。淡いところの構造は、無料の方が出ているかと思います。こうやってみると、有料ソフトと比べても、全然遜色なく、十分処理できていると思います。

各ソフトの詳しい操作などは他の解説にゆずるとして、ポイントのみ書いておきます。


まずはSiril



このブログではこれまでSirilについて述べたことはほとんどないのですが、最近のSirilはかなり使えるようになっていると思います。一時期試しに少し使ったことがあるのですが、結構頻繁に落ちて不安定なイメージでした。でも今は、少なくとも落ちるようなことはまずなく、普通に処理ができます。この「普通に」というのは結構重要です。まずストレスがなくなりますし、特に初心者にとっては自分の操作がダメなのかソフトのトラブルなのかの見分けがつきにくいと思うので、普通に安定に動くというのは目立たないけどとても大切なのかと思います。

いつもはPixInsightなので、Sirilの操作に慣れてはいなくてとまどうことはありましたが、検索すると解説記事などすぐに見つかり、その通りに進めれば簡単にスタックまで終えることができると思います。気がついたことのみ書いておきます。
  • 最初にワーキングディレクトリを決めること。画面左上の家マークのアイコンを押して指定してやることでしていできます。処理画像のたびに指定してやる必要があります。
  • 指定したホームディレクトリの下に、lights、darks、flats、biasesとフォルダを作って、撮影したRAWファイルをその中に分類して入れます。フォルダ名の複数のsとか、きちんと指定しないと「ファイルがみつからない」とかのエラーになってうまく処理されません。
  • スタックをするためには、左上の「スクリプト」タブを押して、処理したいプロセスを選びます。今回はライトとダークファイルのみだったので、それに合わせたスクリプトがありませんでした。実際スクリプトを進めようとするとヘルプが出てきますが、英語なのでちょっと面倒かもしれません。とりあえず書いてあることはhttps://gitlab.com/free-astro/siril-scriptsを開いて、必要なスクリプトをダウンロードせよということです。prepcocessingを開き、今回必要なフラット補正を省いた処理(バイアス補正も無いようです)「OSC_Preprocessing_WithoutFlat.ssf」を選び、ダウンロードします。
  • 問題は、これのスクリプトファイルをどこに置くかです。Windows版は説明が普通にすぐ見つかるのですが、Mac版の場合どこに置けばいいか迷いました。結局、Sirilのメニューの設定からスクリプトタブを選び、そこに書かれているフォルダ内にダウンロードしたスクリプトを置いてやれば認識されることがわかりました。ただ、そこに書かれているフォルダがそもそも存在していないことが多いので、改めて自分でフォルダを作ってやる必要があります。
  • スクリプトが認識されたら、左上の「スクリプト」タブを押して、今回落としたプロセスを選びます。すると処理が始まり、スタックされた画像が保存されます。
Sirilは、PixInsightに比べると指定できるオプションは圧倒的に少ないですが、むしろPixInsightの設定項目は多すぎて使いこなせていない方も多いと思います。初心者ならあえて迷うことがないSirilにするというのはありだと思います。PixInsightの方が細かい設定ができるので、いつかSiriで処理結果に不満が出てきたなら、PixInsightに移行することを考えるという道を辿ったほうが迷いが少ないかもしれません。

スタックまでに関していえば、有料のPixInsightだろうがステライメージだろうが、無料のSirilだろうがもっとシンプルなDSSだろが、結果に大きな違いはあまり出ない気がします。撮影ファイルの条件によっては、色々トリッキーなオプションがあるPIが有利とかはあるかもしれませんが、そこで出てくるような差があるなら撮影条件を見直してきちんとしたRAW画像を得る方が真っ当な気がします。なので、個人的な意見としては、スタックまでは有料無料の差はそこまで無いのではないかというのが今回の感想です。

違いが出るのはスタック後のリニア処理でしょうか。そもそもリニア処理というのも元々PI用語と言ってしまっていいのかもしれません。PixInsightでは例えば色合わせは、PCC、SPCCなどと進化してきました。Sirilにも同様のPCC (Photometric Color Calibration)があり、その際に恒星の認識できちんと位置合わせもします。なのでコンセプトはどんどんPIに近くなっていると言っていいのでしょう。ただ、やはり細かい設定とか、SPCCで基準フィルターまで考慮するとかなど、PIにまだ一日の長があるかと思いました。色合わせした結果だけ見ると、PIのPCCとSPCCでもそこまで差が出ないように、Sirilでも特に不満はありません。むしろ無料でここまでできることを素直に評価すべきだと思います。

決定的に違うのはBXT(BlurXTerminatot)の存在でしょう。収差、四隅のズレ、ピンボケ、ガイド流れなど、BXT以前では鏡筒や赤道儀の制御など、ハードウェアで改善するしかなかった高度な調整を、ソフトで相当なレベルまで補正してしまいます。また、星雲本体などの細部出しにもかなり有用です。特に入門用撮影鏡筒と高性能撮影鏡筒との差をかなり縮めてくれるので、初心者にむしろ使って欲しいところなのですが、今のところBXTはPIの上でしか動かすことができず、無料ソフトでは到底太刀打ちできません。BXTが単体で動くようになればいいのですが、BXTの為だけにPIを導入するのもアリなレベルかと思います。ただしPIと合わせると値段が...。


GraXpert

次のフラット化ソフトですが、有料ソフトでも未だ決定打はないのかと思っています。光学的なフラット補正は当然するのですが、それでも不十分な場合が多くて、 淡いところを引き出し切るにはさらにソフト的にフラット化をするのが必須になっています。

PixInsightだと、ABE、DBE、GC(GradientCorrectiopn)など、選択肢はそこそこあります。単純なフラット化は何を使ってもそこそこうまくいくのですが、画面一面分子雲で埋もれているような場合には、複数のフラット化処理をしたり微調整をすることなども含めて、かなり手間です。また、PI以外では有料ソフトも含めてあまりフラット化に関する補正はあまり開発されていなくて、昔からPhotoshopなどを利用して画像全体をぼかして大まかな勾配を作り出しそれで補正するなどの手がとられてきました。PixInsight無しできちんとフラット化しようとすると、かなり手間がかかる割に、淡いところを引き出し切るのにはまだまだ不十分な印象です。


ここで出てくる、ある意味決定打に近いものが無料のGraXpertです。


GraXertについては以前CP+の時に解説しました。

よかったら、リンク先の動画と共に以下お読みください。

GraXpertを使うと、あまりに簡単にフラット化できてしまって、かつ設定項目が少なくて細かい調整ができないので、私は普段はあまり使わないのですが、今回比較してみてびっくりしました。PIでかなり気合を入れて調整をし無い限り、淡い部分に関してはGraXpertが圧勝です。私は基本的GraXpertのエンジンにはKrigingを使います。他も試しましたが、少し時間はかかってもこれが一番良い結果を生むことが多いです。PixInsightで今検討されている、バックグラウンドまで参照データと比較するMARS機能が出たらまたわかりませんが、もう相当レベルまでGraXpertだけで良い気がしました。これで不満が出るならPixInsigtの各ツールを駆使するのが次の手ですが、はるかに時間もかかり結果を出すのも結構大変だと思います。

ストレッチに関しても未だに決定打はないと思っていて、PixInsightではHistgramTransformation、ArcsinhStretch、MaskedStrerchなどがあり、最近はGHS (GeneralizedHyperbolicStrertch)がでてこれが決定打かと言われています。またPixInsightのユーザーが作成しているスクリプトレベルでは、iHDRという輝度差が激しい天体に適用できるものが提供されたりもしています。でも選択肢がこれだけあるということは、ある意味決定打になっていないということでもあるわけです。GHSはかなりいいですが、操作がちょっと複雑で、初心者がいきなりこれを触るとあまりうまくいかないのではないかと思います。

ステライメージはほぼデジタル現像一択ですね。こちらはある意味迷うことはほとんどないのと、全て日本語で操作できるので初心者にも優しいのかもしれません。ただ、数学的にはデジタル現像はGHSのかなり限られた条件下での変換ということが蒼月城さんによって指摘されていますし、(私はまだ使っていませんが) SirilにもGHSがあることを考えると、今の時代有料ソフトならではのストレッチ方法をもっと提案して欲しいとも思ってしまいます。

そういう意味でGraXpertのストレッチを考えてみます。選択肢はどれくらいあるかというと、大まかなところではどれくらい適用するかの「強さ」くらいしかないので、これまたとんでもなく楽です。無料である程度のストレッチが簡単にできるということは、やはり特筆すべきです。というか、GraXpertはフラット化とストレッチと、次のDenoiseが3つセットになっているようなものなので、一緒にストレッチも使わない手はありません。でもGraXpertのストレッチが決定打というわけでは全然ありません。有料、無料ソフトともに、将来もっと発展するであろう部分の一つだと思います。

ノイズ除去も無料ソフトだけだとかなり限られてしまいます。BXTに続いて有料と無料で差が出るところでしょうか。有料での決定打はNXT(Noise XTerminator)かと思います。単なるノイズ除去ソフトやプラグインはAI対応も含めて数多く存在しますが、鋭い恒星を多数含む天体画像処理に使えるものは本当に限られています。一般のものでは遠目で見ると一見ノイズが小さくなるように見えるのですが、その弊害として恒星の形が大きく崩れることが多くて、ほとんどが使い物になりません。PIでも昔ながらのノイズ除去ツールは用意されていますが、今時のAIを考慮したノイズ除去ツールに比べると、少し見劣りしてしまいます。

GraXpertのDenoiseはそんな中でも数少ない、恒星とともに使えるノイズ除去です。しかも無料です。効果はNTXと比べると多少劣る感はありますが、そこそこ十分なレベルかと思います。少なくともGraXpertを使うついでなので、無料の中での選択肢を考えると、Denoise機能を使わない手はないと思います。

ノイズ除去ですが、次の恒星と背景と分離するツール、無料の場合は「StarNet」を使うと状況が一変します。恒星を分離して背景だけにすれば、あとは恒星の崩れを気にしなくて良くなるので、一般的なノイズ除去ツールを使いたい放題になります。ただ、言うまでも無いですが、過剰なAIツールの使用や、例えクラシカルなノイズ除去ツールだとしても、過度なパラメータなどは偽の構造や線、見た目に不自然な模様などを作りかねないので、程々に使うのがいいのかと思います。


StarNet



恒星と背景を分離するツールとしては、有料がSXT(StarXTerminator)、無料だとStarNet V2があります。私はSXTは試用で使っただけです。結果だけ見るとStarNetとそこまでの差はなかったので、無料で十分だと言う判断でした。でも、SXTの方が細かいところでいい結果だという意見も結構あるようなのと、そこまで高いソフトではなくて買い切りでアップデートもできるので、最初からSXTという手もありかもしれません。ただSXTは、PixInsightからか、Photoshop、Affinity Photoからしか動かないので、動かすための環境も有料になります。

それよりも、メンテナンス環境に無料と有料の差がかなりあります。StarNetは使うのが結構面倒です。Macだとはコマンドライン版しかないので、毎回ターミナルから走らせてコマンドを打って走らせる必要用があります。PixInsightを使うと、PixInsightないからStarNetを呼び出すことができるのである意味GUIになるのですが、PixInsightの大型アップデートのたびにインストールし直しに近い状態でセットアップする必要があります。Sirilからも呼び出せるので、こちらもGUIのように扱うことができます。コマンドライン版のStarNetをきちんと設定したとに、Sirilの設定の
siril_starnet
で、StarNetの実行ファイルを設定し、Sirilの「画像処理」->「Star Processing」->「StarNet Star Removal」から実行します。

元々のStarNetは天体画像ファイルから背景のみを作り出すという機能しかありません。PixInsightを使うとそれをPixInsight側で拡張して、恒星のみの画像ファイルも同時に作ってくれます。Sirilでも恒星画像も作ってくれるオプション(Generate star mask)があるので、こちらも便利です。

一方、Windows版のStarNetにはGUI版があるようです。私はWindows版は使ったことがないのですが、GUI単体で動くので便利なようです。ただし、このGUIは背景画像は作ってくれるのですが、恒星のみの画像を作ってくれません。しかもSirilから呼び出すと、このGUI版が直接呼び出されるだけで、やはり恒星のみの画像を作ることができません。おそらくWindowsでもコマンドライン版をインストールして、それをSirilから呼び出すようにすれば、恒星のみの画像を作るオプションが出てくると思われますが、私は今回は試せていません。

と、StarNetは結構面倒だったりします。この面倒さを回避するためだけに有料のSXTを使うというので、十分元を取ることができる気がします。ただ繰り返しになりますが、呼び出す環境も有料ソフトからになるので、ある程度の出費を覚悟する必要があります。


GIMPで仕上げ

恒星と背景を分離したら、あとは最後の仕上げや微調整です。個性を出すところでもあります。

有料だと仕上げまでPixInsightでやってしまう方も一定数いるかと思いますが、それでも最後はレタッチソフトを使うという方の方がまだ多いでしょう。Sirilだけで終えることができるかどうかはまだ私は試していませんが、そういった強者もすでにいるのかと思います。

レタッチソフトの有料版は、Photoshopがメジャーで、最近Affinity Photoが天体用にも話題になっています。Affinity Photoは結構良いという評判だったので、私も少し試用してから、締め切りが近くなった半額セールに負けて買ってしまいました。

Affinity PhotoはPhotoshopと違い買い切りでアップデートまでできるので、値段的にはかなり安くなります。機能的にもPhotoshopにかなり迫ることができますが、やはりこなれ具合など、まだPhotoshopの方がいい印象です。ただ個人の慣れもあるので、値段も考えると評価としてはトントンでしょうか。

Affinity Photoの方がいいところもあります。Photoshopは画像の処理過程の履歴を永続的に残すことができなくて、処理している最中はまだ元に戻れるのですが、ファイルを一旦閉じてしまうと、それまでにやって履歴は全てクリアされてしまいます。ファイルの中に記録するような手段は調べた限りないようです。どうしても作業を残したい時はレイヤーを多数使うなど、ユーザー側で何か工夫する必要がありますが、全部を残すのは現実的でないので、履歴は基本残せないと言ってしまっていいでしょう。一方、Affinity Photoはオプションで履歴を残すことができます。わざわざオプションで指定しなくてはダメですが、それでも手段があるとないとでは大きく違います。Photoshop用のプラグインも、昔のもので使えないものもありましたが、手持ちで最新のものにアップデートしているものは全てAffinity Photoでも使えています。

すみません、この記事は無料ソフトの検証なのにちょっと脱線してしまいました。Photoshopに相当する無料ソフトはGIMP一択でしょうか。


基本的なことは問題なくできます。操作性が少し劣る印象ですが、これは慣れもあるので個人的な感想の範疇かもしれません。それでもやはり有料ものと比べると差があるという感想です。

明らかに不利なところは、ノイズ処理があまりに貧弱なことと、Photoshopのプラグインが使えないことでしょう。あと、領域選択もPhotoshopのほうがかなり高機能で、いろんな手段があります。星雲の構造を出したいとかで、選択方法が限られると少し差が出るかもしれません。

GIMPでも基本的なことはできるので、天体画像処理も凝ったことをしなければ大丈夫です。よく使う機能といえば、レベル補正、トーンカーブ、彩度調整などでしょうか。レイヤー機能もあるので、恒星と背景に分離した画像の再合成もレイヤーを使うと簡単に「リアルタイムで見ながら」調整できます。

またちょっと脱線になりますが、私が画像処理をPixInsightで閉じてしまわずにPhotoshopに持っていくのは、このレイヤー機能があるからです。例えばStarNetで分離した恒星と背景画像の合成は、PixInsightだとPixelMathなどを使いますが、その都度計算させて結果を確認する必要があり、リアルタイムで見ながら調整というのからは程遠いです。一方、PhotoshopやGIMPなど、レイヤーがあればその場で見ながらリアルタイムで調整ができます。このレイヤー機能での差がある限り、PixInsightだけで閉じて画像処理を終えることは当分ないと思います。その意味ではレイヤー機能があるGIMPも十分使えることになります。

GIMPには、Photoshopで便利なCameraRAWフィルターに相当するのがないのが痛いです。ストレッチする前のリニア処理では人によってあまり差が出ないと思うのですが、ノンリニア処理では好みを入れたりして人によって仕上がり具合も変わってくるのかと思います。そこにこのCameraRAWフィルターの各種便利な機能を使うことで、簡単に効果的に調整を効かせられるので、好みや個性を出しやすいのかと思います。便利な機能なので、その反面、簡単に客観性や一般性を失うこともあります。それでも趣味としてはやはり楽しいのが一番だと思うので、加減しながら自分の好みで仕上げるのがいいのかと思います。GIMPにはこれに相当する便利な機能はなく、基本操作の組み合わせで工夫することになり、よりテクニックが必要なので、初心者には少し辛くなるのかと思います。


Zoomでの画像処理の様子

実際のZoomでの画像処理検討会は、上のようなことを試しながら説明して進めていったのですが、今回は特にどんな点に関して注目したかを書いておこうと思います。


1. ピント関連

まずダウンロードした画像では、少しピントがずれていたために、恒星が多少大きくなってしまっていて、真ん中が少し抜けてしまっていました。これは事前画像処理で試したところ、BXTを通すことで劇的に改善したので、無料ソフトに限るとなかなか手がありません。やはり大原則は、撮影時にできるだけきちんとピントを合わせるのが大事なのかと思います。せっかくの機会なので、私がよくやっている手動でのピントの合わせ方を説明しました。といっても大したことは言ってなくて、
  1. ピントを合わせる時に、一旦恒星が最小になったところを通り抜けて、再び大きくなるまで移動すること。
  2. 最小になった位置からどれくら移動したかを、指先でタッチした感触は、つまみを触った回数を数えるなどして、量として覚えておくこと。
  3. その覚えた量の分だけ逆方向に戻ること。
  4. 最小を通り抜ける時に、最小時の恒星の大きさを覚えておいて、それと比較して大きくなっていないかを、最後合わせこむ。
などです。


2. ディザリング

ダーク補正でのホット/コールドピクセルの処理のあとが、一部黒い点になって残ってしまいました。縞ノイズはほぼ何も出ていなかったようなので、ガイドはかなりうまくいっていたようです。その一方、ディザリングをしなかったので、こういった欠損的なものを散らすことができなかったようです。ディザリングは縞ノイズや各種欠点をうまく散らしてくれる、天体写真撮影ではある意味もう必須と言っていいくらいの標準的な機能なのですが、その貢献度があまり目立たないために軽視されることがあります。ディザーがないと画像処理に際して思わぬところで困ったりして、しかも縞ノイズとか今回の欠損のように、画像処理だと補正しきれないことに繋がることが多いです。「次回以降はディザリングをした方がいい」とアドバイスしましたが、「今の赤道儀だと外部ディザー信号を入れることができなかったり、たとえ外部信号を入れれたとしても、ディザー中にガイドを止めることができない」とのことで、難しいとのことでした。


3. トーンカーブのアンカー

トーンカーブでアンカーの使い方を説明しました。背景の色バランスはグレーに保ったまま、例えば今回のHαの淡いところを出したい場合などです。
  1. トーンカーブを赤だけが調整できるようにRを選択します。
  2. トーンカーブの山のピークの左側の斜右上がりの直線上にいくつか、複数の点を打ちます。これがアンカーになります。
  3. アンカーは、入力と出力が同じになるように、ちょうど直線の上に打ちますが、ずれた場合は入出力が同じになるように数値を見ながら調整します。トーンカーブの明るいところをいじっても、背景(山のピークの左側)の明るさが変わらないように留めておくという意味で、アンカーというわけです。
  4. あとは山のピークの少し右側を持ち上げると、アンカーのおかげで背景の色バランスは変わらずに、淡い赤い部分だけを持ち上げることができます。
アンカーはトーンカーブの右側にも何点か打って、明るい部分が持ち上がりすぎて白飛びしないようにするなどしてもいいでしょう。


5. フィルターと青成分

これは使っている光害防止フィルターに依ると思うのですが、多少なりとも青成分があれば、好みによってはトーンカーブなどで青をあえて持ち上げることで、諧調豊かな北アメリカ星雲にすることもできるでしょう。ただ、今回は上で説明したアンカーを使って青を持ち上げても、見た目ほぼ何も変化がなかったので、青成分のヒストグラムを見てみましたが、山の右側より明るいところにほとんど青成分が含まれてませんでした。今回のフィルターは2波長に絞ったかなり強いものなので、「もう少し青成分を通す弱いフィルターでもいいのではないか」という提案をしました。


6. 撮影時間とノイズ

今回はマスク処理に関しては説明しませんでした。ちょっと高度なことと、私自身がSirilでうまくマスクを作る方法と、GIMPでマスクを簡単に扱う方法を、よく知らないからです。マスクに関しては次回以降の課題としました。

私が事前に有料ソフトで処理したものはマスク処理も含んでいる(PixInsightでマスクを作り、Photoshopで適用)ために、背景の淡い構造があるところのノイズを目立たなくする目的で、星雲本体にマスクをかけて、背景のみに結構強めのノイズ処理をしています。その一方、無料ソフトだけの場合はマスク処理はしていないので、背景のノイズ処理は大したことをしていません。でも両者を比べると、背景のノイズ処理はあまりしない方が自然に見えているので、無理にマスク処理とかしなかった方がよかったのかもしれません。

そう言った意味で、「淡いところのノイズを減らすためには撮影時間を伸ばすことが重要」という説明をしました。特に今回の鏡筒がFMA135ということで口径わずか3cmなので、口径を大きくすることも背景のノイズを改善することになるかと思います。


と、大きくはこれら6つのことを言ったかと思います。改善につながる余地があるところです。その他は基本的なことも含めて、すでにかなり勉強して理解していたので、検討会も順調に進み、19時半に初めて22時前くらいまでの2時間強で色々議論できたのかと思います。


まとめ

少し長くなったのでまとめます。
  • 無料ソフトに限った画像処理でも、かなり有料ソフトに迫ることができる。
  • 具体的には、スタックと色合わせまではSiril、フラット化とストレッチとノイズ除去はGraXpert、仕上げはGIMPなどが使える。
  • ただし、恒星の補正と背景の細部出しに有利なBXTは、有料ソフトであるがかなり強力で、無料ソフトの使用だけに限ってしまうと、BXTの有り無しで大きな差が出る。特に高価な機材を使う機会が限られている初心者にこそBXTを使ってもらうことで、機材や画像処理テクニックの差を縮めてもらいたい。
  • 恒星を含む天体画像専用のノイズ除去に関しては、有料の方が有利であるが、無料だとGraXpertが使える。恒星と背景を分離して背景のみに適用するなら、天体画像専用でない一般的なノイズ除去ソフトが使える。
まずは余分なお金を使わないで無料ソフトで画像処理を進めても、もう全然良い時代になっているのかと思います。最近はSirilとGraXpertがその牽引役なのでしょう。あとはBXT相当の無料版があれば...。

ここしばらくは別の記事でしたが、再び実画像のノイズ解析です。前回の記事はこちらになります。


ここまでで、画像1枚の中にある各ノイズの貢献度が定量的にわかるようになりました。


また天体部分の信号にあたる大きさも定量的に評価でき、S/Nが評価できるようになりました。


S/Nは1枚画像では評価しきれなかったので、スタック画像で評価しましたが、あくまで簡易的な評価にすぎません。簡易的という意味は、ダーク補正はフラット補正でノイズの貢献度がどうなるかをまだ評価できていないということです。

今回の記事では、ダーク補正やフラット補正で画像の中にあるノイズがどうなるかを評価し、他数枚をインテグレートしたときに信号やノイズがどうなるのかを議論してみたいと思います。


スタック(インテグレーション)

そもそも、天体写真の画像処理で言うスタック(PixInsightではインテグレーションですね)とはどういったことなのでしょうか?

基本的には以下のように、重ね合わせる枚数に応じて、信号SとノイズNで、それぞれ個別に考えることができます。
  1. 画像の天体などの「信号部分」Sに関しては、多数枚の画像同士で相関がある(コヒーレントである)ので、そのまま足し合わされるために、信号Sは枚数に比例して増えます。
  2. 画像の天体以外の「ノイズ部分」Nに関しては多数枚の画像同士で相関がない(インコヒーレントである、コヒーレンスが無い)ので、統計的には2乗和のルートで重なっていきます。例えば5枚のノイズNがあるなら、sqrt(N^2 + N^2 + N^2 + N^2 + N^2) = sqrt(5) x Nとなるので、√5倍となるわけです。
そのSとNの比(S/N、SN比、SNR (Signal to Noise ratio))を取ることで、スタックされた画像がどれくらいの質かを評価することができます。S/N等は技術用語ですが、ある特殊分野の技術単語というわけではなく、かなり一般的な単語と言っていいかと思います。

n枚の画像をスタックすると、1の信号Sのn倍と、2のノイズNの√n倍の比を取ると、
  • S/N = n/sqrt(n) = sqrt(n)
と√n倍改善されるということです。

よくある誤解で、スタックすることでノイズが小さくなるという記述を見かけることがあります。ですが上の議論からもわかるように、ノイズが小さくなっているわけではなく、実際には大きくなっています。ノイズの増加以上に信号が増えるのでS/Nがよくなるということです。また、スタックするという言葉の中には、足し合わせた輝度をスタックした枚数で割るという意味も含まれていることが多いです。S/Nが良くなった画像をスタックした枚数で割ることで1枚画像と同じ輝度にした結果、1枚画像と比較してノイズが小さい画像が得られたということです。

もちろん、こういったことをきちんと理解して「スタックすることでノイズが小さくなる」と略して言うことは全く構わないと思います。ただ、定性的にでもいいので、どういった過程でスタックが効いてくるのかは、理解していた方が得することが多いと思います。


ダーク補正

天体写真の画像処理でも一般的な「ダーク補正」。一番の目的はホットピクセルやアンプグローなど固定ノイズの除去です。ホットピクセルは、センサーがある温度の時に撮影すると、いつも決まった位置に飽和状態に近い輝度のピクセルが現れることです。ホットピクセルの数は温度とともに多くなると思われます。アンプグローはセンサーの回路の配置に依存するようです。これが温度とどう関係があるかはほとんど記述がなく、よくわかっていません。ホットピクセルやアンプグローなどは、どのような過程、どのような頻度で出るのかなど、カメラに依存するところも多くあり、私自身あまりよくわかっていないので、今回は詳しくは扱いません。いつか温度とホットピクセルの関係は実測してみたいと思います。

ダーク補正でダークノイズは「増える」:
これまたよくある誤解が、ダーク補正をするとダークノイズが小さくなると思われていることです。ここで言うダークノイズとは、ダークカレント(暗電流)がばらつくことが起因で出てくるノイズのことです。ダークカレントとは、センサーに蓋をするなどしていくら真っ暗にしても出てくる一定の電流からの信号のことで、センサーの温度によって単位時間あたりの大きさが決まります。この信号のバラツキがダークノイズとなります。最近はメーカのカメラのところにデータが掲載されているので、そこからダークカレントを読み取ることができ、これまでもその値からダークノイズを計算し、実測のダークノイズと比較して正しいかどうか検証してきました。

何が言いたいかというと、ダーク補正をするとホットピクセルは除去できるが、ダーク補正ではどうやってもダークフレームが持っているダークノイズ(ホットピクセルでないラインダムなノイズの方)は消すことができなくてむしろ必ず増えるということです。

さらにいうと、個々のダークファイルには当然読み出しノイズ(Read noise)も含まれているので、ダーク補正時に読み出しノイズも増やしてしまうことにも注意です。読み出しノイズの増加については、次回以降「バイアスノイズ」という記事で、独立して説明します。

コヒーレンス(相関)があるかないか:
ホットピクセルは、個々のダークファイルに全て(ほぼ)同じ位置、(ほぼ)同じ明るさで出てくる、輝度が飽和しかけているピクセルのことです。アンプグローもカメラが決まれば同じ位置が光ます。どのファイルにも同じように明るく出てくるので、ばらつき具合は(中間輝度を基準とすると)全て正の方向で、互いに正の相関があり ( =「相関がある」、「コヒーレンスがある」、「コヒーレント」などとも言う)、全て足し合わされます。

一方、ダークカレンと起因のダークノイズはランダムなノイズです。個々のダークファイルのある一つのピクセルに注目して、全てのファイルの同じ位置のピクセルの値を見てみると、全ファイルのそのピクセルの輝度の平均値を基準として、個々のファイルの輝度の値は正負がバラバラになります。このことを相関がない ( =「無相関」、「コヒーレンスがない」、「インコヒーレント」などとも言う)といい、それらの値を全て足し合わせると正負なのである程度打ち消しすことになります。

ノイズの数学的な定義:
個々のダークファイルの画像のある面積を考えてみましょう。その面積の中の輝度も、平均値を中心に正負がバラバラで、その大きさも「ばらつき」があります。この「ばらつき具合」がノイズそのものです。数学的には面積内の各ピクセルの値から平均値を引いて、2乗して足し合わせたものを統計用語として「分散」と呼び、そのルートを「標準偏差」と呼びます。この標準偏差をここではノイズと呼ぶことにしましょう。

ここで注意ですが、ある面積を選ぶ時にはホットピクセルやアンプグローを含めてはいけません。ホットピクセルやアンプグローは背景のダークに比べて格段に明るく、特にホットピクセルは飽和気味の場合も多いのでで、そもそもここで考えている統計に従いません。ホットピクセルやアンプグローなどの明るい固定ノイズを除いた領域でダークノイズを測定する必要があります。ちなみに、飽和気味のホットピクセルを含んで測定してしまうと、とんでもなくばらついているようなものなので、結果はノイズがとんでもなく大きく出てしまうということは、言うまでもありませんね。

ノイズの重ね合わせの直感的なイメージ:
あるダーク画像1枚のある面積のノイズがNだったとします。他のダーク画像も同様にノイズNがあるとします。このダーク画像を例えば2枚足し合わせると、個々のピクセルは正負バラバラなのである程度打ち消します。その打ち消し具合は統計的には無相関の場合は「2乗和のルート」で合わさることになります。この場合2枚なので、
  • sqrt(N^2+N^2) = √2 x N
とルート2倍になります。正負で打ち消すということで、2倍にはならずに、元から減ることもなく1倍以下にもならなくて、結局その中間くらいということは直感的にイメージできるかと思います。

負の相関について:
あと、負の相関も考えておきましょう。ある画像で特徴的な形で明るい部分があるとします。もう一枚の画像では同じ形ですが、1枚目の明るさを打ち消すようにちょうど逆の暗い輝度を持っているとします。2枚の画像を足し合わせると、正負で、しかも明るさの絶対値は同じなので、ちょうど打ち消すことができます。このようなことを互いに「負の相関がある」と言います。でも天体写真の画像処理の範疇ではあまりない現象なのかと思います。


ダーク補正の定量的な扱い:
実際の画像処理では、ダーク補正というのはライト画像からマスターダーク画像引くことです。マスターダークファイルとは、個々のダークファイルを複数枚重ねて、輝度を元と同じになるように枚数で割ったものですから、 個々のダークノイズをNとして、n枚重ねて、輝度を枚数nで割ったとすると、マスターダークファイルのダークノイズ
  • N_ masterはsqrt(n x N^2) / n = 1/√n x N
となり、元のノイズのルートn分の1になります。

各ライトフレームにも当然ダークノイズは含まれています。ダーク補正をする際に、各ライトフレームのダークノイズと、マスターダークファイルに含まれるダークノイズは、ここまでの議論から2乗和のルートで「増える」ことになります。

1枚のライトフレームのダーク補正:
個々のライトフレームがマスターダークファイルで補正されると、補正後のダークノイズは
  • sqrt(N^2+N_ master^2) = sqrt(N^2+(1/√n x N)^2) = N x sqrt(1+1/n)
となり、sqrt(1+1/n) 倍にごく僅か増えます。

ダーク補正されたライトフレームのスタック:
これらのダーク補正されたライトフレームをスタックします。スタックの際、ライトフレームに元々あったダークノイズは個々の補正されたライトフレームでランダムに(無相関に)存在するので2乗和のルートで合わさり、輝度を揃えるために最後にライトフレームの枚数で割るとします。

マスターダークファイルで足された(ルートn分の1の小さい)ダークノイズは、スタックされる際に「(同じマスターダークファイルを使い続けるために)正の相関を持っている」ことに注意です。

2枚のスタック:
  • sqrt([sqrt(N^2+N^2)]^2 + [N/sqrt(n)+N/sqrt(n)]^2) = N sqrt(sqrt(2)^2 + [(2/sqrt(n)]^2) = N sqrt(2 + (2^2)/n) 
大外のsqrtの中の、1項目が無相関で2乗和のルートで足し合わさるノイズ。2項目が正の相関を持ってそのまま足し合わさるノイズ。それぞれがさらに2乗和となり大外のsqrtでルートになるというわけです。

3枚のスタック:
  • sqrt([sqrt(N^2+N^2+N^2)]^2 + [N/sqrt(n)+N/sqrt(n)+N/sqrt(n)]^2) = N sqrt([sqrt(3)^2 + (3/sqrt(n)]^2) = N sqrt(3 + (3^2)/n)

ライトフレームの枚数をnl枚として、
nl枚をスタックすると:
  • N sqrt([sqrt(nl)^2 + (3/sqrt(nl)]^2) = N sqrt(nl + (nl ^2)/n)

スタックされたライトフレームの輝度を、1枚の時の輝度と合わせるためにnlで割ると、上の式は少し簡単になって:
  • N sqrt(nl + (nl ^2)/n) /nl = N sqrt(1/nl + 1/n)
と ライトフレームの枚数nl分の1とダークフレームの枚数n分の1の和のルートで書ける、直感的にもわかりやすい形となります。

簡単のため、個々のライトフレームの枚数と、個々のダークフレームの枚数は同じnとしてみましょう。
n枚のスタックは:
  • N sqrt([sqrt(n)^2 + (n/sqrt(n)]^2) = N sqrt(n + (n^2)/n) = N sqrt(n + n) = N sqrt(2n)

となり、結局は「1枚当たりのライトフレームのダークノイズNがn枚」と「1枚当たりのダークフレームのダークノイズNがn枚」合わさったものと同じで、√2n倍のノイズとなります。

マスターダークを考えずに、ダーク補正をまとめて考える:
これは直接「n枚のライトフレーム」と「n枚のダークフレーム」のダークノイズを全て足し合わせたものを考えることと同等で、実際に計算してみると
  • sqrt(n x N^2 + n x N^2) =  N sqrt(2n)
と、1枚1枚処理した場合と同じなります。数学的には
  1. 事前にマスターダークを作ってから個々のライトフレームに適用しても、
  2. 全てのダークノイズをライトフレーム分とダークフレーム分を一度に足しても
同じ結果になるということです。これは直感的にわかりやすい結果ですね。

重要なことは、たとえ頑張ってライトフレームと同じ枚数のダークフレームを撮影して補正しても、補正しない場合に比べてノイズは1.4倍くらい増えてしまっているということです。もっと言うと、補正しない半分の数のライトフレームで処理したものと同等のダークノイズになってしまういうことです。ホットピクセルを減らすためだけに、かなりの犠牲を伴っていますね。

枚数が違うダークフレームでの補正:
例えばある枚数のライトフレームを枚数が違うダークフレームで補正する場合を具体的に考えてみます。

例えば10枚のライトフレームと、同じ露光時間とゲインのダークフレームが10倍の100枚あるとするとします。ダークノイズ起因のS/Nはライトフレームは1/√10=0.316となり、ダークフレームでは1/√100 =1/10となります。ダーク補正したライトフレームは
  • sqrt(1/10+1/100)=sqrt(11/100)=√10/10=0.332
となり、ダーク補正する前の0.316よりほんの少し悪くなる程度に抑えることができます。同様の計算で、2倍のダークフレームだと約4分の1のノイズ増加、3倍のダークフレームがあれば約10分の1のノイズ増加に抑えられます。

では闇雲にダークフレームの数を増やせばいいかというと、それだけでは意味がなくて、他のノイズとの兼ね合いになります。画面のノイズがダークノイズで制限されていいればどの通りなのですが、例えば明るい空で撮影した場合にはノイズ全体がスカイノイズに支配されていることも多く、こんな場合にはダークフレームの枚数は少なくても、それによるノイズの増加は無視できるということです。


フラット補正

フラットフレームは一般的にライトフレームと同じゲインですが、露光時間は異なることが普通です。そのためフラット補正を真面目に計算すると、ダーク補正よりもさらに複雑になります。

ただし、ライトフレームの輝度はライトフレームの背景よりもはるかに明るいことが条件として挙げられるので、補正の際にフラットフレームの輝度を、ライトフレームの背景の輝度に合わせるように規格化する(割る)ので、ノイズに関してもその分割られて効きが小さくなると考えられます。

その比はざっくりフラットフレームの露光時間とライトフレームの露光時間の比くらいになると考えていいでしょう。最近の私の撮影ではライトフレームが300秒露光、フラットフレームが最も長くても10秒露光程度で、通常は1秒以下です。ノイズ比が30分の1以下の場合、2乗和のルートとなると1000分の1以下となるので、実際にはほとんど効いてきません。さらにフラットファイルも多数枚をスタックするので、スタックされたライトフレームと比べても、効きは十分小さく、無視できると考えてしまっていいでしょう。

ただし、暗い中でフラットフレームを作る場合はその限りではなく、ノイジーなフラットフレームで補正をすることと同義になるので、注意が必要です。ここでは、フラットフレームは十分明るい状態で撮影し、フラット補正で加わるノイズは無視できるとします。


まとめ

スタックとダーク補正でノイズがどうなるか計算してみました。理屈に特に目新しいところはないですが、式で確かめておくと後から楽になるはずです。

今回は計算だけの記事で、しかもスタックを1枚づつ追って計算しているので、無駄に長く見えるような記事になってしまいました。でもこの計算が次のバイアス補正のところで効いてきます。ちょっと前にX上で黒天リフさんがバイスについて疑問を呈していましたが、そこらへんに答えることができればと思っています。










CP+のセミナー、いかがでしたでしょうか?細かい操作も多かったので、その場では少し見にくいところなどもあったかもしれません。すでに動画配信が用意されているので、わかりにくかったところは繰り返しチェックしてみてください。

 

今回の記事は、動画配信を元に、わかりにくかったところの補足をしようと思います。


処理画像の準備

セミナーの中で話した、撮影までの状況と、SharpCapでの再ライブスタックは、これまでの記事で書かれています。







今回の記事は、セミナーで示した中でも、特に画像処理の部分について補足していきたいと思います。「なぜ」この操作をするべきなのかという意味を伝えることができればと思います。

セミナーは
  1. (23:50) 入門用にMacの「プレビュー」を使って、その場で処理
  2. (27:05) 初心者用にPhotoshopを使って、その場で処理
  3. (32:40) 中級者用に「GraXpert」とPhotoshopを使って、その場で処理
  4. (41:50) 上級者用に「PixInsight」をあらかじめ使った処理の結果を流れだけ
という内容 (括弧内の時間は配信動画での位置) でした。

使用した画像は、SharpCapで1分露光で撮影したオリオン大星雲を60枚したものです。これを、上の1と2はオートストレッチしたものをPNGフォーマットで8ビットで保存されてもの、3と4はRAW画像のfitsフォーマットで16ビットで保存されたものです。

オートストレッチで保存できるのは2種類あって
  1. 「Save with Adjustments」を選ぶ、LiveStackでのオートストレッチのみかかったもの
  2. 「Save exactlly as seen」を選ぶ、LiveStackでのオートストレッチに、さらに右パネルのオートストレッチが重ねてかけられてもの
です。今回は後者の2の保存画像を元に画像処理を始めます。いかが、SharpCapで保存されたライブスタック済み、オートストレッチ済みの初期画像です。

ここでオートストレッチについては少し注意が必要で、何度か試したのですが、ホワイトバランスや輝度が必ずしも一定にならないことがわかりました。全く同じRAWファイルをスタックした場合は同じ結果になるのですが、スタック枚数が変わったり、別のファイルをスタックしたりすると、見た目に色や明るさが変わることがあります。どうも比較的暗いファイルでこれが起こるようで、ノイズの入り具合で左右されるようです。明るさはまだ自分でヒストグラムの黄色の点線を移動することで調整できるのですが、RGBのバランスは大まかにはできますが、極端に暗い画像をストレッチするときの微妙な調整はSharpCap上ではできないようです。Photoshopでは背景と星雲本体を個別に色合わせできるのでいいのですが、WindowsのフォトやMacのプレビューでは背景も星雲本体も同じように色バランスを変えてしまいます。このことを念頭においてください。


Windowsのフォトでの簡易画像処理

まず、入門用のOSに付いている簡易なアプリを使っての画像処理です。

セミナー当日はMacとWindowsの接続が不調で、SharpCapのライブスタックとWindowsのフォトでの加工をお見せすることができませんでした。手持ちの携帯Wi-FiルーターでMacからWindowsにリモートデスクトップで接続しようとしたのですが、2.4GHzの信号が飛び交い過ぎていたようで、遅すぎで使い物になりませんでした。あらかじめテストはしていたのですが、本番でこんなに変わるとは思ってませんでした。

お詫びではないですが、Windowsのフォトについては、配信動画の代わりに、ここでパラメータと結果画面を追加しておきます。画像処理前の、SharpCapのオートストレッチで保存された画像は以下のものとします。

Stack_60frames_3600s_20_34_59_WithDisplayStretch

これをWindowsのフォトで処理します。
  1. WindowsではPNGファイルをダブルクリックすると、フォトが立ち上がります。画像処理をするには、上部真ん中にあるアイコン群のうち、左端の「画像の編集」アイコンをクリックします。
  2. 上部に出てくるメニューの「調整」を押します。
  3. フォトの弱点は、背景を暗くするのがしにくいことでしょうか。今回は「コントラスト」を右に寄せることで背景を暗くします。
  4. 星雲中心部が明るくなりすぎてます。トラペジウムを残したいので「強調表示」を左にして明るい部分を暗くします。
  5. 色バランスは「暖かさ」と「濃淡」で整えます。「暖かさ」左に寄せて青を出し。「濃淡」を右に移動しバランスを整えます。
  6. 「彩度」をあげて、鮮やかにします。
setting

画面が暗い場合は「露出」を少し上げるといいかもしれません。「明るさ」は変化が大きすぎるので使いにくいです。

上のパラメータを適用すると、結果は以下のようになります。
photo

たったこれだけの画像処理でも、見栄えは大きく変わることがわかると思います。


Macのプレビューでの簡易画像処理

Macのプレビューでの画像処理過程はセミナー中に見せることができました。でも今動画を見直していたら、どうも本来処理すべき初期画像を間違えていたようです。

Windowsとの接続がうまくいかなくて、内心かなり焦っていたようで、本来は上のフォトで示した初期画像にすべきだったのですが、間違えて出してしまったのがすでに加工済みの下の画像で、これを元に画像処理を進めてしまいました。焦っていたとはいえ、これは完全に私のミスです。本当に申し訳ありませんでした。
Stack_60frames_3600s_20_34_59_WithDisplayStretch 2

ここでは、改めて本来加工するはずの下の画像で進めようと思います。フォトで使ったものと同じものです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch

最終的なパラメータはこれくらいでしょうか。一つづつ説明してきます。
setting
  1. オートストレッチで星雲本体を炙り出た状態だと、星雲中心部が明るくなりすぎます。トラペジウムを残したいので「ハイライト」を下げます。
  2. 背景が明るすぎるので、上のヒストグラムの左のマークを右に動かします。星雲本体を炙り出すために、真ん中のマークを左に少し寄せます。これは後のPhotoshopの「レベル補正」に相当します。
  3. 色バランスは「色温度」と「色合い」で揃えるしかないようです。「色濃度」は左に動かすと青っぽくなります。「色合い」は右に動かすとバランスが整います。最後は画面を見ながら微調整します。
  4. 「シャープネス」を右に寄せると、細部を少し出すことができますが、今回はノイズがより目立ってしまうので、ほとんどいじっていません。

結果は以下のようになりました。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
これをみると、セミナー本番中にプレビューで処理を開始したものとよく似ているかと思います。要するに、練習でプレビューで処理をしたものを間違えて開いてしまったと言うわけです。こんなことも気づかないとは、やはりその時はかなり焦っていたんですね。それでも次のPhotoshopの処理はそれに気づいて、SharpCapから直接保存されたものを処理に使っています。


Windowsのフォトも、Macのプレビューも、いじることができるパラメータはそう多くはないので、解はある程度一意に決まります。むしろパラメータは画像処理を始めるときの初期のホワイトバランスと、初期の背景の明るさに依りますでしょうか?これはSharpCapの保存時に決まるのですが、保存時に細かい調整ができないのが問題です。それでも、方針さえしっかりしていれば、パラメータに関してはここら辺しかありえないというのがわかるかと思います。繰り返して試してみるといいかと思います。


Photoshopを使った画像処理

次はPhotoshopです。こちらはできることが一気に増えるので、パラメータ決定の際に迷うかもしれません。それでも方針をしっかり立てることで、かなり絞り込むことができるはずです。

初期画像は上と同じもので、SharpCapでストレッチされたPNGファイルです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
  1. (27:10) まず、背景の色バランスの調整です。これはPhotoshopのメニューから「イメージ」「色調補正」「レベル補正」を使うと楽でしょう。RGBの各色をそれぞれ個別に調整して、まずは各色の山のピーク位置と、各色の山の幅を調整します。調整の様子は動画で確認してみてください。山の位置が揃うと、背景の色バランスがとれたことになります。
  2. (27:40) 次に動画では、同じ「レベル補正」を使って背景を暗くしています。左の三角を少し右に移動します。暗くしすぎると、後から分子雲が出にくくなるので、これはもしかしたら必要無かったかもしれません。
  3. (27:55) 次に、青を少し強調します。一般的に星雲本体の青は出にくかったりします。特に今回は光害防止フィルターでQBP IIIを使っているので、そのまま処理すると、赤でのっぺりした星雲になりがちです。「イメージ」「色調補正」「トーンカーブ」と行って、「ブルー」を選び、ここは慎重に真ん中ら辺を少しだけ上げます。トーンカーブは左の方が暗い背景に相当し、真ん中ら辺が星雲の淡いところ、右が星雲の明るいところや、恒星に相当します。
  4. ただし真ん中を上げると、せっかくバランスをとった背景も青くなってしまうので、トーンカーブの線上の左の方をクリックしてアンカーを打ち、暗い背景部分があまり変わらないようにします。アンカーの部分だけが動かなくなるので、アンカーの右の方の線を動かすと、アンカーの左側も変わってしまって背景のバランスが崩れることがあります。そんな時は、左の方にアンカーを複数打って、背景バランスが崩れないようにしてください。
  5. (28:20) 少し地味なので、彩度を上げて各色の諧調が豊かな、見栄えがする画像にします。「イメージ」「色調補正」「自然な彩度」と選びます。その中に2つ触れるパラメータがありますが、「彩度」の方はかなり大きく変わってしまうので、私は「自然な彩度」の方を触ることが多いです。
  6. 補足ですが、色を出そうとしてよくあることなのですが、彩度を単体であげるとくすんだような俗にいう「眠い」画像になります。そんな時はまずは輝度を上げるようにしてください。輝度に関しては、画面に集中してしまうと、暗い状態でもいいと思ってしまうことがよくあります。一度ネットなどで自分が一番いいと思う画像をブラウザ上で見て、そのすぐ横に今編集している画像を並べてみてください。思ったより明るさも色も出ていないことに気づくかもしれません。客観的になるのは難しいですよね。並べて比べながら、まずは一番いいと思う画像くらいになるように明るさや彩度を出してみるのがいいのかと思います。
  7. (28:40) Photoshopで便利な機能が、「フィルター」の中の「CameraRawフィルター」です。まずは「ライト」の中の「ハイライト」を下げることでトラペジウムを守ってやります。
  8. (29:10) 次に、背景に含まれる分子雲を引き出すために「ブラック」を右に振り、「シャドウ」を左に振ります。ブラックとシャドウはよく似ていますが、逆にブラックを左にシャドウを右に振ってやると、似て非なるものだとわかるでしょう。この分子雲の炙り出しは、「効果」の「明瞭度」も効き目があります。セミナーでは説明しませんでしたが、「コントラスト」も同じような効果がありますが、こちらは強すぎる感があるので、使うとしても微妙に調整します。
  9. セミナーでは説明しませんでしたが、細部は「効果」の「テクスチャ」である程度出すことができます。同時に背景のノイズや不自然な大きな構造も出すことになるので、かけすぎには注意が必要です。
  10. (29:35) ここまで分子雲をかなりあぶり出してきたことになるので、かなりノイズが目立っていると思います。Photoshopでも簡単なノイズ処理ができます。その一つが「CameraRawフィルター」の「ディテール」の「ノイズ軽減」です。ノイズの具合に応じて、50とか、最大の100とかに振ってやります。同時に「カラーノイズ」も除去してしまいましょう。カラーノイズは画像を拡大すると、RGBの細かい色違いのノイズがあるのがわかると思います。拡大しながらカラーノイズが除去されるのを確認してみるといいかと思います。
  11. (30:45) ノイズを除去すると、どうしても細部が鈍ってしまいます。これは同じところの「シャープ」を上げてある程度回避できますが、完全に戻すことはPhotoshop単体ではできないかと思います。ノイズ処理に関してはここら辺がPhotoshopの限界でしょうか。
  12. (31:15) 最後に仕上げで再びトーンカーブをいじっています。ここら辺は好みでいいと思いますが、今回はまだ青が足りないのでBのを少し上げました。派手さは赤色で決まるので、Rも少し上げます。緑は自然さを調整します。赤とか青が強くて、全体に紫っぽくて人工的な気がする場合は、Gをトーンカーブで気持ち上げると自然に見えたりします。セミナーでは説明しませんでしたが、必要ならばトーンカーブの右側にも適時アンカーを打って、明るい部分が明るすぎにならないようにします。特にせっかく撮影時に残ったトラペジウムを、明るくしすぎて消さないようにします。
Photoshop

こんなところで完成としましたが、いずれにせよここでは、背景と星雲本体を個別に色バランスをとりつつ、背景を炙り出し、コントラストを上げることが重要です。背景はそもそも暗いためにノイズが多く、分子雲を炙り出すとどうしてもノイズが目立つようになるので、何らかのノイズ処理が必要になってきます。

WindowsのフォトやMacのプレビューだけで処理したものと比べると、背景と本体のバランスがとれていて、それらしい画像になってきたのかと思います。


GraXpert

ただし、Photoshopでの処理だけだと、背景の分子雲はまだあまり見えていないですね。この淡いところを出すにはどうしたらいいでしょうか?基本は、星雲本体と背景の輝度差をなくすことです。特に、画面全体に広がるような大きな構造(「空間周波数が低い」などと言います)での輝度差をなくすことが重要です。ここでは「GraXpert」という無料のアプリを使います。WindowsにもMacにも対応しています。

GraXpertは操作がそれほど多くないので複雑ではないのですが、少しクセがあります。

1. (32:35) GraXpertにストレッチ機能があるので、今回はすでにストレッチされたPNGではなく、暗いままのRAWフォーマットのFITSファイルを使いましょう。ストレッチされてない画像なので。最初にGraXpertの「1」の「Load Image」で開くとこんなふうに真っ暗に見えるかと思います。
Stack_16bits_60frames_3600s_20_21_42_fits_nostretch

2. (33:05) GraXpertの「2」の「Stretch Options」で何か選ぶと、明るい画像になるかと思います。ここでは見やすくするために「30% Bg」を選びます。

3. (33:15) 画像の周りに黒いスジなどある場合はフラット化がうまくいきません。ライブスタックの時にディザリングなどで少しづつ画像がずれていくと、黒い筋になったりするので、まずはそれを左メニュー一番上の「Crop」の横の「+」を押して、出てきた「Crop mode on/off」を押します。黒い筋を省くように選択して、クロップして取り除きます。クロップ機能がGraXpertにあるのは、画像周辺の情報の欠落に敏感だからなのでしょうね。実際の取り除きの様子は配信動画を参考にしてください。

4. 「Saturation」は彩度のことなので、少し上げておくと後から彩度を出すのが楽になるかもしれません。今回は1.5を選びました。

5. (33:48) 「3」の「Points per row」と「Grid Tolerance」は画像によって適時調整してください。「Create Grid」を押します。目安は星雲本体が黄色の枠で選択されないくらいです。ここであまり神経質にならなくてもいいのがGraXpertのいいところでしょうか。

6. (34:00) 「Interporation Method」ですが、これは4種類ありますが、各自試してみてください。場合によって適不適があります。私はKriging>RBF>AI>Splineくらいの印象でしょうか?セミナーでは時間のかからないRBFを選びました。Methodによっては差が出る場合もありますが、ほとんど差が出ない場合もあります。

7. (34:25) しばらく待って結果が出たら、画面真ん中上の「Processed」と「Original」で比較してみるといいでしょう。その差が「Background」で見ることができます。
bg
こうやってみると、左が緑に寄っていて、右が赤に寄っていたことがわかります。

8. (35:28)できた画像をこのまま保存すると、ストレッチがかかりすぎているので、「Stretch Options」で「10% Bg」程度を再度選びます。その後「5」の「Saving」で「16bit TIFF」を選択し、「Save Stretched & Processed」を押して、ファイルを保存します。

TIFFファイルはサイズが大きくなるので、ここではTIFFファイルをjpgに変換したものを表示しておきます。
Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert

9. (36:14) 保存されたTIFFファイルをPhotoshopで開き、あとは上でPhotoshopで処理したものとほぼ同様に進めます。

10. (36:20) 今回の場合、ヒストグラムで全ての山がそろっています。GraXpertで背景のホワイトバランスも合わせてくれています。

11. (36:28) 背景が暗いのですが、中心部は明るいので、Camera RAWフィルターで、ハイライトを下げ、黒レベルを上げ、さらに露光を少し上げると、背景の分子雲がPhotoshop単体で出したものよりも、すでに黙々しているのがわかります。これがGraXpertのフラット化の効果です。

12. (37:17) あとは同様にトーンカーブで青を少し出します。

13. (37:35) GraXpertのフラット化の弊害として、色が出にくいというのがあります。彩度を少し強調するといいでしょう。

14. (38:15) Camera RAWフィルターの「ディテール」の「ノイズ軽減」でノイズが目立ちにくくなります。ここまでの完成画像を示します。

Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert_final

明らかにPhotoshop単体より、GraXpertでフラット化することにより、背景の分子雲が出たのかと思います。

よりあぶり出せたのはいいのですが、その分ノイズが目立つと思います。そのため、動画では (40:13)あたりで DeNoise AIを紹介しています。これはAIを利用したノイズ除去ツールで、非常に強力なのですが、恒星の処理が苦手で、星が崩れたりしてしまいます。今回は中心が抜けたような星になってしまいました。

これは次に話すように、星と背景を分離するなどして、背景のみに実行することでうまく使うことができますが、ここまで来ると今回の範囲を超えてくるので、参考までにノイズツールはこのようなものもあるということだけ認識しておいてください。


PixInsight

セミナーでは最後にPixInsightでの処理を紹介しましたが、これは今回の目的の範囲を超えていると思いますので、参考程度に処理したものを順に示すだけにしました。なのでここでも詳細な解説は控えておきます。というか、これを解説し出すとこの一記事では到底収まりきりません。

ポイントは
  1. (42:40) BlurXTerminatorで収差を改善し星を小さくシャープにすること
  2. (44:47) 星と背景を分離すること
でしょうか。これらはPhotoshopでの処理とは全く異なり、天体画像処理専用ソフトの強いところです。最初からここまで手を出す必要は全くないと思いますが、いつか自分の処理が不満になった時に、こんな手法もあるということくらいを頭の片隅に入れておけばいいでしょう。


比較

最後に、今回それぞれで画像処理をした
  1. Macのプレビュー
  2. Photoshotp
  3. Graxpert
  4. PixInsight
の4枚を並べて比べてみます。左上からZの字を書くように、上の1、2、3、4と配置しています。

all

Macのプレビューだと、背景と星雲本体を別々に色合わせできなかったことがよくわかります。Photoshopになると、色がある程度バランスよくなっています。分子雲のモクモクはGraXpertが一番出ているでしょうか?

セミナー当日見せるのを忘れてしまいましたが、同じ4枚を拡大したものも比較してみます。
all_magnified

Macのプレビューはノイズ処理がないので、やはりノイジーです。拡大すると、PhotoshopのみとGraXpertが入った時の違いもよくわかります。モクモクのあぶり出しと同時に、細部もでています。それでも細部はPixInsightがBXTのおかげで圧倒的でしょうか。

セミナーの最後でも言いましたが、4枚目でも情報を引き出し切ったかというと、かなりいいところまで入っていると思いますが、まだ少し余地が残っていると思います。マスクを使ったりすることで、ノイズ処理やあぶり出しをもう少し改善することはできるかと思います。


まとめ

さて、今回のセミナーと合わせての一連のブログ記事いかがだったでしょうか?電視観望から始まり、撮影に発展し、画像処理までを解説してきました。セミナー本番は少し詰め込みすぎたかもしれませんが、後の配信を前提に動作を示すことを中心としたので、よろしければ動画を繰り返し見ながら確認して頂ければと思います。皆さんの画像処理の何かのヒントになるのなら、今回のセミナーを引き受けた甲斐が十分にあるというものです。

画像処理はとても奥深いところがあり、今回示したBlurXterminatorもそうですが、まだまだ今後ソフトや技術も進化していくはずです。大切なことは、ここまで説明したことの繰り返しになるかもしれませんが、闇雲に処理を進めるのではなく、何が問題で、どうすれば解決するかの方針を立てて、手持ちの技術で実際に進めていくことかと思います。画像処理といっても、いわゆる普通の問題解決プロセスと同じですね。

今回色々な手法を示しましたが、これが唯一の方法だなんてことは口が裂けても言えませんし、正しい方法かどうかもわかりません。あくまで一例で、他の方法もそれぞれ皆さんで、試行錯誤もあるかと思いますが、いろいろ編み出して頂ければと思います。











恒例の1年のまとめ記事です。ほしぞloveログでは年末は書くのをサボって、たいてい1月中にのんびりと書いています。

昨年のまとめはここにあります。昨年は2月に公開しているので、今年の方が早いくらいですね。


さて、今年もテーマ別に振り返っていきましょうか。まずは機材からです。


機材関連

ここでは2023年に使った機材で、特筆すべきものを3つ書いておきます。

1. ε130D

上のリンクにある昨年のまとめを見直してみると、2023年の機材の目標は
  • 短焦点で広角で淡いところまで撮影する
と書いてあります。これは4月にε130Dを手に入れたので、目標達成と言えるでしょう。


最初の頃はテスト撮影をしながら、問題点を挙げていきました。四隅の星像問題や、迷光の問題などです。四隅はバックフォーカスを合わせることでかなり改善しましたが、迷光はある程度許容して画像処理で誤魔化すことが必要そうだと分かりました。それでもある程度実用レベルで撮影できるようになってきたので、主力鏡筒として今後もどんどん活用していくことになりそうです。


2. SWAgTi

SWATにAZ-GTiをくっつけた命名「SWAgTi(スワッティ、gは発音せず)」はとても楽しい試みでした。おそらくこれまでになかったアイデアで、高精度追尾のSWATと自動導入可能なAZ-GTiの互いにいいところを持ち寄って、高機能高精度追尾でお気軽撮影を実現できたのかと思います。惜しむらくは、長時間撮影では縞ノイズが出てしまい、ディザーで散らすことを試みたのですが、撮影中はAZ-GTiの自動追尾を切って高精度化を実現していて、その状態だとディザーができないことです。ソフトで解決できる問題のはずなので、いつか解決できたらと思っています。





 
SWAgTiの過程で、SharpCapを使えば一眼レフカメラでも極軸合わせとプレートソルブができることを示しました。SWATユーザーには一眼レフカメラを使っている方も多いと聞いたからです。

これは、CP+で話した一眼レフカメラで電視観望をやってみようという話にもつながっています。


3. トラバース
もう一つ、トラバースはミニマム電子観望をさらに押し進めました。カバンなどにすっぽり入るサイズで、PCと合わせても歩きの持ち運びで全然余裕です。


最初の頃はAZ-GTiに比べて少し不安定なところもありましたが、SynScan Proのアップデートと、SharpCap独自のプレートソルブで不安定なところはほぼなくなり、完全に実用レベルで観望会で使えるようになりました。最近は、持ち運びの便利さと見た目のコンパクトさでAZ-GTiにとってかわり、トラバースを使うことがほとんどです。





目標
さて、機材関連の2024年の目標ですが、今の天体撮影の主力機材は2つで
  1. SCA260(1300mm)+ASI294MM Pro(マイクロフォーサーズ)
  2. ε130D(430mm)+ASI6200MM Pro(フルサイズ)
です。他にも鏡筒はある(撮影レベルの冷却カメラは残りはカラーのみ)のですが、効率を考えて明るいものに限定すると上の2つになってしまいます。仮にこの2種だけだとすると、画角にすると一辺で6倍くらい違い、面積だと36倍くらい違うので、せめてその中間くらいがあるといいなと思い始めています。

簡単なのは、今ある手持ち鏡筒で口径の大きいF4のBKP200を使うかとかでしょうか。これに例えば今と同じASI294MMとか取り付けるか、いっそのこと使っていないカラー冷却のASI294MC Proでもいいかもしれません。コマコレクターは持っているのですが、ε130DやSCA260に比べるとそれでも多少星像は伸びるので、BXT2が前提になると思います。

もう一つのアイデアは、今は鏡筒とカメラを固定にして外さないようしていて、これは外した時のホコリの侵入を防ぐのが第一なのですが、この制限を取り除いてカメラと鏡筒を交互に入れ替えるかです。これだと
  1. SCA260(1300mm)+ASI294MM Pro(マイクロフォーサーズ) = 2380mm (フルサイズ換算) 
  2. SCA260(1300mm)+ASI6200MM Pro(フルサイズ) = 1300mm (フルサイズ換算)
  3. ε130D(430mm) +ASI294MM Pro(マイクロフォーサーズ) = 806mm (フルサイズ換算)
  4. ε130D(430mm)+ASI6200MM Pro(フルサイズ) = 430mm (フルサイズ換算)
となって、2と3がちょうど間を補完します。3はASI6200でROIで切り詰めるか、後でクロップしても同じことなので、意味がないかもしれません。これだととりあえず鏡筒もカメラも追加はないので、経済的な負担も少ないです。カメラ交換の手間と、スケアリングの問題が出ないかと、ホコリの混入をどうするかなどが問題です。そう頻繁に換えないとかにすれば大丈夫な気もします。ここら辺を今年一年悩んでみます。


撮影

去年の目標のところに「Sh2-240:スパゲティ星雲やSh2-129:ダイオウイカ星雲などの広くて淡い難物を自宅でどこまで出るかを試してみたい」と書いています。ε130Dでスパゲティー星雲はなんとか撮影できました

 
自宅からこれだけ出れば、まあまあではないでしょうか。ダイオウイカ星雲も撮影は完了していて、現在画像処理で苦労しています。ある程度目標は達成と言っていいでしょう。その一方、今回わかった反省点もあるので、これ以上はやはり暗いところに行って撮る方がいいのかもしれません。2022年に自宅で撮影したM81(未記事化)と2023年に開田高原で撮影したM81で比較して、少なくともLRGB撮影ではIFNなどの淡い部分は自宅では限界があることを身をもって理解しました。ナローバンドでも、本当の本当に自宅だと明るすぎるのかどうかは、一度きちんと検証してみたいと思っています。

淡いところを出す技術は上がってきましたが、自宅で出すには相当無理しているところもあり、画像処理に徐々に時間がかかるようになってきました。そのため結構気合を入れる必要があり、撮影は終わっていrても、画像処理が残っているものが結構あります。パッと思いつくだけでも
  • 2022年に撮った星景が2つほど
  • 2023年春に撮ったM104ソンブレロ銀河
  • 燃える木の拡大撮影
  • M45プレアデス星団、モザイク撮影
  • ダイオウイカ星雲
などです。ダイオウイカ以外はお蔵入りになりそうな雰囲気です。まだ撮影中のものもあり
  • ドルフィン星雲
  • カモメ星雲
は晴れた時にさらに進めようと思っていますが、冬はなかなか晴れないので、一向に進みません。

太陽や月はほとんど手をつけていなくて、唯一PST本体を2台目にしたことくらいでしょうか。良像範囲が少し広がりました。粒状斑はまだ何かだめなのか、いまだに満足した画像を撮ることができていません。





画像処理

天体写真の方については、年末に別記事でまとめてあります。再処理も合わせて12枚だったので、数はあまり多くはありません。


画像処理で特筆すべきは、やはりBXTでしょうか。元々恒星処理がかなり苦手だったのですが、BXTでdeconvolution処理をほぼ自動で、しかも収差まで緩和するようなすごいレベルで補正してくれるようになったので、相当楽になりました。

StarNet2も地味に構成と背景の分離精度が徐々に上がっていて、BXTと合わせて、淡いところの炙り出し、分解能向上なども楽になっています。特に、BXTとdrizzleを合わせた処理で分解能をさらに引き出すことができたのも面白い結果でした。


BXTについてはつい最近バージョンアップし、相当ひどい収差なども補正すること、最微恒星を取りこぼさないようにするなど、精度が格段に上がっています。



バージョンアップ前のBXTを使っていますが、いくつか再処理をした結果が以下の4枚になります。どれも前後で見た目ですぐわかるレベルで改善があり、例えば三日月星雲とトールの兜星雲は、同じ元画像かと思うくらいの進化が見られます。






アップデートされたBXTはさらに強力そうなので、かなり昔に撮った技術的にまだまだな画像でも再処理してみたいと思います。

目標
ε130Dで撮影したアメペリ星雲網状星雲クワガタ星雲などがそうなのですが、最近は背景をかなり炙り出しています。





これらは全てAOO合成で、赤成分はほぼHα撮影からきています。淡いところまで出せるようになってきたのはいいのですが、背景まで赤っておかしい気がしてきています。多分これって、茶色い分子雲がHαの波長も持っていて、それが出ただけなのではと。例えば、網状星雲の右半分ってRGBで丁寧に撮った画像だと茶色の分子雲で暗くなっているのが見えたりします。また、智さんが撮影したRGBで撮影したスパゲッティ星雲だと淡いながらも茶色い分子雲がはっきり見えていますが、これも自分が撮影したAOOだと言われると気づくかもしれませんが、かなり赤に寄っていて見分けがあまりつきません。

これらを踏まえて2024年の目標ですが、RGBを駆使するのかLを駆使するのか、まだ全然アイデアは固まってませんが、なんとかして背景の分子雲を、色も含めて分子雲らしく出すこにしたいと思います。多分ナローじゃなくなるので自宅だと無理かもです。


電視観望

2023年にブログで単独で電視観望を主に扱っている記事はわずか3本。トラバース天の川電視観望リモートヘルプのみです。




さらに、「電視観望」で検索してみたり、自動で保存された画像が残っているフォルダも数を数えると、実際に電視観望で見た回数は星まつりとか観望会とか合わせて18回とのことでした。月平均1.5回と考えると、ずいぶん少なくなりました。

電視観望の回数が少なくなってきていることは昨年の反省でも同じことを書いていて、よく言えば技術的には成熟してきた、悪く言えばネタがなくなってきたことを示しています。とくに2023年後半から電視観望ではSeestarが話題の中心になっています。私は結局購入していないのですが、初心者には機能的にもコスパ的にもかなりいいと思います。天文人口の裾野が広がることは超ウェルカムで、私も電視観望を始めた頃からずっと願っていたことです。Seestarはこの点、ものすごく貢献しているのかと思います。

一体型のスマート電視観望機器と言っていいものは、eVscope、Vespera、Seestar、DWARFなどと、どんどんコンパクトになってきています。そう言った意味では、一体型に対してカスタム型電視観望としてトラバースにFMA135を載せて、三脚を小さくしたセットアップは、いまだにミニマムという点では健闘していて、性能的にもコンパクト性においても私的には最近はこれが一番稼働率が高いです。


もう一つ、電視観望が繋いだ縁として、「カフェぽうざ」の訪問があります。


もともと天リフさん主催の会議で私の電視観望の基調講演の動画にコメントを頂いのがきっかけだったのですが、実際に茨城県石岡市まで訪問しました。電視観望を主とした、おそらく日本で唯一のカフェで、その後この記事を見た星ナビさんが2023年9月号で大きく取り上げてくれて、私も少しだけ記事を書かせていただきました。


講演

2023年は電視観望については講演が多かった年でもあります。パッと数えただけでもCP+天教福島志賀高原小海と5回にもなります。しかも全てオンラインではなく、実際に面と向かってのリアルでの講演です。これだけ考えても、コロナが収束に向かった年だったことがよくわかります。







特に、CP+については3回目にして初の念願の現地参加です。2021年の初の全面オンラインCP+では講演時間をわざわざ夕方遅くからにして頂きZoomで電視観望の生中継をして、北陸の冬の悪天候にも負けずに見事バーナードループを観ることができました。2022年のCP+ではNEWTONYとCeres-CとAZ-GTiを組み合わせた、安価な初心者向けの電視観望を紹介しました。この系譜はシュミットの2024年の福袋セットにも引き継がれていて、AZ-GTiがトラバースに変わっていますが、電視観望セットとしては最安で販売されています(ただし2024年1月14日23時59分まで)。



2023年のCP+は現地開催記念でCP+本来のカメラユーザーを意識して、一眼レフカメラで電視観望ができることを紹介しました。2024年のCP+も何か話せたらいいと思っています。小海の「星と自然のフェスタ」での電視観望実演で画像処理の需要がかなり高そうということが実感できたので、今後講演をもしするとしたら、そんな方向の話ができたらといいな思っています。

天教の講演会は2022年の公開天文台協会の島根の全国大会に続いて、非常に貴重な機会でした。普段接するのはアマチュア天文家なのですが、天文教育に関わるプロの意見はやはり違った側面を持っていて、とても参考になりました。

星の村天文台での講演は土壇場で決まったものでした。準備時間がわずか10分くらいと、先の天教の講演があったので何とか持ち堪えることができました。

志賀高原のセミナーは実演も合わせてのセミナーになります。この時遠くから参加してくれて手伝ってくれた大鹿村のKさんとは、その後の大鹿村の観望会、元気村での集まりへとつながっています。

小海の「星と自然のフェスタ」は比較的新しい星まつりで、過去に何度か講演させていただいています。元々の主催者のSさんが始めたもので、今では規模としては3大星まつりの一つと言っていいでしょう。せっかく定着しつつある星まつりです。運営も大変だと聞いていますが、講演会が特徴のこの星まつり、是非とも続いて欲しいと思ってやみません。

基本的には上に書いた2023年の講演は全て電視観望についてでした。画像処理についての話もしてみたいですし、でも本当はこの記事の下の方でも出てくるノイズ解析みたいな話を思う存分したいのですが、流石にマニアックすぎて聞いてくれる人はほとんどいないと思うので躊躇しています。でもいつか...どこかで...もしチャンスがあれば...。


観望会、遠征など

私の天文活動は、相変わらず平日を含めた自宅がメインなので、外にはそれほど多く出ていません。昨年の反省でもすでに書いてありますが、2023年中の遠征撮影は1月の開田高原のみです。
 

観望会もそう多くはなく、8月に富山環水公園で天の川電視観望を見せた他、長野県下伊那郡大鹿村でも(天気が良くなかったので)広域の天の川電視観望がメイン、あとは全く星が見えなくて観望会にはならなかった2泊3日の 愛知県豊田市旭高原の元気村tくらいでしょうか。





特に元気村は星こそ見えませんでしたが、母校の高校の天文部の若い生徒たちと触れ合えたのがとても刺激になりました。次の日の気ままに星空観望仲間の方達の集まりに参加させていただいたのも、とても楽しかったです。

定例の飛騨コスモスの観望会も4月22日5月21日6月17日と参加していますが、天気が悪かったり、コロナにかかって体調が悪かったりで3回(1回はドームの修理だけなので実質2回)しか参加できていません。修理も完了していないので、春になったら早々に直したいと思っています。






星まつり

星まつりですが、福島胎内星もと小海と、例年行くものは2023年も全て行っています。特にコロナが終息して胎内に久しぶりに行けたのが良かったです。やはり国内最大の星まつりなので、現地開催が一番です。






この中でいまだに進化し続けているのが小海の「星と自然のフェスタ」でしょうか。2023年はメイン会場がホテル前の広場から、少し下がったところの大きな室内会場になりました。雨が降っても、夜に寒くなっても、室内なので快適に過ごすことができます。夜の観望も室内会場を出たすぐ目の前に展開できたので、簡単に行き来できてとても便利です。眼視会場が離れたところになってしまったとか、初めての試みでまだこなれないところが残っていたかもしれませんが、実際年々快適になっていくので、来年以降はさらに快適になっていくでしょう。期待したいと思います。

残念なのは、3大星まつりの一角を担っていた原村の星まつりが、以前とは全く違った形になってしまったことでしょうか。コロナが収束しても実質以前の星まつりの雰囲気ではなくなってしまったようで、私は参加を見送りました。以前の形に戻ってくれるのか、それとも今後ももうこのままの形なのか、2024年の方向性に注目したいと思います。


解析など

1. 撮影画像のノイズ解析

2022年は解析とかあまりできなかったと反省に書きましたが、2023年の特筆すべきはノイズ解析が大きく進んでいることでしょうか。3月に(その1)を書き始めて、その後不定期に書き足しています。現在その4まで来ていますが、まだまだ終わりは見えず、今もその5以降を書き溜めていて、ライフワークになりそうな勢いです。でもこの面白さはなかなか伝わらないかもしれないので、全体を見渡して少し解説しておきます。

まず面白いのは、(その1)でスカイノイズを数値的に示したことでしょうか?読み出しノイズとかダークノイズは計算できるのですが、スカイノイズがどれくらいかということを明確に示した解説記事はほとんどないようです。画像からスカイノイズがどれくらいあるのか見積もり、同時に読み出しノイズやダークノイズが計算と実測でどれくらい合うのかを示しているので、実際に撮った画像がどのようなノイズに支配されているかが、数値で具体的にわかります。ノイズだけでなく、その後、(その3)で信号も評価し、S/Nを実測で求めているところです。まだ今の所は1枚画像での評価がメインですが、次の記事でインテグレート(スタック)された場合にどうなるかを示そうと思っています。その後はどう展開しようか?まだ迷っていて、多分ですが色々なパラメータをいじってみてグラフ化して、どのようなパラメータの時に最適化ができるかなどを示せたらと思っています。例えば、天体撮影と電視観望では最適なパラメータが違うはずで、それぞれにおいてどのような値を選んだら良くなるかなどです。アイデアはいろいろあるのですが、どうやってわかりやすく記事にまとめるか...、時間をかけながらじっくり進めていければと思っています。







2. ビニング

同時に、派生的に出てきた感のあるビニングについてです。ノイズのことをよく考えていると、これまでビニングではっきりしてこなかったことが、かなりわかってきました。ビニングについては調べてもほとんどきちんとした定量的な話が見つからないんですよね。でもそれもそのはずで、そもそもスカイノイズとかきちんと評価しないと何も言えないからなのかと、今は思っています。なのでこれまではすごい定性的な話で止まっていたり、神話的に根拠の説明なしに話が伝わってきたのではないかと思います。





3. LRGB合成

LRGB合成についても少し議論しました


だいこもんさんやNiwaさんたちとTwitter上で議論したり、ちょうど蒼月城さんが同時期にLRGB合成についての動画をアップしていて、とても参考になりました。LRGB合成はノンリニアでやるのが大原則というのはわかりましたが、まだ本質的なところでなぜノンリニアでやる必要があるのかは完全に理解できていません。リニアなうちでも問題があまり出てこない範囲でなら、絶対ダメというわけではないのかと思ってしまっています。私自身がもう少しきちんと理解する必要がありそうですが、課題として残しておきます。


解説記事など

上の電視観望のところとちょっと重なるかしれませんが、SharpCapの解説記事なども書いています。





NINAのオートフォーカスについても書きまし。


短い記事でも意外に評判がいいので、こういったものを増やしていけたらと思います。


書籍

2023年に手に入れた書籍関連です。そのほかに天文ガイド、星ナビを定期購読しているので、それぞれ12冊づつあります。

IMG_8895

これまで書籍はブログでは一部を除いてほとんど紹介してこなかったですが、特に星を始めてから数年間は結構な量を購入しています。2023年は流石に落ち着いてきて上記くらいになってきました。君は放課後インソムニアが完了したのが大きいですね。舞台の石川は富山からも近いので、地震の被害が落ち着いたらまた一度、ゆっくり聖地巡礼がてら能登半島に行ってみたいと思います。

あと、貴重なInterractiveを全冊お借りしたので、近いうちにまとめ記事を書きたいと思っています。


ブログ

2023年の一年間の投稿記事を数えたら74本でした。2022年が104本、2021年が114本となっているので、かなり減っています。月5−6本程度なので、週に1本か気が向くと2本とか書く程度になってしまっています。理由は、撮影時間が10時間オーダーに伸びてきて仕上がる枚数が減っていることと、画像処理に時間がかかっていること、あとは無駄に一本当たりの記事が長いことなどでしょうか。

これまで何度も記事を短くしようと試みてますが、ことごとく失敗しています。短い記事の方が読まれやすくてPVも伸びたりしているのですが、長い記事は多分私の習性です。この記事もそうですが、最近は諦めていて、思いの丈を書こうと思うようになりました(笑)。


まとめ

星を始めたのが2016年のゴールデンウィークくらいなので、もう7年半も経ってしまいました。流石にペーペーの初心者とは言えなくなってきました。星を始めた頃は1年がすごく長く感じましたが、最近は1年があっというまに過ぎてしまう感じです。1年で進めることができる量も徐々に少なくなってきている気がします。2023年はノイズ解析が進んだので、それでも少しマシでしょうか。

最近すごいと思うのは、私よりもはるかに短い期間で、素晴らしい天体写真を仕上げてくる人がいることです。かなり研究されているのかと思います。だんだん若い人(年齢というよりは、この世界に新しく入ってきた人と言った方がいいかもしれません)に追い抜かれていくので、ちょっと悔しいところもあるのですが、その一方で自分ではとてもできないような若い人のアイデアや成果とかに期待してしまいます。

BXTもそうでしたが、ソフトの進化はまだまだ革新的なものが出てきそうです。PixInsightのMARS計画も楽しみです。CMOSカメラもまだまだ進化しそうですね。でも進化とともに値段が上がるのではなく、フラッグシップモデルの価格が一定になって、その分こなれた機能のカメラが安価になっていくと、もう少し敷居が下がる気もします。

Seestarで参入した新しい人たちのうち、幾らかの人はのめり込んでくれるかと思いますが、初心者もベテランもあわせて、天文人口そのものが増えてくれると盛り上がっていくのかと思います。この趣味が尻つぼみにならないように、若い人(こちらは本当に年齢という意味で)が増えてくれると、とてもありがたいと思いみます。大学生とか高校生の天文好きな人達を見ていると、結構期待できそうな気もします。


この記事は「小海「星と自然のフェスタ2023」参加記: 2日目前半」からの続きとなります。




講演終了後

電視観望の講演が終わって部屋に戻り、妻に「48人も入ったよ」と報告したら「見てた!すごい!」と言ってくれました。全員が席に着くまで案内を手伝ってくれてたので、ある程度の人数は既に知ってくれていたようです。妻は元々あまりたくさんの人がきてくれるとは思ってなかったみたいで、ちょっと見直してくれたみたいです。「講演も聞いてたの?」と聞くと、案内だけしてすぐに部屋に戻ったとのこと。あとはゴロゴロしてたみたいです。

とにかく今回メインの講演が無事に終わったので、私は部屋でしばし放心状態でした。本番まではかなり気を張っていたのであまり感じなかったのですが、有料講演だったということもあり、実際にはかなりプレッシャーを感じていたみたいです。終わってから、改めて思いました。

でもあまりのんびりもしれられません。次はサイトロンブースでのデモです。18時には準備を始めたいので、程なくして講演で使った機材を一部再び持って、車で下の第一会場に向かいます。


第1会場で電視観望デモ

下の第1会場に着くと、すでにかなり暗くなっていました。必要な機材を車から持ち出して、打ち合わせで決めてあった場所に向かいます。途中、暗がりの中からサイトロンスタッフさんが私の姿に気づいてくれて、声をかけてくれました。結局少し手前に場所を移したそうです。VixenさんがPENTAXの150mmでしょうか、大型屈折を出していた場所の手前あたりに陣取ることになりました。

予報では心配だった天気も、空を見る限りかなりいいです。少しだけ雲も見えますが、昨晩よりは遥かにましでしょう。この日は土曜でメインの日なので、お客さんもたくさんくるはずで、大型の32インチのモニターと、私の方は少し小ぶりの24インチモニターを出します。32インチの方はメインのハイエンド電視観望でAskarの151PHQ。なんと150mmクラスのフォトグラフィークラスのアポです。私の方は小さいモニターにつなぎ、気軽に天の川電視観望です。手軽さと広角という、ハイエンドとは逆方向の電視観望の楽しさを伝えれればとの思いです。

天の川電視観望は準備も気軽で、三脚と自由雲台、あとはCOMSカメラに明るめ広角のカメラレンズだけです。赤道儀も経緯台さえも必要なく、当然自動導入や自動追尾さえもなくて、全部マニュアル導入で追尾なしの放ったらかしです。今回カメラはフォーサーズサイズのASI294MC、レンズは35mm F1.4の1970年台のNIKKORレンズです。F1.4だと明るい星の周りに大きくハロが出ることがわかっているので、F2.0に絞って使います。この日はほぼ満月だったので、光害防止フィルターとしてサイトロンのDBP(Dual Band Pass)フィルターを入れています。

途中、講演を聞いてくれた方も含めて、このシンプルさに興味を覚えてくれる人が多かったです。古くからカメラファンの方には、手持ちのレンズで気軽に試せそうなとことも興味を引いたようです。ほぼ満月の日に6.4秒露光一枚撮りでこれくらい見ることができます。フィルターのせいもありますが、SharpCapのリアルタイムフラット補正がかなり効いています。この機能、以前はベータ版の身についていましたが、現在は4.1の最新版の正式機能として採用されています。
Stack_16bits_1frames_6s_18_08_41

天の川電視観望を見せている間に、サイトロンスタッフの方が151PHQで導入まで準備してくれています。この時点でまだ開始予定時刻の19時前だったのですが、少し雲が多くなってきたので、本番中に曇った時のためにM27をしばらくライブスタックさせておいて、予備画像として残しておくことにしました。でもこの時点ですごくて、途中の高々十数分のライブスタック画像で画像ですでに亜鈴状星雲本体の周りにある、蝶の形をした羽の部分がうっすらですが出てきてしまっています。
Stack_63frames_1890s_WithDisplayStretch_cut

さて、19時くらいになりお客さんもかなり集まっているので、改めて今回のコンセプトを話します。
  1. まず特徴は、ハイエンド機材を使うことで電視観望がどこまで行けるのか、その一端を見て頂きたいこと。
  2. その後の簡易画像処理で、その場で見るということに主眼を置いて、どこまで綺麗になるのか示してみようというものです。
具体的には、気軽にトータル15分程度のライブスタックで、見たままの画像を、フォーマットも気軽に8ビットのPNGで保存し、Photoshopでこれも気軽にほぼcamera RAWフィルターだけで5分程度で画像処理をしたら、どこまで出るのかのデモンストレーションということです。

最初はらせん星雲にしました。上下に雲がありますが、星雲本体あたりはちょうど雲が開けていて、10分程度なら露光できそうです。ここで151PHQならではの問題が。なぜかライブスタックがうまくいきません。どうやら、微恒星が点像で鋭すぎてノイズと見分けがつかなくて、星認識がうまくいっていないようです。これはライブスタックのノイズリダクションをオフにすることで、無事にスタックし続けることができました。私自身もこんな経験は初めてで、ハイエンド屈折の能力の一端を見た気がします。このやりとりを見ていたお客さんの中にはかなり驚いていた方もいたようですが、サイトロンの方が「性能もすごいですが、価格もすごいです」と今月発売開始された際の価格を伝えるとそちらも「オオーっ」という反応が。

曇りになるまでの十数分、ライブスタックを重ねた画像をPNG形式で保存して、
Stack_32frames_960s

それをPhotoshopで画像処理します。それでも保存時でストレッチまで済んでいるので、そこそこ出ています。背景を少し黒く締めて、彩度を上げて色を出します。流石に虹彩のような放射状の線は出ませんでしたが、十数分の露光に5分程度の画像処理で仕上げただけでそこそこ見える画像になったのは、やはり151mmの口径の威力もあったのかと思います。
Stack_32frames_960s_01

自宅に帰ってから改めて画像を見ましたが、さすがに5分程度の画像処理だとまだまだ持っている情報を引き出せていない気がしました。始まりの画像は同じ8bitのPNGですが、30分程度時間をかけて、ソフトには制限をかけずにもう少し炙り出してみました。本体周りの淡いところと、本体の構造はもう少し出せたのかとと思います。
Stack_58frames_1740s_WithDisplayStretch_ABE_cc_1_cut

続いて、網状星雲です。網状星雲の「い」の字の形のうち、今回は明るい星が入っている東側のNGC6992-5の方です。内側の淡いところがどこまで出るかも興味があります。ちょうどはくちょう座方向はこの時十分に晴れていたので、焦ることはなくライブスタックで十数分の露光をかけました。まずはライブスタック直後です。
Stack_47frames_1410s

かなり淡いですが、現場で5分程度でPhotoshopで画像処理をしたものです。
Stack_52frames_1560s

これだけでもかなり出てきたのがわかります。改めてもう少し時間をかけて処理したものが以下です。
Stack_79frames_2370s_WithDisplayStretch1_ABE
さらに隠れていた淡い部分が出てきたのかと思います。これもあくまで8bitのPNG画像で簡単に見たままで保存した画像から処理しています。それでもこれくらいは情報が隠れていることがわかります。

IMG_8757

今回特に思ったことは、画像処理に対する需要がかなりあるのではということです。凝った画像処理はキリがないのですが、もっと基礎的な最初のとっかかりというか、今後扱うことになる本流とはどういうものかという紹介とか、例えば今回なら電視観望で得た画像をどう処理するべきかといったような、初心者がせっかく撮った画像をいかに鑑賞するくらいまで仕上げるかといったことです。画像処理も慣れてしまえばいろんな方法があることもわかってくると思うのですが、最初のうちは何から手を出していいのかわかりにくのかと思います。もしかしたら、来年の講演はこういったことを話せればいいのかもしれません。


片付け

21時近くになると、空もだんだん曇ってきました。最後まで見ていてくれたお客さんに今回のデモのまとめを話し、解散となりました。私も片付けを始め、21時半頃には第1会場を後にします。

部屋に戻る前に上の方も見ていこうと、アストロカーのところに寄ってみると、ちょうど最後のお客さんが終わるところでした。そのまま主催者のSさんとお会いすることができ、講演に招待していただいたお礼と、来年どうなるのかなどを少し話しました。

その後、第2会場に立ち寄って、やっとRYOさんとお話することができました。今回の講演では私のが電視観望の基礎、RYOさんのが電視観望の応用というような、連動企画のような状況になっていました。RYOさんとは準備段階でも連絡を頂くなど、いろいろお世話になっていました。今回の講演は二人ともかなり盛り上がったと思うもで、RYOさんとはいつかなにか合同で企画してみたいと思います。あいにく期待のRYOさん自慢のシステムGOZENSAMAは雲が出てきて稼働するところは見えなかったですが、RASA8を使ってリアルタイム電視観望の流れを汲むということで、原点復帰で非常に興味深いです。

この時点でかなり寒くなってきていて、22時15分くらいだったでしょうか、部屋に戻りちょうどウダウダしていた妻も誘って、そのまま温泉へ。どうも聞いてみたら、妻も大1会場まで見にきてくれていたみたいです。一角だけ人だかりができていたと言っていました。

温泉が冷えた体を温めてくれました。温泉を出た後の恒例のアイスを食べながら、たまたま同じ時間になったサイトロンスタッフさんと、画像処理の反応の大きさとかについて話していました。

部屋に戻って、初日朝にかった菓子パンをひとつだけ食べて(結局この日の夕食はこれだけでした)、疲れ果てて寝てしまいました。でもかなり満足した疲れでした。


3日目

朝ちょっとゆっくりめに起きて、8時頃から朝食に。休日ということもあり、子供づれの家族もたくさんいて、かなり混んでいて2階の空いている席に案内されました。昨晩はほとんど何も食べてなかったので、朝はやっとお腹が空いてそこそこ食べることができました。でも調子に乗ってまた食べ過ぎてしまい、この日も昼食抜きとなってしまいました。

朝食後は荷物をまとめてチェックアウトです。その後に、第1会場に少しだけ寄ってみると、エーデルワイス内の片付けはすでに終わっていて、キャンプ会場も撤収をしている方が多かったです。会場に残っていた何人かの方と挨拶をして、星フェス会場を後にします。

帰り道は、来た時の佐久経由ではなく、松本経由にしました。来るときに通れなかった、メルヘン街道を行ってみます。昨年より開催時期が一月近く早くなり、雪や道路が凍る心配もないので、一度走ってみたかったのです。でも、昨年までに実際通ってきた人から聞いていたのは「かなりの悪路で、あまり使いたくない」という声です。砂利道か何かなのかと想像していたのですが、実際通ってみたら全然そんなことはなく、多少クネクネしているものの、全然普通に通れる道です。アスファルトも少し凸凹していたところもありますが、富山の地元の山の狭い道とかと比べたら全然まともでした。しかもちょうど紅葉シーズンです。下の方はまだ少し早く、最高高度近くはもう葉っぱが散っているような状況だったので、高さに応じて紅葉度合いが楽しめ、とてもきれいでした。道には宣伝の看板なども皆無で、頂上あたりは尾根沿いにあたるのか、クネクネ道も少なく、昔海外にいた頃に走った道を思い出しました。

IMG_8762

メルヘン街道も頂上を越えどんどん進んでいくと、高度もだんだん下がり紅葉をピークから早い状態へと逆戻りしていきます。別荘がが出てきて、レストランとかの店も出てきて、普通の民家も出てきて、最後諏訪の市街地に入り車の渋滞が始まると、とうとうリゾート気分も終わりです。

高速は諏訪ICから松本ICまでで、大した距離ではありません。行きとの高速代の差額は5000円位、距離が100km近く短くなるので、ガソリン代の差額が1500円くらいでやはり無視できない額になります。高速は少しの間なので、諏訪SAに入り、少しお土産を買い、松本で高速をでてすぐに給油。そこから下道なのと、眠くなってしまったので妻に運転を代わってもらい、無事に帰宅しました。


妻の感想

恒例の妻の意見です。今年はどうでしたでしょうか?
  • いつもより1ヶ月近く早いので、紅葉が楽しめてよかった。
  • お風呂は源泉でいつもながらよかった。23時の終了間際だと星を見ていた人がたくさん一度に来るので、混んで大変かもしれない。
  • 去年ほど(自分が)ドタバタしていなかった。初日の夜に一緒に(私Samと)食事ができたからかもしれない。前回は何か行事(古スコ懇親会)があって一人で夕食だったからかも。
  • 何もしない贅沢が素晴らしく快適で、だんだん海外リゾートっぽいイメージになってきた。
  • ホテルの対応もかなりよかった。お客さんが大人数でもドタバタしていなかった。(これは私も思いました。昨年も一昨年に比べかなり改善されたと思いましたが、今年は不満が全然なかったです。)
  • ウェルカムスイーツが想像より本格的だった。
  • やはりここはガトーキングダム(日本語で「お菓子の王国」?)の名に恥じない夢にまで見た「お菓子の城」だった。でも食べすぎた。さすがシャトレーゼ。(妻は普段からシャトレーゼの大ファンです。)
  • お腹をこなすのに、美術館まで散歩で往復した。適度な距離で楽しかった。
  • 佐久ICからの、高い所を走る天空の道のような高速道路(実際には無料の道路)も良かったが、帰りの諏訪へ向かうメルヘン街道もすごくよかった。
とのことです。どうやら今年はほとんど不満もなく、いつもの辛口批評も口を潜めています。見ている限りかなり満足していたようでした。星に関してほとんど感想がなかったので、星以外で十分楽しんでいたということでしょうか。あまり相手ができなかったので、私としては勝手に楽しんでくれていたようでありがたいのですが...。


まとめとお礼

最後にですが、今回の星フェス、私としてはとても充実していて、十分に楽しむことができました。講演とデモがあり、準備なども含めると時間が少し足りないくらいで、もっと現場をゆっくり見て、他の方ともたくさんお話ししたかったというのも少しありますが、多分体力的にもほぼ限界かと思います。

会場では至る所でボランティアさんたちが、会場の設営準備から星フェスの役割分担までたくさんのことをこなしてくれていました。本当にありがとうございました。主催のテレスコ工房のSさんには、講演のお誘いから、星フェス開催までの相談など、大変お世話になりました。今回の星フェスは、これまでとは違ったエーデルワイスという新たな会場で、特に寒い夜など相当快適でした。まだまだこの星フェスは進化し続けるのではと思わせてくれました。今年も開催までにおそらく相当な困難がたくさんあったかと思います。それでも3日間、楽しい星フェスとなったのは、Sさんはじめ、スタッフの方々、ボランティアの方々のお力のおかげかと思います。心から感謝しています。小海の星フェスは、今では完全に日本の大型星まつりの一翼を担っています。できることなら来年以降も続いてほしいと、心から思います。私自身も来年以降も微力ながらも協力できればと思っています。

とにかく楽しかったー!!!


 



この記事は、実画像のノイズ評価(その1): 各ノイズの貢献度合


の続きになります。


前回の復習

かなり前の記事になってしまうので、私自身忘れてしまったことも多くて記事を読み返しながら今回の記事を書いています。前回の記事で何がポイントだったのか、復習がてら少しまとめ直してみます。

前回の記事では読み出しノイズ、ダークノイズ、スカイノイズの3つについて、実際に撮影した画像を元に数値的に具体的な値を見積もりました。特にこれまでスカイモイズをどう見積もるかが難しかったこともあり、あまりきちんと評価されてこなかったようです。前回の記事では画像の明るさからコンバージョンファクターを使いスカイノイズを見積もるという手法を提案し、実際のスカイノイズを数値で出すという試みをしています。

その結果、撮影地で有名な暗いと言われる開田高原の空でさえ、スカイノイズが支配的で、15.9[e] 程度ありました。読み出しノイズ、ダークノイズがそれぞれ1.8[e] と1.5[e] で10分の1程度です。実際の効きは2乗して比較すべきなので、それぞれスカイノイズに対して(15.9/1.8)^2 = 1/78、(15.9/1.5)^2 = 1/112と78分の1とか、112分の1とかしか影響していないことがわかります。

これが富山の街中の自宅になると、スカイノイズがさらにひどいことになり48.0[e] となり、3倍近くの大きさです。開田高原と同じクオリティーにしようとしたら、(48/15.9)^2 = 9.1で9.1倍ほどの露光時間を必要とします。開田高原で5時間45分かけているので、自宅だと52時間20分かけて撮影すると同じになるというわけです。自宅だと平日も撮影して放って置けるのですが、北陸で冬に1週間も連続で晴れることはほぼありえないので、実質不可能です。こうやって具体的な数値を入れてみると、大きな違いになることがわかります。

このように、スカイノイズが支配的な場合は読み出しノイズやダークノイズはほとんど効いていないので、露光時間をもっと増やしてもいいのではないかと疑問を投げかけた形で前回の記事を終えています。今回はその疑問に応えるような形で、撮影条件やパラメータを変えながら、検討してみます


どこまで露光時間を縮めることができるか?

簡単のため、L画像のみを考えます。カラー画像も原理は同じですが、ディベイヤーなど計算が複雑になるので、とりあえずここではモノクロとします。

読み出しノイズ:
まずは露光時間を短くして、スカイノイズを小さくして、読み出しノイズと同程度になるような状況を考えてみましょう。露光時間をどこまで短くできるかを求めてみます。

今回使った開田高原で撮影したM81の画像では、露光時間300秒の時に、スカイノイズと読み出しノイズの比が

15.9[e] : 1.8[e] = 8.8 : 1

で約9倍の差があります、スカイノイズを約9分の1にすればいいので、明るさで考えると2乗で81分の1にしてやればいいことになります。露光時間で考えると300秒を81分の1にしてやればいいので、300[s] / 81= 4.8 [s]と、露光時間をわずか3.7秒にまで短くするとやっとスカイノイズが読み出しノイズと同等になります。こんなに短くていいんですね!?

ダークノイズ:
次に、スカイノイズがダークノイズと同程度になる温度を求めてみます。まずは300秒露光だとすると、スカイノイズとダークノイズの比は前回記事の計算から

15.9[e] : 1.5[e] = 10.6: 1

と10.6倍程度の余裕があるので、−10℃で撮影した時のダークノイズが10.6倍程度になるには、暗電流で考えると2乗になるので、−10℃での暗電流が10.6^2 = 112倍程度になるところの温度を暗電流のグラフ(縦軸が2倍ごとの対数グラフであることに注意)から読み取ってやればいいはずです。−10℃での暗電流が0.007程度なので、112倍だと0.79とかなってしまい、もう30℃超えとかの温度になってしまいます。今回くらいスカイノイズが支配的ならばもう冷却に関しては全然気にしなくていいと言うことになってしまいます。


本当にそんなに余裕はあるのか?

開田高原の暗い空でさえ、露光時間は3.7秒以上ならOK、温度は30℃以下ならOKと、にわかには信じ難い数字が出てきました。さらに(今回撮影した日の)開田高原より明るい空ではこの条件は緩和され、さらに短い露光時間でも、高い温度でもよくなります。これまでおまじないのように露光時間を伸ばし冷却をしてきたのですが、実際にはほとんど効いていなくて、1枚あたりの露光時間を減らしていいし、センサー温度ももっと高くてもいいということになります。

でも、ここまでの検証、本当に正しいでしょうか?

答えは原理的にはYesですが、実用上はNoでしょう。まず、暗い空に行けば行くほどこのパラメータの余裕は少なくなっていきます。また光害防止フィルターを使うと、実質的に暗くなるのでスカイノイズは小さくなり、上記露光時間と温度の余裕は少なくなっていきます。これらの場合1枚あたりの露光時間を増やした方が有利になるし、センサー温度も低い方が余裕が出ます。

例えばHαのようなナローバンド撮影の場合を考えます。典型的な7nmのナローバンドフィルターを使うとしましょう。7nmというのはフィルターを透過する光の波長の(多分ですが)FWHM(Full Width Half Maximum、半値全幅、縦軸のピークの半分の値をとる時の横軸の全部の幅、他にも半値半幅などがある)が7nmということなので、仮にASI294MMが可視である波長のFWHMを380nmから800nmの420nmとしましょう。420nmが7nmとなるので、単純に考えると明るさは60分の1になります。スカイノイズにするとルートで効くので8分の1程度でしょうか。

今回の計算ではスカイノイズと読み出しノイズの比が8.8分の1、スカイノイズとダークノイズの比が10.6分の1と見積もっていたので、大きく余裕あると思っていました。でもナローバンド撮影の場合スカイノイズが8分の1になるいうことは、この余裕を全て取り去ってしまいます。ナローバンド撮影だと300秒露光と−10℃での撮影で、スカイノイズと、読み出しノイズと、ダークノイズが大体一緒くらいになるということになります。


現実的な露光時間と温度

ナローバンドでは300秒という露光時間も、−10℃というセンサーの温度も妥当だということは分かったのですが、明るいL画像ではやはりこれまでの検証に特におかしなところはなく、露光時間も温度も全然余裕があるということは(私が大きな勘違いをしていなければですが)事実です。

でも、途中の複雑な機器設定の変更で撮影が失敗するリスクなどを考え、同じようなセッティングで全ての光学フィルターに対して対応しようとするのは戦略として全然おかしくはなく、その場合、一番厳しいところにセッティングを合わせることは十分妥当でしょう。
 
このように全部一緒のセッティングにするということも一理ありますが、明るい場合にはパラメータに余裕があることを理解した上で、フィルターによっては露光時間を変える、ゲインを変えるという戦略を立てることは次の可能性につながるのかと思います。例えばHαをRGBに混ぜる赤ポチ画像を作るのに、StarNetなんかで背景と恒星を分離するときなんかは特にそうです。この場合、恒星は大きさも色情報も使えなかったりもするので、背景のみにダイナミックレンジを振ることができ、余裕ができるはずです。

ただし、露光時間やゲインを変えてパラメータ数を闇雲に増やすと、その後の画像処理に対して必要なダークファイル、フラットファイル、フラットダークファイル、バイアスファイルなどの種類も増えていく羽目になります。少しまとめておきます。

露光時間とゲインという観点では:
  • 露光時間もゲインも変えたくないもの: ダークファイル
  • ゲインを変えたくないもの: フラットファイル、フラットダークファイル、バイアスファイル
光学フィルターごとという観点では:
  • それぞれのフィルターに対して撮影するもの: フラットファイル
  • 共通で撮影できるもの: ダークファイル、フラットダークファイル、バイアスファイル
くらいになりますでしょうか。

特にダークファイルは撮影に時間がかかるので、できるだけ種類を少なくしておきたいです。明るい時と暗い時の2パターンくらいに決めておけるなら、ダークだけ設定ごとに一度撮ってしまって使いまわすことで、後の手間はそれほど変わらないと思います。あらかじめダークライブラリーを作っておくと気にしないでよくなるかもしれません。バイアスもゲインごとのライブラリを作ることができますね。

フラットはホコリなどの状況でかわってしまうので、その都度撮影した方がいいかもしれませんが、センサー面やフィルター面を暴露しないようにしてホコリなどの混入があまりない状況を作れるのなら、使い回しが効くと思います。

多分大丈夫だとは思うのですが、フラットとフラットダークはできれば同時に取ったほうがいい気がしています(温度が変わると縞ノイズに影響があるかも、でも未検証)。


まとめと今後

今回は露光時間とセンサー温度について、本当に理屈通りでいいのか、実際の撮影などのことも含めて少し検証してみました。実用上はフィルターなどの変更もあるので、これまで通りの露光時間やセンサー温度でも構わないかもしれませんが、これらのパラメータを変更する場合にどれくらい余裕があるかを知っておくことは、今後の方針を立てる上で有利になるのかと思います。

まだまだ検証したいことはたくさんあって、ゴールまではかなり遠いです。これまではノイズのみの議論で、ノイズ同士がどうなるかだけを問題にしていて、信号についてはまだ何も議論していません。ノイズに対して、撮影目標の天体が信号ということになるのですが、信号SとノイズNの比S/N (SN比)が重要になります。また、スタックすることでS/Nを稼ぐことができます。でも真面目に信号部分を考えるのって結構大変なんですよね。またゆっくり考えてみます。


この記事の続き



になります。実際に信号を考えてS/Nを求めています。








このページのトップヘ