ほしぞloveログ

天体観測始めました。

タグ:プレビュー

CP+のセミナー、いかがでしたでしょうか?細かい操作も多かったので、その場では少し見にくいところなどもあったかもしれません。すでに動画配信が用意されているので、わかりにくかったところは繰り返しチェックしてみてください。

 

今回の記事は、動画配信を元に、わかりにくかったところの補足をしようと思います。


処理画像の準備

セミナーの中で話した、撮影までの状況と、SharpCapでの再ライブスタックは、これまでの記事で書かれています。







今回の記事は、セミナーで示した中でも、特に画像処理の部分について補足していきたいと思います。「なぜ」この操作をするべきなのかという意味を伝えることができればと思います。

セミナーは
  1. (23:50) 入門用にMacの「プレビュー」を使って、その場で処理
  2. (27:05) 初心者用にPhotoshopを使って、その場で処理
  3. (32:40) 中級者用に「GraXpert」とPhotoshopを使って、その場で処理
  4. (41:50) 上級者用に「PixInsight」をあらかじめ使った処理の結果を流れだけ
という内容 (括弧内の時間は配信動画での位置) でした。

使用した画像は、SharpCapで1分露光で撮影したオリオン大星雲を60枚したものです。これを、上の1と2はオートストレッチしたものをPNGフォーマットで8ビットで保存されてもの、3と4はRAW画像のfitsフォーマットで16ビットで保存されたものです。

オートストレッチで保存できるのは2種類あって
  1. 「Save with Adjustments」を選ぶ、LiveStackでのオートストレッチのみかかったもの
  2. 「Save exactlly as seen」を選ぶ、LiveStackでのオートストレッチに、さらに右パネルのオートストレッチが重ねてかけられてもの
です。今回は後者の2の保存画像を元に画像処理を始めます。いかが、SharpCapで保存されたライブスタック済み、オートストレッチ済みの初期画像です。

ここでオートストレッチについては少し注意が必要で、何度か試したのですが、ホワイトバランスや輝度が必ずしも一定にならないことがわかりました。全く同じRAWファイルをスタックした場合は同じ結果になるのですが、スタック枚数が変わったり、別のファイルをスタックしたりすると、見た目に色や明るさが変わることがあります。どうも比較的暗いファイルでこれが起こるようで、ノイズの入り具合で左右されるようです。明るさはまだ自分でヒストグラムの黄色の点線を移動することで調整できるのですが、RGBのバランスは大まかにはできますが、極端に暗い画像をストレッチするときの微妙な調整はSharpCap上ではできないようです。Photoshopでは背景と星雲本体を個別に色合わせできるのでいいのですが、WindowsのフォトやMacのプレビューでは背景も星雲本体も同じように色バランスを変えてしまいます。このことを念頭においてください。


Windowsのフォトでの簡易画像処理

まず、入門用のOSに付いている簡易なアプリを使っての画像処理です。

セミナー当日はMacとWindowsの接続が不調で、SharpCapのライブスタックとWindowsのフォトでの加工をお見せすることができませんでした。手持ちの携帯Wi-FiルーターでMacからWindowsにリモートデスクトップで接続しようとしたのですが、2.4GHzの信号が飛び交い過ぎていたようで、遅すぎで使い物になりませんでした。あらかじめテストはしていたのですが、本番でこんなに変わるとは思ってませんでした。

お詫びではないですが、Windowsのフォトについては、配信動画の代わりに、ここでパラメータと結果画面を追加しておきます。画像処理前の、SharpCapのオートストレッチで保存された画像は以下のものとします。

Stack_60frames_3600s_20_34_59_WithDisplayStretch

これをWindowsのフォトで処理します。
  1. WindowsではPNGファイルをダブルクリックすると、フォトが立ち上がります。画像処理をするには、上部真ん中にあるアイコン群のうち、左端の「画像の編集」アイコンをクリックします。
  2. 上部に出てくるメニューの「調整」を押します。
  3. フォトの弱点は、背景を暗くするのがしにくいことでしょうか。今回は「コントラスト」を右に寄せることで背景を暗くします。
  4. 星雲中心部が明るくなりすぎてます。トラペジウムを残したいので「強調表示」を左にして明るい部分を暗くします。
  5. 色バランスは「暖かさ」と「濃淡」で整えます。「暖かさ」左に寄せて青を出し。「濃淡」を右に移動しバランスを整えます。
  6. 「彩度」をあげて、鮮やかにします。
setting

画面が暗い場合は「露出」を少し上げるといいかもしれません。「明るさ」は変化が大きすぎるので使いにくいです。

上のパラメータを適用すると、結果は以下のようになります。
photo

たったこれだけの画像処理でも、見栄えは大きく変わることがわかると思います。


Macのプレビューでの簡易画像処理

Macのプレビューでの画像処理過程はセミナー中に見せることができました。でも今動画を見直していたら、どうも本来処理すべき初期画像を間違えていたようです。

Windowsとの接続がうまくいかなくて、内心かなり焦っていたようで、本来は上のフォトで示した初期画像にすべきだったのですが、間違えて出してしまったのがすでに加工済みの下の画像で、これを元に画像処理を進めてしまいました。焦っていたとはいえ、これは完全に私のミスです。本当に申し訳ありませんでした。
Stack_60frames_3600s_20_34_59_WithDisplayStretch 2

ここでは、改めて本来加工するはずの下の画像で進めようと思います。フォトで使ったものと同じものです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch

最終的なパラメータはこれくらいでしょうか。一つづつ説明してきます。
setting
  1. オートストレッチで星雲本体を炙り出た状態だと、星雲中心部が明るくなりすぎます。トラペジウムを残したいので「ハイライト」を下げます。
  2. 背景が明るすぎるので、上のヒストグラムの左のマークを右に動かします。星雲本体を炙り出すために、真ん中のマークを左に少し寄せます。これは後のPhotoshopの「レベル補正」に相当します。
  3. 色バランスは「色温度」と「色合い」で揃えるしかないようです。「色濃度」は左に動かすと青っぽくなります。「色合い」は右に動かすとバランスが整います。最後は画面を見ながら微調整します。
  4. 「シャープネス」を右に寄せると、細部を少し出すことができますが、今回はノイズがより目立ってしまうので、ほとんどいじっていません。

結果は以下のようになりました。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
これをみると、セミナー本番中にプレビューで処理を開始したものとよく似ているかと思います。要するに、練習でプレビューで処理をしたものを間違えて開いてしまったと言うわけです。こんなことも気づかないとは、やはりその時はかなり焦っていたんですね。それでも次のPhotoshopの処理はそれに気づいて、SharpCapから直接保存されたものを処理に使っています。


Windowsのフォトも、Macのプレビューも、いじることができるパラメータはそう多くはないので、解はある程度一意に決まります。むしろパラメータは画像処理を始めるときの初期のホワイトバランスと、初期の背景の明るさに依りますでしょうか?これはSharpCapの保存時に決まるのですが、保存時に細かい調整ができないのが問題です。それでも、方針さえしっかりしていれば、パラメータに関してはここら辺しかありえないというのがわかるかと思います。繰り返して試してみるといいかと思います。


Photoshopを使った画像処理

次はPhotoshopです。こちらはできることが一気に増えるので、パラメータ決定の際に迷うかもしれません。それでも方針をしっかり立てることで、かなり絞り込むことができるはずです。

初期画像は上と同じもので、SharpCapでストレッチされたPNGファイルです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
  1. (27:10) まず、背景の色バランスの調整です。これはPhotoshopのメニューから「イメージ」「色調補正」「レベル補正」を使うと楽でしょう。RGBの各色をそれぞれ個別に調整して、まずは各色の山のピーク位置と、各色の山の幅を調整します。調整の様子は動画で確認してみてください。山の位置が揃うと、背景の色バランスがとれたことになります。
  2. (27:40) 次に動画では、同じ「レベル補正」を使って背景を暗くしています。左の三角を少し右に移動します。暗くしすぎると、後から分子雲が出にくくなるので、これはもしかしたら必要無かったかもしれません。
  3. (27:55) 次に、青を少し強調します。一般的に星雲本体の青は出にくかったりします。特に今回は光害防止フィルターでQBP IIIを使っているので、そのまま処理すると、赤でのっぺりした星雲になりがちです。「イメージ」「色調補正」「トーンカーブ」と行って、「ブルー」を選び、ここは慎重に真ん中ら辺を少しだけ上げます。トーンカーブは左の方が暗い背景に相当し、真ん中ら辺が星雲の淡いところ、右が星雲の明るいところや、恒星に相当します。
  4. ただし真ん中を上げると、せっかくバランスをとった背景も青くなってしまうので、トーンカーブの線上の左の方をクリックしてアンカーを打ち、暗い背景部分があまり変わらないようにします。アンカーの部分だけが動かなくなるので、アンカーの右の方の線を動かすと、アンカーの左側も変わってしまって背景のバランスが崩れることがあります。そんな時は、左の方にアンカーを複数打って、背景バランスが崩れないようにしてください。
  5. (28:20) 少し地味なので、彩度を上げて各色の諧調が豊かな、見栄えがする画像にします。「イメージ」「色調補正」「自然な彩度」と選びます。その中に2つ触れるパラメータがありますが、「彩度」の方はかなり大きく変わってしまうので、私は「自然な彩度」の方を触ることが多いです。
  6. 補足ですが、色を出そうとしてよくあることなのですが、彩度を単体であげるとくすんだような俗にいう「眠い」画像になります。そんな時はまずは輝度を上げるようにしてください。輝度に関しては、画面に集中してしまうと、暗い状態でもいいと思ってしまうことがよくあります。一度ネットなどで自分が一番いいと思う画像をブラウザ上で見て、そのすぐ横に今編集している画像を並べてみてください。思ったより明るさも色も出ていないことに気づくかもしれません。客観的になるのは難しいですよね。並べて比べながら、まずは一番いいと思う画像くらいになるように明るさや彩度を出してみるのがいいのかと思います。
  7. (28:40) Photoshopで便利な機能が、「フィルター」の中の「CameraRawフィルター」です。まずは「ライト」の中の「ハイライト」を下げることでトラペジウムを守ってやります。
  8. (29:10) 次に、背景に含まれる分子雲を引き出すために「ブラック」を右に振り、「シャドウ」を左に振ります。ブラックとシャドウはよく似ていますが、逆にブラックを左にシャドウを右に振ってやると、似て非なるものだとわかるでしょう。この分子雲の炙り出しは、「効果」の「明瞭度」も効き目があります。セミナーでは説明しませんでしたが、「コントラスト」も同じような効果がありますが、こちらは強すぎる感があるので、使うとしても微妙に調整します。
  9. セミナーでは説明しませんでしたが、細部は「効果」の「テクスチャ」である程度出すことができます。同時に背景のノイズや不自然な大きな構造も出すことになるので、かけすぎには注意が必要です。
  10. (29:35) ここまで分子雲をかなりあぶり出してきたことになるので、かなりノイズが目立っていると思います。Photoshopでも簡単なノイズ処理ができます。その一つが「CameraRawフィルター」の「ディテール」の「ノイズ軽減」です。ノイズの具合に応じて、50とか、最大の100とかに振ってやります。同時に「カラーノイズ」も除去してしまいましょう。カラーノイズは画像を拡大すると、RGBの細かい色違いのノイズがあるのがわかると思います。拡大しながらカラーノイズが除去されるのを確認してみるといいかと思います。
  11. (30:45) ノイズを除去すると、どうしても細部が鈍ってしまいます。これは同じところの「シャープ」を上げてある程度回避できますが、完全に戻すことはPhotoshop単体ではできないかと思います。ノイズ処理に関してはここら辺がPhotoshopの限界でしょうか。
  12. (31:15) 最後に仕上げで再びトーンカーブをいじっています。ここら辺は好みでいいと思いますが、今回はまだ青が足りないのでBのを少し上げました。派手さは赤色で決まるので、Rも少し上げます。緑は自然さを調整します。赤とか青が強くて、全体に紫っぽくて人工的な気がする場合は、Gをトーンカーブで気持ち上げると自然に見えたりします。セミナーでは説明しませんでしたが、必要ならばトーンカーブの右側にも適時アンカーを打って、明るい部分が明るすぎにならないようにします。特にせっかく撮影時に残ったトラペジウムを、明るくしすぎて消さないようにします。
Photoshop

こんなところで完成としましたが、いずれにせよここでは、背景と星雲本体を個別に色バランスをとりつつ、背景を炙り出し、コントラストを上げることが重要です。背景はそもそも暗いためにノイズが多く、分子雲を炙り出すとどうしてもノイズが目立つようになるので、何らかのノイズ処理が必要になってきます。

WindowsのフォトやMacのプレビューだけで処理したものと比べると、背景と本体のバランスがとれていて、それらしい画像になってきたのかと思います。


GraXpert

ただし、Photoshopでの処理だけだと、背景の分子雲はまだあまり見えていないですね。この淡いところを出すにはどうしたらいいでしょうか?基本は、星雲本体と背景の輝度差をなくすことです。特に、画面全体に広がるような大きな構造(「空間周波数が低い」などと言います)での輝度差をなくすことが重要です。ここでは「GraXpert」という無料のアプリを使います。WindowsにもMacにも対応しています。

GraXpertは操作がそれほど多くないので複雑ではないのですが、少しクセがあります。

1. (32:35) GraXpertにストレッチ機能があるので、今回はすでにストレッチされたPNGではなく、暗いままのRAWフォーマットのFITSファイルを使いましょう。ストレッチされてない画像なので。最初にGraXpertの「1」の「Load Image」で開くとこんなふうに真っ暗に見えるかと思います。
Stack_16bits_60frames_3600s_20_21_42_fits_nostretch

2. (33:05) GraXpertの「2」の「Stretch Options」で何か選ぶと、明るい画像になるかと思います。ここでは見やすくするために「30% Bg」を選びます。

3. (33:15) 画像の周りに黒いスジなどある場合はフラット化がうまくいきません。ライブスタックの時にディザリングなどで少しづつ画像がずれていくと、黒い筋になったりするので、まずはそれを左メニュー一番上の「Crop」の横の「+」を押して、出てきた「Crop mode on/off」を押します。黒い筋を省くように選択して、クロップして取り除きます。クロップ機能がGraXpertにあるのは、画像周辺の情報の欠落に敏感だからなのでしょうね。実際の取り除きの様子は配信動画を参考にしてください。

4. 「Saturation」は彩度のことなので、少し上げておくと後から彩度を出すのが楽になるかもしれません。今回は1.5を選びました。

5. (33:48) 「3」の「Points per row」と「Grid Tolerance」は画像によって適時調整してください。「Create Grid」を押します。目安は星雲本体が黄色の枠で選択されないくらいです。ここであまり神経質にならなくてもいいのがGraXpertのいいところでしょうか。

6. (34:00) 「Interporation Method」ですが、これは4種類ありますが、各自試してみてください。場合によって適不適があります。私はKriging>RBF>AI>Splineくらいの印象でしょうか?セミナーでは時間のかからないRBFを選びました。Methodによっては差が出る場合もありますが、ほとんど差が出ない場合もあります。

7. (34:25) しばらく待って結果が出たら、画面真ん中上の「Processed」と「Original」で比較してみるといいでしょう。その差が「Background」で見ることができます。
bg
こうやってみると、左が緑に寄っていて、右が赤に寄っていたことがわかります。

8. (35:28)できた画像をこのまま保存すると、ストレッチがかかりすぎているので、「Stretch Options」で「10% Bg」程度を再度選びます。その後「5」の「Saving」で「16bit TIFF」を選択し、「Save Stretched & Processed」を押して、ファイルを保存します。

TIFFファイルはサイズが大きくなるので、ここではTIFFファイルをjpgに変換したものを表示しておきます。
Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert

9. (36:14) 保存されたTIFFファイルをPhotoshopで開き、あとは上でPhotoshopで処理したものとほぼ同様に進めます。

10. (36:20) 今回の場合、ヒストグラムで全ての山がそろっています。GraXpertで背景のホワイトバランスも合わせてくれています。

11. (36:28) 背景が暗いのですが、中心部は明るいので、Camera RAWフィルターで、ハイライトを下げ、黒レベルを上げ、さらに露光を少し上げると、背景の分子雲がPhotoshop単体で出したものよりも、すでに黙々しているのがわかります。これがGraXpertのフラット化の効果です。

12. (37:17) あとは同様にトーンカーブで青を少し出します。

13. (37:35) GraXpertのフラット化の弊害として、色が出にくいというのがあります。彩度を少し強調するといいでしょう。

14. (38:15) Camera RAWフィルターの「ディテール」の「ノイズ軽減」でノイズが目立ちにくくなります。ここまでの完成画像を示します。

Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert_final

明らかにPhotoshop単体より、GraXpertでフラット化することにより、背景の分子雲が出たのかと思います。

よりあぶり出せたのはいいのですが、その分ノイズが目立つと思います。そのため、動画では (40:13)あたりで DeNoise AIを紹介しています。これはAIを利用したノイズ除去ツールで、非常に強力なのですが、恒星の処理が苦手で、星が崩れたりしてしまいます。今回は中心が抜けたような星になってしまいました。

これは次に話すように、星と背景を分離するなどして、背景のみに実行することでうまく使うことができますが、ここまで来ると今回の範囲を超えてくるので、参考までにノイズツールはこのようなものもあるということだけ認識しておいてください。


PixInsight

セミナーでは最後にPixInsightでの処理を紹介しましたが、これは今回の目的の範囲を超えていると思いますので、参考程度に処理したものを順に示すだけにしました。なのでここでも詳細な解説は控えておきます。というか、これを解説し出すとこの一記事では到底収まりきりません。

ポイントは
  1. (42:40) BlurXTerminatorで収差を改善し星を小さくシャープにすること
  2. (44:47) 星と背景を分離すること
でしょうか。これらはPhotoshopでの処理とは全く異なり、天体画像処理専用ソフトの強いところです。最初からここまで手を出す必要は全くないと思いますが、いつか自分の処理が不満になった時に、こんな手法もあるということくらいを頭の片隅に入れておけばいいでしょう。


比較

最後に、今回それぞれで画像処理をした
  1. Macのプレビュー
  2. Photoshotp
  3. Graxpert
  4. PixInsight
の4枚を並べて比べてみます。左上からZの字を書くように、上の1、2、3、4と配置しています。

all

Macのプレビューだと、背景と星雲本体を別々に色合わせできなかったことがよくわかります。Photoshopになると、色がある程度バランスよくなっています。分子雲のモクモクはGraXpertが一番出ているでしょうか?

セミナー当日見せるのを忘れてしまいましたが、同じ4枚を拡大したものも比較してみます。
all_magnified

Macのプレビューはノイズ処理がないので、やはりノイジーです。拡大すると、PhotoshopのみとGraXpertが入った時の違いもよくわかります。モクモクのあぶり出しと同時に、細部もでています。それでも細部はPixInsightがBXTのおかげで圧倒的でしょうか。

セミナーの最後でも言いましたが、4枚目でも情報を引き出し切ったかというと、かなりいいところまで入っていると思いますが、まだ少し余地が残っていると思います。マスクを使ったりすることで、ノイズ処理やあぶり出しをもう少し改善することはできるかと思います。


まとめ

さて、今回のセミナーと合わせての一連のブログ記事いかがだったでしょうか?電視観望から始まり、撮影に発展し、画像処理までを解説してきました。セミナー本番は少し詰め込みすぎたかもしれませんが、後の配信を前提に動作を示すことを中心としたので、よろしければ動画を繰り返し見ながら確認して頂ければと思います。皆さんの画像処理の何かのヒントになるのなら、今回のセミナーを引き受けた甲斐が十分にあるというものです。

画像処理はとても奥深いところがあり、今回示したBlurXterminatorもそうですが、まだまだ今後ソフトや技術も進化していくはずです。大切なことは、ここまで説明したことの繰り返しになるかもしれませんが、闇雲に処理を進めるのではなく、何が問題で、どうすれば解決するかの方針を立てて、手持ちの技術で実際に進めていくことかと思います。画像処理といっても、いわゆる普通の問題解決プロセスと同じですね。

今回色々な手法を示しましたが、これが唯一の方法だなんてことは口が裂けても言えませんし、正しい方法かどうかもわかりません。あくまで一例で、他の方法もそれぞれ皆さんで、試行錯誤もあるかと思いますが、いろいろ編み出して頂ければと思います。











今回の目的は、AZ-GTiの経緯台モードを使って、できるだけ簡単に星雲を撮影しようというものです。


もっと簡単に星雲とか撮影できないか? 

ここしばらく、できるだけ簡単に星を楽しむことができないかを考えています。明るい広角レンズとただの三脚を使った電視観望もその過程のひとつです。これはQBPという武器があって初めて実現することでした。

同様に、撮影に関しても高すぎる敷居をもっと下げることができないか、ずっと考えていました。もちろん、究極的な画像を求めよういう場合は別ですが、もっと手軽に、画質は自分で満足できればいいくらいの撮影というのも、あっていいと思うのです。ここではAZ-GTiを武器として試しています。

眼視から少し手を伸ばしてみたい、電視観望よりもう少し綺麗な天体を自分で撮ってみたいとかいう人たちがきっといるはずです。天体写真の敷居を下げることで、天文人口を増やすことにつながればと思います。


経緯台撮影の問題点

赤道儀は極軸合わせなど、若干敷居が高いので、より簡単な経緯台を想定します。今回は自動導入と自動追尾がついているAZ-GTiを使うことにします。

しかしながら経緯台は撮影にはあまり向いているとはいえません。問題点は二つあります。
  • 経緯台なので撮影していると写野が回転していくのですが、それをどうするか?
  • ガイドも当然なしなので、星像がふらついたり流れたりして長時間露光ができない点。

でもこれらは、もしかしたら電視観望で培った技術が解決するのではと考えるようになってきました。カメラは一眼レフカメラは使わずに、その代わりに電視観望のようにCMOSカメラを使います。


撮影手順

簡単星雲撮影のセットアップは基本的に電視観望とよく似ています。今回はテスト記事なので全くの初心者が必要な細かい手順の説明は省きます。電視観望をやったことがある人くらいが対象です。本当の初心者向けの記事は、もっと細かい位置からの手順を踏まえて後日まとめるつもりです。

IMG_9267

経緯台にはAZ-GTi、鏡筒には評価用に手元にあったSkyWatcerのEVOSTAR 72EDを使います。比較的安価なアポクロマート鏡筒なので、初心者にも手頃かと思います。CMOSカメラはASI178MCを使います。ASI224MCでも良かったのですが、安価で少しでもセンサーの大きさを稼ぎたかったのでこれにしました。
  1. 今回のターゲットは初心者向けに、かなり明るいオリオン大星雲M42とします。
  2. AZ-GTiは経緯台モードで自動追尾します。精度はそこまでないのと、原理的に写野が回転していくので露光時間は長すぎると星が流れていきます。長くても30秒くらい、できれば10秒くらいまでが無難。今回は短めの3秒としました。
  3. ソフトは定番のSharpCapを使います。
  4. ゲインは高すぎるとノイズが多くなってしまいます。逆に低すぎると何も映りません。露光時間は短めなので、少し高めでもよくて、最大のゲインから1段か数段下げるといいかと思います。今回は310としました。
  5. 目的の天体がそこそこ見えていたらSharpCap上でライブスタックをしてみます。
  6. ライブスタックパネル左下の何分かおきに画像を保存するにチェックを入れます。今回は3分にしておきました。
  7. AZ-GTiの精度だと、長時間撮影していると画面がずれていくかもしれません。例えば10分くらい経ってから画面を見てみて、もし天体がずれているような時は再びSysScanのコントローラーを使って天体を真ん中に入れます。その際、ライブスタックのリセットボタンを押すのを忘れないようにしてください。
ポイントは、星像が流れないようにするために、短時間露光に抑えることです。その一方露光時間が短いと読み出しノイズが支配的になりがちですが、そこは枚数を稼ぐことで緩和します。ゲインが高いのでダイナミックレンジが不足しがちですが、淡い部分を映し出す方を優先します。また、ライブスタックを活用することで、撮影枚数を減らします。

と、ここまで読んで分かる通り、やっていることは電視観望とほとんど大差ありません。それでも、赤道儀やガイドなどの、通常の撮影に比べて遥かに手軽なことがわかると思います。

今回はライブスタック3秒x60スタックで、一枚あたり3分露光した画像を、合計1時間程度撮影し、その中の画面からずれていない10枚、30分ぶんの画像を取得しました。画像のズレはAZ-GTiのものもありますが、1時間も撮影するとそもそも15度程度写野が回転してしまいます。

写野の回転は原理的にどうしようもありません。多少の回転はトリミングで見えないようにします。なので超長時間露光は難しいですが、それとて時間が経ったらカメラ自身をマニュアルで回転させてしまえば対応できないこともありません。


撮影画像のスタック

初心者にとって厄介なのは、撮影よりもむしろ画像処理です。

写野の回転と同時に、周辺の歪みによるスタック時のずれが問題になってくる可能性があります。今回はPixInsightで星を認識して星像を合わせるような重ね方をしています。でも初心者にPIを求めるのは酷と言うものです。

ステライメージは回転は補正してくれますが、画面を歪めて星を重ねるような機能はないので、こういった場合は難しいです。あとはDSSでしょうか。DSSは一番最初に星を始めた頃に触っただけなので、ほとんど理解していないのですが、調べた限りでは画面を歪ませて合わせるような機能はないみたいです。

そういった意味でも、小さめのセンサーを使って星像がブレにくい中心像だけ使うと言うのは理にかなっているとおもいます。DSSは無料で使えることもあり、最初からあまりお金をかけることができない初心者にとってはほとんど唯一の選択肢になるので、検討する余地は十分にあると思います。


追尾時のズレの様子

撮影した10枚をスタックして画像処理をしてみました。まず、どれくらいずれている10枚でやったのか、スタック直後でストレッチだけかけた画像です。

integration

初期アラインメントがワンスターアラインメントしかやっていないので、AZ-GTiの設置時の水平度不足による並行ずれと、長時間の撮影による回転のズレが生じているのがわかると思います。

水平精度をさぼったので、並行ズレは結構酷くて、10分に一回くらい構図を合わせ直していました。ちなみに、20枚撮影して落とした10枚は、様子を見ていなくて平行移動し過ぎてはみ出していたもので、10枚全部がそれです。さすがにこれはひどいので、水平をきちんと取ることにより、もう少し抑えることができるはずです。逆に言うと、星像のズレとかで落としたものは一枚もないです。SharpCapのアラインメントは相当優秀です。

回転ずれは時間とともに出てきます。もっと短時間で終わらせてしまうのも一つの手です。


撮影した画像の仕上げ

画像処理をして、そこからトリミングしてまともなところを切り出します。画像処理にそれほど時間をかけていないのでイマイチなところも多々ありますが、経緯台で簡易で撮ったにしては、そこそこ写るのかと思います。

integration2_cut
  • 撮影場所: 富山県富山市
  • 撮影時間: 2020年2月1日22時25分
  • 鏡筒: SkyWatcher EVOSTAR 72ED
  • 経緯台: SkyWatcher AZ-GTi
  • カメラ: ZWO ASI178MC
  • 露光: ゲイン310、3秒x60枚のライブスタック x10枚 = 総露光時間30分
  • フィルターなし、SharpCapでのリアルタイムダーク補正 (3秒x16枚)あり、フラット補正なし
  • PixInsigjt、Photoshopで画像処理
トラベジウムとか少し多段でマスクをかけましたが、そもそも短時間のラッキーイメージングの手法に近くて露光不足気味で、元々ほとんど飛んでいないところが効いてきています。


いっそ、一枚撮りで


もう一つの方法が、ライブスタックの画像保存までの時間を10分とか20分とか長くしてしまって、SharpCapのライブスタック結果の一枚画像のみにして、後からスタックをしないことです。

SharpCapでは、ライブスタックの最中は恒星を多数認識して、その星がずれないようにスタックするたびに画像を歪ませて重ね合わせるので、この機能を使う利点は相当大きいです。その代わりに、長時間撮影のために天体全体が徐々にずれていくのが問題になります。これは撮影の間に画面を見ていると回転していってずれていく様子が積算されていくのがわかるので、適当なところで止めてしまえばいいのかと思います。

さらに画像の保存方式も初心者にはいくつか選択肢があって、RAWのfits形式で保存することももちろんできるのですが、もっと一般なtiff形式、もしくはPNG形式でもいいのかもしれません。特に、PCで見えている画像そのものをファイルに保存してしまう機能もあるので、これを使うと後の画像処理でストレッチをする必要もなくなります。

これと似たようなことは実はかなり昔に試していて、どの形式で保存するのが綺麗かと言う比較をしたことがあります。意外なことに、SharpCapのライブスタックに任せてしまったPNGでも十分に見るに耐える画像になっています。

少し前ですが、名古屋での大晦日年越し電視観望中に1時間ほどほったらかしておいてた3秒露光の画像を、そのままライブスタックし続けた画像が残っていました。

Stack_198frames_634s_WithDisplayStretch
1時間くらい放っておいたライブスタック画像。撮って出し。

カメラはASI294MC Pro、鏡筒はFS-60CBに旧フラットナーですが、AZ-GTiでの自動追尾なので、そういった意味では今回の撮影方法そのものの、一枚撮りバージョンになります。ダーク補正とフラット補正をリアルタイムでしてあります。

撮って出しと言っていいのかよくわかりませんが、画面に見えているのをそのままPNGで落として、それをアップロード用にJPGにしたものです。撮影時間は1時間ほどと書きましたが、時間はあまりよく覚えていません。15度くらいいという画面の回転角から、それ位の長さだったんだろうと推測しているだけです。重要なのは、AZ-GTiでのほったらかしでも、水平の設置さえ良ければこれくらいの時間は位置を合わせ直すことなく撮影できることです。

上の画像をある程度仕上げてみます。回転で切れてしまっている部分をトリミング。ASI294MCはセンサー面積が広いので、中心部だけでも十分な面積が生き残っています。

まずはWindowsの「フォト」の「編集と作成」から「調整」のみを使った場合。

Stack_198frames_634s_WithDisplayStretch_win_photo
Windwos「フォト」での加工例。

簡単な調整だけでも多少は出てきます。

次はMacの「プレビュー」の「ツール」「カラーを調整」のみを使ったものです。

Stack_198frames_634s_WithDisplayStretch_mac
Mac「プレビュー」での加工例。

うーん、どうでしょうか、Windowsの方が、ディテール、ノイズともにまさっている気がします。ここら辺は腕にも大きく依存するので、容易に逆転するかもしれません。

いずれのケースでも、さすがにトラペジウム周りのサチってしまっているところは救い出すことはできませんでした。でも、一枚PNGからここら辺まで出れば、撮影を試してみるというのならある程度十分で、これに不満が出るならスタックや赤道儀を用いるなど、次のステップに進むことになるのかと思います。

重要なのは、このようなOS付属の簡易的なツールでも、多少は画像処理ができてしまうと言うことです。これは初心者にとっては大きなメリットでしょう。逆に、改めてみてわかったのは、さすがに1時間スタックは星像が多少肥大するとするということ。これは課題の一つかもしれません。

最後は、このPNG1枚画像をツールの制限なしに画像処理した場合です。と言ってもPhotoshopです。あと、最後の仕上げに今話題のTopazのDenoiseを試してみました。これは結構強力です。しかも簡単なので初心者向けです。有料なのが初心者にとって唯一のネックかもしれません。でもそれだけの金額を出す価値のあるソフトかと思います。Denoiseに関してはまた別記事で書こうと思います。

Stack_198frames_634s_WithDisplayStretch_DN_cut
Photoshop CC+Topaz Denoiseでの画像処理。


まとめ

AZ-GTiを使った経緯台での撮影は一言で言うと「やはり楽」です。似たようなことを既にやっている方も、もしかしたら初心者でも同様のことをごく自然な流れとしてやってしまっている方もいるのではないかと思います。

ポンと北に向けて適当に置くだけ、極軸を取る必要なし、ワンスターアラインメント、ガイドもなし、大きくずれたら直す、というので大幅に大変さを軽減できます。30分露光でここら辺まで出れば、最初に挑戦する撮影としてはかなり満足できるのではないかと思います。

その一方、画像処理の敷居は依然高いかもしれません。後でスタックするのが敷居が高いのも事実なので、一枚どりで画面の見たままで保存してしまうのでもいいのかと思います。あとはGIMPなどの無料の画像処理ソフトや、今回試したWindowsの「フォト」やMacのプレビューでの簡易画像処理だけでも最初はいいのかもしれません。 


後日、今回使ったEVOSTAR 72Dについて、試用記を書いています。よかったら合わせてご覧ください。



このページのトップヘ