ほしぞloveログ

天体観測始めました。

タグ:バラ星雲

少し前に到着したε130、色々準備をしていたり、あまり天気が良くなかったりで延び延びになっていましたが、やっとファーストライトと相成りました。といっても、撮影するにはまだ準備不足なので、まずは試しに電視観望です。


赤道儀への取り付け準備

まずは箱から出して組み立てです。タカハシの純正鏡筒バンドとプレートは一緒に購入したので、適当な位置に鏡筒を固定します。問題はどうやって赤道儀に取り付けるかです。

そもそもタカハシの鏡筒バンドはプレート固定のための二つのネジの幅がかなり広くて、一般的なロスマンディー規格のアリガタの幅よりも広いので、鏡筒バンドとアリガタを直接固定することができません。そのため、まずは同じくタカハシ純正のプレートに鏡筒バンドを固定して、このプレートに空いている穴を介して別のアリガタなどに固定する必要があります。

サイトロンで一緒に購入したAskarのドブテイルバー(ロスマンディー規格のアリガタ)はネジ位置が合わなくて取り付けることができないのはわかっていたので、手持ちのものを探しました。以前スターベースで特価で購入したロスマンディー規格のアリガタに、なんとか取り付けることができそうです。でもアリガタの先端の方のネジを2箇所で止めることができるくらいなので、もしかするとパタパタするかもしれなくちょっと不安定です。タカハシ純正プレートにはあまり加工したくないので、アリガタに穴を新たに空けるか、もしくは後でTSA120などで使ったMOREBLUEの軽量鏡筒バンドに替えるかもしれません。でもまだ予算を他に割り当てる必要があるので、優先度は低いです。

最低限赤道儀に取り付けることができるようになったので、一度実際に取り付けてみて、特にネジの頭とかの干渉などないかチェックします。赤道儀はCGEM IIを使うことを標準としました。Advanced VXでもよかったのですが、ε130の本体自体は5kgと重くはなくても、今後フィルターホイールやカメラ、ガイド鏡などをつけていくとそこそこの重さになるのと、やはり撮影がメインなので少しでも耐荷重が大きくて頑丈な赤道儀の方がいいと思ったからです。


ガイド鏡取り付け位置

ガイド鏡を取り付ける位置は少し迷いました。最初鏡筒上部に手持ちバーを兼ねたアルカスイスプレートを付けようとしたのですが、やはり鏡筒バンドの上部にあるネジ穴の幅が広すぎて直接取り付けることができないことがわかりました。色々考えた末、結局SCA260でやっているように小判鮫状態にしました。アリガタは40cmの長さでじゅうぶんながいので、前方に飛び出ている部分の下面にアルカスイルプレートを取り付けるわけです。

1C429718-3AE4-4C1A-B0C7-D01DB77C44F5
ロスマンディーのアリガタの下に、
アルカスイスプレートが取り付けてあるのがわかりますでしょうか?

この方法の利点は二つあります。
  1. 一つは鏡筒を赤道儀に乗せるときにそのアルカスイスプレートがストッパーになって、鏡筒から片手を離してもずり落ちるようなことがないことです。
  2. さらにこのアルカスイスプレートは前後に長いネジ穴があいているので、前後位置をスライドさせることができます。そのため、一度前後の重量バランスを合わせてしまってアルカスイスプレートをその位置で固定してしまえば、それ以降は鏡筒の前後バランスを取る必要はなく毎回同じ位置に取り付けることができることです。
これらの利点はSCA260で同手法を運用しているうちに気づきました。


光軸チェック

このε130は展示されていたものなので、光軸がずれてしまっている可能性があります。そのため、コリメーションアイピースを使い、光軸をチェックします。あらかじめ副鏡も主鏡にもセンターマークが付いていたので、チェックは簡単でした。とりあえず見ている限り全てのセンターマークが、コリメーションアイピースで見てセンターに来ています。主鏡が作る大きな縁も同心円上になっているようです。気づいたのは、接眼部のアラインメント調整機構がないので、コリメーションアイピースで見た時に副鏡のセンターを指していない時は、副鏡自身を平行移動などしなくてはダメなところでしょうか。でもこれも原理的に自由度が足りないとかではないので、まあ問題ないでしょう。今回は特に問題なさそうなので、とりあえず何もいじらずによしとしました。あとは、実際の撮像を見て評価したいと思います。


電視観望準備

本当は休日前とかのほうがのんびり試せるのでよかったのですが、天気の関係で平日の夜になってしまいました。でもこの日が良かったかというと、黄砂か春霞なのかうっすら雲がかかっているようで、透明度がかなり悪く北極星さえ肉眼で全く見えません。でもこの日を逃すと次はいつになるかわからないので、とりあえず庭に機材を出すことにしました。

カメラはASI294MCで、そのままアイピイース口に取り付けます。でもこのままだとピントが出ませんでした。色々アダプターを付け替えたりして試しましたが、思ったよりフォーカサーの調整範囲が狭くて、結局補正レンズを外してやっとピントが合いました。そのせいなのか四隅の星像が崩れるのは仕方ないにしても、中心部の焦点が合い切らずに星像の鋭さが全く出ません。これは後日補正板をつけて、バックフォーカスもきちんと合わせてから評価し直すことにして、とりあえずこの日はこのまま進めることにしました。


M42: オリオン大星雲

春も半ば過ぎに来ているので、もうオリオン座は早いうちに西の空に沈みます。しかも最近は日も長いので、ますますオリオン座を見る時間が少なくなってきています。とにかくM42オリオン大星雲だけは派手で見やすく、冬季節の電視観望の基準の星雲と言うべきもので、これが沈まないうちに画面に映し出します。

下の画像はgain420で露光時間1.6秒、ライブススタックで22枚、総露光約35秒のもの、フィルターはCBPです。隣の家に沈む寸前(実は一旦屋根に沈んだのですが、今一度赤道儀の位置を変えて家と家の間に見えているところを電視観望したもの)で、しかも透明度が悪い日の西の低空なので、全く見栄えは良くないのですが、まず思ったことが「速い」でした。

01

こんなひどい状況では綺麗に見えるまでにライブスタックを続けてかなり待つ必要があるのですが、さすがFS-60CBの約4倍の明るさです。「速く」星雲が浮かび上がってくるのは、ある程度わかっていたこととはいえインパクトが大きかったです。


バラ星雲

この印象は次のバラ星雲でも全く同じでした。

この日のフィルターはアメリカンサイズのCBPで、カメラにつけたノーズアダプターの先に取り付けています。ただ、この位置に取り付けると周辺減光が顕著になってきます。まずはCBPなしの場合。ゲイン420で3.2秒露光で一回露光だと、バラ星雲とはほぼわかりません。
03

次がCBPありの場合です。30秒露光なので、上の画像と直接比べることはできませんが、朧げながらバラの形がわかります。見て欲しいのは周辺減光で、ストレッチ具合はそう変わらないのに、CBPをカメラ先端につけると明らかに周辺減光が増えています。ε130は明るい鏡筒でセンサーに対する光の入射角が急になるので、フィルターをつけるとしてももっとセンサーに近いところにつけた方がいいことがわかります。
04

上の画像をライブスタックしていくと、わずか2分半で下の画像位になります。空は相当に悪い状況ですが、それでもこの速さはやはりε130の威力といったところでしょうか。
05


三つ子銀河

しし座の三つ子銀河です。天頂に近いので透明度は低いところよりはマシですが、それでもこの日の透明度はかなりイマイチです。

まずは30秒露光です。これだけでも十分に存在はわかります。
08

2分露光です。かなりきれいに見えてきました。
09

10分露光です。周辺減光が目立つので、中心だけ少し拡大しています。画像を拡大してみるとわかりますが、そこそこ分解能も出ていて、銀河一つ一つの構造もよくわかります。
10


M81とM82

M81とM82です。北の空で富山の街明かりで明るいのですが、高度はそこそこあるので先の西の低い空よりははるかにましです。繰り返しますが、肉眼で北極星は見えない状況に変わりはないので、それでここまで見えるなら上等でしょう。

2分露光です。
11

10分露光です。10分露光すると、細部もそこそこ見えてくることがわかります。
13


M51: 子持ち銀河

最後は同じく北の空でM51です。2分露光と
14

10分露光になります。
15

例えば観望会をやったとして、10分でここまで見えるなら、まあ十分ではないでしょうか。


まとめ

かなり状況の悪い日でしたが、やはりε130での電視観望は「速い」です。必要な露光時間は近い焦点距離のFS-60CBの4分の1くらいで、実感としてもこれくらいです。例えば40分待たなければならないのが10分ではっきり出てくるようになったと考えると、やはりかなりの威力でしょう。

ε130にフォーサーズのASI294MCと合わせるとすると、焦点距離としてはM31アンドロメダ銀河が画角一杯、北アメリカ星雲単体はなんとか入りますが、ペリカン星雲と一緒には入らないので、もう少し短焦点でもいいかもしれません。その一方、三つ子銀河がそこそこの解像度で見えるので、電視観望で銀河専門と考えなければ、これ以上長焦点にする必要もないでしょう。短時間の電視観望で次々と天体を入れてくのだと、(焦点距離はもう少し短くてもいいので)分解能的には少しオーバースペックな気がしますが、長時間ライブスタックして天体写真にも仕上げたいという場合には適度な焦点距離かと思います。

いっそのことASI2400MC Proのようなフルサイズのカメラと合わせるなら、ε130は最大限威力を発揮するのかもしれません。さらにこれ以上を求めるなら、あとはRASA8とかになるのでしょうか。


今後

やはりε130君は撮影鏡筒だと思うので、次はきちんと撮影で使ってあげたいと思います。準備状況ですが、
  • 今2インチのフィルターホイールはちょっと前に買ってあります。
  • 2インチフィルターですが、RGBフィルターはZWOのものを買い、
  • ナローバンドフィルターはBaaderのものをHαとOIIIを星まつりで安く買い漁ってあります。SIIはSAO合成よりLRGBやAOOの方がかなり楽しいので、少し優先順位を落としています。
  • カメラはASI6200MM Proでこちらはお借りしているものです。
  • 接続は以前ASI2400MC Proを試したときに、ZWO製のフルサイズクラスのCanon EFマウント用のアダプターを用意したので、ε130側には手持ちのタカハシのDX-WRカメラマウントを取り付けて、EOS EFマウントで接続しようと思っています。理由は、カメラを取り外して再度取り付けた際の回転位置の再現性が欲しいからです。

あとはEAFを用意したいくらいでしょうか。全部揃えると値段が値段なので、なかなか一度にパッとはいきませんが、着々と準備は進んでいます。


多分このシリーズ、長くなります。普段の記事を全然長いと思っていない私が長くなると思っているので、多分本当に長くなります。試したいことがありすぎるので、書けるとこまで書きます。途中で力尽きたらごめんなさい。

今回縞ノイズの一つを、多分特定しました。最初に断っておきますが、限られた条件でのことかもしれません。この記事を読んで試してみても、全然効果がなかったと言う方もいるかもしれません。ですが幾らかの悩んでいる方の解決にはなると思います。私自身、他の方の環境でどうなるか興味があるというのもあります。

comp

この比較写真のように違います。左がこれまでの縞ノイズ、右が無くなった(実際には軽減された)場合です。以下、詳しく説明します。


バラ星雲で出た縞ノイズ

この間のEVOSTAR 72EDでのバラ星雲の撮影で、ディザーをしなかったために縞ノイズが出たという報告をしました。

integration_DBE_PCC_AS_cut


その後、上記の縞ノイズを可視化した記事を書きました。この動画は結構反響が大きかったので、ご覧になった方も多いかと思います。






なぜか突然縞ノイズが消えた!?

この後、もう少し縞ノイズの検証をしてみようとファイルをいじってみました。とりあえずシンプルなところからと思って、rawのlight frameをDebayerしてStarAlignmentだけして縞ノイズを再現しようとしたのです。ところがところが、縞ノイズが綺麗さっぱりなくなっています。

integration

拡大です。
integration_cut

え?
なんで?
全然縞ノイズ出てないじゃん!
せっかく縞ノイズの解析しようと思ってたのに!

さあ、ここからが戦いの始まりです。


PixInsight用語

今回、PixInsight (PI)用語がたくさん出てきます。PIに慣れていない方のために、簡単に解説しておきます。
  • PixInsight: 世界的に有名な天体画像処理ソフト。英語でものすごくとっつきにくいが、高機能。
  • BatchPrepocessing: 撮影したファイル(light, bias, dark, flatなどの各frame)を掘り込んでおけば、スタックまでボタン一発でやってくれる便利な機能。
  • master: bias, dark, flatなど、他数枚の補正ファイルを一度処理すると、スタックされた一枚のmasterというファイルをそれぞれ作ってくれる。以降はそれを使うと処理時間を削減できる。
  • ImageCalibration: BatchPrepocessingのような自動で処理する以外に、マニュアルでもっと細かくオプションを指定しながら処理する方法がある。これはbias, dark, flatなどの補正をマニュアルでする機能のこと。
  • Debayer: 同様にマニュアル処理の一つ。モノクロのBayer配列のRawファイルをカラー化すること。
  • StarAlignment: マニュアル処理の一つ。多数枚数の画像の星位置を合わせること。PIでは平行移動、回転にのみならず、画面を歪ませて星の位置をそれぞれ合わせることができる。
  • ImageInteglation: マニュアル処理の一つ。他数枚の画像をスタックすること。
  • ScreenTransferFunction: 簡易的にストレッチ(明るくすること)をする機能。見かけの表示のみをいじるので、ファイルには何の手も加えない。見かけを適用したい場合はHistgramTransfomationを使う。
  • Auto Stretch: ScreenTransferFunctionの一機能。あぶり出しのすんでいないまだ暗い画像などを、そこそこ見やすいように自動でストレッチする機能のこと。超便利。
  • DynamicBackgroundExtraction (DBE): 背景の被りや周辺減光などをソフト的に除去する機能。任意の補正点を指定できるので、星雲部分の補正を避けるなど細かい補正が可能。超便利。
  • AutomaticBackgroundExtraction (ABE): 背景の被りや周辺減光などをソフト的に除去する機能。細かい補正はできないが、大局的に補正してくれるので簡単で便利。
  • TVGDenoise: PI場で最強と言われているノイズ除去機能。

比較条件

今回検証するRAWファイルは全て同じです。他に共通撮影条件は
  • 鏡筒: SkyWatcher EVOSTAR 72ED + x0.72レデューザー、焦点距離300mm
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • ガイド: ASI178MCと50mmのCマウントレンズをPHD2にて
  • 撮影条件: SharpCapでゲイン220、温度-15℃、露光時間300秒x20枚 = 1時間40分
  • ディザー: なし 
  • ファイル保存形式: RAW16bit、fits形式
  • フィルター: サイトロン QBP(アメリカンサイズ)
となります。

今回の検討を始める前までに、縞ノイズが出た時の処理と、出なかった時の処理の違いを書いておきます。処理は全てPI上でやっています。
  • 縞ノイズあり: BatchPreprocessingでbias補正、dark補正、flat補正を適用し、走らせた。
  • 縞ノイズなし: マニュアルでDebayer、StarAlignment、ImageInteglation。
この中に決定的な違いがあるはずです。以下、各補正ファイルの条件です。全てSharpCap上で撮影していて、最初の処理でmaster fileができるので、以降はそれを利用。
  • bias frame: ゲイン220、露光時間が最小の0.032ミリ秒で、100枚撮影。
  • dark frame: frat frame撮影後、片付けの後すぐに、家の中で撮影。ゲイン220、露光時間300秒、-15℃で、28枚撮影。
  • flat frame: light frame撮影後すぐに、鏡筒に状態でスーパーの白い袋を2重に被せて撮影。ゲイン220、露光時間300秒、-15℃で、7枚撮影。

処理結果に大きな違いが出ていて、検証材料も全て揃っているので、何が違いに影響しているのか順に検証していきます。


検証過程

ここからはほぼ実際にやった手順です。
  1. まず、再度BatchPreprocessingとマニュアル処理で再現性を確認。->きちんとBatchPreprocessingのときには縞ノイズ出て、マニュアル処理では出ないです。再現性はきちんとあります。
  2. 次に、一番怪しくないと思ったflat frameのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「うーん、あんまり関係ないよな。」
  3. 次、一番怪しそうなbias framaのみを適用させBatchPreprocessingで処理 -> 縞ノイズ消えた!「そりゃbias必要でしょ。」
  4. 次、flatとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「あれ?flatあまり関係ないはずなのに。」-> ところが、ここでやっと思い違いに気づきます。今回、何も補正していない方が縞ノイズが出なくて、補正した方が縞ノイズが出たのでした。と言うことは、bias関係なしで、flatで縞ノイズ有無が決まっていることになります。え、本当?
  5. 確認で、darkとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「えー、ホントにdarkもbiasも関係ないよ!?」
  6. 念のため、darkのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「確かにdark関係なし。」
  7. さらに念のため、master flatを使うのではなく、改めて個々のflat frameを使ってBatchPreprocessing処理 -> 縞ノイズ出る。「やっぱりflatが原因だ!」
  8. さらに、BatchPreprocessingが何か悪さをしている可能性も考えて、マニュアルのImageCalibrationを使ってflat処理だけしてみます->縞ノイズあり。「少なくともPIで処理する限りflatが悪さをしているのは確定でよさそう」


Flat補正をしない場合、本当に改善されているのか

確かに上の画像で見た通り、flat補正をしないと縞ノイズは無くなって見えているのですが、本当でしょうか?それぞれSTFでオートストレッチをしているのですが、本当に正確な比較をしているのか疑問になってきました。オートストレッチは星雲を含む背景の最大の輝度と最小の輝度から適用範囲が決まります。例えば、flat補正をしていない周辺減光のある画像ではあぶり出しも中途半端で、周辺減光のない平坦に近い画像では極限まで炙り出すことをするので、細かい差(この場合縞ノイズも含めて)をより浮き出させてくれます。

ここでは公平に比較するために、それぞれの画像にAutomaticBackgroundExtraction (ABE)を適用し、周辺減光の影響をできるだけ少なくして比較してみます。flat補正をしたものでもまだ明暗のばらつきは無視できないほど存在していて、ABEを適用することで多少の変化があります。それぞれABEをしてから、STFでオートストレッチをしています。

まず、flat補正ありの画像。

light_BINNING_1_integration_ABE

light_BINNING_1_integration_ABE_cut
これまで通り、縞ノイズは盛大に見えています。

次にflat補正しない場合。
integration_ABE

integration_ABE_cut

結局、周辺減光がABEで補正できる範囲を超えてしまっているので全然補正できていません。そのためオートストレッチ後、少し補正して目で見て、拡大部分の明るさをそこそこ合わせています。多少公平性は欠けてしまいましたが、それでも不公平になる程の違いは無いくらいにはなっているでしょう。結果はというと、flat補正なしであからさまに縞ノイズは改善されていますが、よく見るとやはり完全に無くなりきってはいないです。「相当軽減する」くらいは言っていいでしょうか。

この比較から、flat補正は縞ノイズの影響を悪化させていることは確からしいですが、完全には撮りきれないことから、それだけが原因というわけでもなさそうです。

実際の画像処理では背景はもう少し暗くなるので、flat補正なしにして、この程度の縞ノイズになるのなら個人的には許容範囲でしょうか。


Flat frameについて

でもここでふと我に返ります。でも今回使ったflatってそんなに変なの?

確認してみる限りごくごく普通のflatだと思います。master flatをAuto Stretchしたものです。(blogに載せるためのファイルサイズ制限で、bayer配列を無理にjpegにしているので、偽色が出てしまってノイジーに見えてしまっています。)
flat-BINNING_1

拡大です。pngなので、偽色とかは出ていないはずです。(画像サイズが小さいのでpngでもファイルサイズが大きくなり過ぎず、blogでもアップロードできます。)
flat-BINNING_1_cut

見ている限り、極々ノーマルで、ノイズが特別多いようにも思えません。

でも、master flatをdebayerしてAuto Stretchしてみると少し正体が見えてきます。
flat_BINNING_1_integration_RGB_VNG

拡大です。
flat_BINNING_1_integration_RGB_VNG_cut

カラー化すると結構ノイジーなのがわかります。なんだかカラーノイズと言われているものに似ています。これが固定ノイズとなって、星像を止めたときには逆に、この固定ノイズが流れるのでしょう。

でも本当にこれくらいのことであんなに盛大に縞ノイズが出てくるまで画像を悪化させるのでしょうか?だって直接処理しているのはlight frameの1枚1枚で、それに対してflat frameは枚数少ないとは言え7枚です。それが流れて見えるので、スタックした20枚:7枚でなく、1枚:7枚の比で比較してもいいような気がします。ここは少し疑問が残ります。


flat frameのノイズを改善してみたら?

本当にflatが効いているのか確認するためにもう少し試します。master flatにPI上でTVGDenoiseでノイズを減らしたflat frameを適用して処理してみました。その結果がこれです。
integration

拡大です。
integration_cut

わかりますでしょうか?多分拡大していない方がわかりやすいと思いますが、細かい縞ノイズが消えて、大きな構造の縞ノイズが出てきています。

この結果から考えられることは、flat frame自身でのノイズ除去があまりうまくいっていなくて、細かいカラーノイズが大きな構造のノイズになってしまったからです。

少なくとも、これらの結果からflat frameが縞ノイズに影響を与えているのは間違いないでしょう。ただし、あくまでこれも限られた環境、限られた条件下での話の可能性もあります。ここら辺は次回以降に検討してきます。


とりあえずのまとめ

どうも聞いていると、縞ノイズに困っている人と困っていない人がいるみたいです。なので、一概に今回の結果が正しいとは言えないと思いますが、flat補正の影響は私と同じような状況の人には朗報となるかもしれません。でもflatが原因の全てだなんていうことを言う気は全くありません。あくまで原因の一つであるのではないかということです。

いろいろ検索してみましたが、flat補正が縞ノイズの原因だとバッチリ書いてあるところは見つかりませんでした。むしろこれまで思っていた通り、flat補正をきちんとすると縞ノイズが解決できるはずだと書いてある記述はたくさん見つかりました。普通だとこちらのセンスの方が正しといと思ってしまうのは、ある意味ごくごく普通でしょう。そもそもなんでflat補正が縞ノイズに対してダメなのか、まだよくわかっていません。これからいろいろ検証していきたいところです。

今回、縞ノイズに対する根本的な解決策を示したわけではありませんが、状況によってはflat補正を外して画像処理することで、縞ノイズを軽減できる可能性があることがわかります。その上で、PIのABEやDBE、FlatAidProなどを使ってカブリや周辺減光を減らすことで対応する必要もあるでしょうか。この場合、ゴミやアンプグローなどは除去できません。

もう一つ重要なことはは、きちんとディザーをして散らすことでしょうか。多分縞ノイズって複合原因なんです。1方向に流さないようにすること。これが重要なのは変わりません。ディザーはおそらく根本解決の方法の一つです。


この記事まだまだ続きそうです。今回はバラ星雲での撮影のみ取り上げましたが、次回は過去に出た縞ノイズの場合なども検討してみたいと思います。

 


縞ノイズを時間的に見てみる

もしかしたら興味がある人もいるかと思い、縞ノイズを時間的に可視化してみました。先のバラ星雲の1日目のディザーなしで撮影した失敗画像約2時間ぶんの24枚を使っています。中心あたりの一部を拡大して見ています。といってもやったことは簡単で、ディザーなしで撮影した画像を、PixInsightで動画にしただけです。

Blink

これはガイドをしていても、たわみなどでガイド鏡と撮影鏡筒の相対的な視野が一方向にずれてしまうために起きます。それでももしノイズが完全にランダムなら、このように流れるようには見えないはずです。ノイズが流れて見えるということは、ノイズに時間的なコヒーレンスがあるということです。うーん、結構ありますね。あれだけの縞ノイズになるのもわかる気がします。

integration_DBE_PCC_AS_cut



縞ノイズ動画の作り方

さて、この動画の作り方です。今回縞ノイズを時間的にみる目的でしたが、このやり方覚えておくと色々応用が効きそうです。基本的に、PixInsightを使います。
  1. 普通にBatchPreprocessing 処理などで進めます。
  2. master以下のregsteredフォルダに入っている、位置合わせまで終わって、Integrationする寸前のファイルを使います。ここまでは普通にDebayerしてStarAlignmentでも構いません。
  3. Blinkでそれらのファイルを開きます。
  4. とりあえずは、デフォルト機能の再生ボタン(右三角)を押すと確認できますが、順に動画のようになるように見せるだけです。オートストレッチもできるのでみやすくなります。カラーバランスが悪い場合は、RGBのリンクをオン/オフする「鎖マーク」のアイコンを押してください。
  5. Previewで一部を切り取るとその部分だけ拡大して見えます。
  6. それをBlink画面の右下の一番右端の撮影開始マークアイコンで動画にします。
  7. ffmpegがない場合は別途インストールしてください。
  8. ffmpegがインストールされていても、実行ファイルをフルパスで入れないとダメでした。/usr/local/bin/ffmpegとかいうことです。
  9. オプションは秒20コマのgifファイルにしたかったので、 -y -r 20 -i Blink%05d.png Blink.gifとしました。
このように結構簡単に動画を作ることができます。


M42の場合

もう一つ例です。TSA-120でM42を撮影した時のものです。約30分くらいの撮影時間で、枚数は14枚です。これはディザーもそうですが、ガイドさえもしてないので赤道儀の極軸の精度が悪くてずれていってしまっているものです。上のバラ星雲のように画像の一部ではなくて、ほぼ全体像を示しています。解像度はこのブログにアップできるように(一画像当たり5MBが制限)落としてあります。

Blink

縞ノイズの原因となるクールノイズなどに混ざって、おそらくバイアスノイズに相当する縦線のように見えるノイズも流れていることがわかります。基本的にランダムでないノイズは、全て縞ノイズになり得るだろうことがわかります。

これを普通にスタックすると下のように縞ノイズが盛大に出てくるわけです。

integration



バラ星雲のもそうですが、時間的にこれだけ明らかに変化しているのがわかるのなら、なんとか分離してペラっと一枚皮を剥ぐようにこのノイズだけ取れないですかね?

今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。(2020/4/16 追記: APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。また、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。)
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


年末の土曜日、次の日もまだ仕事があったのですが、夜から晴れてきたので撮影開始です。ターゲットはバラ星雲。過去に何度か挑戦していますが、いまだに満足したのは撮れていなくて再チャレンジです。


天気は微妙

この日は天気予報では午後蔵から晴れる予定でした。でもずっと曇り空が続いていて、1時間天気予報も時間と共に曇りの時間が後ろに下がっていって、なかなか晴れません。夕方もダメ、夕食前にいったん晴れてご飯食べてから外に出るとまた一面曇り。のんびりして夜21時頃に出ると星は見えるけど薄曇り。22時過ぎにもう寝ようかと思って最後外に出ると、やっと晴れてました。すぐに準備を始めます。

機材

バラ星雲だと画角的に600mmとフルサイズでぴったりくらいなので、この日はいつものFS-60Qではなく、同じ600mmのFC-76を持ち出すことにしました。あの白濁レンズのFC-76です。

  • 鏡筒: タカハシ FC-76 (口径76mm, 焦点距離600mm、対物レンズが白濁) + FC/FSマルチフラットナー(x1.04)
  • 赤道儀: Celestron CGEMII
  • センサー: Canon EOS 6D HKIR改造
  • フィルター: サイトロン QBP(Quad Band Pass) filter
  • 日時: 2019年12月29日0時52分-44時17分
  • 場所: 富山市下大久保
  • 月齢: 22.1、ほぼ下弦の月
  • 撮影対象: バラ星雲 (The Rosette Nebula 、NGC 2237-9, 2246、Caldwell 49)
  • 露光時間: 300秒 x 32枚 = 2時間40分

いつも通りSharpCapとASI178MCで赤道儀の極軸を合わせて、その後はコンパクトなStickPC上のBack Yard EOSで撮影、その画像をAll Sky Plate Solverで位置特定して、赤道儀の向きとの誤差をCarte du Cielにフィードバックして位置合わせをします。

でもここでトラブル。この状態でプレビューをすると何故か画面が流れています。PHD2で見ていてもターゲット性自身がどんどんずれていく始末。極軸の精度がものすごく悪いのか、赤道儀のトラッキングレートが恒星時以外になっていないか、ケーブルとか変なテンションはかかっていないかなど、いろいろチェックしましたがラチがあきません。諦めて最初からやろうと赤道儀をホームポジションにしようとしたのですが、何故か少しだけ動いてすぐに止まってしまいます。これは先日交換したバッテリーが悪いのかと一瞬疑いましたが、それも大丈夫そう。さらにCarte du Cielで自動導入しようとしても同じ様に少しだけ動いてすぐに止まってしまって、全然目的の天体まで行きません。何かおかしいです。

この時点でやっと、CMOSカメラからのガイドケーブルと、赤道儀のハントコントローラーにPCからつないであるケーブルを引き抜くと、きちんとホームポジションまで動くことが判明しました。どうも機械系のトラブルとかいうよりは、ソフト系のトラブルのようです。そもそもASCOMドライバーにBack Yard EOS、All Sky Plate Solver、Carte du Ciel、PHD2と合計4つのソフトがアクセスしています。一度全部落として、Back Yard EOSは立ち上げてもASCOMに接続させず、All Sky Plate Solver、Carte du CielだけASCOMに接続して位置特定と赤道美の位置合わせ、その後All Sky Plate Solver、Carte du Cielを落としてからPHD2でASCOMにつないでガイドとしたら、無事に動き出しました。やはり全部をASCOMに繋いでしまうと赤道儀の制御の取り合いになってしまう様です。

あ、あと位置合わせで少しトラブルがありました。All Sky Plate Solver、Carte du Cielどうしても位置のズレが出てしまいます。画角の横幅の5分の1くらいでしょうか、今回バラ星雲の中心がどうしてもずれてしまいます。何度やっても同じようになります。こちらは仕方ないので、マニュアルで少し動かして最終位置調整をしました。以前はこんなことはなかった気がしますが、また時間のある時にテストし直してみます。

トラブルで撮影開始個を遅くなってしまいましたが、その後の撮影は順調そのもの。QBPのおかげもあり、自宅でもISO3200で5分まで露光させられます。後は放っておいて寝るだけです。

あさ8時ころに片付けたのですが、赤道儀用のパワータンクは中のバッテリーを交換したこともあり、全く問題なく朝でも稼働していました。その一方、デジカメのバッテリーが朝の5時半頃に切れてしまっていました。でも朝方少し雲が出たようで、実際に使えたのは4時半頃の画像まで。2時間半以上撮影できたので十分な時間です。


画像処理

まずはJPG撮って出し一枚画像です。苦労した魔女の横顔と違い、一枚だけでも十分に見えています。

ROSE_LIGHT_6D_300s_3200_+5cc_20191229-02h10m36s201ms

今回は期待できそうなので、最初からフラットもダークも撮影しました。フラットはiPadのColor Screenというアプリで白色最大輝度にして、ISO100、露光時間100mm秒で100枚ほど撮っています。周辺減光とセンサーのゴミはほとんど回避できました。当然空から来る緩やかな被りは少し残るので、PixInsightのDBEで大まかに取り除きます。

ダークも温度をできるだけ合わせる様にしました。昼までのダーク撮影で、いつもは冷蔵庫や冷凍庫に入れたりするのですが、あまり冷えなかったり冷えすぎたりするので、今回はクーラーボックスに冷凍した補正剤を入れてカメラとStick PCごと突っ込みました。機材が濡れない様に注意が必要ですが、温度はそこそこ安定していたのでこれはいい方法ではないかと思いました。保冷剤の位置を調整することで温度もある程度調整することができます。Stick PCごと入れる理由は、BackYardEOSを走らせることができて、センサーの温度をファイル名に書き込むことができて、後から温度管理が楽になるからです。温度がばらつくこともあるので、今回5分のダークファイルを100枚以上撮影し、その中で適した温度のものを37枚選びました。

画像処理も順調そのもの。QBPのせいもあり、青色が出にくいのですが、バラ星雲の中心は青色が綺麗です。少し青色を強めに強調していますが、おそらくこれまででは最も満足のいくバラ星雲になったかと思います。魔女の横顔で苦労したときのテクニックも随所に生きています。


綺麗に出た!

結果を見てください。自宅撮影でこれです。バラの細かい構造も結構出ています。私的にはかなり満足です。やはり光害地だとQBPの効果絶大です。

masterLight_integration_DBE1_PCC_AS_all2c

あえて不満を言うと、QBPのせいか恒星のオレンジ色が出にくいこと。もう少し恒星をうまく際出させることが次の課題でしょうか。

ちなみに、かなり昔に同じ6Dで自宅撮影で撮ったのがこれです。

light_BINNING_1_integration_DBE_PCC_AS1acut

2018年の3月なので1年半以上前です。違いはQBPだけのはずなのですが、本当に雲泥の差です。6Dもまだ使い始め、PixInsightも使い始めなので、もちろん慣れや画像処理の腕も違うと思いますが、こうやってみるとなんとか進化していますね。


まとめ

QBPって得意不得意があると思います。Hα領域は自然な色に近くなるので威力が発揮できるのかと思います。反面、青やオレンジは苦手な様で、自然な色に見せるためには画像処理でうまく補填してやる必要がありそうです。

魔女の横顔に引き続き、自宅で色々撮影ができる目処がついてきました。これくらい写るのなら、私的には今のところ満足です。もちろんうまく写るのは限定された天体だとは思いますが、できれば系外銀河まで自宅でうまく撮影できるようになればというのを目標にしたいと思います。


先日処理したバラ星雲ですが、HUQさんにfacebookで「ほとんどの星が白くなり、バラの中の青っぽい部分が無くなっている」との指摘を受けました。改めてみて見ると、白というよりは少し赤に近くて、確かに青っぽさはかけらもありません。リベンジと思って色を出すことだけにこだわりすぎて、赤を強くしすぎたのが一番の原因です。途中まではホワイトバランスにも気を使っていたのですが、やはり最後の味付けのところでイメージの色を表に出してしまう悪い癖があります。

いったんある程度処理した画像をfacebookにアップしましたが、やはりまだいろいろと欠点が見えまくっているので、これではだめになってしまうと猛省して再度画像処理をしてみました。特に今月号の天文ガイドにも星ナビにも見事なバラ星雲が掲載されていて、まったく太刀打ちできていない自分が情けなくなりました。


ダメな点
  • 恒星が白飛びしてしまっている。実はあまりこれまで白飛びを気にしていなかったのですが、やはり白飛びはダメだと改めて考えることにします。露光時間を変えることでHDRの効果を狙うのはありかと思いますが、今回は撮っていなかったので、これ以降短時間露光を取っておく癖をつけようと思います。
  • フラットがうまくいかない。フラット補正をしても、どうしても周辺減光が残ってしまいます。ぱっと見はうまくいっているようでわかりにくいのですが、炙り出していく過程ではっきりしてきます。上の隅なのですが、右と左で違っていて、片方は明るすぎでもう片方は暗すぎとかです。さらに、なだらかな周辺減光というよりは、境がはっきりしていて、途中まで暗くなって、そこの境で折れ曲がるように明るい方向に向かうなどです。一緒の日に撮ったマルカリアンでは問題なく補正できているみたいです。
  • バラ星雲中心付近の青が何も出ていない点。
  • 小さい画像で見るといいのですが、拡大するとボロが顕著に目立ちます。粒状感があり、それをごまかすためにNik Collectionでノイズ除去をしているので、のっぺりしてしまっています。決定的なのは、月が出ているあまりよくない環境で撮ったとことと、露光時間がまだまだ足りないことかと思います。マルカリアン撮影前の練習というのは単なる言い訳で、きちんとやるなら時間を選ぶことは必須です。今回は画像処理だけではどうしようもないので、再度もっと暗いところで撮影したいと思います。将来印刷まですることを考えると、拡大に耐え得る画像にしたいです。


疑問点
  • フラットフレーム自身はたぶんうまく撮れているはず。なのになぜ完全に除去できないのか?フラットのオフセットが必要なのか?
  • ベイヤーRGB変換はバッチ処理ができないので、多量の枚数を一枚一枚変換しなくてはならないが、コンポジットした後にRGB変換するのはダメなのか?
  • レベル補正はどこまで追い込んだらいいのか?特にステライメージからPhotoshopに渡すときに、あらかじめかなり切り詰めて色を強調しておいたらいいのか、多少余裕をもってPhotoshop上で切り詰めたらいいのかのさじ加減がわからない。
  • デジタル現像の際のパラメーターはデフォルトのままでいいのか?星雲の明るさを犠牲にして白とびを抑えることに主眼を置いた方がいいのか、ある程度白とびを犠牲にしてこの段階で星雲の色を出しておいた方がいいのか?



問題ないと思っている点
  • ダーク補正は問題なさそう。
  • ホット/クールピクセル除去はやっておいた方がいい。
  • Nik collectionは強力すぎるきらいもあるが、うまく使うと非常に効果が高い。特にDfine2でのノイズ除去は粒状感が取れるので今回は良しとする。Color Efex Pro 4の一つ目のコントラストと、二つ目のコントラストもかなりフレキシブルで、思った通りの色が出やすい。



ダーク処理まではこれまでのやり方の通りで完了しているものとします。

フラット補正

前回の記事で詳しく検証してます。


ホット/クールピクセル除去、コンポジットも通常通り行います。コンポジットの際、どうも星像が流れていくのは多少は平均化されて目立たなくなるようなので、今回は色の方を重視し、前回失敗だと判断した21枚を新たに加え、計57枚でコンポジットしました。

今回の記事はここからが本番です。


レベル補正

ステライメージ7上でレベル補正で星雲部分を炙り出します。ホワイトバランスもここで整えます。

まず適当にRGBでヒストグラムのピークあたりを拡大して星雲をあぶり出します。どこまでやるか悩ましいところですが、暗い側はとりあえずヒストグラムのピークから下の斜めの傾きを伸ばしたところらへんまで、下の三角を持って来ます。明るい側は色が出てくるくらいまでかなり攻めます。

IMG_1253


次にホワイトバランスを整えます。簡単にはステライメージのオートストレッチ機能を使ってもいいのですが、狂うこともよくあるので、レベル補正で合わせた方が確実です。基本的にはヒストグラムの3色のピークの位置を合わせることと、ピークの左側で3色がどこか一点で交わるようにすることです。

IMG_1254


この時点恒星は飛んでしまっていますが、次のデジタル現像で復元するのでよしとします。


カブリ、周辺減光補正

これもステライメージでの作業です。フラット補正で補正しきれなかったところを手動で補正します。最初のころはポイント指定でやっていたのですが、今はラインでやっています。ただラインの場合はなれないとうまくいかないこともあるので、ある程度訓練が必要です。なれないうちはポイントの方が楽かもしれませんが、これもなかなか思った通りに行ってくれないことが多いです。

まずはカブリ補正で上下と

IMG_1255


左右のアンバランスを取り除きます。

IMG_1256


ただし、上と下で、左右方向のカブリが反転しているなど、複雑なカブリは取り除くことができません。こう言った場合はポイント指定を使うしかないですが、これも思った通りにいかない場合も多く、限界があります。

次に周辺減光をラインで取り除きます。

IMG_1257


上の画像のように、画面の上側に合わせて周辺減光をフィットさせると、画面下側では合わなかったりするので、ラインでやれることは限られています。たとえば下の二隅は変化させず、上の二隅だけ補正するというようなことや、左右だけ補正して、上下方向は補正しないというようなことは原理的にできません。そのような場合にはポイント指定で逃げきるしかありません。



デジタル現像

ここで恒星が白とびしないよう、相当気を使います。上の右側の三角を右に持っていくと白飛びを防ぐ方向に行きます。星雲は多少暗く、眠くなってしまいますが、後でまた炙り出せるので、ここでは恒星の白とびを防ぐことに主眼を置きます。

IMG_1260



ここまでがステライメージの役割です。これ以降はPhotoshopに移ります。データをtiff形式で保存します。



トーンカーブ

Photoshopに移ってからは基本的にはレベル調整は階調を損してしまうことが多いので使いません。これはステライメージと違って、レベル補正が不可逆だからです。その代わりにトーンカーブで色を明るい領域まで持っていきます。とはいっても、最近は次のNik collectionの下準備のようになってしまっています。

トーンカーブでは暗いところをより暗くし、中間域を持ち上げ、明るいところはそのままにが原則です。イメージとしてはピークを明るい方に広げていくような感じです。

IMG_1261


もう一つトーンカーブの重要な役割に、崩れたホワイトを整えるというのがあります。色々処理していると途中ホワイトが崩れていることがよくあります。レベル補正は使いたくないので、トーンカーブでホワイトバランスを整えています。基本は同じく、3色のピーク位置を合わせることと、ピークよりくらい側で3色が交わる点を作ることです。



Nik collection

Nik collectionはPhotoshopで動くプラグインで、一年前は6万円くらいしてたものらしいのですが、現在は無料です。元の値段でも十分価値があると言ってもいいくらい強力なプラグインで、天体画像処理にとっても相当強力なツールです。今回使ったのは2種類で、
  • Color Efex Pro 4の2つ目のコントラスト
  • Dfine2
です。コントラストは二つあるのですが、二つ目の方が使いやすい印象です。


コントラスト一回目

実際の処理はコントラスト一回目の様子が

IMG_1262

になります(PCの画面を写真に撮っているので見にくいかもしれません)。パラメータを見てもらうとわかりますが、
  • 明るさ
  • コントラス
  • コントラスト
  • ソフトコントラスト
  • 彩度
とあり、特に最初のコントラストとソフトコントラストは恒星の明るさをあまり変えないので重宝します。彩度を上げますが、ホワイトバランスが崩れるので、Nikを出てから一度トーンカーブでホワイトを整えます。

ホワイトを整える前、Nikから出た直後の画像が以下、

x57_level_white_genkou_digital_nikcolorcontrast


ホワイトを整えた画像が以下になります。

x57_level_white_genkou_digital_nikcontrast_tonea


Dfine2

粒子状が目立つようになってから、Nik collectionのDfine2を、コントラストノイズ100%、カラーノイズ100%でかけます。これをノイズがあまり見えていない状態、例えばレベル補正より先にやってしまうと、あまり意味がなくなります。

Dfine2終了後の画像が以下です。拡大しないと違いはよくわからないです。

x57_level_white_genkou_digital_nikcontrast_tone_Dfine



コントラスト2回目

さらに2回目のコントラスト

IMG_1263

で相当色を出しています。多少きつめに出しておいて、下の写真のようにできたレイヤーの不透明度を変えることで微調整したりします。

IMG_1265


Nikから出た直後が下の画像です。

x57_level_white_genkou_digital_nikcont_tone_Dfine_Nikcont


ここでもホワイトバランスが崩れるので再びNikを出た後でトーンカーブで揃えます。ヒストグラムが複雑な形になってくるので、どうしても客観性がなくなり好みの色が多少入ってきます。ただしやはりこのままだとどうしても青が出ないので、トーンカーブで少しBlueを明るい側に移して強調しました。ついでに、GreenとRedも少しいじります。ここに一番好みが入ってきて、またホワイトバランスを崩す原因にもなるので注意です。

この時点でこのようになります。

x57_level_white_genkou_digital_nikcont_tone_Dfine_Nikcontr_tone



HDR合成

恒星が一部白飛びしているので、レベル補正などの処理をする前の明るい部分に情報が残っているファイルを開き、HDR合成をします。ただし、HUQさんが指摘した通り、そもそも撮影時のヒストグラムのピークが真ん中らへんまで来ているので、明るい方の階調があまりないです。本来なら短時間露光の写真を別で撮っておくべきでした。

マスク完了後、レイヤーの不透明度を調整します(PC画面を撮影したのでサチっているように見えますがが、実際の画像はさらにその下にあります)。

IMG_1266



HDR合成完了後の画像です。

x57_level_white_genkou_digital_nik_tone_Dfine_Nik_tone_HDR



最終調整

周辺減光がどうしても取りきれないところをNik collectionのコントロールポイントを使い、部分補正をします。粒状感がまだ残っていたので、もう一度Dfine2をかけました。その他青を少し強調、コントラストアップなど細かい調整を少しだけしています。

さらに画像を切り取って逆さまにして完成です。できた画像がこちらです。

final


C49 バラ星雲
撮影地: 富山県富山市, 2017年3月3日21時48分
タカハシFS-60Q(D60mm f600mm F10 屈折), Celestron Advanced VX赤道儀
キヤノンEOS 60D(新改造, ISO3200, RAW), 露出2分x57枚 総露出114分
f200mmCanonレンズ+ASI224MC +PHD2による自動ガイド
ステライメージ、Photoshop CC+Nik collectionで画像処理



HUQさんの指摘から色々試すこと約一週間、前回よりは青色も出ているのと、白飛びもだいぶんましになったので、多少は良くなったのではないかと思いますが、それでもベテランの方々のバラ星雲とは比べるまでもないレベルです。改めて見比べると、今回の方が粒状感が増加してしまったのと、透明感が無いように見えます。

周辺減光など一部強引な部分修正もあるので、お絵かきの感も入るのですが、基本的に撮影した元画像が悪いと画像処理で苦労して、元画像がいいと画像処理はほとんどしなくても素晴らしい仕上がりになります。今回は月明かりがある中での撮影でしたので、最後までなかなか納得できず、やはり今一度リベンジ撮影をしたいと思います。

最後になりますが、とても長い記事になってしまい色々書いてきましたが、所詮天体写真の初心者が試行錯誤で書いていることなので、未熟な技術や、間違ったこともたくさんあることかと思います。どうか温かい目で見ていただき、コメントなどで指摘していただけるとありがたいです。




 

このページのトップヘ