ほしぞloveログ

天体観測始めました。

カテゴリ:software > Pixinsight

週末土曜日に飛騨コスモス天文台に行って、M57とM27を撮影しました。それぞれの撮影枚数は、露光時間が20秒と短いこともあり、かなりの枚数になります。具体的にはM57が282枚、M27が244枚をなり、処理の前に簡単に閲覧するだけでも大変になります。しかもSharpCapで撮影したRAWファイルなので、拡張子が.fitsファイルとなり、開けるソフトも限られています。

最初の頃はfitsファイルもステライメージで確認していたのですが、これだけ数が多いと大変になります。PixInsightでも開くことができますが、一枚一枚が結構重いので、全部を気楽に開くわけにいかなくて、選別するのが結構大変です。

そんなときはPixInsightの「ImageInspection」->「Blink」が便利です。

IMG_5690

  1. 下のフォルダマーク「Add Image Files」から複数ファイルを選択して読み込みます。
  2. 読み込みは数百枚だど数分かかるので、50枚くらいずつにしたほうがいいと思います。
  3. RAW画像でも、Debayerした画像などでも読み込むことができます。
  4. 画像が暗くて見にくい場合でもSTFがかけられた状態で表示されるので、見やすくなっているはずです。これは真ん中に3つ縦に並んでいるアイコンの、真ん中を押すと確認することができます。
  5. 読み込んだ後は、左右の矢印を押すか、画像のファイル名を一つ選択してあとはカーソルの上下で、すごい勢いで画像を連続で切り替えることができます。
  6. 左の三角ボタンを押せばアニメーション表示することもできます。
  7. ただし、ソート順はファイル名のみのようなのがちょっと残念なところです。
  8. 弾きたい画像は、マウスでファイル名を選択(複数も可能)してから、下のアイコン群の左から5つ目の小さい矢印がついているアイコンを押すと、移動したいフォルダが選択できるので、そこに移動されます。
  9. 終わった後は、下の左から3番目のアイコンを押して、すべてのファイルを閉じます。
  10. これを次の50枚とか繰り返すと、かなり効率よく見た目で明らかに悪い画像ファイルを弾くことができます。


もう一つ便利なのが、「Script」->「Batch Processing」->「SubframeSelector」になります。各画像の星像のFWHM(半値全幅)やEccentricity(偏心度)を測定してくれます。自動でだめな画像を別ディレクトリに移動することなどもできます。

詳しいことはマニュアルを読むといいのですが、英語で結構大変なので簡単な説明を書いておきます。

IMG_5688

  1. いつものようにAdd Filesで解析したいファイルを複数選択します。
  2. 最低限解析するだけなら、そのまま一番下の「Measure」を押します。
  3. CPUや解像度にも依りますが、一枚解析するのに7-8秒程度なので、数百枚でもなんとか耐えられる時間の範囲です。結構かかりますが、それでも一枚一枚やるよりははるかに楽です。最初は少数枚でテストするといいでしょう。
  4. 「Plots」を開くと結果が出ています。「FWHM」や「Eccentricity」で飛び抜けている画像を判断することができます。
  5. 飛び抜けているところをクリックするとx印がつくので、Outputで弾きたいファイルをMoveなどする設定をすると、移動してくれます。
  6. 式で評価して、自動で弾くこともできますが、そのためには下に示すようなパラメータを入れたほうがいいですし、式の入力にはいろいろやり方があるようなので、詳しくはマニュアルなどを参照してください。「星見庵日記」さんのこのページが日本語で比較的詳しく説明しています。
IMG_5689


もう少しきちんとしようとすると、最低限入力する値は、「System Parameters」の中の「Subframe scale」になります。ざっくりした見積もりの「1ピクセルあたりの画角は焦点距離600mm、ピクセルサイズ4umで約1.5秒」とかから考えてもいいですし、こんなサイトから焦点距離と自分の持っているセンサーのサイズを選択して、センサーのピクセル数で割ってやっても簡単に求めることができます。

「Camera gain」も入れるべきでしょう。でもこれは結構難しいです。メーカーのページに行ってもいいですが、例えばASI294MC場合ここの「GAIN」というグラフの横軸「Gain」の実際に撮影した時の値のところを見ればいいのですが、グラフから読み取ろうと思っても0近くになり正確な値は読み取れません。SharpCapがあれば自分で測定することもできます。結果の表からある程度の値は読み取ることができます。それでも誤差があるので、ある程度の値でかまわないでしょう。

ここまで入れると、結果もある程度(絶対値に近いという意味で)正しい値になってくるので、センサーやカメラが変わっても比較することができるようになりますし、式を使った評価でも正確性が出てきます。が、とりあえず面倒なら何も考えずに「Measure」ボタンを押してしまったほうが幸せかもしれません。


少し前のことになりますが、2018/3/13の平日、天気も良かったので久しぶりに撮影をしました。今回のターゲットはバラ星雲。

撮影機材はFS-60Qと6D。6Dは馬頭星雲に引き続き2例目になります。場所は平日なので自宅の庭です。撮影時は結構風が吹いていて、42枚撮影して使えたのは25枚でした。使えるか使えないかのセレクションはPixInsightの「SubframeSelector」を使いました。今まではデジカメの場合は一緒に撮ったjpgファイルを目で見て判別していましたが、CMOSカメラで撮ったものはfitsファイルしか出力されなくて、読み込みに時間がかかるなど判断するのが大変だったので、この機能は非常に便利です。後日別記事で使い方を書こうと思います。


とりあえず結果を示します。

light_BINNING_1_integration_DBE_PCC_AS1acut
富山県富山市, 2018年3月13日20時53分-23時55分
FS-60Q + Advanced VX赤道儀
EOS 6D(HKIR改造, ISO3200, RAW), 露出3分x25枚 総露出1時間15分
f50mm+ASI178MC +PHD2による自動ガイド
PixInsight、Photoshop CCで画像処理


実はバラ星雲は昨年1月と、3月に撮影しています。3月のものはさらに再加工したりもしましたが、その当時でも結構ボロボロと思っていたので、是非ともリベンジしたいものの一つでした。今回はカメラが6Dになったこと、PixInsightgをやっとある程度一通り通しで使ってみたこともあり、かなりマシになったと思います。それでも今改めてみるとまだ少し暗いでしょうか。


今回のバラ星雲の画像処理で新しい機能も試してみたので、メモがわりに書いておきます。以前の記事でPixinsightでかなり苦労したこと(その1その2)を書いたのですが、あれからだいぶん慣れたのと、やはり最初のころに書いた記事に間違いが見つかっているので、訂正しておきました。

実際のPixInsightでの作業ですが、今回はBatchPreProcessingの後、Linearステージの処理と、一部のNon Linearステージを試しました。方法については蒼月城さんのImage Processing Tipsを参考にさせていただきました。特に、Post Processingの動画の前編、星マスクについては後編がすごく参考になりました。

GOOD_LIGHT_6D_180s_1600_+17cc_20180313-21h15m37s174ms
撮って出しの画像です。ほとんど全く何も写っていません。


BatchPreProcessingの後に今回やったことは
  • 最初に「BackgraoundNeutralization」を使っての背景のカラーバランス。今回は初めてbiasフレームを使いました。PixInsightでは必須とのことです。
  • 次に「DynamicBackgroundExtraction」を使ってカブリ補正。
  • 「PhotometricColorCalibration」を使ってのカラーバランスを合わせます。
ここまでは前回の記事で書きました。今回新たに試したのは
  • 「ArcsinhStretch」を使ってのStretch。 (ステライメージやPhotoshopでいうレベル補正に相当)
  • 星マスクの作成として「MaskGeneration」→「RangeSelection」を使います。星マスクは星雲を含むバックグラウンドマスクと、微光星用と輝星用を合わせた星マスクの2種類です。星マスクを星の大きさ別に作って合わせるのはPhotoShopでやった時と同じですが、PixInsightだともっと楽に作ることができる印象でした。
  • 今回はここまでやって、後はPhotoShopに引き継ぎました。ストレッチまで終わった画像と、星マスクをPhotoShopに引き継いで、後は仕上げに入ります。星マスクはPhotoShopのアルファチャンネルに登録して使いますが、詳しくは以前星マスクを作ったページに書いています。

light_BINNING_1_integration_DBE_PCC_AS
PixInsightからPhotoshopに引き渡す時の画像です。


こうやってみると、PixInsightの凄いのは個々の機能が秀逸なのと、それらが互いに有機的につながって仕上げに向けた画像を作り出せるところでしょうか。(これが一番大変なのですが)やり方さえ理解して、丁寧に作業すれば客観的にポテンシャルを引き出した画像ができるのかと思います。また、(方法さえ分かって入れば)星マスクを作ることが簡単なので、それを使うと仕上げも楽になることです。また、それぞれのオプションがすごく細かいので、きちんと色々試したい人にはものすごくいいのかもしれませんが、逆にこのことがとっつきにく印象を与えていることも否めません。

今回も自宅での撮影ですが、さすがに淡い天体になればなるほど光害が無視できず、無理があることもわかってきました。そろそろ暖かくもなってきましたので、また遠征撮影も再開したいと思います。



PixInsight Tips

最後はPixInsightで気づいたことなどです。
  • Canon 6Dを使っているのですが、デフォルトだと拡張子.cr2のRAWファイルを開いた時点でモノクロでなくカラーになってしまうようです。勝手にDebayerされているようでした。BatchPreprocessingのbiasファイルを処理するところでエラーが出てやっと気付きました。Pixinsightの画面の左のピンクの丸の「Format Explorler」か、メニューの「View」「Explorler」の「Format Explorler」で出てきた「DSLR_RAW」というアイコンをダブルクリック(これもわかりにくかったです)して出てきた画面で一番下の「Pure RAW」を押すと、RAWファイルを開いた時にBayer状態で開きます。BatchPreprocessingもうまく行くはずです。
  • Pixinsightではbiasフレームは必須。biasフレームはカメラにキャップなどをして暗い状態にして、最小露出時間で、lightフレームを取った時と同じゲインもしくはisoで、多数枚(50枚ほどは)撮影する。
  • バッチ処理のBatchPreprocessingですが、処理画面を開いてからCosmetic Correctionを忘れていると、再度一からやり直しになると思っていたのですが、左下の三角を枠外にドラッグ&ドロップしてインスタンスを作って置けば後から再度開くことができることがわかりました。ただ、開く時にインスタンスを右クリックして「Execute in the global context」を選ぶと物と画面に戻ることができて編集を再開できます。
  • BatchPreprocessingのためのCosmetic Correctionにはファイルなどを登録する必要はないようです。ファイルのところは空欄のまま、やりたいこと例えばホットやクールピクセル処理だけをどうするかを選んでインスタンスを作り、それをBatchPreprocessinsgの時に選べばいいです。
  • HistgramTransferFunctioでヒストグラムがほとんど真っ平らに表示されてしまってよく見えない。→ サチってしまっているピクセルを表示するとこうなります。HistgramTransferFunctioパネルの下から3分の1くらいのところの右に5つ並んでいるアイコンの、一番左のボタンを押して「サチっているピクセルを除去する」をオンにします。
  • CurveTransformationでヒストグラムの線が出ない場合 → 一番下の右の4つのアイコンの右から2番目のチェックマークをオンにする。
以前の記事もこれに合わせて幾つか訂正してあります。


縞ノイズの考察の続きです。と言ってもほとんど成果なしです。

せっかくのASI294MCを撮影にも使えるのかどうかを判断するためには、縞ノイズ問題を解消しなければどうしようもありません。解決する手段さえあれば、気軽な撮影にも使えると目論んでいます。何れにせよ電視観望には十分(その1その2)なのですでに当初の ASI294MCの目的は十分に達していて、さらにあわよくば撮影もという贅沢な目標です。

具体的には、せっかく長時間撮影をしたしし座の三つ子銀河の画像を有効活用するために「縞ノイズ(斜めノイズ、縮緬ノイズ)」をなくすことですが、今回は少し絞って、
ということを探ることにしたいと思います。

試したことは、
  1. ホットピクセルのみの除去とクールピクセルのみの除去の比較。
  2. ダークフレームの効果。
  3. フラットフレームの効果。
  4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。
  5. Maximum、Minimum、Medianの違いの確認。
などです。他にも色々試していますが、かろうじて意味があることがあることだけ挙げておきます。


1. ホットピクセルのみの除去とクールピクセルのみの除去の比較

1枚のRAW画像を、オートでホットピクセルのみ、もしくはクールピクセルのみ除去して、どちらが効いているかを試しました。結果は前回のあぷらなーとさんのコメントでの推測どおり、ホットピクセルの方が圧倒的に多くて、かなりの部分が除去されているのが確認できたので、一応除去ルーチンはそこそこうまく働いていることがわかりました。一方クールで除去が確認できたのはごく僅かでした。

問題はホットピクセル除去でもクールピクセル除去でも、いずれも除去できないものがまだ結構あることです。これが前回みたMaximumで残った起点に相当するものかと思われます。まずはこの除去を目指します。


2. ダークフレームの効果

1のPixInsightでオートでホット/クールピクセル除去に加えて、ダークフレームのみを使ってホット/クールピクセルがどれくらい変わるか見てみました。結果はほとんど効果なしです。理由はリアルタイム処理をしてみるとわかりました。オートで取れる数の方が多いからで、ダークフレームを使っても除去できる数はそれほど増えないからです。これはパラメータをいじって調整すればうまく残りのダメージピクセルも除去できるのではということを示唆しています。


3. フラットフレームの効果

2の処理に加えて、フラットフレームとフラットバイアスの処理を加えました。意外なことに残ってしまう起点の除去には、このフラットフレームの補正の効果が大でした。フラットバイアスの効果はほとんど関係ないです。残っていた色から判断して恐らくホットピクセルと思われているものですが、ほとんど除去できました。この状態で、もともとバッチ処理でやっていた処理とほぼ近いものになるはずです。ここでやっと最初の疑問の、フラットも含めた前回のバッチ処理で最後だけMaximumでintegrateした時に、輝点が出てこない理由がわかりました。


4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。

それでもまだ少し輝点が残っています。もう少しだけなんとかできないかと思い、2でやったダーク補正のパラメータをいじることにしました。

IMG_3565

下の白丸を押してリアルタイム表示で、オートで幾つ補正されるかを見ながら、それ以上に(今回やったのは3倍の数くらいで、ホットで0.1、クールで0.04くらいにしました)パラメータ調整で補正できる数を増やすことで、残っていた輝点もほぼ除去されることがわかりました。


5. Maximum、Minimum、Medianの違いの確認

上記の3、4ですでに一枚の画像で輝点をほぼほぼ除くことはできるようになったので、これで残った輝点が原因なのかどうかがやっと切り分けられそうです。この状態で撮影した枚数全てで重ね合わせてみました。その際、Integrationのパラメータをデフォルトの「Average」から「Maximum」「Minimum」「Median」にそれぞれ変えてみました。

Average: 最初にバッチ処理でやったものと基本的には同等です。

01_Average

ただ、バッチ処理の時と違い、撮影失敗に近い星像が崩れたものや、人工衛星が通った画像を省かずに全て処理したので、その影響で星像がとりあえず丸いのですがちょっと大きいのと、人工衛星の線が出てしまっています。縞ノイズはやはり盛大に現れます。この状態で画像処理を進めても背景の縞が残ってしまい、不自然に背景を暗くするしかなくなってしまうので、許容範囲を超えています。

でもこのことは意外でした。輝点が十分無くなれば、この状態でも縞ノイズは消えると思っていたのですが、見ている限り元の輝点がある状態とほとんど変わりません。これの示唆するとことは輝点そのものよりも、「輝点を処理する時に出た影響」が各画像にコヒーレントに残ってしまうということでしょうか。

ここで少し考えて、前回フラット補正なしの時に試したのですが、ホットもクールも全く処理をせずに輝点を全て残してIntegrateしたものを見てみました。

nocosmetic_calibration_integration

よくみると明るさの違うRGBの点がいっぱいあります。完全な輝点でなくても、コヒーレントに残る色々な明るさのノイズがあるということです。これらを処理した時の残りがコヒーレントに現れて縞ノイズとして残るということでしょうか。というと、これはホットピクセル除去に関係なく、明るさが違うというころからも、むしろDebayer処理のところに問題があるのではと考えられます。ここら辺もすでにあぷらなーとさんが指摘してくれています。さすがにこれは処理しきれなさそうなので、ここで今回の検証は成果なしという結論に至りました。


Maximum: これまでの検証と同じく、Averageよりも明らかに縞ノイズは少ないです。

02_Maximum_DBE

最大の明るさが出るので、星像がAverageの時よりもブレるのと、人工衛星の線が一本濃く走ってしまっています。残った輝点もはっきり出てしまっています。一つ疑問なのは、右側のアンプノイズがなぜかAverageよりも小さいことです。これはなぜだかよくわかりません。少しだけ残っている輝点は出ているのでMaximum自体の処理はされていると思うのですが。


Minimum: 今回これが一番良かったです。

03_Minimum_DBE

縞ノイズはMaximumと同程度に除去されていて、画像処理をしてもそこそこ耐えうるレベルです。変な星像の乱れもありませんし、星も変に大きくなったりしていません。。ただ一点気になったことが、不必要に暗い(おそらくクールピクセルの残り)があると、そこだけガイドのズレのぶんだけ別の縞ノイズのように目立ってしまいます。でもまあ許容範囲でしょうか。


Median: 最初Mediumと勘違いしていて、Averageと似ているけど何か違いが出るかと期待したのですが、実はMedianでした。

04_Median_DBE

Medianはより飛び抜けたところを省いて重ね合わせるものということなので、人工衛星の軌跡などは取り除かれました。その代わりにノイズを少し犠牲にするそうですが、見た目ではよくわかりませんでした。いずれにせよ、縞ノイズに関してはAverageとほとんど同じで、効果はありません。



うーん、厳しいです。このままMinimumでいっても、今回に限っては画像処理に影響ないくらいにはなっているのでもうこれでも十分な気もします。それでも次はFlatAide Proでカラーカメラでうまく縞ノイズが除去できるかもう少しだけ試してみたいと思います。(2018/2/17追記: 試しましたが、やはりほとんど効果はありませんでした。モノクロでいつか試すことにしたいと思います。)


それにしてもPixInsightの操作方法にもだいぶん慣れて来ました。今回はフラットの補正がステライメージに比べて操作できる箇所が何もないのが少し気になりました。そのためか、まだ右側上部の大きなアンプノイズがフラット補正で取りきれなくて残ってしまっています。それでも他に色々いじれるパラメータがあるのはさすがです。昨日からまた雪が降り続いています。しばらくは天気は期待できなさそうなのでまた画像処理と機器の整備くらいになりそうです。


長時間露光で問題になる縞ノイズの考察です。

  • ガイドのズレと同じ方向に縞が出る。
  • RGBと黒の4色。
  • 太さは一枚のコンポジットされた画像の中ではだいたい一定。でも画像によって細かったり太かったりします。太さは、ずれの長手方向に垂直な方向のずれの大きさに一致している?
  • クールピクセル説が強い。でも本当にこんなに前面にクールピクセルが広がっているのか?
  • カラーセンサーでクールピクセルが一つあると、上下左右のみでなく、斜め方向にも影響が出るので、ある程度の太さになる。
  • 不思議なのは、ガイドでずれたのを比較明合成した星像のずれの長さよりも、縞一本の長さの方が全然長く見えるのです。ずれの長さの3倍くらいは長く見えます。でもRGBと黒の4色しかないので、たまたま同じ色の線が繋がっているのが目立っているだけに見えなくもないです。ある色があった時2色繋がるのが4分の1で、3色繋がるのが16分の1。長いのは目立つのと、短いものも存在するので、長く見えるというのは説明できそうです。
  • 10分単位くらいに分けてコンポジットし、それをさらにコンポジットしてもダメだという報告あり(自分では未確認)。
と、ここら辺まで書いてあぷらなーとさんのコメントとブログを見て、やっとクールピクセルが原因というので納得してほぼ解決したのですが、せっかく自分でも途中まで考えてはいたので、そこまでだけでも書いておきます。


まず試したのは、簡単にするためにクール補正も、フラット補正もダーク補正もせず、三つ子銀河のIntegrationをすることでした。ImageCalibrationがなぜかうまくいかなかったのでStarAlignmentで代用。その結果がこれです。

nocosmetic


赤とか青とか緑とかのかすれた線が無数にあります。全部クールノイズだと思われます。前面に散らばっています。もっとわかりやすくするために、位置合わせをしないただの比較明合成をします。

nocosmetic_nocalibration_integration_a


クールノイズが点になって無数の輝点になって見えます。この時点で、やっとクールノイズの可能性が高そうだと思い始めました。

今度はクール補正をかけたものの比較明合成です。

cosmetic_nocalibration_integration_a


クールピクセルがなくなってかなりましに見えます。これなら変なノイズとかでなさそうなので、これで位置合わせを行います。

cosmetic_calibration_integration_a


でも結果はなぜか縞ノイズが出てしまいます。この理由が最初全くわかりませんでした。ところがIntegrartionの時にAverageを使わずにMaximumを使うと理由がかなりはっきりしました。

cosmetic_calibration_integration_Maximum_a


Maximumなので一番明るいものが残っています。形をよく見ると縞ノイズとかなり一致しているように見えます。Maxmumで見えるということは、このような明るい輝点はまだ存在していて、飛び抜けたもの含んで無理やりIntegrationの時にAverageで平均化したりすれば、さすがにそこにムラができるのは不思議ではありません。ImageIntegrationの時にPixel rejection(1)で「Rejection Algorithm」を「min/max」にすると多少は改善できることもわかりましたが、それでも縞は残ります。

あと、Maximumは星像が歪むという弊害があることもこの時気づきました。昨晩はここで終わって寝てしまいました。


その後、あぷらなーとさんからのコメントに答える形で前々回のページに書いたのですが、今日になってあぷらなーとさんのブログの過去記事を見るとここら辺のようなことがすでに見事に検証されていて、さらに輝点を加算するという解決法まで示してくれています!しかもぴんたんさんがすでにFlat Aide Proにその手法を実装してしまったとは!

カラー画像でもうまく輝点が出ないようにコンポジット前の画面を補正してしまえばいいと思いますが、あぷらなーとさんがやったようなモノクロならまだしも、やはりカラーだとちょっと難しそうです。


HUQさん、あぷらなーとさん、Scopioさんクールノイズにいつまででも納得できなくて色々説明してもらって申し訳ありませんでした。そして、こんな私に付き合っていただいてきちんと説明してくれて本当にありがとうございます。

自分で納得でないないと気が済まないのですが、今回の話は最初からアプラナートさんの2017年の9月くらいの記事を読んでおけば済む話でした。でも自分で試すという方向性はやめたくないので、また変なことを言うかもしれませんが、初心者のたわごとと思って温かい目で見ていただけるとありがたいです。


 


 

PixInsight(以下PI)の続きです。今日はLinear Stageについて書いておきます。

さて今日の材料は、しし座の三つ子銀河、通称トリプレットを3分露光で60枚、計3時間ぶん撮ったものです。FS-60QにASI294MCのセット、Advanced VXにPHD2でガイドなどは前回M33のときと同じです。これらをPIのバッチ処理でインテグレート(コンポジット)までしました。M33と同じく斜めの縞ノイズも、多少はマシですが見えてしまっています。比較合成したものを見ると、やはりガイドがずれていってしまっています。

light-BINNING_1_max

ズレは前回より小さくて、3時間で30秒程度でしょうか。縞ノイズは嫌なので、前回のように「Maximum」、「No normalization」でIntegrateしたものを使用します。

一応縞ノイズを比べます。デフォルトの「Average」、「Aditive with scaling」でIntegrationしたものと
light-BINNING_1_DBE_STF


「Maximum」、「No normalization」でIntegrateしたもの
light_BINNING_1_Maximum_No_normalization_DBE_STF3


です。やはり今回も縞ノイズに関してはあからさまに違いが見えていて、後者の方が圧倒的にいいです。それに加えて前者ではアンプノイズがまだ結構目立つくらいに残っています。このアンプノイズはASI294MC共通の欠点らしくて、どの個体もこの位置にアンプノイズが存在するようです。でもこの前者の画像を見ていると、ダーク補正が本当にうまくできているか疑問に思えてきました。違いはIntegrationのところだけのはずなので、ダークフレームによる補正の違いはないはずなのですが...。いずれにせよ、かなり差があるのでこれ以降は後者の方を使います。


Linear Stageでやるべき主なことは3つ、
  1. バックグラウンドを平らにする、カブリ補正のようなもの。
  2. ホワイトバランスを揃える。
  3. 色のキャリブレーションをする。
です。それぞれについてやりかたは何通りかあるみたいで、
  • 1と2は「Process」->「BackgraoundModelization」->「AutomaticBackgroundExtraction」もしくは「Process」->「BackgraoundModelization」->「DynamicBackgroundExtraction」
  • でまとめてできます。
  • 2として「Process」->「ColorCalibration」->「BackgraoundNeutralization」をする方法もあるみたいなのですが、うまくいく場合とうまくいかない場合があるので、今では使っていません。
  • 3は「Process」->「ColorCalibration」->「ColorCalibration」や「Process」->「ColorCalibration」->「PhotometricColorCalibration」などです。

DynamicBackgroundExtraction(DBE)が結構簡単で優秀みたいなので、今回はこれを使ってホワイトバランスまでを処理します。
  1. まずIntegrationした画像を開きます。次にメニューから「Process」->「BackgraoundModelization」->「DynamicBackgroundExtraction」と選んで、設定画面を出します。
  2. その状態で画像の星や星雲などがない暗い点を10から20個くらい選びます。設定画面の上の左右の矢印で選んだところのプレビューが出るので、あまりにおかしいところは赤いxじるしで選択から外します。
  3. DBEの設定画面の中の「Target Image Correction」で「Subtraction」を選びます。これを選ばないと出来上がった画面が出て来ません。
  4. DBEインスタンスを画像に放り込むか、下のチェックマークをクリックして実行します。
その時の画面が下になります。左がIntegration後すぐの画像、右の上の画面が適用後。右の下が補正分です。もともと青にかなり酔っていたので、青の補正がされているのがわかります。フラット補正はしてあったので被りや周辺減光に相当するのはほとんど目立っていません。出来上がった右上画面のバックグランドがホワイト化されているのもわかります。

IMG_3470


出来上がった画面をHistgramTransformation (HT)で見てやるとホワイトが揃っているのを確かめることができます。必要ならばこの後にBackgraoundNeutralizationをするのもいいみたいなのですが、今回は省きます。


上のDBEをするのに必要だと思われるPixInsightの特殊な操作方法について書いておきます。
  • 処理を実行するのに、下の丸ボタンを押してもいいのですが、Instanceを作る左下の三角じるしをドラッグして適用したい画像に放り込むと、その効果が適用されます。でもうまくいくときとうまくいかない時があります。xが出たり、何も出ないとうまくいかなくて、チェックマークが出るとうまくいきます。どうやったらうまくチェックマークになるのか未だによくわかりません。パッと入れるとうまくいくことが多いのはなぜでしょうか?
  • ScreenTransferFunction(STF)で簡易的にトーンカーブをいじって見やすくしてまずは把握する。この見やすくするというのは、SharpCapのヒストグラムの稲妻ボタンでトーンカーブをいじって電視観望で見やすくするのと同じ概念です。というより多分PixInsightからヒントを得てSharpCapに移植したみたいに思えます。試しに、HistgramTransformation (HT)画面とSTFバー画面を出しておいて、STF画面の放射能マークみたいな「Auto Stretch」ボタンを押してから、左下の三角じるしをドラッグして、インスタンスをHT画面の一番下の三角と四角と丸があるラインらへんにドロップすると(ものすごくわかりにくい操作方法です!)、トーンカーブの形がSharpCapのオートボタンを押してできるトンカーブとほとんど同じ形になることが確認できます。
  • STFは見かけ上の画像処理なので、Auto Stretchをした画像を保存しても、元の画像のままです。
  • ちなみにSTFの効果を効かせた状態で画像を保存するためには、上に書いたようにHistgramTransformation (HT)画面を出して、STFのインスタンスをHT画面の一番下の三角と四角と丸があるラインらへんにドロップして、さらにHTのインスタンスを画像にドロップして初めて実際の処理がなされます。それを保存すればやっとSTFを適用した画像を保存するということができます。
  • 各処理画面の下のところに白丸がある場合、Real-TIme Previewを見ることができます。プレビューで効果を確認して、パラメーターが決まったらプレビューを閉じて、オリジナルの画面にインスタンスを放り込むというやり方が主流のようです。

次が色のキャリブレーションです。今回はPIの最近のバージョンでの目玉機能と言われているPhotometricColorCalibration(PCC)を試してみます。これは複数の恒星をPlate Solvingでマッピングして、登録されている恒星の色情報から正しいと思われる色に合わせてくれるという、とても客観的な色合わせ機能です。早速試して見ましょう。

  1. 「Process」->「ColorCalibration」->「PhotometricColorCalibration」で操作画面を出してから、「Image Parameters」の「Search Coordinates」で写っている天体を探します。ここでは「M65」とかです。
  2. うまく座標が入ったら、「Observation date」に撮影した日にちくらいまで入れます。時間は適当でいいみたいです。あとは「Forcal length」に撮影時の焦点距離を、「Pixel size」に使っているカメラの素子のサイズをマイクロメーター単位で書き込みます。ここもかなり適当でいいみたいですが、5割違うとダメだと書いてありました。
  3. 「Background Neutralizatio」を選択します。「Regeon of interest」にチェックをつけて、Previewエリア(下に説明あり)を選んで、そのPreviewを「From Preview」から選択します。Upper limitはPreviewタブを押してPreview画面を開いてから暗い部分の値を、Readout modeで読んでやり、その付近の値を入れますが、デフォルトのままでも結構うまくいくみたいです。
  4. 三角じるしのインスタンスをDBE処理した画像に放り込むと処理が始まります。
  5. 結構進んだ最後の方で、実行した時に星が見つからないとか言われてうまくいかない時は、「Photometry Parameters」の「Limit magnitude」の「Automatic limit magnitude」のチェックを外し、「Limit magnitude」をデフォルトの12から15くらいまで暗くするとうまくいくことがあります。
IMG_3496


うまくいくと上の画像のように、グラフの表示とともに画像に今回の結果が適用されます。グラフはまだ何を言っているのかよくわかりませんが、検出された星をカタログ値の色にフィットしているのでしょうか?ここでCtrl+zやCommand+zでUndoすると、以前の画像と比較することができます。今回は少し赤みがかっていたのが補正されてよりホワイトになったことがわかりました。

PixInsightのとても特徴ある操作の説明です...。なんでこんな操作になるのか...、この記事が誰かの役に立ってくれると信じて書きます。
  • Previewという概念が特殊です。画像を開いている時に、上のアイコンの中の左から12番目くらいのフォルダのような形の「New Prview Mode」を選ぶと、画面の中の一部を選ぶことができます。プレビューもどの状態で画像の一部を選択すると、「Previwe01」とかいう領域が選ばれるとともに、左横のタグに同じ名前のものができます。この状態になって、初めて画像処理の画像の一部の選択、例えばバックグラウンドの領域選択などでこのプレビューを選ぶことができるようになります。
  • Readout modeは上のアイコン群の左から7番目にあり、デフォルトのモードになります。結構便利で、このReadout modeの時に画像の上で左クリックすると、拡大して画像を表示してくれて、マウスポインタが指している場所の色などを数値で出してくれます。Preview画面でもこのReadout modeは使えるので、Previewで暗い部分を選んで、さらに拡大して暗い部分の値を読み取ることができるわけです。
今回のところまでで、やっとPixInsightの全機能の1割くらいでしょうか。摩訶不思議な操作方法は、いろんな意味でもう「僕は嫌だ」状態です。とりあえずここまでで疲れ果てたので、Photoshopに持っていって簡単に仕上げてみました。

light_BINNING_1_Maximum_No_normalization_DBE_PCC
富山県富山市, 2018年1月20日0時19分
FS-60Q + ASI294MC+ Advanced VX赤道儀
f50mm + ASI178MC +PHD2による自動ガイド, 露出3分x60枚 総露出3時間0分
Pixinsight, Photoshop CCで画像処理


少し飛んでいるところもあったりしてまだ色々PIを使いこなすに至っていません。3秒露光の画像も撮ってあるので、HDR合成とか星マスクとかやって、もう少し時間をかけて仕上げてみたいですが、気合が続くかどうか。

次はNon-Linear Stageに挑戦ですが迷っています。Linear ProcessingまではあからさまにPixInsightは面白い機能が目白押しのはわかりました。Non-Linear Processingを含めて最終仕上げまで全てをPIでやることも可能みたいですが、Non-Linear ProcessingになったらPhotoshopなどに任せてしまってもいい気がします。PIの有利な点はマスクを簡単に作れるところでしょうか。これは結構魅力で、ここで作ったマスクをPhotoshopに持っていくのとかでもいいのかもしれません。

あ、あとPixInsightのライセンスを購入しました。まだ試用期間も残っていて、230ユーロと結構な値段ですが、その価値はありと判断してです。
 

さて今回M33を撮影したので、Pixinsightのバッチ処理に挑戦しました。ちょっとややこしいですが、多少癖がわかったのか、前回ほど戸惑うことはないです。

バッチ処理は「Script」メニューの「Batch Processing」->「BatchPreprocessing」を選ぶことから始まります。下のAddボタンを押してLightフレーム、Darkフレーム、Flatフレームなどを登録していきます。ここら辺まではいいのですが、最初はやはりなかなかうまくいきません。迷ったところをこれまた全部書いておきます。
  • Debeyerできない -> 右側のCFAimagesにチェックを入れるとできるようになる。
  • Cosmetic CorrectionのTemplate iconが選べない。-> これは特に分かりづらかったです。BatchPreprocessingに入る前に、あらかじめ「Preprocessing」の中から「CosmeticCorrection」を選び作っておく必要があります。前回の記事で説明したように、ファイルを選んで実行までしてから、(2018/3/22変更)CosmeticCorrectionでホットピクセル除去やクールピクセル除去のやり方を指定するだけでよく、ファイルまで選ぶ必要はありません。その後、CosmeticCorrection画面の左下の三角をクリック枠の外に出すと「Instance」が作成されます。これをBatchPreprocessingで指定するみたいです。「CosmeticCorrection」できたファイルを消したりしてしまうと、たとえインスタンスだけ残っていてそれを指定しても、エラーが出ます。
  • 「CosmeticCorrection」で一部の枚数だけ使って処理したインスタンスを使って、多数枚のLightフレームは処理できるのか? -> 問題なくできるみたい。でも、これで本当に全部のファイルのhot/coolピクセルが処理されているかは未検証です。念のため全Lightフレームを使って処理するようにしました。(2018/3/22変更)そもそもCosmeticCorrectionでホットピクセル除去やクールピクセル除去のやり方を指定するだけでよく、ファイルまで選ぶ必要はありません。
  • 一旦バッチファイルの画面を閉じてしまうと、選択したファイルも全てリセットされる。インスタンスを残しておいても、スクリプトファイルのソースみたいなのが出てくるだけで、元の画面が出てこない。 -> 仕様みたいです。何か回避策はあるのでしょうか?(2018/3/22追加)-> 左下の三角を枠外にドラッグ&ドロップしてインスタンスを作って置けば後から再度開くことができることがわかりました。ただ、開く時にインスタンスを右クリックして「Execute in the global context」を選ぶと物と画面に戻ることができて編集を再開できます。
  • ImageRegistrationのDrizzleの意味がわからない。 -> とにかくチェックしないとファイルが出力されない。最終画像も出ない。 (2018/3/22追加)->普通のDrizzleの意味で、解像度を上げるのですが、そのためのデータを出力するだけで、実際に出力ファイルの解像度が上がるわけではないみたいです。なので、チェックは外してもいいとのことですが、チェックしないとファイルが出力されないこともあったので、とりあえずチェックしてあります。
  • 星像が流れていないかなど、撮影後のfitsファイルの確認がしにくい。-> Canonカメラでの撮影の場合JPEGも残しているのと、RAWファイルのCR2形式はWindowsでもMacでも簡単にプレビューできるので便利。その一方、fits形式のプレビュー的なアプリはなかなかなく、今の所Pixinsightで全て開くしかない。 (2018/3/22追加) -> メニューの「Batch Processing」「SubframeSelector」というバッチ処理で星像の肥大度と偏心度などをみて自動判別するとても便利な機能があります。そのうちに解説します。
  • Lightフレームだけではダメみたいで、少なくともDarkかFlatかBiasが一枚はないとダメみたいです。
  • 右側の「Registration Reference Image」は必ず一枚Lightフレームを選ばなくてはならない。
  • Output Directoryも選ばないと怒られる。
  • Biasフレームは必要? ->  (2018/3/22変更) 冷却CCDとかでは必要みたいです。常温のCMOSカメラは?PixinsightではBiasは必ず取った方がいいみたいです。明らかに処理に差が出るようです。今回はとりあえず、よくわからないので撮ってません。調べてみるとBiasフレームとは、レンズにキャップをした状態にし、ライトフレームと同じISO感度かつ「最短シャッタースピード」で撮ったもののようです。簡単そうなので、次回撮影では撮ってみます。
  • Flatフレームもダークで補正されたほうがいいはずなのですが、実際に補正はされるのでしょうか?できたファイルからだけではよくわかりません。→ biasはFlatにもダークにも適用されます。FlatdarkはPixInsightでは必要ないそうです。
  • 実行前に「Diagnostics」ボタンを押すと、問題があるかどうかわかる。準備ができたら「Run」ボタン。
これで待っているとコンポジットされた画像が無事にできます。これ以降のバックグラウンドの処理などのLinear Stageの解説は次回に続きます。

今回も疲れてしまったので、ここからはいつも通りSteller Image8やPhotoShopなどで処理しています。

さて今回の処理はM33ですが、機材はFS-60QにASI294MCをつけて、Advanced VXをASI178MCと50mmのCマウントレンズを使い、PHD2でガイドしたものです。撮影はSharpCapで行いました。ASI294MCのゲイン270、各露光時間は5分間で合計25枚、計2時間5分になります。

そこそこの長時間露光になっているのですが、これを処理すると「縞ノイズ」が盛大に出てしまうことがわかりました。

light-BINNING_1


上の画像は、Pixinsightでバッチ処理でコンポジットした画像をSteller Image8に送り、「オートストレッチ」でホワイトバランスを整えてから、「チャンネルパレット」の「σ(1,3)」を押しただけの画像です。画像をクリックすると縦方向に少し斜めの線がたくさん見えると思います。実はこれまでも長時間撮影で何度か遭遇してボツにしてきた経緯があるのですが、そろそろ向き合わなければならない時期にきたみたいです。

この縞ノイズというのは、長時間露光の際に一般的に出てくる問題で、ガイドをしていても機材のたわみなどで少しづつ星像がずれていってしまうために起こるものです。実際、比較明合成で見てみると、縞ノイズの方向とずれの方向が一致しているのがわかると思います。

integration_maxtraced


ちなみに、Pixinsightで比較明合成をするには、原理的にはバッチ処理の中の「Image Registration」の過程を抜いてIntegrationすれはいいので、今回はバッチ処理でできたoutputファイルがあるディレクトリの中のcalibrated/light/debayeredの中のファイルを全て「Process」メニューの「Preprocessing」の「Image Integrartion」でコンポジットします。そうすると、上に示したような比較明合成画像が出来上がります。

さて、この縞ノイズをなくすには機材のたわみなどを極限までなくし、ガイドの精度を上げることなのですが、今回のズレも画像から計算すると2時間でわずか約40秒と決して悪いわけではありません。精度を上げる方向で攻めるのは普通は難しいので、ディザリングなどで撮影時にわざと規則的に画角を繰り返しずらしていくことで、縞ノイズの影響を少なくするような方法をとることができるようです。ここで一つ問題が出ます。今回の撮影でも使ったSharpCapだとディザリングは難しいみたいなのです。撮影の合間にずらして揺れが落ち着くまで少し待つということを繰り返すのですが、SharpCapの撮影は基本的に連続で、ずらしている間に露光を止めることができないようなのです。手持ちのEOSを使う場合はBackYard EOSとPHD2の組み合わせでディザリングももんだいなくできるようですが、CMOSカメラだとAPT(Astro Photography Tool ) などを使う必要があるみたいで、お気に入りのSharpCapが使えません。

ディザリングはおいおい考えるとして、Pixinsightで比較明合成の仕方を探る時に色々試していて面白いことに気づきました。Image Integrationのオプションの違いで明らかに縞ノイズの出方が違うのです。関係するオプションは2つで、「Combinarion」と「Normalization」です。全部のオプションを試したわけではないですが、Combinationでは「Average」と「Maximum」で明らかな違いがありました。またNormalizationではデフォルトの「Aditive with scaling」と「No normalization」でもCombinationと合わせると明らかな違いがありました。結果を画像で示しておきます。

まず、2つ上の画像と同じものですが、デフォルト設定でCombinationは「Average」、Normalizationは「Additive with scaling」となります。

light-BINNING_1
「Average」、「Additive with scaling」

次に、Combinationを「Maximum」に変えます。画像処理は上と同じでSteller Image8のオートストレッチとチャンネルパレットのσ(1,3)のみです。

integration_Maximum_Additive_with_scaling
Maximum」、「Additive with scaling」

明らかに縞ノイズが減っているのですが、少しわかりにくいかもしれません。

次にデフォルトの設定からNormalizationを「No normalization」にします。Combinationは「Average」のままです。に変えます。

integration_Average_No_normalization
「Average」、「No normalization

これは一見ほとんど同じに見えるかもしれません。

最後に両方ともデフォルトから変えて、Combinationを「Maximum」に、Normalizationを「No normalization」にします。

integration_Maximum_No_normalization
「Maximum」、「No normalization」

それでも縦縞はまだ残っていますが、こちらはパッと見ただけでわかるくらい縦縞が減っています。

比較した画面です。

comp

こうやってみると、元の画像に細かいノイズがのっかただけのように見えないこともないです。それでもその後の処理では大きく違うこともわかりました。実際に「Average」、「Additive with scaling」とMaximum」、「No normalization」を比較する意味で、真面目に画像処理してみました。画像をクリックして拡大してみると結果は一目瞭然です。(追記: 次の日見たら後者の方がぼかしてあり比較するのにあまり適していなかったので、処理を同じようなものに合わせました。)

light-BINNING_1_SI3
「Average」、「Aditive with scaling」


integration_Maximum_No_normalization3c

「Maximum」、「No normalization」

処理をしていても、デフォルト設定の「Average」、「Additive with scaling」方は縞を消さなくてはいけないと思い、かなり不自然な処理になってしまっています。それでもまだ全然消しきれていません。一方、Maximum」、「No normalization」の方は処理中も縞をほとんど気にすることなく、画像処理に集中できます。もちろん完全に縞ノイズが消えているわけではないです。また、他のパラメーターでさらに改善する可能性もあるかもしれません。


Pixinsightはまだ使い始めたばかりで右も左も分からないので、今回の試みがごくごく一般的なテクニックなのか、それともあまり知られていないものなのかもよくわかりません。洋書の「Inside PixInsight」は買ってあるので、該当する箇所を読んでみたのですが、大したことは何も書いていなくて、Combinationに関しては「Averageを使え」だけです。Nomalizatioinに関しては、ある章では「バイアスを履かすのを保つためにNo normalizatoinを選べ」とかいてあって、別の章では「Additiveは少なくとも使え、Scalingは露光時間が違う場合は使ったほうがいい」とあるくらいで、ほとんど中身の説明はありません。ヘルプのドキュメントをよく読めとも書いてあったので読んでみました。ヘルプの方が確かに少しマシですがそれでも「Averageは一番いいS/Nになる」くらいと、「NormarizationはバックグランドをScalingはばらつき具合を合わせる」というくらいのことしか書いてありません。「ScalingはS/Nを良くする」とも書いてあるので、もしかしたらS/Nを良くするというところの処理が悪さをして、縞ノイズが出る出ないに関わっているのかもしれません。何れにせよアルゴリズムは不明なので、どのような処理をやっているかがわかるようなレベルではないです。

それにしてもPixInsight奥が深すぎます。かなりブラックボックスです。まだしし座のトリプレットの未処理画像が残っているので、引き続きもう少し触ってみます。








ASI294MCでのバーナードループの固定撮影の続きです。

さて、5秒、100枚のスタックですが、三脚にASI294MCを取り付けるだけのお手軽固定撮影のために、時間とともに画面の中で星が動いていきます。歪みが全くないレンズならば問題ないのでしょうが、そんなレンズは存在しません。なのでそのままスタックすると中心と端の方で、どうしても位置にズレが出てきてしまいます。Steller Imageは基本的に並進と回転のみで位置合わせをしているので、このような画面にひずみのようなズレがある画像をうまくスタックすることは苦手なようです。PixInsightはこんなひずみもうまくコンポジットしてくれるとのことなので、今回初めてPixinsightを使ってみました。とりあえずは無料の45日制限のお試し版です。無料といってもフル機能使えるので、試して気に入ったら購入するつもりです。

処理するものはSharpCapでASI294MCを使って5秒露光での撮影で得られた100枚のファイルです。撮影中にダーク補正もフラット補正もしてしまっています。RAW16モードでfits形式で保存したものです。


まず思ったことは、PixInsigtはものすごくとっつきにくいです。ある程度噂では聞いていましたが、これほどとは。とにかくメニューが多すぎて何がどこにあるかわからない。どれがどの機能を指しているのかよくわからないといった状況です。とりあえず迷ったところ全部書いておきます。この方法が正しいかどうかもまだよくわかっていません。かろうじてコンポジットまでできた経緯です。同じように迷えるどなたかの役に立てばという思いです。

  1. まず、ファイルをどうやって開けばいいのかわかりません。「File」メニューから「Open」は意味がありません。「Process」メニューの「Preprocessing」の中のメニューを選択して開くことが大事です。ここまでわかるのに一苦労でした。Preprocessingという言葉はSteller Imageで言うコンポジットまでの一連の処理のことを指すみたいです。
  2. その「Preprocessing」の中からまずは「CosmeticCorrection」を選びます。ホット、クールピクセルの除去などができるようです。「Add Files」ボタンを押して、今回撮影した複数の「.fits」を全て選択して開きます。次に「Output」から保存したいフォルダを指定します。フォルダを指定しないと同じフォルダにファイルが追加されていきます。「Use Auto Detect」にチェックして、「Hot Sigma」も「Cool Sigma」もチェックします。下の左の黒丸を押して実行します。問題があればここでエラーダイアログが出ますが、特に問題がなかければテキストベースのコンソール画面のようなものが出てきて、処理が進んでいくのが見えます。
  3. これまたわかりにくいのですが、それぞれの処理画面の左下の三角をクリックして、クリックしたまま枠の外に出すと「Instance」というものが作成されて、アイコンができます。このアイコンは作業のリンク(ショートカット)のようなものと理解しています。画面を消してしまっても、このアイコンをダブルクリックするとまた同じ画面が出てきます。
  4. 次に再び「Process」メニューの「Preprocessing」にいき、今度は「Debayer」を選びます。白黒の画像をカラー化します。先ほど処理してできた「_cc.xisf」という拡張子がついたファイルを「Add Files」ボタンを押して全て開きます。ここで左下の黒丸ボタンを押してエラーが出て悩みました。この解決方法は一番上の「Bayer/mosaic pattern」を「Auto」から「RGGB」に変更します。どのパターンにするかは事前に調べておいたほうがいいです。SharpCapの方でDebayer方式をかえて、変な色にならないものを見つけました。これで黒丸が押せるようになり実行できます。まだ、黒丸と黒四角の違いはよくわかりません。もし確認したければ、ここでできた「_cc_d.xisf」ファイルを「File」のメニューの「Open」から選んでみると見事カラーになっているのがわかります。ここでも左下の三角を押してInstaceを作っておくといいでしょう。
  5. 再び「Process」メニューの「Preprocessing」にいき、「StarAlignment」を選びます。位置を揃えてコンポジットするための事前計算です。この事前計算は「ImageCalibration」でもできるみたいですが、それぞれの画像で歪んでいるような場合はこちらの「StarAlignment」がいいみたいです。(2018/3/22追記: ImageCalibrationはダーク補正やフラット補正をするプロセスです。本来Debayerの前にする処理です。今回は撮影時にダーク補正もフラット補正もしているので、簡単のため割愛します。)ここも普通に「Add Files」からすぐ上で作ったカラー画像「_cc_d.xisf」ファイルを全て選びます。一つだけ違うのは、さらに基準となるファイルを一番上の「Reference Image」で選ばなければならないことです。「Add Files」で選んだうちの一枚を選びます。すぐ横の「VIew」を押して、「File」を選んで、さらに右の三角を押せば選択できます。色々オプションが選べるみたいですが、よくわからないのでまずはそのままの設定でやってみました。あとは左下の黒丸を押して実行します。
  6. 最後は「Process」メニューの「Preprocessing」の「ImageIntegrartion」でコンポジットです。同じく「Add Files」で最後にできた「_cc_d_r.xisf」ファイルを開きます。ここも色々オプションがありますが、全てデフォルトです。まだ細かいことはよくわかりません。黒丸を押して待つとやっとコンポジットされた画像が出来上がります。画像が2枚出てきて、一枚はコンポジットしたもの、もう一枚は暗い除かれたものみたいです。コンポジットされたものを「File」メニューの「Save As」で適当なファイル形式を選び保存します。同じfits形式でも色々互換性とかの問題があるみたいなので、とりあえずPixinsight標準のxisf形式で保存して、あとは色々な形式で試して目的のソフトで開くことができるか確認するといいかもしれません。Steller Imageでも開くことができるものは限られていました。
  7. ここからPixinsight語で言う「Linear Process」(Steller Imageで言うカブリ補正やレベル補正) に入っていきます。この際Screen Transfer Function (STF)というのを使ってレベル補正に相当することをしていくようなのですが、最初レベルを変えるSTFバーの出る画面がどうしても見つかりませんでした。中途半端に「Image」メニューの「Screen Transfer Function」に色々あるのがわかりにく原因で、バーを出したい場合には「Process」メニューの「IntensityTransformations」のところにある「Screen Transfer Function」を選ばなければいけません。メニューとオプション多すぎです。ここらへんで力尽きました。
ところで、以上の行程はバッチ処理での自動生成もできるみたいですが、今回はダークとかフラットが別のファイルになっていないので、理解する意味も含めて一つ一つ手でやってみました。バッチ処理はかなり便利とのことなので、次にまた試してみようと思います。


さて、比較のためにSteller Image8でも同様にコンポジットしてみました。まずSteller Image バージョン8の売りの「自動処理モード」だと、SharpCapで保存されたfitsファイル(RAW16)が白黒のままコンポジットされてしまい、コンポジットされた画像もカラー化することができませんでした。結局いつものように「詳細編集モード」で100枚を開いて、一枚一枚「ベイヤー・RGB変換」するしかありませんでした。「Altキー+I、Altキー+Y、Enter」で多少早くできますが、それでも100枚を一枚づつ手動で変換しなくてはならないことには変わりありません。この手間だけは冴えないですが、あとはバッチ処理でほぼ自動でできます。

できた画像を比較してみます。まず興味のある中央と四隅を拡大してみます。

cut
Steller Image8(左)                                 Pixinsight (右)


左がSterller Image8、右がPixinsightです。中央はそれほど変わりませんが、四隅を比べるとやはりSteller Image8だと流れたりぼけたりしてしまっています。Pixinsightも少し流れているように見えますが、これはレンズのせいで、一枚一枚の個々の画像ですでに流れてしまっています。f1.4のレンズを一段絞ってf2.0で撮影したのですが、ピクセル等倍で見るとまだ流れが目立つので、もう一段絞ったほうがよさそうです。

つぎに、全体の比較も面白いので見てみます。上がSteller Image8、下がPixInsightです。

Capture 23_35_59_00001-00101_23_36_01

integration

驚異的なのが、Steller Imageの方は、固定撮影のために空が流れていってしまい撮影できていない枚数が少ないところは普通に暗くなっているのに対し、PixInsightの方は撮影できていない部分も枚数で重み付けして明るさを復元していることです。

やはり噂通りPixInsightのコンポジットはかなり強力なようです。


 今回初めてPixinsihgtを使ってみました。確かに高機能で、性能もいいです。でもなぜ日本でSteller Imageがメジャーなのか?やっとわかりました。Steller Imageの方がはるかに簡単だからです。慣れの問題もあるでしょうし、Steller Imageは?なところも多少ありますが、日本語ですし、操作は想像がつきますし、ある程度一本道だし、マニュアルなどもしっかりしています。簡単にできるということは思っていた以上にありがたいことだと実感しました。


今回もコンポジットまではPixinsihgtでやりましたが、それ以降のカブリや周辺減処理、デジタル現像に相当するものはPixinsightでもできるはずですが、まだ手が出ません。PixInsightは疲れたのでしばらくはここからはいつも通りSteller Image8で続けることにします。

integration4

富山県富山市, 2018年1月13日23時36分
NIKKOR NC 35mm f1.4 + ASI294MC 固定撮影
露出5秒x100枚 総露出8分20秒
PixInsight + Steller Image 8、Photoshop CCで画像処理


最後の仕上げにSteller Image8とPhotoshopCCで続きの処理をした画像が上になります。さすがに5秒露光の100枚だとトータル10分もないので厳しいです。画像処理でかなりごまかしています。それでも馬頭星雲あたりは見えていますし、目的のバーナードループも見えています。他にもバラ星雲もなんとか見えますし、うっすらとですがエンゼルフィッシュも少しは出ているみたいです。

自宅の庭で、赤道儀も使わない、ポンと適当に置いた三脚に固定での、わずか10分のお気楽極楽撮影
なら、まあ十分ではないでしょうか。この方法だと部屋の窓際に適当に置くだけでいいので、かなり楽かもしれません。

今の制限は、一回の露光で星が流れないという5秒からきているので、ちょっとめんどくさくなりますが、ポタ赤でも使ってもう少し長い露光時間でやってみるのも面白いと思いました。



このページのトップヘ