ほしぞloveログ

天体観測始めました。

カテゴリ: 画像処理

今回の太陽GIFアニメ制作の過程で太陽画像を大量に処理したので、処理方法がだいぶん確立しました。

昨年まだ太陽を始めた頃に、一度画像処理方法をまとめましたが、あれから随分経ち手法もかなり変わってきたので、ここらで一度メモがわりにまとめておきます。

ネット上で得られた情報を元に、自分で実際に試してみて有効だと思った方法です。自分自身でもいくつか発見した方法も織り交ぜています。有益なソフトを開発してくれた作者様、ネットで各種手法を公開していただいている方々に感謝いたします。


画像スタックと細部出し

AutoStakkert3

太陽を撮影した動画(RAWフォーマットのser形式推奨)ファイルをAutoStakkert3でスタックします。

1.  「1)Opne」を押してファイルをオープン後、「Image Stabilization」で「Surface」を選択。
2. 画像が見える画面で、緑の枠をコントロールキーを押しながら移動。光球面のきわと背景の境目とか、プロミネンスがはっきり見えているところとか、黒点やプラージュの周りとかの構造がはっきりわかる部分を選択。
3. 後のパラーメータはあまり影響はないので適当に、私は下の写真の通り。「2)Analysis」を押す。
IMG_6870

4. 解析終了後、画像の方に移り「Min Bright」を調整して、光球面のみAPでおおわれるように。APの大きさは小さいほうが精度が出るが、小さすぎると出来上がった画像が破綻する。破綻がない程度に小さく。
IMG_6872


5. 「Stak Options」では「TIF」を選択して保存。「Sharpend」はオフに。
6. 「3) Stack」を押してスタック開始。


ImPPG

ImPPGで細部を抽出。パラメータの一例を下に示しておく。
IMG_6873

1. スタックしたtifファイルを開く
2. 上の方のアイコンの、左から4つ目の曲線グラフアイコンをオンにしてトーンカーブ調整エディタを表示。
3. 背景の一部と光球面の一部が四角い枠で選択された状態で、トーンカーブ調整エディタの「stretch」を押す。
4. 「gamma」は出来上がり画像の傾向を見るために使う。まずチェックボックをオンにして、ガンマを調整。光球面を出したいときはガンマの値を0.6くらいまで落とし、プロミネンスを出したいときは1.5-2.0程度までガンマを挙げる。
5. ここから模様出し。「Prevent ringing」はオンに。
6. 「Iterations」は大きい方がいいが、大きすぎると逆にリンギングが目立つ時がある。
7. 「Adaptive」はほとんど使っていない。
8.  画像保存時にはガンマのチェックボックスをオフにする。->後でPhotoshopで同様の処理をするため。画像を16bit tiffで保存。


Photoshopにてフラット補正と疑似カラー化

光球面の切り出し

光球面とプロミネンスをどの様に合成させるかが難しいです。以下に示した方法はあくまで一例です。

1. Photoshop CCにおいて、上で作成した画像を開く。
2. 「イメージ」->「モード」->「RGBカラー」でカラーモードに変換。
3. 背景を全選択して、コピー、ペーストする。光球面処理用レイヤーとする。
4. ペーストで作られた光球面レイヤーを選択してから、画面で「マグネット選択ツール」で光球面とプロミネンスの境、光球面が枠の縁に接しているところをなぞり、光球面のみ選択。
5. 「選択範囲」->「選択範囲を変更」->「境界をぼかす」で4ピクセルほどぼかす。
6. 「選択範囲」->「選択範囲を反転」で光球面以外を選択された状態にし、DELキーなどで削除。光球面のみが残る。これが光球面レイヤーとなる。


フラット補正

次に、光球面のフラット補正。光球面はエタロンの影響で減光が大きいので、フラット補正をした方がいいです。以下に示したフラットフレームの作り方は、境界がボケるのでもっといい方法があるかもしれません。

1. 背景を全選択して、コピーする。ペーストを2回する。一枚はプロミネンス処理用レイヤー、もう一枚はフラット補正レイヤーとする。
2. フラット補正レイヤーを選択し、「フィルター」「ぼかし」「ぼかし(ガウス)」で半径を20ピクセルほどにして適用。フラット画面を作る。念の為もう一度同じガウスぼかしを適用してさらにフラットに。
3. このレイヤーのかぶせ方を「通常」から「除算」に変更。この時点でかなり明るく飛ぶ。
4. 「レイヤー」->「 新規調整レイヤー」->「レベル補正」でできたレイヤーを右クリックして「クリッピングマスクを作成」をクリック。
5. 調整レイヤーのレベル補正のハイライト側をヒストグラムが盛り上がっているところまで下げる。

IMG_6867

(2019/4/13 追記: 上記4、5の方法だと、プラージュなど白い領域が飛んでしまうことがわかりましたので訂正しておきます。明るい領域の諧調を保つためにも、やり方も簡単になることも含め、下に書いた方法のほうがよさそうです。)

4. フラット補正レイヤーを「イメージ」「色調補正」「トーンカーブ」で調整します。トーンカーブで真ん中らへんを一点選んで上下し、明るさが適当になるように調整。
5. 光球面のみのレイヤー、フラット補正レイヤーの2つを選んで、右クリックで「レイヤーを結合」してフラット補正が完了。
6. フラット補正された光球面レイヤーを一番上に持っていく。境が自然になっていることを確認。


プロミネンスレイヤーを疑似カラー化

1. 一番上の光球面レイヤーの目のマークをクリックして非表示に、プロミネンスレイヤーを選択。
2. 「イメージ」->「色調補正」->「レベル補正」を選んでダーク側の三角をヒストグラムが下側の山(背景の暗い部分に相当)になっているところのピーク付近まで持ち上げ、真ん中の三角を下のほうまでもっていき、できるだけプロミネンスを出す。ここでいったん「OK」。
3. 再度「イメージ」->「色調補正」->「レベル補正」を選んで、「チャンネル」の「レッド」を選択。真ん中の三角を左端の山の際くらいまでもっていく。
4. 「チャンネル」の「ブルー」を選択。真ん中の三角を右端くらいまでもっていく。
5. 「チャンネル」の「グリーン」を選択。真ん中の三角を少しだけ右にもっていって赤っぽくなるように調整。
6. もし背景に赤いノイズが残っていたら、Nik collectionのDfine 2が有効。さらに背景を少し暗くするため、「イメージ」->「色調補正」->「トーンカーブ」を選んで補正。


光球面レイヤーを疑似カラー化

1. 一番上の光球面レイヤーの目のマークをクリックして表示させ、選択。
2. 「イメージ」->「色調補正」->「レベル補正」を選んで、「チャンネル」の「レッド」を選択。真ん中の三角を左端の山の際くらいまでもっていく。
3. 「チャンネル」の「ブルー」を選択。真ん中の三角を右端くらいまでもっていく。
4. 「イメージ」->「色調補正」->「トーンカーブ」を選んで、50%のところを選んで少しだけ下げ、模様を強調。これはImPPGのガンマ補正で数値を上げたことに相当する。

IMG_6869


これで完成です。あとは適当に荒れた縁の方をトリミングして、画像を保存するなどしてください。


太陽観測のススメ

他のソフトや、細かい工夫などの方法はまだまだあるかと思いますが、画像処理の基本はこんなところかと思います。太陽の隠れた面が見えてくるのはとても楽しです。あなたも太陽観測試してみませんか?

と気楽に呼びかけているのですが、太陽の一番のハードルはやはり観測機器の値段でしょうか。太陽観測に必須のエタロンは精度が必要な光学部品なので、どうしても価格が上がってしまいます。入門用のCORONADOのP.S.T.でも簡単に10万円越え。これでも口径40mmなので解像度に不満が出るかもしれません。P.S.T.より上級機ではCORONADOのSolar MaxやLUNTなど、口径60mmクラスでBFの径にもよりますが数10万円から50万円コース、口径80mm越えだと50万円からなんと100万円以上のものもあります。

この値段がネックなのか、海外などでは比較的安価に手に入るP.S.T.の改良記事もたくさん見受けられます。このブログでも改造記事を紹介していますが、くれぐれも太陽観測は安全に気をつけて、改造するにしても自己責任で、繰り返しになりますが本当に安全に気をつけながら楽しんでください。


画像処理で出来上がったファイルの四隅の星像を比べたくなることがあると思います。これまでPhotoshopで手作業で切り取り貼り付けを駆使して作っていたのですが、何度もやるとなるとめんどくさいので、簡単にできるようにpythonとOpenCVを使って作ってみました。

超お手軽プロブラミングなので、内容はソースを見たらすぐにわかると思います。唯一工夫したところはファイル名をGUIで選択するところくらいでしょうか。Macで試しましたが、多分Windows他でも動くと思います。(すみません、チェックもしてません。)


必要な環境

環境を構築するのもいたって簡単です。今回はMacで試したので、Macでやる場合を書きます。WindowsなどでもPythonとOpenCVが動く環境なら走るはずなので、難しくもなんともないと思います。

1. Macの場合、Phython3はHomebrewからインストールするといいでしょう。Homebreはターミナルを立ち上げて、

/usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"

でインストールできます。


2. 次にPython3です。これもコマンド一発で、

brew install python3


3. 最後はOpenCVのインストールです。

pip3 install opencv-python

でインストール完了です。xcodeをインストールしていない場合は、最初にそれも必要かも。うまくいかない場合は、私なんかの説明よりも、適当に検索すればOpenCVが使えるようになるまでの説明はすぐに出てくるので、探してみてください。


ソースコード

さて、python3とOpenCVの環境が整ったら次はプログラミングです。今回はホントにチャカチャカっと書いたコードなので、全然綺麗ではありませんのでご容赦ください。ファイル選択の際文句が出たりもしますが、とりあえず動きます。

エディタなどで以下のコードをテキストファイルにコピぺして、適当なファイル名をつけて、拡張子を.pyにすれば準備完了です。

import cv2
import numpy as np
import tkinter
from tkinter import messagebox as tkMessageBox #python3
from tkinter import filedialog as tkFileDialog #python3


def pathname(fullpath):
    n = fullpath.rfind('/') + 1
    return fullpath[:n]

def select():
    root=tkinter.Tk()
    root.withdraw()
    fTyp = [('JPEG file','*.jpg')]
    iDir = '/Users/ユーザー名/' #自分のユーザー名を入れてください
    filename = tkFileDialog.askopenfilename(filetypes=fTyp,initialdir=iDir,title = "ファイル選択")
    iDir = pathname(filename)
    return filename


filenameselect = select()
img = cv2.imread(filenameselect)


mlen = 250
size = img.shape
roi_UL = img[0:mlen, 0:mlen]
roi_UR = img[0:mlen, size[1]-mlen:size[1]]
roi_LL = img[size[0]-mlen:size[0], 0:mlen]
roi_LR = img[size[0]-mlen:size[0], size[1]-mlen:size[1]]
roi_CC = img[round((size[0]-mlen)/2):round((size[0]+mlen)/2), round((size[1]-mlen)/2):round((size[1]+mlen)/2)]

width = mlen*3
height = mlen*3
imageArray = np.zeros((height, width, 3), np.uint8)
count = np.array([[0,0],[0, mlen*3],[mlen*3, mlen*3],[mlen*3, 0]])
cv2.fillPoly(imageArray, pts=[count], color=(255,255,255))

imageArray[0:mlen, 0:mlen] = roi_UL
imageArray[0:mlen, mlen*2:mlen*3] = roi_UR
imageArray[mlen*2:mlen*3, 0:mlen] = roi_LL
imageArray[mlen*2:mlen*3, mlen*2:mlen*3] = roi_LR
imageArray[mlen:mlen*2, mlen:mlen*2] = roi_CC

savefile = filenameselect.replace('.jpg', '_4cut.jpg')
cv2.imwrite(savefile,imageArray)



実行結果

ターミナル上で上のプログラムがあるフォルダに行き、

python3.py ファイル名.py

とかで実行すると、画像ファイルを選択するダイアログが現れます。ダイアログが前面に出てこないことがあるので、下のDocからPythonというアイコンを選んでみてください。JPEGファイルしか選べませんが、プログラムの中の15行目を*.pngとかすれば多少他のファイル形式も選べます。

切り取りたいファイルを選択すると、同じフォルダの中に

オリジナルファイル名_4cut.jpg

というファイルが出来上がります。

出来上がりは下のようになります。元の画像から四隅250x250ドット分と真ん中を250x250ドット分を切り取って750x750ドットのファイルを作ってくれます。ホントにこれだけです。

test_4cut


ちなみにこれは、タカハシの新フラットナーで撮ったFS-60CBの星像です。カモメ星雲ですが現在画像処理中のものです。ほとんど流れていないことがわかると思います。元々の動機が、新旧フラットナー、レデューサー、エクステンダーでの四隅の星像を比較したくて、いちいちやるのがめんどくさいのでプログラミングに走ったというわけです。

今回のプログラムは色々制限もありますが、簡単なプログラムなので中身もすぐにわかると思います。各自で適当に改良してみてください。

例えば、26行目の250を他の値に変えると切り出してくれる画像の大きさが変わります。
ちょっと頑張れば上下左右も合わせて8方向の切り取りとかもできると思います。

画像処理プログラミングの取っ掛かりとしては、いい練習になるかと思います。




参考ページ

以下のページを参考にしました。
どのページもわかりやすくて、とても役に立ちました。どうもありがとうございました。 

週末土曜日に飛騨コスモス天文台に行って、M57とM27を撮影しました。それぞれの撮影枚数は、露光時間が20秒と短いこともあり、かなりの枚数になります。具体的にはM57が282枚、M27が244枚をなり、処理の前に簡単に閲覧するだけでも大変になります。しかもSharpCapで撮影したRAWファイルなので、拡張子が.fitsファイルとなり、開けるソフトも限られています。

最初の頃はfitsファイルもステライメージで確認していたのですが、これだけ数が多いと大変になります。PixInsightでも開くことができますが、一枚一枚が結構重いので、全部を気楽に開くわけにいかなくて、選別するのが結構大変です。

そんなときはPixInsightの「ImageInspection」->「Blink」が便利です。

IMG_5690

  1. 下のフォルダマーク「Add Image Files」から複数ファイルを選択して読み込みます。
  2. 読み込みは数百枚だど数分かかるので、50枚くらいずつにしたほうがいいと思います。
  3. RAW画像でも、Debayerした画像などでも読み込むことができます。
  4. 画像が暗くて見にくい場合でもSTFがかけられた状態で表示されるので、見やすくなっているはずです。これは真ん中に3つ縦に並んでいるアイコンの、真ん中を押すと確認することができます。
  5. 読み込んだ後は、左右の矢印を押すか、画像のファイル名を一つ選択してあとはカーソルの上下で、すごい勢いで画像を連続で切り替えることができます。
  6. 左の三角ボタンを押せばアニメーション表示することもできます。
  7. ただし、ソート順はファイル名のみのようなのがちょっと残念なところです。
  8. 弾きたい画像は、マウスでファイル名を選択(複数も可能)してから、下のアイコン群の左から5つ目の小さい矢印がついているアイコンを押すと、移動したいフォルダが選択できるので、そこに移動されます。
  9. 終わった後は、下の左から3番目のアイコンを押して、すべてのファイルを閉じます。
  10. これを次の50枚とか繰り返すと、かなり効率よく見た目で明らかに悪い画像ファイルを弾くことができます。


もう一つ便利なのが、「Script」->「Batch Processing」->「SubframeSelector」になります。各画像の星像のFWHM(半値全幅)やEccentricity(偏心度)を測定してくれます。自動でだめな画像を別ディレクトリに移動することなどもできます。

詳しいことはマニュアルを読むといいのですが、英語で結構大変なので簡単な説明を書いておきます。

IMG_5688

  1. いつものようにAdd Filesで解析したいファイルを複数選択します。
  2. 最低限解析するだけなら、そのまま一番下の「Measure」を押します。
  3. CPUや解像度にも依りますが、一枚解析するのに7-8秒程度なので、数百枚でもなんとか耐えられる時間の範囲です。結構かかりますが、それでも一枚一枚やるよりははるかに楽です。最初は少数枚でテストするといいでしょう。
  4. 「Plots」を開くと結果が出ています。「FWHM」や「Eccentricity」で飛び抜けている画像を判断することができます。
  5. 飛び抜けているところをクリックするとx印がつくので、Outputで弾きたいファイルをMoveなどする設定をすると、移動してくれます。
  6. 式で評価して、自動で弾くこともできますが、そのためには下に示すようなパラメータを入れたほうがいいですし、式の入力にはいろいろやり方があるようなので、詳しくはマニュアルなどを参照してください。「星見庵日記」さんのこのページが日本語で比較的詳しく説明しています。
IMG_5689


もう少しきちんとしようとすると、最低限入力する値は、「System Parameters」の中の「Subframe scale」になります。ざっくりした見積もりの「1ピクセルあたりの画角は焦点距離600mm、ピクセルサイズ4umで約1.5秒」とかから考えてもいいですし、こんなサイトから焦点距離と自分の持っているセンサーのサイズを選択して、センサーのピクセル数で割ってやっても簡単に求めることができます。

「Camera gain」も入れるべきでしょう。でもこれは結構難しいです。メーカーのページに行ってもいいですが、例えばASI294MC場合ここの「GAIN」というグラフの横軸「Gain」の実際に撮影した時の値のところを見ればいいのですが、グラフから読み取ろうと思っても0近くになり正確な値は読み取れません。SharpCapがあれば自分で測定することもできます。結果の表からある程度の値は読み取ることができます。それでも誤差があるので、ある程度の値でかまわないでしょう。

ここまで入れると、結果もある程度(絶対値に近いという意味で)正しい値になってくるので、センサーやカメラが変わっても比較することができるようになりますし、式を使った評価でも正確性が出てきます。が、とりあえず面倒なら何も考えずに「Measure」ボタンを押してしまったほうが幸せかもしれません。


ここしばらくブログの更新が滞っていました。忙しかったのもあるのですが、一番の原因は天の川の画像処理でずっと悩んでいるからです。

8月初めに撮った木曽シュミットを背景にした天の川。ところが、気合を入れて画像処理を始めたのが、今回の迷走の始まりでした。Lightroomのレンズプロファイルでの補正と、PixInsightのDBEで周辺減光とさらカブリを除きます。星マスクを利用したり、景色部分にマスクを施したり、天の川部分のマスクも苦労して作ったりして色々試しました。多分正しい方向で進めているはずです。でもなぜでしょう、やればやるほどわざとらしくなって自然感が損なわれていく気がします。

IMG_1312_DBE1_ps

多分上の処理でも悪くないのかと思います。でも、ふと元のJPEG撮って出し画像を見直してみると、もちろんホワイトバランスも取れていないし、周辺減光はありまくりだし、天の川も強調されていないのに、なぜかわざとらしさのないこちらの方が好きな自分がいることに気づきます。ここら辺で完全に迷走状態になりました。
  • 周辺減光はきちんと補正するのが善か?天の川を中心に持ってきたらむしろ周辺減光があった方が天の川を目立たせることができるのでは?
  • 背景のホワイトバランスを撮ることは本当に正しいのか?なぜ青い夜空はダメなのか?
  • 星景写真は、科学なのか?芸術なのか?
などなど疑問が尽きません。天体写真は自分の場合あくまで趣味なので、科学写真とは違います。それでも星雲などの天体写真は宇宙の深淵を覗くという意味でまだ科学に近い気がしますが、星景写真はその名の通り景色を入れます。景色と星の組み合わせという意味ではなにか主観を入れたいという意図があることが普通なので、やはり芸術に相当近いような気がしています。こんなことを悩んでいても、正解もなければ答えが出ないこともよくわかっています。

そんな時に、ちょうどプロの星空風景写真家の方の話を聞く機会がありました。その方に上のような疑問をぶつけてみたのですが「一旦補正した周辺減光をあえて加える場合もある」「結局は自分が何を表現したいかではないか」という助言をいただきました。おそらく天体写真として撮っているアマチュアと、生計を立てているプロの写真家というのでは、全然目指している方向は違うのかもしれません。それでも人に見せるという意味では、この写真家の方の言うことは正しいのではないかと思いました。

まだ迷いはとれませが、星景で自分の見せたいものを見せてもいいという道があることがわかっただけでも大きな進歩です。でも個性を出すということは怖いですね。それを凌駕して魅力的な作品を生み続けるのがプロということなのでしょうか。色々悩んでいたことも少し吹っ切れた気がして、今回の星景写真に関しては少し自分が好きなものを目指そうと思いました。

IMG_1312_low

素材がいい場合は、画像処理も最小限で済みます。強度なあぶり出しもしていませんし、周辺減光も必要以上にとったりしていません。ホワイトバランスも多少合わせますが、好みを残しています。カブリもそのままで、この黄色から黄緑を経て青へと変わっていくような色が結構好きです。

くだらない悩みかもしれませんが、ここに至るまでに二週間くらいかかりました。まだ迷走する気はしますが、しばらくは技術にあまりこだわらずに処理をしてみようと思います。

前々回の記事のプロミネンスですが、結構な分解能で撮れていたのでどれくらいのスケールで形が変わっていくかを知りたくて、2018年6月17日午前11時30分からほぼ10分間隔で3時間ちょっと撮影を続けました。合計24ショット撮りそれをGIFアニメーションにしたものが以下の映像です。

pronimence_position_background_color3_cut01

動画にするにしてはコマ数が少なすぎるので、GIFアニメにしてみました。ただ、変化部分が小さいのでトリミングしてサイズを1024x576にしています。途中止まってしまうことがあるようなので、その際はページを再読み込みしてみてください。

細かい写り具合は撮影状況や画像処理によって大きく変わるのですが、大まかな動きを見ると最初小さめの三角型だったのが、少しづつ広がって釣鐘型のように形が変わっていくのがわかると思います。

撮影と画像処理は結構大変で、基本的にエタロンもCMOSカメラの位置もPSTでのピントも変えないようにと思っていたのですが、赤道儀が回転することによる重力のかかりたの変化なのか、それとも温度の変化なのかわかりませんが、何十分かに一回はピントを合わせる必要があるくらい、なぜか焦点がずれ続けました。また、プロミネンスの写り具合が画像処理に大きく依存します。画像処理もできるだけ同じような工程で進めましたが、やはりなかなか同じにはならないようです。

それぞれの動画は500フレームで撮影し、保存した.serファイルからAutoStakkert!3でスタックします。ファイル選択時に、複数本最初に選ぶことで、一回の設定で一度に選んだぶんだけの動画を処理できます。その時にSharpendオプションを選んで、Registaxなどの後処理を簡略化しました。光球面や惑星などに比べて、プロミネンスの場合Registaxの効果は限定的なのでこれでも十分との判断です。

PhotoShopもアクションで擬似色化の処理を自動化しています。その後、PhotoShop上でレイヤーを利用して一枚一枚手合わせで位置とカラーバランスを調整していきますが、これが一番大変でした。最後はPhotoShopのタイムラン機能を使いgifアニメ化しています。

時間も手間もかかりますが、出来上がったものを見るとこれはなかなか面白いです。もう少し安定に写し出せるように経験を積んで、フレアクラスの大きなものが刻一刻と変わっていくのをいつか撮影出来たらと思っています。

先週、今週と2回にわたり撮影したホタル。前回記事にした静止画に引き続き、今回動画をまとめました。ホタルのリアルタイム撮影は超高感CMOSかめらを手に入れてからずっとやって見たいと思っていたことでした。

カメラはこれがあって初めてリアルタイムのホタル撮影が実現したと言ってもいいZWO社のASI294MCで、そこに50mmのオールドNIKORレンズをつけています。F1.4なので、ASI294MCの高感度と相まってかなり明るく撮ることができます。ソフトはいつものSharpCapです。それでも実際のホタルが飛ぶのが映るくらいのリアルタイムでの撮影は相当暗かったので、いくつか工夫をしています。

まず動画と言うためには、最低10FPSほどないとスムーズに見えないことがわかりました。できれば20FPSくらいあるとかなり滑らかになります。露光時間でいうと50msということです。今回の動画は主に20FPSで撮ったもので、一部10FPSです。それ以下のものはホタルの軌跡に飛びができてしまっていて使うことを諦めました。15FPS程度が明るさとスピードの妥協点くらいかもしれません。

FPS数を大きくすると、当然一コマあたりの露光時間が短くなるの、でゲインを上げる必要があります。ゲインを上げすぎるとノイズが大きくなり、ダイナミックレンジが小さくなってくるのであまり上げたくありませんが、それでも明るく取ろうとするとほぼ最大ゲインレベルに近いものが必要となります。

それを回避するためにハードウェアビニングを2としました。これで明るさが4倍になります。解像度は落ちますが、それでももともとASI294MCは高解像度なのでビニングしても2072x1410ピクセルで撮影でき、Full HD(1920x1080)を十分確保できます。実はASI294MCのフル解像度4144x2822で撮影すると転送速度の制限で数FPS程度にまで落ちててしまいます。4Kのリアルタイム撮影は、画素数的には足りていてもかなり厳しいのかと思います。

解像度だけを落として転送速度を上げることもできますが、それだと画面の一部だけ切り取ってしまうので、ASI294MCの特徴の4/3インチ大センサーの恩恵が生きてきません。ビニングだと画角は最大のままで解像度だけ落ちるので、大センサーの恩恵が使え、そのまま広角で撮ることができます。


一つ不思議だったのが、RAW16で撮影すると表示画面が相当暗くなってしまうことです。撮影されたファイルを見てもRAW16の方が見た目暗くなるようです。仕方なく今回はRAW8で撮影しましたが、なぜこうなるのか理由がわかっていません。もしかしたらバグの可能性もあります。


撮影した動画の編集はMac上のiMovieで行いました。SharpCapのRAWファイルは.ser形式なので、まずはSER PlayerでAVIに変換します。それでもiMovieはAVIをそのまま読み込むことはできないので、例えばHandBrakeでMP4形式などに変換するか、QuckTime PlayerでMOV形式に変換します。最初HandBreakでやっていたのですが、どうもQuickTimeの方が階調が豊かに出るようです。もちろんビットレートなどの条件によるので一概には言えませんが、編集環境がMacで閉じるならば標準でついて来るQuckTime Playerの方が最初から強制的にMOVに変換して表示してくれるので楽だと思いました。

iMovie上では多少の画像処理ができます。ホワイトバランス、Brightness、コントラスト、レベル補正に相当するもの(ただしRGBまとめて)、彩度、カラーバランスくらいでしょうか。ないよりは遥かにマシですが、やはり少し物足りません。本当は動画上でトーンカーブがいじれればもう少ししまった仕上がりにできたのかもしれませんが、無料のiMovieにそこまで求めるのは酷かもしれません。Premireクラスだとそういったこともできるのでしょうか?他にも、タイトルとかキャプションももう少し豊富だとありがたいと思いました。

タイトルです。シンプルなものを選びました。

vlcsnap-2018-06-14-09h01m27s072

最初の動画は、歩いて行くと一番初めに見えてくる川べりです。いつもはここはそれほど飛んでいないのですが、今年は大量に飛んでいました。さすがに暗いのである程度ノイジーになってしまいます。

vlcsnap-2018-06-14-09h04m31s508


娘のNatsuの手の中で遊んでいるところです。捕まえると小さい子とが寄ってきます。ここは地区を挙げてホタルを保護しているところです。当然ですが、すぐに逃がしてあげます。持って帰るようなことをする人は見たことがないです。地域の方とおしゃべりすることができるのもこの場所の魅力でしょう。ここまでがASI294MCとNIKKOR50mmでの撮影です。

vlcsnap-2018-06-14-09h05m32s269


水路のところの遠景と近景です。この景色が一番好きかもしれません。この2ショットはASI294MCとNIKKOR35mmで10FPSでの動画です。初日でビニングも思いつかなかった、まだ試行錯誤段階の時です。

vlcsnap-2018-06-14-09h06m26s747


次が前回も出した比較明合成のために撮ったもののタイムラプス映像です。EOS 60DとシグマのF3.5, f10-22mmです。

vlcsnap-2018-06-14-09h07m32s302

再びASI294MCとNIKKOR50mmで動画撮影です。かなり暗くて相当厳しいです。

vlcsnap-2018-06-14-09h07m15s043


最後がASI294MCシグマのF3.5, f10-22mmでの天の川撮影です。天の川はそこそこ出ているのですが、調整不足で周辺がかなり流れてしまっています。

vlcsnap-2018-06-14-09h06m48s740


さて、実際の動画ですが、下がYouTubeにアップしたものになります。まともに動画を編集しようとしたのは今回が初めてで、YouTubeへのアップも初めて少し真面目にやって見ました。推奨のH.264で15Mbpsでアップしましたが、それでもやはりオリジナルのものからは、特に階調と細部描写は多少落ちてしまっているようです。ここら辺はもう少し最適化の余地があるかと思います。




この動画を作るにあたって、ホタルの動画を検索しましたが、ホタルが飛んでいる動画を、リアルタイムかつ明るく、なめらかに撮っているものはそれほど多くは無いようです。いくつかSONYのα7Sで撮影しているものが見つかりましたが、暗いものも多いです。センサー自身はASI294MCよりα7Sの方が高性能のはずなのですが、ASI294MCは計算機を必要とする代わりに、ビニングなどの微調整をPC上でできるのが有利に働いているのかもしれません。それでもいくつかはα7Sで綺麗に撮れているものがありました。レンズなどの機材や撮影技術にももちろん依るのかと思います。あと、NIKONのD800で今回の私と全く同じ場所を撮った素晴らしい動画がありました。この方は動画編集にAdoveのPremireを使っているようです。ものすごく綺麗な画質で出ています。

私も相当昔、まだ学生の頃、動画処理がやっとできるかどうかという時代に秋葉原の当時のTSUKUMOでIEEE1394カードと、SCSI3(!)接続の不思議な格安の10GBの大容量(笑)HDDを買って、そこについてきたPremireを使って動画編集をしていたことがあります。今ではもうほとんどどんな機能だったか忘れてしまいましたが、その当時から飛び抜けて高機能だったので、今もすごいのかと想像してしまいます。高感度カメラもどんどん一般になって来るので、将来はもっと楽に取れるようになるのかと思います。



今回の反省点です
  • いくつかのホットピクセルと思われる輝点が出てしまっています。露光時間も感度も決まっているので、ダーク補正をリアルタイムするべきでした。
  • ASI294MCにZWOのCanonレンズアダプターを付けて、さらにNIKORレンズにCanonアダプターを付けて撮影しています。そのため周辺がボケまくってしまいました。レンズからセンサー面の距離をきちんと調整していないためかと思われます。あと、少しガタがあるので間にテープなどを詰めてガタつかないようにしなくてはいけません。
  • 動画はASI294MCが適していますが、比較明合成するための20秒程度の長時間露光はEOS 60Dの方が楽だと思いました。当たり前ですが計算機など必要無く単体で撮ることができます。露光時間をかけることができ、画像処理もじっくりできるなら、わざわざCMOSカメラで撮る必要はないという意味です。動画の場合は高感度センサーのASI294MCの方が圧倒的に有利です。

反省点は多々ありますが、今回初の本格的な動画編集で、念願のホタル動画が撮れたこともあり、結構満足です。

ちなみに今日は自分の誕生日。いつのまにやらもう46です。家族には先週末に祝ってもらい、物は赤道儀をかなり前に先物買いしてしまったので、この動画は自分自身の誕生日記念になりそうです。


 

最近悩んでいるのが、動画スタックによる画像の分解能の限界です。まだあまりよくわかっていないのですが、とりあえず簡単なことから始めようと思います。今回知りたいことは、そもそも「動画スタックでドーズ限界を超えることができるのかどうか」。印象としてはそんなんとっくに超えてるんじゃない?と勝手に思っていたのですが、実は確かめたことはなかったので、少し検証してみました。

IMG_9336



まずドーズ限界を感覚的に知るために、木星がもしドーズ限界で制限されるとしたらどのような画像になるかを試してみました。元画像はハッブルで最近(2018/4/25)撮影されたのものです。

JupiterOpal_HubbleMasztalerz_1880

検証するには十分な解像度があります(実際の画像は上の画像をクリックして拡大して見てください)。NASAの画像は著作権を主張していないとのことで、このようにブログでも使うことができるのでありがたいです。


これを手持ちのC8の画像と比べてみます。下は去年の惑星シーズン(2017/6/8)に撮影したもの。口径200mmでASI224MCを使いました。C8としてはそれほど悪い方でもなく、ちょっと頑張ればここら辺までは出るくらいかと思います。カメラがASI224MCでカラーなので、モノクロでL画像を撮ればもう少し改善の余地はあると思います。
2017-06-08-1241_5-RGB2


まずはドーズ限界による分解能を計算します。ドーズ限界は

115.8 / D [秒]

で表され、Dは口径をmmで表したものです。C8は口径203mmなので

115.8 / 203 = 0.570秒

となります。木星の視直径は変化しますが、撮影当時の視直径は調べてみると39.6秒だとのことです。なので、木星の直径を39.6/0.570=68.4ドットで表せばいいことになります。

Hubbleの画像の木星の直径(画面全体ではないことに注意)がキリのいい68ドットになるように画像の解像度をPhotoShopで落とし(その際、見かけが近くなるように彩度を落とし、上下逆にしました。)、その後、元のドットになるようにバイキュービック法で再び解像度を上げました。その結果がこちらになります。

JupiterOpal_HubbleMasztalerz_1880_200mm2

自分でC8で撮った上のものと比較してみると、ざっくりいって、ドーズ限界と同じかもう少し悪いくらいの分解能だったことがわかります。うーん、では状況がいいとドーズ限界に近づいていくのか、それでも超えることはないのか?もう少し検証してみます。


次にC14を想定して、355mmの口径の場合で、最近の木星の視直径44.1秒を仮定してドーズ限界での画像を再現してみると

JupiterOpal_HubbleMasztalerz_1880_355mm

くらいになります。これだと木星の直径を136ドットで表すことに相当します。ところが、例えばC14で最近撮影された日本の惑星撮影で代表的な「RB星のブログ」さんの2018/4/21の画像(RB星さんのご好意で掲載許可をいただきました)

j180421s1

と比べると、明らかにドーズ限界を超えて綺麗に見えています。この日はシーイングがベストではなかったとのことですが、C14では最高峰に近い木星画像かと思います。

ちなみにドーズ限界を1.5倍くらいよくしたものが

5

になりますが、これくらいだとだいたい同じくらいか、まだ撮影した方が少しいいくらいでしょうか。高々1.5倍の解像度増ですが、見え味は相当よくなるのがわかります。ちなみに今回の場合、2倍だと明らかに良くなりすぎてしまうので、条件が整えばドーズ限界の1.5倍から、2倍くらまで迫ることが出来そうだということがわかります。

うーん、でも個人的にはドーズ限界なんかはもっとはるかに越えていけるのかと勝手に思っていました。意外に近い結果でしたが、まあ考えてみれば光学的には回折限界から来ているので、当たり前かといえば当たり前ですかね。

ただし、波長によっても分解能は違うはずで、PhotoShopでRGBにチェンネル分解し波長に応じてドーズ限界を求めて再びチャンネル統合して試してみたのですが、Rが解像度が悪くなり、Bが解像度が良くなるので、結果的には相殺しほとんど見た目の影響はありませんでした。なので、上の画像には波長の依存性は入っていません。

こうやってみると、やはり口径の効果は大です。他の素晴らしい成果を出している方々の画像を見比べてみても、C8よりC11、C11よりC14の方がより精細なところまで描写できているので、やはりドーズ限界のような光学的な限界がまだまだ効いていると言えるでしょう。ここにシンチレーションなどの効果が邪魔をしているので、現在の手法はそのシンチレーションの効果を除き、いかに光学的な限界まで迫るのかという状況なのかと思われます。

では他に何が関わってくるかというと、例えばシンチレーションの軽減には
  • 露光時間(転送速度とも関係あり)
  • スタック枚数
などが関わり、ノイズには
  • カメラの感度
が関わってくると言えるでしょうか。カメラをモノクロにしてLを撮影してさらに解像度が上がったりもしているので、感度も解像度に効いてくると思うのですが、まだそのメカニズムがよく理解できていません。また、C14くらいの口径では
  • カメラの解像度
は今回の検証から考えるとまだまだ余裕がありますが、さらに大きい口径だと解像度が効いてくるようになるのかと思います。あと大きな効果は
  • 画像処理
でしょう。特にRegistaxなどのWavelet処理は見た目の解像度に大きく影響します。

さて、モノクロカメラを買うかどうか。まだ結論は出てませんが、まずは今のカラーカメラで口径を250mmで撮影してみて、去年の結果を超えることを目標にして、その結果が出てから考えます。



先週のこととなってしまいますが、太陽撮影のため土、日と天気に期待していたのですが、晴れたのは土曜の夜から。かろうじて日曜朝が晴れていましたが、雲が無かったのは短時間。すぐに薄雲がかかって、昼前には厚い雲で完全に太陽は隠れてしまいました。前々回試したいと言っていたティルトマウントは、土曜朝には届いたのですが、時間切れで試すことはできませんでした。


今回やっと画像処理が少し固まってきましたので、メモがわりに書いておきます。

まず撮影ですが、センサー画素がRGGBでGが2つあるのでそちらを使った方が得だという話があります。そのためRをサチらせるようにして、G(とBも)をサチらせないように撮るということを試しました。ただ、そのせいかどうかまだわかりませんが、画像処理を進めて強調していくと数十ドット角の模様がどうしても出てしまいます。もう少し検討の余地ありですが、これは感度の点からもモノクロカメラを買った方が早い気がしています。

カメラは今回もASI178MCを使っています。SharpCapで16bit RAWモードで.serフォーマットで書き出しています。ソフトはいずれFireCaptureに移行するかもしれませんが、惑星のように激しくぶれることはないので、FireCaptureの1番の魅力の撮影時の自動アラインメントの機能が生きてきません。色などの度合いはSharpCapの方が見やすいので、しばらくはこのままSharpCapでいきます。


太陽表面の画像処理ですが、まずは撮影した動画をAutoStakkert3でスタックします。その後、最初は惑星と同じようにRegistaxに行っていたのですが、どうも全体にギトギトしてうまく出したいところだけ出すということができません。なので、スタックしたtiffファイルをそのままPhotoShopに持って行っています。

2018-03-11-0059_2_lapl6_ap1015


PhotoShop上ではサチっていない色の情報のみを使います。今回はG(Green)のみを使いました。実はモノクロ画像を扱うのは今回がほとんど初の経験になり、操作に少し戸惑いました。ある特定の色のみ使う場合は、普通にPhotoshopでカラーのファイルを開いて、「チャンネル」パネルを選んで、その右上の4本線のアイコンを押して、オプションのところから「チャンネルの分割」を選びます。すると3つの色がそれぞれグレーになった画像ができます。この際、レイヤーが複数あると「チャンネルの分割」が選べないので、その前にレイヤーの統合をしてください。

新たにできた3つの画像から今回はグリーンを使います。なので後の2枚は消してしまっていいでしょう。ここからは主に「庭先天体写真家?」さんのブログの「太陽面の画像処理」を参考にさせていただいています。というか、ここくらいしか画像処理の解説をしているページが見当たらないです。ほとんど同じ説明の繰り返しになってしまいますが
  1. まずは「レベル補正」で左のスライダーで暗い部分をなくしてしまい、右スライダーで明るい部分もギリギリまで削って階調を広げます。
  2. 次に背景をコピーして別のレイヤーに貼り付け、それに「フィルター」「その他」から「ハイパス」を選んで出したい模様が出るくらいのピクセルをセットして適用。そのレイヤーを「オーバーレイ」で重ねます。
  3. ハイパスしたレイヤーをレベル補正でチューニング。左スライダーをあげて適度に強調します。ここと、上のハイパス工程はグリーンだけ引き出してからRegistaxを使うというのでもいいかもしれません。海外のページも当たると、ImPPG(フリー、2018/3/26追記: 後日使ってみました)やAstra Image(有料)がRegistaxよりもいいという記述が各所にあります。
  4. これを「イメージ」メニューの「モード」「RGBカラー」で再びカラー画像に変換します。変換直後はグレーなので、ここから擬似太陽色をつけていきます。
  5. レベル補正で、Rは中央スライダーを左に持って行って強調、Bは中央スライダーを右に持って行って暗くします。これで太陽のような色になります。Gは触る必要はないでしょう。
  6. その後、トーンカーブでBを絞ってやると、P.S.T.の飛び気味なところが目立たなくなって少し模様が見やすくなります。逆に活動領域を白く強調したい場合はBをあげてやるといいそうですが、私はまだ太陽を始めたばかりで活動領域に出会ったことがないので試せていません。
2018-03-11-0059_2_lapl6_green_w
カラーにする手前です。


2018-03-11-0059_2_lapl6_green
カラー化後です。


プロミネンス部分ですが、こちらはエタロンの角度を合わせてプロミネンスが見やすいところを別撮りしています。

  1. まず、暗いプロミネンスが見えるくらいに、露光時間やゲインを上げて太陽表面ではサチルくらいで動画で撮影します。星雲と同じで写っていないものを出すのは難しいみたいです。フォーマットなどは同じです。
  2. あとは惑星と同じで、Autostakkertでスタックして、Registaxを使いWavelet変換で細かいところを出します。
  3. 真ん中を暗くするために、Photoshopで「楕円形選択ツール」で丸く選択して、一旦選択してから「選択範囲の変形」で微調整してリムのキワまで持っていきます。
  4. あとは選択した範囲を「露光量」で暗くするだけです。
2018-03-11-0059_2_lapl6_green


あとは、Photoshopで上の2枚を「比較(明)」で重ねます。

このような工程で3月11日の太陽を処理したのが以下のものになります。前回のような80mmに改造したP.S.T.ではなく、普通の40mmのP.S.T.です。


2018-03-11-0059_2_lapl6_green


プロミネンスもフィラメントもほんの小さなものしかなく、のっぺりしたものです。小さな黒点らしきものも見えているでしょうか。でも解像度、コントラスト不足でまだよくわかりません。


少し方法が見えてきたので、同じようなことを3月4日に80mmで撮っておいたものにも同様な加工をしてみました。ただし撮影時にGreenを最適化しなかったので、Redのみを使っています。

2018-03-04-0559_8_surface


明らかにフィラメントなどが見えてきました。同様に40mmで撮って以前処理したもの(まだ試行錯誤中だったもの)を再掲載しておきます。

2018-03-04-0256_9_surface_lapl4_ap4350_w2_2

少しだけ時間は違いますが、ほぼ同じ太陽です(ちょっと角度がずれてしまっています)。口径の40mm
と80mmの違い、画像処理方法の違いもあって今回かなりマシになったのがわかります。

でもやっていてわかったのですが、
  • フィラメント以外のもじゃもじゃは果たして意味があるのか?他の方の写真とも比べましたが、再現性がなさそうなので、ただランダムなものを撮ったらあのような模様が浮き上がってきたのか、それとも何か確かに写っているのかがまだ判断できません。
  • あと、P.S.T.のエタロンはHアルファを通す場所にかなり偏りがあるので、太陽全景を均等に処理するのはやはり難しそうです。
やはりP.S.T.だと、そもそもこれくらいが限界のようです。P.S.T.のエタロンを使ってもう少し口径を広げて試そうとは思っていますが、コントラストが上がるわけではなさそうです。コントラストを上げるのはダブルスタックがいいらしのですが、手持ちのダブルスタック用の口径40mmを別の大口径の鏡筒に適用するのはなかなか例もないようなので、何か別の手を考える必要がありそうです。90mmダブルスタックの結果はものすごいみたいですが、値段もものすごいです。

さて、明日から香川の天体望遠鏡博物館へ家族4人で大旅行です。今晩夜中に走って、明日の午前は香川観光。午後から博物館入りしてます。夜は観望会があるので、電視観望で参加者に楽しんでもらえればと思っています。


続き P.S.T. (その11): ニュートンリングが消えた
 

週末晴れるかなと思っていたら結局雪みたいなので、諦めています。今週あったこととか、その他諸々を日記がわりに書いておきます。

縞ノイズ続報ですが、FlatAide Proを試させてもらいました。フリー版で制限なしで試せるのでありがたいです。結果としては、残念ながらカラー版COMSカメラではほとんど改善が見られませんでした。そもそもカラーでは難しいはずだと、オリジナルアイデアのあぷらなーとさんも言っているのと、あとASI294MCはクールピクセルよりホットピクセルの方が多いためかと思われます。

結局「縞ノイズ」の結論としては、
  1. ホットピクセルやクールピクセルの数が多いと、除去処理で同じことをする箇所が多くなってしまう。
  2. それが撮影した全枚数に同じ位置に同じ処理をしてしまうものだから、どうしてもコヒーレント(同相)の結果を残してしまう。
  3. それがガイドずれで、画面全体にどうしても残ってしまうコヒーレントな部分をずらしながら重ね合わせて縞や縮緬のようになってしまう
ということです。ならば、「なんとかして処理を枚数の途中で変えてやってコヒーレントにならないようにしてやればいいのでは」と思ったのですが、その具体的な手段を思いつくことができず、ここで断念です。とりあえず今回しし座トリプレットは縞ノイズが目立たないPixInsightのMinimumでIntegrateして、次はditherをかけて結局撮り直すのがリベンジといったところでしょうか。敗北感が拭い去れません。

ZWOのCMOSカメラだと今の手持ちのソフトではditherをするが大変そうなので、ditherをサポートしているというAPTを少し試そうと思っています。CMOSカメラの撮影の場合、ソフトは
  • 惑星: FireCapture
  • 電視: SharpCap
  • 短時間撮影: SharpCap+PHD2
  • 長時間撮影: APT+PHD2でdither
ということになりそうです。CMOSカメラではお気軽撮影を目指しているのに、だんだん複雑になってきてしまうので困りものです。


今週あったもう一つ大きなことは、Macbook Proに入れてあるBootCamp領域が壊れてしまったことです。起動不可になり、0xc0000225というコードを出します。調べていくとどうもSSDが原因のようで、Safe modeで立ち上げようとして失敗するみたいです。そういえばこの直前に、VMwareでWindowsを走らせながらPixInsightでMac側で処理していて、Mac側のSSDがいっぱいになってVMWareが停止するとかいうメッセージが出ているのを思い出しました。色々なページを見て直そうとしたのですが、BootCampでこれが起こると直すのは結構難しいみたいです。普通のWindowsだったら直るなずのことをしても全くダメでした。マスターブートレコードの書き直しとかしている最中に一旦Mac側も立ち上がらなくなって、さすがに焦ってきたので修復は諦めてBootCamp領域を消して、再インストールしました。幸いなことに、Mac側はなんとか立ち上がり、Windows側の領域を見ることはできているので、Windows側のバックアップを取り、無事に戻すことができました。それでもアプリなどはすべてインストールし直しです。


そういえばまた変なものが増殖しました。

IMG_3567


不思議です。増えることはあっても減ることはなかなかありません。

これで昼間も楽しめそうです。ジャンク格安品でしたが、エタロン部分は問題ないらしいので、格好の改造材料です。ファブリーペローキャビティーは比較的経験があるので、そこらへんがエタロンにどれくらい応用できるか楽しみです。でもとりあえず昼間に晴れてくれないとどうしようも無いのですが、残念ながら週末は土曜も日曜も雪の予報です。




 

縞ノイズの考察の続きです。と言ってもほとんど成果なしです。

せっかくのASI294MCを撮影にも使えるのかどうかを判断するためには、縞ノイズ問題を解消しなければどうしようもありません。解決する手段さえあれば、気軽な撮影にも使えると目論んでいます。何れにせよ電視観望には十分(その1その2)なのですでに当初の ASI294MCの目的は十分に達していて、さらにあわよくば撮影もという贅沢な目標です。

具体的には、せっかく長時間撮影をしたしし座の三つ子銀河の画像を有効活用するために「縞ノイズ(斜めノイズ、縮緬ノイズ)」をなくすことですが、今回は少し絞って、
ということを探ることにしたいと思います。

試したことは、
  1. ホットピクセルのみの除去とクールピクセルのみの除去の比較。
  2. ダークフレームの効果。
  3. フラットフレームの効果。
  4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。
  5. Maximum、Minimum、Medianの違いの確認。
などです。他にも色々試していますが、かろうじて意味があることがあることだけ挙げておきます。


1. ホットピクセルのみの除去とクールピクセルのみの除去の比較

1枚のRAW画像を、オートでホットピクセルのみ、もしくはクールピクセルのみ除去して、どちらが効いているかを試しました。結果は前回のあぷらなーとさんのコメントでの推測どおり、ホットピクセルの方が圧倒的に多くて、かなりの部分が除去されているのが確認できたので、一応除去ルーチンはそこそこうまく働いていることがわかりました。一方クールで除去が確認できたのはごく僅かでした。

問題はホットピクセル除去でもクールピクセル除去でも、いずれも除去できないものがまだ結構あることです。これが前回みたMaximumで残った起点に相当するものかと思われます。まずはこの除去を目指します。


2. ダークフレームの効果

1のPixInsightでオートでホット/クールピクセル除去に加えて、ダークフレームのみを使ってホット/クールピクセルがどれくらい変わるか見てみました。結果はほとんど効果なしです。理由はリアルタイム処理をしてみるとわかりました。オートで取れる数の方が多いからで、ダークフレームを使っても除去できる数はそれほど増えないからです。これはパラメータをいじって調整すればうまく残りのダメージピクセルも除去できるのではということを示唆しています。


3. フラットフレームの効果

2の処理に加えて、フラットフレームとフラットバイアスの処理を加えました。意外なことに残ってしまう起点の除去には、このフラットフレームの補正の効果が大でした。フラットバイアスの効果はほとんど関係ないです。残っていた色から判断して恐らくホットピクセルと思われているものですが、ほとんど除去できました。この状態で、もともとバッチ処理でやっていた処理とほぼ近いものになるはずです。ここでやっと最初の疑問の、フラットも含めた前回のバッチ処理で最後だけMaximumでintegrateした時に、輝点が出てこない理由がわかりました。


4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。

それでもまだ少し輝点が残っています。もう少しだけなんとかできないかと思い、2でやったダーク補正のパラメータをいじることにしました。

IMG_3565

下の白丸を押してリアルタイム表示で、オートで幾つ補正されるかを見ながら、それ以上に(今回やったのは3倍の数くらいで、ホットで0.1、クールで0.04くらいにしました)パラメータ調整で補正できる数を増やすことで、残っていた輝点もほぼ除去されることがわかりました。


5. Maximum、Minimum、Medianの違いの確認

上記の3、4ですでに一枚の画像で輝点をほぼほぼ除くことはできるようになったので、これで残った輝点が原因なのかどうかがやっと切り分けられそうです。この状態で撮影した枚数全てで重ね合わせてみました。その際、Integrationのパラメータをデフォルトの「Average」から「Maximum」「Minimum」「Median」にそれぞれ変えてみました。

Average: 最初にバッチ処理でやったものと基本的には同等です。

01_Average

ただ、バッチ処理の時と違い、撮影失敗に近い星像が崩れたものや、人工衛星が通った画像を省かずに全て処理したので、その影響で星像がとりあえず丸いのですがちょっと大きいのと、人工衛星の線が出てしまっています。縞ノイズはやはり盛大に現れます。この状態で画像処理を進めても背景の縞が残ってしまい、不自然に背景を暗くするしかなくなってしまうので、許容範囲を超えています。

でもこのことは意外でした。輝点が十分無くなれば、この状態でも縞ノイズは消えると思っていたのですが、見ている限り元の輝点がある状態とほとんど変わりません。これの示唆するとことは輝点そのものよりも、「輝点を処理する時に出た影響」が各画像にコヒーレントに残ってしまうということでしょうか。

ここで少し考えて、前回フラット補正なしの時に試したのですが、ホットもクールも全く処理をせずに輝点を全て残してIntegrateしたものを見てみました。

nocosmetic_calibration_integration

よくみると明るさの違うRGBの点がいっぱいあります。完全な輝点でなくても、コヒーレントに残る色々な明るさのノイズがあるということです。これらを処理した時の残りがコヒーレントに現れて縞ノイズとして残るということでしょうか。というと、これはホットピクセル除去に関係なく、明るさが違うというころからも、むしろDebayer処理のところに問題があるのではと考えられます。ここら辺もすでにあぷらなーとさんが指摘してくれています。さすがにこれは処理しきれなさそうなので、ここで今回の検証は成果なしという結論に至りました。


Maximum: これまでの検証と同じく、Averageよりも明らかに縞ノイズは少ないです。

02_Maximum_DBE

最大の明るさが出るので、星像がAverageの時よりもブレるのと、人工衛星の線が一本濃く走ってしまっています。残った輝点もはっきり出てしまっています。一つ疑問なのは、右側のアンプノイズがなぜかAverageよりも小さいことです。これはなぜだかよくわかりません。少しだけ残っている輝点は出ているのでMaximum自体の処理はされていると思うのですが。


Minimum: 今回これが一番良かったです。

03_Minimum_DBE

縞ノイズはMaximumと同程度に除去されていて、画像処理をしてもそこそこ耐えうるレベルです。変な星像の乱れもありませんし、星も変に大きくなったりしていません。。ただ一点気になったことが、不必要に暗い(おそらくクールピクセルの残り)があると、そこだけガイドのズレのぶんだけ別の縞ノイズのように目立ってしまいます。でもまあ許容範囲でしょうか。


Median: 最初Mediumと勘違いしていて、Averageと似ているけど何か違いが出るかと期待したのですが、実はMedianでした。

04_Median_DBE

Medianはより飛び抜けたところを省いて重ね合わせるものということなので、人工衛星の軌跡などは取り除かれました。その代わりにノイズを少し犠牲にするそうですが、見た目ではよくわかりませんでした。いずれにせよ、縞ノイズに関してはAverageとほとんど同じで、効果はありません。



うーん、厳しいです。このままMinimumでいっても、今回に限っては画像処理に影響ないくらいにはなっているのでもうこれでも十分な気もします。それでも次はFlatAide Proでカラーカメラでうまく縞ノイズが除去できるかもう少しだけ試してみたいと思います。(2018/2/17追記: 試しましたが、やはりほとんど効果はありませんでした。モノクロでいつか試すことにしたいと思います。)


それにしてもPixInsightの操作方法にもだいぶん慣れて来ました。今回はフラットの補正がステライメージに比べて操作できる箇所が何もないのが少し気になりました。そのためか、まだ右側上部の大きなアンプノイズがフラット補正で取りきれなくて残ってしまっています。それでも他に色々いじれるパラメータがあるのはさすがです。昨日からまた雪が降り続いています。しばらくは天気は期待できなさそうなのでまた画像処理と機器の整備くらいになりそうです。


このページのトップヘ