ほしぞloveログ

天体観測始めました。

FS-60CBで色々試してきましたが、だいたい落ち着いたので、またエクステンダーをつけて焦点距離600mmのFS-60Qに戻しました。火曜日に引き続き、水曜日も晴れていたので、2夜連続の撮影になります。ターゲットはクラゲ星雲です。


機材セットアップ

  • 鏡筒: タカハシ FS-60Q (口径60mm, 焦点距離600mm)
  • 赤道儀: Celestron CGEM II
  • センサー: Canon EOS 6D(HKIR改造)、ISO3200、露光時間5分x28枚、計2時間20分
  • ガイド: ASI178MC + 50mm Cマウントレンズ、PHD2 + BackyardEOSでガイド+ディザー撮影
  • フィルターサイトロン Quad BP フィルター(クアッド バンドパス フィルター、 以下QBP)
  • 撮影場所: 富山県富山市下大久保
  • 日時: 2019年2月6日、20時50分から
  • 月齢: 1.6
撮影と画像処理

久しぶりのFS-60Qなので、画面が相当暗く感じました。当然ISOも3200と高くしていますが、それでも5分という露光時間をもう少し延ばしてもよかったかもしれません。そのせいでしょうか、仕上がりに透明感がないというか、ちょっとのっぺりしてしまっています。ヒストグラムのピーク位置が4から5分の1くらいだったので、おそらく階調不足だったのかと思います。

画像処理もいつもの通り、PixInsightでSaturationまでやって、その後はPhotoshopです。出来上がった画像です。

light_DBE1_PCC_stretched_sat_ps_denose_ps2a


次はFS-60Qの状態でAZ-GTiに戻り、赤道儀モードで2軸ガイドのリベンジです。成功率80%以上を目指したいです。



 

先日作った画像四隅切り抜きソフトを使って、FS-60CBでの星像を比較してみました。比較対象は焦点距離の長い順から
  1. FS-60CB + エクステンダー => FS60Q: F10、焦点距離600mm
  2. FS-60CB + 旧フラットナー(フラットナー FS-60C): F6.2、焦点距離370mm
  3. FS-60CB + 新フラットナー(FC/FSマルチフラットナー1.04): F6.2、焦点距離370mm
  4. FS-60CB + レデューサー(RD-C0.72×): F4.2、 焦点距離255mm
です。条件などです。

  • カメラは2番目の旧レデューサーのみEOS 60DでAPS-Cですが、他3つは6Dでフルサイズになります。
  • また、旧レデューサー以外はQuad Band Passフィルターが入っています。ほとんど影響はないと思いますが、稀に星像が歪むという報告もあるようなので、一応気に留めておいてください。
  • 撮影場所は全て富山市の自宅ですが、どれも撮影日が違うので、条件は同じでないことをご了承ください。
  • 画像は全て撮って出しのJPEGですが、ホワイトバランスはその時々でいじっているので色はあてにならないです。
  • 何も校正していないので、周辺減光を読み取るのは厳しいです。

それでも下に示す画像を見てもらえればわかりますが、同じ鏡筒でも取り付けるオプションによって星像の違いがはっきりと出るのがわかります。


エクステンダー: 600mm 

まずは、1番のエクステンダーです。四隅と真ん中をそれぞれ250ドット角で切り取った画像と、その元の画像(モンキー星雲)になります。

LIGHT_6D_300s_3200_+3cc_20190109-22h33m50s976ms_4cut

LIGHT_6D_300s_3200_+3cc_20190109-22h33m50s976ms


四隅でもほぼ真円になっています。これなら全く文句ないです。


旧フラットナー: 370mm

次に旧フラットナーです。カメラが60DなのでAPS-Cサイズでの撮影であることに注意してください。北アメリカ星雲です。

NORTH_AMERICA_LIGHT_60s_3200iso_+30c_20170913-21h38m38s_4cut

NORTH_AMERICA_LIGHT_60s_3200iso_+30c_20170913-21h38m38s996ms

やはり四隅がかなり流れているのがわかります。結局旧フラットナーではちゃんとした撮影はこの一枚だけでした。それでも天リフの今日の一枚に選ばれた感慨深い一枚です。

星像比較とは関係ないのですが、この画像の撮影日は2017年9月13日で一年以上前です。フィルターも何もなしで、ISO3200で露光時間1分ですが、他の3つと比べてこれだけかなり背景が明るくなっています。他の3つはQBPで露光時間を伸ばせているので、QBPの効果がかなり大きいことがわかります。


新フラットナー: 370mm

新型のフラットナーです。昨日の記事で出したものと同じ画像でカモメ星雲です。

SEEGULL_LIGHT_6D_300s_800_+9cc_20190205-21h20m00s179ms_4cut

SEEGULL_LIGHT_6D_300s_800_+9cc_20190205-21h20m00s179ms


星像ですがほぼ真円。それでも拡大してエクステンダーとよく見比べてみると、四隅で極々僅かに円周方向に伸びているのがわかります。でもこれくらいなら私的には十分許容範囲です。


レデューサー: 255mm

最後はレデューサーです。オリオン座のM42と馬頭星雲一帯です。

ORION_LIGHT_6D_300s_800_+5cc_20190114-22h39m34s849ms

ORION_LIGHT_6D_300s_800_+5cc_20190114-22h39m34s849ms_4cut

まず、広角なのでさすがに周辺減光が目立ってくることがわかります。フラット補正は必須でしょう。星像も真ん中はまだそれほどでもないですが、四隅では円周方向にもそれと垂直にも伸びていて、十字のように見えます。それでも旧フラットナーよりはましですが、新フラットナーには完全に負けています。

拡大しなければ気にならない範囲とも言えますが、これは画像処理での補正方法を検討した方がいいのかと思います。ちょっと色々試してみようと思います。


まとめ

今回はFS-60CBについて、4種類のアダプターを試してみました。結果としては

エクステンダー > 新フラットナー >  レデューサー >> 旧フラットナー

といったとことでしょうか。ほぼ評判通りで、メーカーの言っていることも正しいと思います。やっぱり自分で確かめると納得しますね。細かい違いもよくわかりました。

できれば、これをレンズ設計ソフトで再現してみたいです。だれかFS-60CBのレンズデータとかどこかにあるか知りませんでしょうか?タカハシに聞いてもさすがに教えてくれないだろうなあ。


今週の火曜日、水曜日と新月期で、冬なのに珍しく晴れていました。外に出てもそれほど寒くないので、平日ですがQBPを使って宅撮りです。前回の撮影ではレデューサーを試したので、今回は新タイプのフラットナーのテストです。ターゲットは、これまで何度か撮ろうとしては雲が出てできて失敗しているかもめ星雲です。

機材セットアップ

今回の目的は、先日購入した新フラットナーでの撮影です。以前の旧フラットナーから星像がかなり改善されているそうなので楽しみです。
  • 鏡筒: タカハシ FS-60CB (口径60mm, 焦点距離355mm) + FC/FSマルチフラットナー1.04で焦点距離370mm
  • 赤道儀: Celestron CGEM II
  • センサー: Canon EOS 6D(HKIR改造)、ISO800、露光時間5分x41枚 、計3時間25分
  • ガイド: ASI178MC + 50mm Cマウントレンズ、PHD2 + BackyardEOSでガイド+ディザー撮影
  • フィルターサイトロン Quad BP フィルター(クアッド バンドパス フィルター、 以下QBP)
  • 撮影場所: 富山県富山市
  • 日時: 2019年2月5日、19時22分から
  • 月齢: 0.6(新月)


撮影

撮影は準備から含めて極めて順調。唯一大変だったのが、前回の撮影で使ったレデューサーからフラットナーへの切り替えだけです。最初は短い方の中間延長アダプターを入れて、回転アダプターを鏡筒バンドから外に出して試したのですが、やはりピントがでませんでした。なので、再び中間延長アダプターを外して、カメラは回転しにくいですが、地面に鏡筒を置いた状態であらかじめカメラの水平を出して、カメラ回転アダプターを固定してから赤道儀に取り付けました。

カメラ回転が面倒な代わりに、新型フラットナーには48mm径のQBPをきちんとねじ込んで取り付けることができました。さすが新デザインで、より汎用性が高まっているようです。

いつものようにSharpCapで極軸をとり、CGEMIIのワンスターアラインメントで初期アラインメントです。実は最近ツースターアラインメントさえ使っていません。極軸がきちんと取れていれば、ワンスターアラインメントで十分です。ただし、流石にワンスターアラインメントだけの自動導入だとズレも出てくるので、Carte du CielとAstroTortillaでplate solvingしながらの構図決め。これは極めて便利で、準備始めから30分くらいで撮影を始めることができました。

何枚か撮れていることを確認して、仮眠をとりました。仮眠のつもりがぐっすり寝てしまい、夜中12時頃目を覚したら外は結構すごい風。しかも天頂越えで最後の何枚かは流れてしまっていたので、すぐに片付け。あとはダーク50枚ほどの撮影を放置しながら、また朝まで寝ていました。


画像処理

次の日フラットとバイアスを50枚づつ撮影して、そのまま全てPixInsightで処理です。枚数も4-50枚と少ないのですぐに終わります。 ストレッチは前回同様、赤とびを抑えるためにArcsinhStretchは使わずにScreenTransferFunctionとHistgram Transformationで済ませました。

今回は彩度までPixInsightで出してみました。今回はColorSaturationツールを使いましたが、Curves TransformationツールでSアイコンを選んで彩度を上げる手もあるようです。でもまだまだ手探りで機能を理解しきっているとは言い難いです。もう少し時間をかけて探ります。あとは、いつも通りPhotoshopに送って仕上げです。


出来上がり画像

出来上がった画像は以下のようになります。

light_PCC_stretched_morfing_satiration_DBE_morph_ps2a

新月期で時期的にはよかったとはいえ、それでも光害地での宅撮りでこのクオリティーなら個人的には十分満足です。3時間以上の露光とはいえ、それでもやはりQBPの威力は大きいでしょう。ただ、少しづつQBPに対する不満も出てきました。列挙しておくと
  • 恒星のオレンジが出ない。
  • 赤が、紅に近い赤で、紫がかった赤や、ピンクっぽい赤は出にくい。(ただし、燃える木のピンクはうまく出るようです。)
  • 恒星が赤飛びしやすい。
  • 青い星雲は出にくい。
といったところでしょうか。やはり透過波長域からもわかるように緑系や濃い青、また黄色やオレンジ領域もどうも苦手なようです。これはある意味当たり前で、そのために露光時間を延ばすことができるというわけなので、贅沢な悩みと言えるかもしれません。画像処理で多少誤魔化さなければならないところも出てくるので、ここら辺は腕の見せ所となのでしょう。


Plate solving


話は変わりますが、実際の導入と構図極めの際にはplate solvingとしてAstro Tortillaを使っています。でもあまり高機能でなく、解析結果もいたってシンプルであまりわかりやすくはないのですが、撮影時にBackYardEOSを使っているのである意味仕方なく使っている面もあります。一方、同じplate solvingのソフトなのですが、もう少し高機能なAll Sky Plate Solverを使うと、画像に星雲の名前などを入れてくれたりします。

seegull


右の方で名前がはみ出してしまったりしているのは愛嬌として、今回はいろんな星雲星団がある領域だったので、少し広角を狙いました。フラットナーがちょうどいい画角だったというわけです。plate solvingを使ってこんな解析も楽しいのではないかと思います。

本当はAll Sky Plate Solverが、そのままダイレクトにBackYardEOSに対応してくれたらと思うのですが、とても惜しいです。あ、一応BackYardEOSで撮影して、そのファイルを読み込ませるだけならできます。でもその足で赤道儀にフィードバックして位置を合わせ直すので、何度もそれをやるのは面倒だというだけです。Astro TorttilaとBackYardEOSなら、全自動で赤道儀の位置の合わせ直しまで繰り返しでやってくれるのでものすごく楽なのです。


新フラットナーの実力

この画像処理と並行して、昨日の記事で四隅を切り出すプログラムを作ったのですが、その結果を示しておきます。昨日の記事では画像処理後のものを出したのですが、よく考えたら撮って出しJPEGから切り取ったものの方が周辺減光の様子などもわかるのでいいのかと思います。

これが撮って出しのJPG画像で

SEEGULL_LIGHT_6D_300s_800_+9cc_20190205-21h20m00s179ms

ここから上下左右と真ん中250x250ドットを切り抜いています。

SEEGULL_LIGHT_6D_300s_800_+9cc_20190205-21h20m00s179ms_4cut


旧フラットナーの四隅の星像がどうしても気になって、使う機会があまりなかったのですが、今回の新型のフラットナーははるかに良くなっています。スターベースで店員さんから聞いた時には、それでも色によって極わずか収差で歪むとのことでしたが、これを見る限り私的には全く気にならないレベルです。

 

 

画像処理で出来上がったファイルの四隅の星像を比べたくなることがあると思います。これまでPhotoshopで手作業で切り取り貼り付けを駆使して作っていたのですが、何度もやるとなるとめんどくさいので、簡単にできるようにpythonとOpenCVを使って作ってみました。

超お手軽プロブラミングなので、内容はソースを見たらすぐにわかると思います。唯一工夫したところはファイル名をGUIで選択するところくらいでしょうか。Macで試しましたが、多分Windows他でも動くと思います。(すみません、チェックもしてません。)


必要な環境

環境を構築するのもいたって簡単です。今回はMacで試したので、Macでやる場合を書きます。WindowsなどでもPythonとOpenCVが動く環境なら走るはずなので、難しくもなんともないと思います。

1. Macの場合、Phython3はHomebrewからインストールするといいでしょう。Homebreはターミナルを立ち上げて、

/usr/bin/ruby -e "$(curl -fsSL https://raw.githubusercontent.com/Homebrew/install/master/install)"

でインストールできます。


2. 次にPython3です。これもコマンド一発で、

brew install python3


3. 最後はOpenCVのインストールです。

pip3 install opencv-python

でインストール完了です。xcodeをインストールしていない場合は、最初にそれも必要かも。うまくいかない場合は、私なんかの説明よりも、適当に検索すればOpenCVが使えるようになるまでの説明はすぐに出てくるので、探してみてください。


ソースコード

さて、python3とOpenCVの環境が整ったら次はプログラミングです。今回はホントにチャカチャカっと書いたコードなので、全然綺麗ではありませんのでご容赦ください。ファイル選択の際文句が出たりもしますが、とりあえず動きます。

エディタなどで以下のコードをテキストファイルにコピぺして、適当なファイル名をつけて、拡張子を.pyにすれば準備完了です。

import cv2
import numpy as np
import tkinter
from tkinter import messagebox as tkMessageBox #python3
from tkinter import filedialog as tkFileDialog #python3


def pathname(fullpath):
    n = fullpath.rfind('/') + 1
    return fullpath[:n]

def select():
    root=tkinter.Tk()
    root.withdraw()
    fTyp = [('JPEG file','*.jpg')]
    iDir = '/Users/ユーザー名/' #自分のユーザー名を入れてください
    filename = tkFileDialog.askopenfilename(filetypes=fTyp,initialdir=iDir,title = "ファイル選択")
    iDir = pathname(filename)
    return filename


filenameselect = select()
img = cv2.imread(filenameselect)


mlen = 250
size = img.shape
roi_UL = img[0:mlen, 0:mlen]
roi_UR = img[0:mlen, size[1]-mlen:size[1]]
roi_LL = img[size[0]-mlen:size[0], 0:mlen]
roi_LR = img[size[0]-mlen:size[0], size[1]-mlen:size[1]]
roi_CC = img[round((size[0]-mlen)/2):round((size[0]+mlen)/2), round((size[1]-mlen)/2):round((size[1]+mlen)/2)]

width = mlen*3
height = mlen*3
imageArray = np.zeros((height, width, 3), np.uint8)
count = np.array([[0,0],[0, mlen*3],[mlen*3, mlen*3],[mlen*3, 0]])
cv2.fillPoly(imageArray, pts=[count], color=(255,255,255))

imageArray[0:mlen, 0:mlen] = roi_UL
imageArray[0:mlen, mlen*2:mlen*3] = roi_UR
imageArray[mlen*2:mlen*3, 0:mlen] = roi_LL
imageArray[mlen*2:mlen*3, mlen*2:mlen*3] = roi_LR
imageArray[mlen:mlen*2, mlen:mlen*2] = roi_CC

savefile = filenameselect.replace('.jpg', '_4cut.jpg')
cv2.imwrite(savefile,imageArray)



実行結果

ターミナル上で上のプログラムがあるフォルダに行き、

python3.py ファイル名.py

とかで実行すると、画像ファイルを選択するダイアログが現れます。ダイアログが前面に出てこないことがあるので、下のDocからPythonというアイコンを選んでみてください。JPEGファイルしか選べませんが、プログラムの中の15行目を*.pngとかすれば多少他のファイル形式も選べます。

切り取りたいファイルを選択すると、同じフォルダの中に

オリジナルファイル名_4cut.jpg

というファイルが出来上がります。

出来上がりは下のようになります。元の画像から四隅250x250ドット分と真ん中を250x250ドット分を切り取って750x750ドットのファイルを作ってくれます。ホントにこれだけです。

test_4cut


ちなみにこれは、タカハシの新フラットナーで撮ったFS-60CBの星像です。カモメ星雲ですが現在画像処理中のものです。ほとんど流れていないことがわかると思います。元々の動機が、新旧フラットナー、レデューサー、エクステンダーでの四隅の星像を比較したくて、いちいちやるのがめんどくさいのでプログラミングに走ったというわけです。

今回のプログラムは色々制限もありますが、簡単なプログラムなので中身もすぐにわかると思います。各自で適当に改良してみてください。

例えば、26行目の250を他の値に変えると切り出してくれる画像の大きさが変わります。
ちょっと頑張れば上下左右も合わせて8方向の切り取りとかもできると思います。

画像処理プログラミングの取っ掛かりとしては、いい練習になるかと思います。




参考ページ

以下のページを参考にしました。
どのページもわかりやすくて、とても役に立ちました。どうもありがとうございました。 

バイアスノイズで少しやり残したことがあるので、試しておきます。


疑問: バイアスフレームをマスターバイアスで補正してみたら?

前回、バイアスフレームを何枚かスタックしてリードノイズを求めてみましたが、枚数のルートで減っていくはずのリードノイズが実際には理論通りに減っていきませんでした。すべてのバイアスフレームに載っている共通のノイズがあると考えられたからです。

それでは、多数のバイアスフレームをスタックして最後に残った共通のバイアスノイズ(PixInsight用語では「マスターバイアス」というそうです)で、各バイアスフレームを補正してから、改めて何枚もスタックしたらどうなるのでしょうか?面白そうなので試してみましょう。


予測

単純に考えるとこんな予想ができます。
  • 前回の測定で、最後まで残った全バアスフレームに共通にあるノイズがさっぴかれるので、理想的に枚数のルートに比例してノイズが少なくなっていく。
  • 最終的にはあるオフセット(一定の輝度という意味)を持った、のっぺりした画像になる。
この予想は、実際に試す前に頭だけで考えたものです。さて本当にそうなるのか、もし違ったとしても実際にどこまで迫れることやら。


測定

さて、実際に試してみましょう。

マスターバイアスは再現性もチェックするために、前回撮影したのとは別に新たに撮影し直しました。枚数ですが、できる限りノイズの少ないものということで、1024枚重ね(て平均し)たものにします。このマスターバイアスで各バイアスフレームを先に補正してから1024枚スタックします。それでもノイズは単に理想的なものを1024枚重ねたものより、(マスターバイアスが足し合わさった分)ルート2倍大きくなるはずです。その分だけ理想的な枚数のルートでノイズが改善されるというのからはずれてくると思います。(と、ここら辺のズレくらいまで実際の測定前に頭の中で考えました。)

また、バイアスフレームも新たに撮影しました。マスターバイアスを作った際の1024枚でもいいのかと思ったのですが、それだと同じものから同じものを引いただけになってしまい、本来残って欲しいノイズもゼロになってしまうかと思ったからです。


結果


今回も1、4、16、64、256、1024枚の比較です。青色の理想的な場合と、緑色のマスターバイアスで補正されたもの赤色のマスターバイアスで補正されていない(前回と同じ)ものを載せています。あと、わかりやすいように縦軸をlogスケールにしました。理想的だとグラフは直線になります。

03_readnoise_vs_gain_02_masterbias


考察

さて、結果を改めて見てみます。マスターバイアスで補正したものは明らかに理想的なラインに近づいています。1024枚の時は同じ程度の(相関のない)ランダムなノイズを2回足し合わせていることになるので、理想的な場合に比べてルート2倍程度大きくなるはずです。無相関なノイズは足しても引いても2乗和のルートになるので、ルート2倍ということです。1.4倍くらいのはずが、実際には1.8倍くらいなので、それでも理論値より少しだけ大きい値になっているようです。256枚のところにも少なからずその影響が出ています。計算上は1.25のルートなので、1.18倍ですが、実際には1.24倍です。さらにマスターバイアスの枚数を増やせば1024枚のところでももっと理想的なラインに近づいてくるでしょう。


少し補足です。まずは1枚重ねで単純にマスターバイアスを引くことを試したのですが、平均値が同じものを差っ引くことになってしまうので、ADU(輝度)が0付近に行ってしまい、その影響で標準偏差も0に近い小さな値になってしまうことがわかりました。そのため次のようにして解決しています。
  1. まずマスターバイアスの平均値の半分の輝度を持ち、標準偏差0の全くのっぺりした画像を、PixInsightのNewImageで作成します。
  2. それをマスターバイアスから引くことで、マスターバイアスの平均値を半分にしました。
  3. そうやって作ったマスターバイアスを、それぞれのバイアスフレームから引きます。
  4. その結果、平均値が輝度0より十分に大きな、マスターバイアスで補正されたバイアスフレームを作り出しました。
IMG_6322


この過程を経て初めて正しそうな結果を得ることができました。


もう一つ、実際に処理した画像を比べてみましょう。左上の奥のがマスターバイアス補正をしていないもの、右下の手前の画像がマスター補正をしたもの。ともに1024枚スタックした時の画像で、輝度は揃えてありますす。

IMG_6328

PCの画面を直接撮影したので、モアレが少し残ってしまっています。見にくいところもあると思うのですが、それでもマスターバイアスで補正をすると残っていた縦線が明らかに消えているのがよくわかると思います。



まとめ

今回わかったことまとめておきます。
  • 全バイアスフレームに載っている共通のコモンノイズが存在する。
  • そのノイズは、多数枚のバイアスフレームをスタックして作ったマスターバイアスを使って、補正することができる。ただし、オフセットごと補正してしまうことに注意。
  • バイアスコモンノイズをさっ引いたバイアスフレームはかなり理想的なランダムノイズに近い。
と言ったところでしょうか。

うーん、今回はかなり予想通りにいったので、結構満足です。予測できなかったところは、マスターバイアスで単純に補正すると平均値が0になってしまい、ばらつきも少なくでしまうことでした。これは通常の画像処理でいう、オフセットをあげて暗い部分を切ることに相当します。

というわけで、画像処理は嘘をつかないということがかなりわかってきました、、、と言いたいところなのですが、すでに少しダークノイズを試していて、こちらはなかなか一筋縄ではいかないみたいです。また余裕ができたらまとめます。


それはそうと、今回新たにバイアスファイルを2000枚ほども撮影してしまいました。すでに合計3000枚、あぷらなーとさんにだんだん迫ってきてしまいました。やばい、これはやばい。まっとうな道を行きたかったのに(笑)。




 

今回はASI294MC Proのバイアスフレームについて色々検証してみました。結構面白い結果が出たのでまとめておきます。


はじめに

昨日の昼間、めずらしくものすごい快晴。これはと思い、早速夜からカモメ星雲を撮影しようと準備をして、やっと撮影を始めたらわずか数枚で雲がもくもく。こんな日はむしゃくしゃするので、諦めてASI294MC Proの評価の続きです。

さて、大きな目的としては、前回の課題の一つダークノイズがどれくらい撮影に影響があるかですが、今回はその前々段階くらいにあたる、リードノイズのいろいろなテストです。実はあぷらなーとさんの解析に触発され、自分でももう少し泥臭い検証をしてみたくなりました。


バイアスフレーム一枚からのリードノイズの算出

あぷらなーとさんが自作ツールでバイアスフレームを解析し、見事メーカーが公表しているリードノイズと値が一致しました。私も前回の記事でSharpCapのSensor Analysis機能を使うことで、メーカー値と同じ値を確認したのですが、もう少し自由に測定できないか試したくなりました。それでも独自ツールを作るのは大変なので、今回はPixInsightの「ImageInspection」の「Statistics」を使いってリードノイズを求めたいと思います。

まず、SharpCapを使い、ASI294MC Proのバイアスフレームを撮影します。条件は
  • モード: RAW16 (16bit)
  • 露光時間: 0.0032ms
  • Gain: 121
  • Brightness(オフセット): 20
  • ホワイトバランス: Red 50, Blue 50
とします。それをPixInsightで読み込み、Statisticsツールを起動し、開いた画像を選択します。

IMG_6308


Statisticsツールでは「14bit [0,16383]」を選び「Normalized」にチェックを入れます。その時のavgDevの値を読みます。この場合、2.1でした。単位はADUなので、eに変換するためにコンバージョンファクターを使います。前回の測定から

IMG_6283

ゲイン121のところ見ると、0.88とあります。先ほどの2.1 [ADU]にこの0.88 [e/ADU]をかけると1.85 [e]となります。SharpCapで測定した値が1.86 [e]なのでほぼ正しい値が出ているようです。

ちなみにコンバージョンファクターがわからない時は、あぷらなーとさんのブログの記事でも紹介されていたように、ユニティーゲイン (UG、eとADUが同じになるゲインのこと、すなわちコンバージョンファクターが1ということ)から求めても同じことです。メーカーによるとUGが117とのことです。ゲイン121の時とは(117-121)/10=-0.4dB違うので、10^(-0.4/20) = 0.95となります。コンバージョンファクターも0.95倍すればいいので0.95 [e/ADU]となります。SharpCapの実測の0.88 [e/ADU]とは少し違いますが、UGをメーカー値としたためこれくらいのズレはあり得るでしょう。UGが正しいとしてリードノイズを求めると、2.1 [ADU] x 0.95 [e/ADU] = 2.00 [e]となりますが、それでもそれほどのズレではないです。


ちょっと脱線します。SharpCapで測定したデータですが、実際に測定しているところは

Gain Value e/ADU Read Noise (e) Full Well (e) Relative Gain Rel. Gain (db) Dynamic Range (Stops)
0 3.99686 7.80246 65484.6 1 0 13.0349
59 2.04740 6.86512 33544.6 1.95217 5.81034 12.2545
61 1.99842 6.83844 32742.1 2.00001 6.02064 12.2252
100 1.28103 6.34598 20988.4 3.12004 9.88322 11.6915
119 1.03257 6.11416 16917.6 3.87080 11.7560 11.4341
121 0.88019 1.85936 14421.0 4.54092 13.1429 12.9211
200 0.35776 1.59308 5861.64 11.1717 20.9624 11.8453
300 0.11418 1.41354 1870.75 35.0044 30.8825 10.3701
400 0.03624 1.35693 593.803 110.280 40.8499 8.77350
500 0.01171 1.32912 191.794 341.432 50.6661 7.17294

だけで、あとは全て計算値です。このことは、例えばFull Wellの値とRelative Gainをかけてみると、全てのゲインで65484.6(上の表は小さな桁を丸めてあるので少しずれます。)と同じ値になり、さらにこれにゲイン0の時のe/ADUの値3.996863906をかけるとぴったりと14bitで整数値の16384になることなどでわかります。Full Wellは本来サチルくらいの光量をカメラに入れて測定から求めるべきなのですが、SharpCapは14bitの最大値をサチった値と仮定して簡易的に求めていることもわかります。ZWOのメーカー値もどうやら同じように測定されているみたいなので、これはこれでありなのかもしれません。


さて、本題に戻ります。一例としてゲイン120の場合で計算してみましたが、他のゲインはどうでしょうか?他のゲインの値も、実際に撮影した画像からPixInsightを使ってリードノイズの値を求めてみたので、グラフにしてみます。赤がSharpCapのSensor Analysis機能で測定した線青がPixInsightを使って一枚一枚マニュアルで求めた線です。

03_readnoise_vs_gain1


グラフを見ても、SharpCapとマニュアル測定の差はほとんど誤差の範囲だとわかります。

というわけで、PixInsightを使うことで、リードノイズの値を画像からいつでも求めることができるという手法を手に入れたということになります。



バイアス画像を多数枚スタックするとどうなるか?

とりあえず、簡単にリードノイズを測定することができるようになったので、色々やってみたいと思います。

まずは、これらバイアスフレームを多数枚スタックするとどうなるのでしょうか?

スタックするとばらつきが平均化されるので、もしバイアスフレームに存在するノイズが完全にランダムなら、理想的には枚数のルートに比例してノイズが小さくなっていくはずです。

2、4、16、256、1024枚と、枚数を増やして、上と同様にPixInsightで実測したリードノイズの値を求めてみました。その結果をグラフに示します。理想の場合(青線)と、実際にスタックした場合(赤線)での比較になります。スタックはPixInsightのIntegration機能を使いました。蛇足になりますが、Macbook Proでスタックした場合4144x2822の16bitのfits画像1024枚でスタック時間は7分くらいでした。これくらいなら待つことができます。



03_readnoise_vs_gain2


グラフを見るとわかりますが、理想的なノイズの減り方に比べて、実測の方が明らかにノイズの減り具合が悪いです。これはなぜなのでしょうか?


実際のスタックしたバイアス画像を見比べてみる

この謎を解決するために、実際にスタックした画像を見比べてみましょう。まずはこちら、

IMG_6310


左上の奥の画像から1、4、16枚、最後の右下手前の画像が256枚重ねたものです。輝度は1枚ときの画像に全て合わせているので、直接見比べることができます。ぱっと見てわかるのは、枚数が多くなると明らかにノイズが滑らかになっていることでしょうか。これを見る限りは理想的にはどんどんノイズ(ばらつき具合)は少なくなっていってもいいはずです。


では次に、同じ画像で輝度を256枚重ねた画像に合わせてみましょう。

IMG_6312


前は綺麗に見えていた256枚画像も、実は完全にランダムなノイズではないことがわかります。縦線みたいなものが残っています。逆に1枚の時には横線が目立っています。これは横線に関してはランダムに近いノイズで、枚数を重ねることで滑らかになっていくのですが、それでも全枚数に共通に存在する縦縞のノイズが残ってしまい、それがグラフでの理想値との差を生むと推測されます。実際に1枚重ねだけの画像を何枚も見比べてみると、横線がてんでバラバラに入っていることがわかります。

ここからわかることは、
  • 多数のバイアスフレームを使うのは、バイアスフレームのランダムに存在するノイズを減少させるため。
  • バイアスフレームでライトフレームを補正するのは、スタックしたバイアスでさえも残った、バイアスフレーム全てが持つ共通のノイズを除くため。
ということが言えるのではと思います。

まとめ


はあ、ババーッとまとめてさすがに疲れたので、今日はこれくらいにします。まだまだ面白いことはあるのですが、さすがに書くスピードの方が追いつきません。さて、今日のまとめです。
  • 単体のバイアスフレームから、リードノイズを見積もることができる。
  • SharpCapも全部のゲインで全部の測定をしているわけでなく、一部を測定して、あとは計算で出している。
  • バイアスフレームをスタックすると、ノイズは減っていくくが、無限に小さくなるわけではない。
  • バイアスフレーム全てに共通するノイズが存在し、それらはバイアス補正でライトフレームから差っ引くことができる。
といったところでしょうか。

ちなみに、あぷらなーとさんはバイアス解析だけ1万枚も撮影するというような、言わずと知れた変な人です。私はたかだか千枚ほどしか撮影していないので、あぷらなーとさんに比べて10分の1くらいしか変でないということがわかってもらえると思います。






近頃、KYOEIさんにおいてZWO社のASI294MC Proを手に入れました。これまでもASI294MCを使ってきていましたが、今回はこの冷却タイプにあたります。私にとっては初の冷却カメラの使用になります。

でもずっと天気が悪くていまだにファーストライトが実現できていないので、その分時間は余っています。せっかくなので、冷却タイプの性能評価を、ノーマルタイプと比較してみたいと思います。

IMG_6171


 
評価方法

さて、同じようなカメラが2台あるので、興味があるのはその性能の比較です。ノーマルタイプについては以前も性能評価をしています。SharpCapを利用することで、センサーの性能を簡単に実測することができます。測定できる項目は
  • コンバージョンファクター
  • リード(読みだし)ノイズ
  • フルウェル(飽和容量)
  • 実効ゲイン
などです。

SharpCapのSensor Analysis測定は3段階に分かれています。
  1. 最初はGain 0でe/ADU(コンバージョンファクター)を測定。
  2. 次が蓋をしての、ダーク、最短露光時間状態での、リードアウトノイズの測定。
  3. 最後に、再び蓋を外してゲインを変えての実ゲインの測定です。

詳しい説明はリンク先を参照するとして、興味があるのはセンサーが同じで、冷却した時にどこにどれくらい違いがでるのかを実際に確かめてみたいと思います。


 

測定時の注意点

測定は久しぶりだったので多少戸惑いました。今回気になった、測定するときの注意点です
  • 最初はRAW8に設定されていることが多いです。RAW16モードで測定すること。
  • 光源はiPadを使ったのですが、明るすぎるのと、フリッカーのような瞬きがあるので、紙を何重にかして光を通しています。
  • 光の量の調整が結構シビアです。暗いよりは明るいほうが測定の失敗が少ないです。測定開始時の最初の自動露光時間調整で、適度な露光時間に落ち着いたときの値が20msとかより短くなると、測定を開始することができますが、光量がまだ少なくて失敗する確率が増えます。露光時間が2msから5msくらいまでの間になるようにすると成功率が上がります。
IMG_6280
  • うまくいかない場合の典型なケースでも、最初のe/ADU(コンバージョンファクター)の測定と、ダークの測定まではすんなりいくはずです。
  • 次の「ゲインを変えての測定」がうまくいかないことがあるかもしれません。ここで失敗すると最初からすべてやり直しです。そのほとんどが光量が少なすぎて、露光時間が長くなりすぎるケースです。一つは、ものすごく光量が少ないとゲイン0の時に10秒以上の露光になって止まってしまうこと。たとえもう少し光量があっても、多分これはSharpCapのバグだと思うのですが、露光時間が1.5sとか1.7sくらいの時に、測定完了の判定がうまくできなくて、露光時間を長くしたり短くしたりを繰り返すことで、タイムアウトで終わってしまうことです。回避方法としては、光量を増やして、すべての測定の露光時間を1s以下に抑えることです。
  • できる限りホワイトバランスが取れている光を入れたほうがいいのかと思います。測定時の写真が以下のように紫に寄ったような光になりますが、センサーで見るとバランスが取れていたりします。
IMG_6273
  • 今回はiPadのColor Screenというソフトを使い、センサー側で見たホワイトバランスをある程度合わせてから測定しました。でもホワイトバランスがある程度ずれていてもうまく測定してくれるようで、何度か測定してもあまり結果は変わりませんでした。あまり気にしなくてもいいのかもしれません。
  • 結構重要なのが、SharpCapの一番下のPreviewingとかdroppedとか出ているところです。接続状態が悪いとdroppedの値が増えていきます。droppedが0でなかったらおかしいと思って、ケーブルをさしなおす、ケーブルを変えるなどしてください。0でなくても測定はできますが、すごく時間がかかります。通常の測定は全部終了するまでに5分もかかることはありません。dropしていると10分以上かかったりしてしまいます。


ASI294MC ノーマルタイプ

まずは測定がうまくできているかを検証するために、以前と同じASI294MCのノーマルタイプで測定しました。この時のセンサーの温度は冬の暖かい部屋の中での測定ということで、37度程度でした。センサーが動いている場合は外気温よりは高くなるので、特に問題ない温度だと思います。

IMG_6224


測定結果ですが、約一年前に測ったものと比べても、誤差の範囲内で特に変化はなく、経年劣化なども確認されなかったと言えます。相当ハードに、約1年間使い込んでもほとんど性能劣化が見られないというのは特筆すべきことだと思います。

ただ、読みとっている横軸のゲインの設定値がだいぶん違っています。これはSharpCapの方の選択の問題なのですが、以前は低ゲインを細かくとっていたり、最大ゲインの570をとっていたりしましたが、それらがなくなりました。その代わりに59と61をとるとか、119と121をとるとか、性能が大きく変わるところをあらかじめ知っていて、測定しているみたいです。今回の場合もゲインが119と121で特に読み出しノイズの値が大きく変わっていて、メーカーが出しているグラフの結果をよく再現しています。

ちなみに、RAW8で測定した結果は以下のようになり、8bitのダイナミックレンジで制限されてしまうことがよくわかります。SharpCapのマニュアルにはできるだけ大きなビット数で測定しましょうと書いてあるので、16ビットで測っておくのがいいのでしょう。

IMG_6207


ASI294MC Pro 冷却タイプ


IMG_6235
箱の中身。オフアキとかのことも考えて、各種厚みのリングが入っています。
CD-ROMの中に日本語のマニュアルが入っています。わかりやすいです。 

次にASI293MC Proですが、まずはUSB接続のみで、外部電源(12V/3Aと表示されています)も繋げずに常温で比べてみます。ただ、同じ部屋の中で測定してもなぜかセンサーの温度がそこまで上がりません。しばらく待って温度をならして、しかも測定をしながらでも25度程度でした。これは冷却コントロールをしなくても外気温をうまく取り入れる機構ができているのかもしれません。

IMG_6283

測定結果は、ASI294MCのノーマルタイプとほぼ同じです。正確に言うと、ノーマルが37度、Proが25度と温度が低いにもかかわらず、Proのほうが少し結果が悪いのですが、これは個体差の範囲内でしょう。


実際に冷却しての測定

さて、ここからの冷却過程は初めての経験になります。12V, 3A以上出せる外部電源を用意します。今回はいつも使っているACも出すことのできる40000mAhのリチウムイオンバッテリーの12V出力端子を使いました。SharpCapのThermal Controlsのところをオンにします。ターゲット温度を下げていくと、使用電力が上がり、センサー温度が下がっていく様子がわかります。何度が試しましたが、一番下がった時で-20度に設定して、-15.8度まで行きました。ものの5分もたたないくらいにターゲット温度まで行くので、ずいぶん簡単です。最低到達温度は外気温に結構依存しそうです。

測定時は-15度がターゲットで、到達温度が-11.7度でした。その状態での結果です。

IMG_6271


一見常温の時と変わりないように見えますが、リードノイズは明らかに下がっています。温度を変えて測定したのでグラフを示しておきます。

all

上のグラフだとかなり重なっていてわかりにくいので、Gain = 500のところだけを別のグラフにしてみました。

G500


これを見ると、温度とともにリードノイズが増えていることがわかります。理屈の上では回路系の抵抗の熱雑音が多少貢献していると考えられるので、温度が下がることによってリードノイズも下がることが期待されます。測定でもリードノイズが温度によって下がることは確かめられましたが、その一方、結果だけ見ると大した効果でなく、せいぜい40℃温度が上がると1割増えるとか、たかだかそれくらいということもよくわかると思います。


ダークノイズとリードノイズの関係


ここで今一度リードノイズとダークノイズの関係を確認しておきます。カメラに蓋をしてセンサーに光が入らないような暗い状態で測定した場合、測定されるノイズはダークノイズσdark [e-/sec] と読み出しノイズσread [e-]が合わさったノイズが出てきて、実際に測定されるノイズをσとすると、

σ=σ2darkt+σ2read

という関係式で書くことができます。ダークノイズとはセンサーに光が入っていない時にも暗電流が流れることにより存在してしまうノイズで、時間 t のルートに比例して増大していくノイズです。

SharpCapの場合は、測定時間 を設定できる最短の時間0.032msとして、上式の前項を無視できる形にして読み出しノイズσreadを直接測定しているようです。ただ測定過程をじっとみていると、測定中に"Brightness"を変化させてバイアス(ヒストグラムで見ると、ピークの中心値のこと)を何度か変えてテスト測定をし、最後は"Brightness"を20に固定して最終的な読み出しノイズを測っているようでした。この過程の理由がよくわからないのですが、ばらつきの結果出てくる負の値を防ぐためのように思われます。

ちなみに読み出しノイズは、画像処理で行われるバイアスノイズと同義と言ってしまってもいいのかと思います(これちょっと自信がありません)。


ダークノイズの温度依存性

読み出しノイズは温度の依存性はあまりないことは上の実測でわかりましたが、ダークノイズは盛大に温度に依存します。簡単にですが、その結果だけ示しておきます。

測定時の条件は
  • モード: RAW16 (16bit)
  • 露光時間: 30s 、バイアスノイズの時だけ0.0032ms
  • Gain: 120
  • Brightness(オフセット): 20
  • ホワイトバランス: Red 50, Blue 50
  • 画像はfitsファイルをPixInsightで開き、DebayerはせずにそのままJPEGに変換
です。Gainが120の理由ですが、ここでノイズが小さくなるからです。

まず露光時間を最短にしたリード(バイアス)ノイズに相当するもの。ただし測定時の温度は17.6℃です。
dark_10_frames_17.6C_2019-01-27T02_11_10


次に、露光時間を撮影時を想定して30秒とした場合でリードノイズとダークノイズが合わさった場合で、温度が低温時の-16.2℃の場合です。明るさは上のバイアスノイズと比較できるように同じ値でストレッチしました。
dark_10_frames_-14.1C_2019-01-26T20_42_42

右上にアンプノイズが見えます。左側に明るいカブリが見えますが、これは漏れ光とかではないと思うので、何か余分なノイズが出ているようです。

最後に同じく露光時間30秒で、常温時の温度が25℃です。
dark_10_frames_16.2C_2019-01-27T02_06_54

低温時と比べて背景も相当明るくなります。さらに拡大してみるとわかるのですが、輝点がはるかに大量に発生しています。


まとめ

疲れたので、今日はとりあえずここら辺までとします。今回わかったことは、
  • ASI294MCは一年ほど使い込んでも経年劣化のようなものは見られない。
  • ASI294MCとASI294MC Proにおいては常温時では性能に差が見られない。
  • Proの方がクーラーを使わなくてもセンサー温度が低い状態を保つことができる。
  • 読み出しノイズは、温度の増加で大きくなるが、大した影響ではなく、40℃温度が上がって1割程度の増加である。
  • 一方、ダークノイズは温度増加で、背景、輝点ともに盛大に増える。
などです。温度によるダークノイズの差は見えましたが、これが実際の撮影にどれくらい効くのか、次回以降、気合が残っていればもう少し定量的に評価してみたいと思います。

今回の記事は結構一般的なことだけ書きましたが、まだまだ他にもまとめきれていないことがたくさんあります。例えば、
  • リードノイズとBrightnessによるバイアス設定の関係
  • バイアスはゲインを合わせなくてはいけないのか?
  • Gain120の振る舞いがあまりに面白くて、これだけでひとつ記事が書けそう
とかです。特にGain120はちょっと変っぽいです。なんか、サチらないピクセルが存在するためにノイズが少なく見えているだけのような印象です。

いやあ、CMOSカメラも奥が深いです。温度というパラメータが一つ増えたのでちょっと溢れ気味ですが、焦らずゆっくり進めていきたいと思います。




年が明けてもうだいぶん立っていますが、相変わらずやりたいことだらけです。でも時間も天気も全然思い通りになりません。なので今年の目標を書くだけ書いておこうかと思います。長期目標も入っているので、まあできる範囲ということで。


機材関連
  1. FS-60Qにカメラを付けたままでしまえるケース
  2. MEAD 25cmシュミカセ用フードをヒーターに改造
  3. Vixen Portaの経緯台の評価と安定化
  4. α7sの入手
  5. 焦点距離100mmくらいの、いいカメラレンズを手に入れる
  6. FS-60Qより長焦点の撮影鏡筒を手に入れる
  7. 双眼鏡の性能がわかるようになる
1のケースは今年初めに実家の名古屋のホームセンターで大きなものを見つけました。スポンジを入れて今はこんな風になっています。エクステンダーをつけてもカメラを外さずに入れることができます。とにかく、組み立ての時間を短縮したいので、できるだけ分解せずに出し入れできるケースにしました。何度か使ってみてもう少しスポンジの位置を調整します。

IMG_6195

2は国際光器で購入したフードがあるのですが、冬場にはヒーターが必須なことがわかりました。ヒータ付きのものはサイズが限られたり高価だったりするので、自分で改造するつもりです。実はもうニクロム線とかも買ってあるので、近いうちに改造です。

3ですが、VixenのPortaを小海の星フェスで手に入れて、自宅で一度月や星を見てみたのですが、思ったより揺れてしまいます。なんでこんなに揺れるのか、対策はできないかなど、時間ができたら試してみたいです。

IMG_5577


4は長期計画の一つで、予算ができたら手に入れておきたいと思っています。α7sとSharpCapでライブスタックができる可能性が何通りか見えてきているので、予算の都合がつけば早めに試したいところです。また、30秒縛りの星景写真でも威力を発揮しそうなので、できれば夏までには手に入れたいのですが、予算が...。

5ですが、FS-60CB+レデューサーで焦点距離255mmです。もう少し広角で撮りたい時のレンズが今のところありません。撮影に耐えるようなレンズを手に入れておきたいですが、3が先か、4が先か?

6はさらに長期での計画です。600mmを超えた長焦点の撮影鏡筒の可能性を探っているところで、今のシュミカセの延長になるのか、屈折にするのか?まだまだのんびりと結論を出すつもりです。

7ですが、このまえ安価な双眼鏡を購入しました。でもまだまだ双眼鏡を見る目を全然持っていません。そのうちレポートしますが、私にとって双眼鏡という分野はまだまだ長期計画の部類でしょうか。あ、できればもうこれ以上沼に落ちたくはないとは思っています。一応。


撮影

撮影関連の目標は結構具体的です。機材関連のことも一部入っています。
  1. FS-60CBでのレデューサとマルチフラットナーを使った継続的な撮影
  2. AZ-GTiの赤道儀モードでのガイド撮影
  3. C8での太陽Hα撮影
  4. シュミカセのコマ収差の補正
  5. シュミカセを使ったラッキーイメージ法での遠方銀河の撮影
  6. 冷却CMOSカメラに慣れる
  7. モノクロでの天体撮影
  8. モノクロ冷却カメラの入手と撮影
1はQBPの入手とともに、すでに始めています。ちょっとづつですが結果も出てきているので、継続して続けていきたいです。

2は昨年やり残したことで、ガイド付きではまだ撮影に入ったていません。すでに短時間の数ショットでは試しているのですが、長時間撮影までまだ及んでいません。近いうちに試そうと思っています。

3は昨年のリベンジです。危険でなく、口径を生かせる安価な方法を考えています。これは早いうちに試したいです。

IMG_4649
昨年C8で太陽の熱で割れたフィルター。もっと安全な方法を探ります。


4から6くらいまではセットで考えていて、最近冷却カメラを手に入れたので、夏頃までになんとかものにしたいです。

IMG_6182


7と8はまだ長期計画で、来年以降になるかもしれません。


画像処理
  1. FS-60CB用+レデューサーの四隅の処理法
  2. FS-60CB用+マルチフラットナーの四隅の処理法
新しく手に入れたレデューサーとマルチフラットナーですが、レデューサーで撮影した画像をみるとぱっと見は不満はないですが、強拡大すると四隅は完全な星像にはなっていません。画像処理でどこまで綺麗になるのか、もう少し試してみたいです。


電視観望
  1. 季節ごとの電視観望に適した天体リストの作成
  2. 電視メシエマラソン
昨年はASI294MCを手に入れたおかげで、電視観望のクオリティーが大幅に上がりました。これはセンサー面積によるところが大きいです。また、後半に手に入れたAZ-GTiが電視観望に向いているので、こちらも機材のコンパクト化に大きく貢献してくれました。

IMG_4972
AZ-GTiで電視観望用のセットアップがかなりコンパクトになりました。

2ですが、昔電視メシエマラソンの練習だけしました。月と天気を選んでまるまる一晩やってみたいです。ライブ配信とかできたらいいのですが、自宅から離れるとネット環境が厳しいのでなかなか難しそうです。


考察など
  1. シュミカセの補正レンズの設計と簡単な試験
  2. FS-60CBの光学設計を理解、フラットナー、レデューサーでの星像の再現
  3. CMOSカメラのゲインの最適値の議論
ラッキーイメージに関連して、もう少しきちんとシュミカセの理解と補正法を、光学設計の観点から確認しておきたいと思っています。あわよくば、FS-60CBで旧フラットナーとか今回購入したフラットナーとレデューサーのスポットダイアグラムの再現ができたらと思っています。

3はあぷらなーとさんのブログで質問されたのですが、なかなかパッと答えるのは難しくて、もう一度きちんと今考えることができるものを考慮して、一から追ってみたいと思っています。


その他
  1. 機材リストのアップデート
  2. 古い機材の整理整頓
星を始めてから2年半で手に入れた、ほぼ全ての機材のリストをエクセルで作っています。それぞれの値段も記載しててあるのですが、合計を取るのが怖い怖い。でも最近書き込むのをサボっているので、レシートとにらめっこでリストのアップデートが必要です。

ついでに今の機材で稼働率が良くないものを見直して、活用できる手を考えたいと思っています。


まとめ

まあ、こうやってみるとやっぱりやりたいことだらけですね。どこまでできることやら。でもどれも楽しみながらできそうで、あくまで仕事ではなく趣味の範囲なので、あせらず、やりたい時に気の向くままにやろうと思っています。

QBPを使った宅撮りシリーズ、今回はオリオン座の三つ星付近です。FS-60CBにレデューサーをつけて広範囲を狙い、燃える木、馬頭星雲、M42と、派手やかなエリアです。

連休最終日で次の日仕事でしたが、せっかくの晴れ。今週またずっと雨か雪みたいなので、ちょっと無理して撮影しました。無理してと言っても、最近自宅で撮影することが多いので、セットアップもルーチン化してきていて結構楽です。

今回も最初に結果を出しておきます。

light_BINNING_1_integration_DBE_DBE_noise_PS3_cut
左の三つ星が印象的です。


機材セットアップ

先日購入したレデューサーを早速使ってみました。
  • 鏡筒: タカハシ FS-60CB (口径60mm, 焦点距離355mm) + 0.72倍レデューサーで255mm
  • 赤道儀: Celestron CGEM II
  • センサー: Canon EOS 6D(HKIR改造)、ISO800、露光時間5分x18枚 + HDR合成のためISO800、3秒 x 20枚を追加、計1時間31分
  • ガイド: ASI178MC + 50mm Cマウントレンズ、PHD2 + BackyardEOSでガイド+ディザー撮影
  • フィルターサイトロン Quad BP フィルター(クアッド バンドパス フィルター、 以下QBP)
  • 撮影場所: 富山県富山市下大久保
  • 日時: 2019年1月14日、22時31分から
  • 月齢: 8.5(上弦)
一つ大変だったことが、レデューサーをつけると最初全くピントが合わなかったことです。私が持っているのはFS-60Qなのですが、シリアル番号にDEMOと書いてある試作機のようなので、もしかしたらFS-60CB状態にしてもピントがでないのではと一瞬疑ってしまいました。

結局原因は下の写真の手前に写っている、2cmくらいの幅の延長アダプターです。FS-60Qを手に入れた当初、上下でガイドカメラとか赤道儀の固定を楽にしたいので、K-ASTECの鏡筒バンドを取り付けて、以来ずっとそのまま使っていました。鏡筒バンドの内径がちょうど先の延長アダプターの外径でぴったり止まります。それ以降外したこともなく、すでに一体化していたこのアダプターの存在を完全に忘れていて、そのままレデューサーをつけると、鏡筒の長さが長くなりすぎることがピントがでない原因でした。

IMG_6192


でも単純にこの延長アダプターを外すだけかというとそうでもなくて、撮影には必須のカメラ回転アダプターをつけると、そのネジが鏡筒バンドに当たってしまい、簡単にカメラを回転できないのです。接地面積を下げてしまいますが、鏡筒バンドを固定する位置を少しずらして、さらに一回一回鏡筒バンドのネジを緩めることで、やっと回転させることが可能になりました。

それでもこれまでみたいにあまり気楽に回転できないことは大きな痛手です。最初に0度か90度かに固定してそのままその日は使うとかになるかと思います。


初レデューサー撮影

今回の主役はFS-60CB専用のレデューサーでしょう。範囲が相当広くなるためどこを写そうかずいぶん悩みました。最初、赤以外のものも写してみたくて、画角がピッタリ合いそうな魔女の横顔を写そうとしたのですが、一枚写してやはりほとんど出ないことがわかったので、諦めてまともに写りそうで、見栄えのいいオリオン座の三つ星エリアにしました。

一枚試しに写してびっくりしたのが、ずいぶん明るくなることです。F値が4.25と低くなるので当たり前といえば当たり前なのですが、そのためにISOを800まで落としました。ちょうど上弦の月で半月だったのですが、QBPのおかげでそれにも負けずに十分出てきます。


画像処理

前回のモンキー星雲の時と同じPixInsightが中心です。今回大きく変えたところが、ArcsinhStretchを使わなかったところです。ArcsinhStretchは彩度を落とさずにストレッチできる便利なツールですが、どうもこのArcsinhStretchが赤飛びを引き起こしていたみたいです。ScreenTransferFunctionとHistgram Transformationであえてオーソドックス?な方法で彩度を特に出さずにストレッチしました。PixInsightの時点ではとにかく赤飛びを出さずにPhotoshopに渡して、Photoshop上で彩度を含めて仕上げをしています。結果は最初に示した通りになります。

はっきり言って自宅でとったと思えば、私くらいのレベルではもう十分満足です。ぱっと見は全然気にならないレベルですが、やはりスターベースで教えてもらった通りレデューサーの影響なのでしょう、四隅を拡大してみると点像にはならないようです。ここら辺がどこまで修正できるかが次の課題でしょうか。


今回のまとめ

レデューサーでやっと広角で撮影できるようになりました。強拡大して四隅とかの粗探しさえなければ十分満足です。半月でさえもここまで撮れるのはQBPのおかげでしょう。QBPはかなりいいです。だんだんテスト撮影というよりは、量産期に入ってきたような感じです。

分子雲もなんとか出るようですが、もっと淡いものはどこまで出るのでしょうか?自宅で撮影可能なのでしょうか?ここら辺も試してみたいところです。
 


1月9日、ここ最近の北陸の冬本当にめずらしく晴れ渡っていて、透明度も高そうだったので、新月期ということもあり平日ですが撮影を試みました。でも次の日は東京行きで始発に近い新幹線で移動です。あまり無理はできないので、撮影開始後できるだけ放っておけるようにセットアップしました。

最初に結果を示しておきます。ベテラン勢から見たらまだまだかもしれませんが、私としては自宅からこれだけ写るなら結構満足です。

light_BINNING_1_integration_DBE_PCC_AS_PS5





目的

今回の目的は、撮影はもちろんですが、月が出ていない時のQBPの効果を知ることです。

満月の日の撮影では、露光時間が約4倍に伸びました。月明かりが太陽光の反射で白色光と仮定した場合に、QBPの波長領域から考えた光量変化からの露光時間の伸びの予測4倍と、よく一致しました。

今回は新月期で、月の光がない場合にQBPで街明かりがどれくら除去できるかを見たいというのが目的の一つです。


ターゲット天体

ターゲットはいろいろ迷って、今のFS-60Qの焦点距離600mmとフルサイズの6Dの画角で撮りやすいものを考えました。計画の段階ではクラゲ星雲だったのですが、これをなぜか間違えてパックマン星雲を導入して明るい北西の方向を指してしまい、あれ?あんな方向だったかなと思い、さらになぜかクラゲに行く前にすぐ隣のモンキーを見たら気に入ってしまい、モンキーに決定。モンキーとクラゲをいっぺんに入れることも考えましたが、画角がギリギリなのでこの日はモンキー一本に決めました。フラットナーを購入したので、モンキーとクラゲの同時撮影はまたいつか試したいと思います。

でもなんでこんなことを書くかというと、最近はplate solvingがひたすら快適で、位置決めがものすごく簡単にしかも精度よく、再現性もありで進められるので、途中で迷っても全く問題ないからです。最初のラフな導入から、EOS6Dでの自動撮影、plate solvingでの解析と座標決定、ずれの赤道儀の位置へのフィードバック、再撮影と解析まで、全部リモートでできます。最近のASiairが羨ましくてまたplate solving始めたのですが、あまりに便利なので、そのうちにまとめ記事にでもしようかと思っています。


機材セットアップ

最近は自宅セットアップはほぼ固定です。でも先日のスターベースでフラットナーとレデューサーを購入したので、これからはちょくちょく入れ替えての撮影になると思います。
  • 鏡筒: タカハシ FS-60Q (口径60mm, 焦点距離600mm)
  • 赤道儀: Celestron CGEM II
  • センサー: Canon EOS 6D(HKIR改造)、ISO3200、露光時間5分x25枚、計2時間5分
  • ガイド: ASI178MC + 50mm Cマウントレンズ、PHD2 + BackyardEOSでガイド+ディザー撮影
  • フィルターサイトロン Quad BP フィルター(クアッド バンドパス フィルター、 以下QBP)
  • 撮影場所: 富山県富山市下大久保
  • 日時: 2019年1月9日、21時半頃から
  • 月齢: 3.4


撮影

さて実際の撮影です。その日の家族との夕食を振り切って三日月の地球照の撮影をしたのは前回書いたのですが、家族が食べ終わった後に戻って、一人寂しく夕食をとり、その後赤道儀を設置して撮影開始です。

外でのセットアップは、SharpCapでの極軸と、BackYardEOSでのピント合わせ、CGEM IIでワンスターアラインメントでの初期アラインメントだけです。あとは外でやることはないため一旦自宅に入ります。撮影もStick PCを用いてRemote Desktopで繋げているため、自動導入とPlate Solvingでの座標決定まで含めて、自宅でヌクヌクしながらなので非常に快適です。

実際の撮影ですが、露光時間を決めるためにいつも撮影しているくらいの設定として、ISO3200で露光時間3分で一枚撮ってみたのですが、まだまだ全然暗いです。とりあえず5分露光で写してみてびっくりしました。下がその撮って出しJPEG画像でなんの加工もしていないものです。すでにこんなにコントラストがあります。

LIGHT_6D_300s_3200_+3cc_20190109-22h27m23s267ms

背景の明るさをみると、まだ露光時間を伸ばせそうですが、5分でも私のこれまでの撮影の中では最長の部類に入るので、成功率を上げるために今回は5分で行くことに決めました。

ちなみにQBPフィルター無しの場合は、今回撮影することができませんでした。理由はフラット画像をその日のうちに撮る時間がなくて、フィルターを外してしまうとフラットが合わなくなる恐れがあったからです。その代わりに1年ちょっと前に撮った馬頭星雲が、同じ鏡筒、同じカメラ、同じ場所で、この日も月はなく透明度が良かったと覚えているので比較してみます。露光時間だけは違っていてこの時は3分で明るくなってまって、これ以上時間を伸ばそうとは思えなかったです。こちらも撮って出しJPGでなんの加工もしていません。

HORSE_LIGHT_6D_180s_3200_+10cc_20171128-01h26m49s143ms

見ての通りフィルター無しでははるかに明るくて、Photoshopで両方の背景を測光してみると、馬頭星雲の方が今回のモンキー星雲に比べて、ほぼ2倍明るくなっています。露光時間が5分と3分で、明るさが2倍なので、2 x 5/3 ~ 3倍となります。言い換えると、QBPのおかげで光害は3分の1程度に抑えられ、露光時間でいうと3倍時間をかけることができるということです。

実はもう少し改善されるのかと思っていましたが、この値は光源の種類や、光害のひどさに強く依存します。3倍くらいしか変わらなかったということは、逆にいうとそれほどひどい光害地ではないということが言えるのではないかと思います。

撮影ですが、次の日のこともあるので、23時くらいから仮眠をとりました。午前2時頃起きて片付けたのですが、後で見てみると0時過ぎで赤道儀が端まで行ってしまっていたみたいで、30枚中5枚が失敗でした。それ以前の25枚は星像を見てもほぼすべて点像で、全部成功。赤道儀がきちんと動いていた時だけ考えたら100%の成功率です!


画像処理

問題は画像処理でした。明るい恒星が赤でサチッてしまいます。赤だけ考えたらすでに露光時間が長すぎるか、ISOを落とす必要があるかもしれません。一方、青と緑は全然余裕があるので、例えばIRフィルターを入れて恒星の赤のサチりを抑えるとか、HDRように短時間露光の画像を撮っておくことなどを考えた方がいいのかもしれません。

実は関東に行っている間に、Light画像と以前撮ったBias画像だけで一旦処理したのですが、やはり周辺減光の影響が見られたので、自宅に帰宅して時間に余裕があった今日、PCの画面を元にフラット画像を撮影して再度処理をすることにしました。リニア処理は基本的にはPixInsightです。Ditherしているので、Dark補正はしていません。Integration後、DBEでカブリを取り、PCCで色合わせをしました。フラット画像は別で撮っているので、空からくるカブリはどうしても残ってしまいますが、私はPixInsightのDBE (DynamicBackgroundExtraction)で困らないレベルになります。ストレッチはAS (ArcsinhStretch)である程度出してから、Photoshopに引き渡しました。

問題はPhotoshopに引き渡す時点で、すでにいくつかの恒星が赤飛びしてしまっていることでした。いろいろ考えたのですが、Photoshop上でRedとGreenの差の絶対値を取り、星マスクを作ることで赤飛びしている星だけをうまく引き出すことができました。色バランスがずれてしまっていやなのですが、今回は仕方ないので、このマスクを使って赤飛びしたところを抑えました。こうして仕上げたものが、最初の画像になります。


QBPフィルターについて

今回は月が出ていなければ、QBPがあると自宅の庭の場合3倍ちょっとの露光時間を稼ぐことができることがわかりました。赤飛びなどの画像処理は多少苦労しますが、個人的には庭撮りでこのクオリティーなら、もう相当満足です。

新月期の休日前には遠くに足を延ばすかもしれませんが、月が出ていたり、新月期でも平日ならもう庭撮りで数を出した方が全然満足度が高いです。QBPフィルターがなければ、とてもではないですがこのような感想にはならなかったと思います。

自宅取りの見通しが出てきたので、もう少し真面目に撮影に取り組む気になってきました。先日フラットナーとレデューサーを手に入れたのも、このQBPの影響が大きいです。


このページのトップヘ