ほしぞloveログ

天体観測始めました。

カテゴリ:調整・改造 > 評価

つい最近(2019/3/24)、Stellariumが0.19.0にバージョンアップされました。最近Stellariumがかなりすごいです。


星雲星団の実画像表示

星雲星団の実画像の充実に気づいたのは何ヶ月か前、バージョン0.18.2から0.18.3にアップデートされた時(アップデート自身は2018/12/22)です。ちょうどプラネタリウムソフトで星雲や星団がきちんと写真レベルで表示されないかなと思って色々試している時でした。撮影時の実際の星雲の広がり具合とかをあらかじめ比べたかったからです。あれ、0.18.3になってなんか綺麗な画像が増えたなと思って当時ちょっと調べてみました。Mac版の場合、アプリケーションフォルダの中のStellariumのファイルを右クリックして、「パッケージの内容を表示」で、Contents->Resources->nelulae->defaultの中を見ると、実際の星雲星団の画像がたくさん入っているのがわかります。

IMG_6850

上の写真の一番下のファイル数で比べると、0.18.2->0.18.3で248ファイルから439ファイルと倍増近くになっています。0.18.3->0.19.0は439->473と数はそれほど増えたわけではないですが、細かく見ると画像のクオリティが上がってたりするのがわかります。

IMG_6851
左が0.18.3付属のIC1805、右が0.19.0のもの。
サイズは1MB->509kBと小さくなっているのに、
クオリティは明らかに上がっている。

例えばオリオン座のM42です。Stelalrium上でかなりの画質で表示させることができます。

IMG_6842

これを見るとトラベジウムあたりは飛んでいってしまていますが、拡大すると徐々に画像を消すなどしてうまくトラベジウムが見えるようにしているようです。

IMG_6844

それでも星雲の画像を表示させたくないときもあると思います。そんな時は、右の端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで「星雲の背景ボタンを表示」にチェックをしておいて、カーソルを画面下に持っていって出てくる「深宇宙の背景画像」をオフにしてやれば下の画面のように画像を消すことができます。

IMG_6852

まだ一部もやっとした光も残っていますが、これは天の川の一部として低解像度で表示されているものです。これも右端で出てくる「空と表示の設定」から「空」タブで「Milky Way brightness/saturation」をオフにすると完全に消すことができます。


自分の持っている機材で視野角を確認

さて、前項のこういった星雲や星団の実画像があると何が便利なのか?それは撮影時の実際の視野角と簡単に比較することができるからです。

ご存知の方も多いと思いますがStellariumでは自分で持っている機材を登録して、視野を直接画面の中に表示することができます。右上の左から二番目の四角の枠だけのアイコンを押すと、画面の中に赤い枠が出てくると思います。これが現在設定されている視野です。これを自分の持っている機材に変更します。同じく右上の一番右のアイコンを押します。タブに「望遠鏡」、「補正レンズ」、「CCD」、「アイピース」がありますが、それぞれ設定します。「望遠鏡」は鏡筒、「補正レンズ」はバローレンズやレデューサなど、「CCD」はCCDカメラやCMOSカメラ、一眼レフカメラでももちろん構いません。赤道儀の機能は「望遠鏡」のところの「赤道儀」をクリックします。実際の視野の回転は「CCD」のところの「回転角(度)」で調整します。ここは大抵0度か90度ですね。

いくつか鏡筒やカメラを登録すると、右上の左から二番目の四角アイコンを押した時に、登録した機材を画面を見ながら変更することができます。この時、星雲の実際の画面があると、どれくらいの視野で、どのような機材で撮影すればいいのかが一発でわかるのです。


他波長での背景表示

もう一つ面白い機能を紹介します。多波長で空を見た場合、その画像をStellariumの背景として表示させることができます。これはバージョン0.18.0から搭載された機能で、まだテストレベルのようです。

画面右端で出てくる「空と表示の設定」から「Surveys」タブで「Deep Sky」を選び、ズラーっと出てくるリストが衛星や観測装置など研究レベルで撮影されたデータになります。たくさんあるのですが、アマチュア天文で撮影に使用する場合はほとんどがあまり関係なく、この中でお勧めできるのは「DSS colored(2つあるうちの下の方の)」と「DSS2 Red(F+R)」です。

IMG_6846
DSS colored

IMG_6848
DSS2 Red(F+R)

上のように分子雲モクモクの背景を表示させることができます。写真ではカラーの方が見栄えが良くなってしまっていますが、実際のPCの画面ではモノクロの方が見やすいかと思います。特に構図を決める時はかなり狭角で見ることになるので、モノクロの方がより分子雲の度合いがわかります。一方、広角で見る場合はモノクロの場合はつぎはぎになってしまうのでカラーの方がお勧めです。

この画面を表示させるためにはもう一つやることがあります。このやり方が最初どうしてもわからなくてしばらくの間ずっと画像を表示できなくてやきもきしていたのですが、色々調べてやっとわかりました。画面右端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで「Show HiPS button」をオンにして、画面下に出てきた「Toggle Hierarchical Progressive Surveys (experimental)」をオンにすると、やっと上のような画像が出てきます。でもこの機能はとても重いのと、多分データをその都度ダウンロードしているようなので、ある程度早いCPUパワーとネットワークが必要になるかと思います。

IMG_6845

他に面白いのは、「IRAS IRIS HEALPix survey, color」でしょうか。天の川全体を表示させるような場合は、IRAS IRIS HEALPix survey, color上のDSS coloredのように、カラー化されたものの方が見やすそうです。

IMG_6849
IRAS IRIS HEALPix survey, color

Surveysの方のリストはたくさんありすぎて私も全部は見ていません。いくつかのデータは表示してもほとんど何も変化がなかったりもするので、もしかしたら多少加工しなければ見えないようなデータもそのまま表示してしまっているのかもしれません。もしリストの中で他にも撮影の役に立ちそうなものがあったら、コメントなどで情報共有してもらえるとありがたいです。

あと全く別の同様の機能に、「デジタル・スカイ・サーベイ(DSS)ボタン」があります。こちらも画面右端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで設定できます。画面下に出てきた「デジタル・スカイ・サーベイ(TOAST)」ボタンを押すと、分子雲なども多少見ることができる背景が表示されますが、「Survey」で表示されるものの方が見やすいかと思うので、あまりこの機能はお勧めしません。

いずれにせよ、上の両機能ともものすごく重いので、お勧めの表示のさせ方を書いておきます。
  • まずプラネタリウム表示の時間経過を止める。画面下の三角ボタンを押すと止まります。
  • 画面を移動する時には、両機能ともオフに。
というくらい気を使うことになると思います。

また、最近のステライメージも最新版では多波長に対応しているとのこと。おそらく、画像を多少加工してあるのでしょうか、ステライメージの方が見やすくなっているようなので、こちらもお勧めです。

分子雲モクモク画面を見ていると、かなり構図決定の参考になるかと思います。これからもこういったものを撮影に活用していければと思います。

 

昨日の記事の続きです。やっとなんとか形になりました。

ノイズを標準偏差で評価するか、平均偏差で評価するか迷っていたのですが、Twitteでガウス分布から外れているのなら飛んだ値が多いはずなので、(飛んだ値に影響されにくい)平均偏差の方がいいのではという意見をもらいました。なるほど、考えてみればその通りで、標準偏差と平均偏差にすでに無視できないような有意な差があるということは、いいかえてみればガウス分布から外れた値も多いということが言えるのではと思います。

Fits画像のhistogram


というわけで実際にヒストグラムで分布を見てみました。まず、debayerなど何の処理もしていないRAW画像です。 

histgram_raw

見ての通り、ガウス分布からかなり外れていることがわかります。これはRGBでそれぞれ反応が違うために山がいくつもできるのかと思われます。

次に、同じ画像をdebayerしてRed、Green、Blueに分けたヒストグラムものを示します。

まずはRed:
histgram_R
次にGreen:
histgram_G

最後にBlue:
histgram_B


不思議なのは、RGBに分離しても山がいくつも見えることです。debayerの際に周りのピクセルの状況も読み込んでいるからなのか、もしくは画面の中で場所によって明るさに違いがあって、それが山になっているのかもしれません。また、RGBを合わせてもRAWの山の形になりそうもないことも不思議です。一瞬違う画像を処理したかと思ってしまったのですが、きちんと確認しても同じRAW画像から分離したものです。debayerもそんなに単純でないようです。

最後に、その中の50x50ピクセルを取り出してきた場合のヒストグラムです。
histgram_50x50
山がいくつもあるようなことはなくなり、大まかな形としてはガウス分布にだいぶん近づきます。それでもサンプル数が少ないことによるばらつきがあるのも確かなので、ここでは平均偏差でいくのが良いと考えることにします。



Conversion Factor

さて、実際にコンバージョンファクターを求めてみました。サンプル数を多くするために画像中心付近の100x100ピクセルを選んで解析しています。

結局今回はPythonで平均偏差を求めるルーチンをを自前で書いて、各ピクセルごとに計算しています。書き忘れてましたが上のヒストグラムも全部Pythonで書いています。やっとPythonでの画像解析に慣れてきました。結果ですが、以下のようになります。

20190302_01_Conversion_Factor

ついにここまでくることができました。結果はグラフの中にも数値で書いてありますが、コンバージョンファクターとして4.12、そこから計算できるUnity gainが200 x log10(4.12) = 123となり、メーカー値の117とわずか0.6dB、1.07倍の誤差くらいの範囲で求めることができました。

検証


もう少し検証してみます。

IMG_3262

上のようなSharpCapでの自動測定の結果のグラフと比べると、自動測定の測定値を伸ばしていくと0点近くに行きますが、自分で測定したものは0点に向かわずに、y切片で-352くらいのところにあたります。本当にきちんと測定しようとするならバイアスノイズをのぞいたり、フラット補正をすべきなのですが、今回は省いています。それでもSharpCapもそれ専用の測定はしていないように見えるので、うまくy切片が0になるような補正をかけているものと考えられます。

もう一点、自動測定の場合、測定点がいくつか重なっているように見えます。おそらくこれはRGBと分解した3点が重なっていると推測されるのですが、それにしても横軸(ADU)が一致しすぎています。普通に測定すると、自分で測定した時みたいにRGBで光源も違えばセンサーのフィルター特性も違うはずなので、ずれるはずです。これもSharpCapの自動測定では何らかの補正をしているものと思われます。


まとめ

結局、上の結果を得るまでに2週間くらいかかりました。色々苦労しましたが得たものも多く、まずPythonでの画像解析の環境がだいぶ揃いました。既存ライブラリに頼らない、ピクセルごとに解析する手法もある程度得ることもできました。統計的にどのようにアプローチすればいいのかも少し学ぶことができました。

次はEOS 6Dのユニティーゲインを求めることでしょうか。
あー、ホントはCP+行きたかったです。

今回はCMOSカメラ、ZWOのASI294MC Proの性能評価の一環で、全ての測定の元になるADUからeへの変換のコンバージョンファクターの測定についてです。結論から言いますと、SharpCapの自動測定機能での結果と、SharpCapでマニュアルで一枚一枚撮影しその画像を自分で解析した結果がどうしても合いません

この記事は多分ほとんどの人にはめんどくさい話で、よほどでない限り興味がないことと思いますし、しかもうまく結果が出なかったものなので、公表するかどうかも迷っていたのですが、それでも自分のメモがわりに書いておこうと思います。ご容赦ください。


動機

もともとダークノイズを評価する過程の一環で進めているのですが、今回の測定の動機は2つあります。
  1. ダークノイズの測定は多岐に渡るので、まずは解析環境をpythonで整えようとするのにちょうどいい練習になる
  2. 天体用CMOSカメラだけでなく、一眼レフカメラの性能評価もできないかと思ったから
です。特にEOS 6Dのユニティーゲイン(ADUとeの比が1になるゲイン)、引いてはコンバージョンファクターの測定まで自前でできたらなと目論んでいたのですが、今のところ見事に失敗。

最近ブログをなかなか更新できなかったのは、天気が悪くて星が見えないとか、仕事が忙しいとかもありますが、この解析が全然うまくいかなくてずっと悩んでいたというのが、一番大きな理由です。


測定方法

各画像の撮影はSharpCapで撮影します。共通の設定は
  • iPadのColor Screenというソフトを光源とした
  • RAW16
  • Gain = 0
  • Brightness = 8
  • White Bal(R) = 50
  • White Bal(B) = 50
  • 温度15度程度(コントロールなし)
となります。この状態で露光時間を変更して10枚程度の画像を撮影します。上記設定や露光時間はSharpCapでのセンサー性能を測る時のパラメーターを参考にしています。というか、最初適当に設定していたのですが、結果が全然合わないので、最後はコンバージョンファクターを測る時の状況に限りなく合わせるようにしました。

ゴールとしては下の写真(SharpCapのセンサー性能測定機能で自動測定した場合)の

IMG_3260

右のようなグラフが得られればOKです。横軸(各ピクセルの明るさ)が10000程度の時に縦軸(ノイズの2乗)が2500程度です。グラフの傾きは0.25程度、その傾きの逆数が今回求めたいコンバージョンファクターになり、普通に測定すると1/0.25=4程度になるはずです。この値はZWOが示している値ともほぼ一致しています。

コンバージョンファクターはちょっと理解が大変かもしれませんが、関係式と意味についてはこのページの1のところに、式の証明についてはこのページの一番最後のおまけのところに書いてあります。


測定結果

ところが自分で測定してみた結果は散々なものです。普通に画像を撮影してそのまま何も考えずに解析すると、そもそもDebayerもされていなかったりするので、ノイズが大きく出すぎてしまいます。結果を見せるのもあほらしいのですが、

mymag_all


のようになり、SharpCapの結果にカスリもしないくらいノイズが大きく出てしまっています。傾きが30くらい、コンバージョンファクターは0.03とかで、メーカー値の100分の1以下です。ここから苦難のノイズハンティングの道が始まりました。結局やったことをまとめると
  1. SharpCapでfitsファイルを撮影
  2. PixInsightでCosmeticCorrectionでホット、クールピクセルを除去 (飛び抜けて明るいピクセルなどあるとばらつきが大きく出てしまう)
  3. PixInsightでDebayerをしてカラー化 (RGBでゲインが多少違うため、debayerせずに標準偏差を取るとばらつきが大きく出てしまう)
  4. PixInsightでR、G、B画像に分離し、一枚一枚を個別に保存する (今回解析に使ったirafは天文研究に使われるソフトで、モノクロがほぼ前提なので、カラー画像を解析できない)
  5. 中心近くの50x50ピクセルのみを選択して解析 (画像全体だと周辺減光などの影響で、ばらつきが大きく出てしまう)

4番まで進めた時のグラフが

mymag _rgb_all


のようになりますが、まだ傾きが10程度、コンバージョンファクターにして0.1程度しかありません。

さらに5番目の中心部分のみを解析するようにして、やっと下のグラフくらいにまでなりました。

mymag_rgb_cut


それでも結局傾きが0.35程度、コンバージョンファクターが1/0.35で3程度になり、どうしてもまだ4近くにまでなりません。

考察と今後

なぜこの差が縮まらないか、もう少し検証します。まず、横軸(各ピクセルの明るさ)が10000の時に縦軸(ノイズの2乗)が2500くらいになるためには、ノイズはそのルートの50程度でなければなりません。ではノイズと言っているものが何かと言うと、画像から測定したピクセルの明るさのばらつきということなので、普通は標準偏差(standard deviation)をとればいいと思われます。この標準偏差を求めるのに今回は天文研究でよく使われているirafを使いました。ところが、明るさ10000程度の50x50ピクセルの明るさのばらつきの標準偏差をirafで測定すると60程度になってしまいます。グラフの横軸でいうと2乗なので3600程度になってしまうわけです。

ここでirafを疑いました。何か間違った結果が出ているのではと思ったのです。そこでPixInsightの統計ツールで測定したのですが、標準偏差はやはり60程度とでます。それどころか、SharpCapでも画像の選択したあるエリアの各色の標準偏差をリアルタイムで測定できるのですが、それもやはり60程度なのです。

SharpCapで測定しても60とでるならば、SharpCapの自動センサー性能測定の測定はどうやってやっているのでしょうか?何か特別なことをやって50と出しているのか、それともまだ私が何か勘違いをしているのか

PixInsightの統計ツールで少しヒントになるようなものを見つけました。標準偏差ではなくてオプションでAverage absolute deviationという値を出すことができるのですが、この値がちょうど50程度になるのです。

IMG_6410
標準偏差(stdDev)が60ちょい、Average absolute deviation(avgDev)が
50切るくらいになっているのがわかると思います。

Average absolute deviationのは一般的にはMean absolute average (around the mean)というらしくて日本語では単純に平均偏差というらしいです。標準偏差が各値(Xi)から平均値(M)を引いたものを2乗したものの総和を総数Nで割ったもの

1Ni=0N(XiM)2

に対して平均偏差は各値から平均値を引いたものの絶対値の総和を総数で割ったもの

1Ni=0N(XiM)

となります。他にもMean absolute average (around the median)というのもありますが、こちらは平均値を引く代わりに中心値を引きます。

標準偏差が2乗和のルートになるので、ばらつきがより効いてくることになり一般的に

標準偏差 > 平均偏差

となるそうで、確かに標準偏差より小さい値になっていて納得です。

さて、平均偏差を使えば、メーカー値もしくはSharpCapで測定した値に近い結果が出るはずなのですが、そもそも平均偏差を使っていいものなのか?やはり普通に考えると標準偏差を使った方が、あとの統計的な評価が簡単になりそうで、素直な気がします。

さらに、irafなどの一般的な解析ツールでは平均偏差を出すことができるものが少ないので、グラフまで出せるくらいにきちんと解析するのなら自前で統計処理の部分のコードを書く必要があります。

そんなこんなで、今pythondで書いているのですが、果たしてこの方向が正しいのかどうか?
まだ色々迷っています。


先日作った画像四隅切り抜きソフトを使って、FS-60CBでの星像を比較してみました。比較対象は焦点距離の長い順から
  1. FS-60CB + エクステンダー => FS60Q: F10、焦点距離600mm
  2. FS-60CB + 旧フラットナー(フラットナー FS-60C): F6.2、焦点距離370mm
  3. FS-60CB + 新フラットナー(FC/FSマルチフラットナー1.04): F6.2、焦点距離370mm
  4. FS-60CB + レデューサー(RD-C0.72×): F4.2、 焦点距離255mm
です。条件などです。

  • カメラは2番目の旧レデューサーのみEOS 60DでAPS-Cですが、他3つは6Dでフルサイズになります。
  • また、旧レデューサー以外はQuad Band Passフィルターが入っています。ほとんど影響はないと思いますが、稀に星像が歪むという報告もあるようなので、一応気に留めておいてください。
  • 撮影場所は全て富山市の自宅ですが、どれも撮影日が違うので、条件は同じでないことをご了承ください。
  • 画像は全て撮って出しのJPEGですが、ホワイトバランスはその時々でいじっているので色はあてにならないです。
  • 何も校正していないので、周辺減光を読み取るのは厳しいです。

それでも下に示す画像を見てもらえればわかりますが、同じ鏡筒でも取り付けるオプションによって星像の違いがはっきりと出るのがわかります。


エクステンダー: 600mm 

まずは、1番のエクステンダーです。四隅と真ん中をそれぞれ250ドット角で切り取った画像と、その元の画像(モンキー星雲)になります。

LIGHT_6D_300s_3200_+3cc_20190109-22h33m50s976ms_4cut

LIGHT_6D_300s_3200_+3cc_20190109-22h33m50s976ms


四隅でもほぼ真円になっています。これなら全く文句ないです。


旧フラットナー: 370mm

次に旧フラットナーです。カメラが60DなのでAPS-Cサイズでの撮影であることに注意してください。北アメリカ星雲です。

NORTH_AMERICA_LIGHT_60s_3200iso_+30c_20170913-21h38m38s_4cut

NORTH_AMERICA_LIGHT_60s_3200iso_+30c_20170913-21h38m38s996ms

やはり四隅がかなり流れているのがわかります。結局旧フラットナーではちゃんとした撮影はこの一枚だけでした。それでも天リフの今日の一枚に選ばれた感慨深い一枚です。

星像比較とは関係ないのですが、この画像の撮影日は2017年9月13日で一年以上前です。フィルターも何もなしで、ISO3200で露光時間1分ですが、他の3つと比べてこれだけかなり背景が明るくなっています。他の3つはQBPで露光時間を伸ばせているので、QBPの効果がかなり大きいことがわかります。


新フラットナー: 370mm

新型のフラットナーです。昨日の記事で出したものと同じ画像でカモメ星雲です。

SEEGULL_LIGHT_6D_300s_800_+9cc_20190205-21h20m00s179ms_4cut

SEEGULL_LIGHT_6D_300s_800_+9cc_20190205-21h20m00s179ms


星像ですがほぼ真円。それでも拡大してエクステンダーとよく見比べてみると、四隅で極々僅かに円周方向に伸びているのがわかります。でもこれくらいなら私的には十分許容範囲です。


レデューサー: 255mm

最後はレデューサーです。オリオン座のM42と馬頭星雲一帯です。

ORION_LIGHT_6D_300s_800_+5cc_20190114-22h39m34s849ms

ORION_LIGHT_6D_300s_800_+5cc_20190114-22h39m34s849ms_4cut

まず、広角なのでさすがに周辺減光が目立ってくることがわかります。フラット補正は必須でしょう。星像も真ん中はまだそれほどでもないですが、四隅では円周方向にもそれと垂直にも伸びていて、十字のように見えます。それでも旧フラットナーよりはましですが、新フラットナーには完全に負けています。

拡大しなければ気にならない範囲とも言えますが、これは画像処理での補正方法を検討した方がいいのかと思います。ちょっと色々試してみようと思います。


まとめ

今回はFS-60CBについて、4種類のアダプターを試してみました。結果としては

エクステンダー > 新フラットナー >  レデューサー >> 旧フラットナー

といったとことでしょうか。ほぼ評判通りで、メーカーの言っていることも正しいと思います。やっぱり自分で確かめると納得しますね。細かい違いもよくわかりました。

できれば、これをレンズ設計ソフトで再現してみたいです。だれかFS-60CBのレンズデータとかどこかにあるか知りませんでしょうか?タカハシに聞いてもさすがに教えてくれないだろうなあ。


今週の火曜日、水曜日と新月期で、冬なのに珍しく晴れていました。外に出てもそれほど寒くないので、平日ですがQBPを使って宅撮りです。前回の撮影ではレデューサーを試したので、今回は新タイプのフラットナーのテストです。ターゲットは、これまで何度か撮ろうとしては雲が出てできて失敗しているかもめ星雲です。

機材セットアップ

今回の目的は、先日購入した新フラットナーでの撮影です。以前の旧フラットナーから星像がかなり改善されているそうなので楽しみです。
  • 鏡筒: タカハシ FS-60CB (口径60mm, 焦点距離355mm) + FC/FSマルチフラットナー1.04で焦点距離370mm
  • 赤道儀: Celestron CGEM II
  • センサー: Canon EOS 6D(HKIR改造)、ISO800、露光時間5分x41枚 、計3時間25分
  • ガイド: ASI178MC + 50mm Cマウントレンズ、PHD2 + BackyardEOSでガイド+ディザー撮影
  • フィルターサイトロン Quad BP フィルター(クアッド バンドパス フィルター、 以下QBP)
  • 撮影場所: 富山県富山市
  • 日時: 2019年2月5日、19時22分から
  • 月齢: 0.6(新月)


撮影

撮影は準備から含めて極めて順調。唯一大変だったのが、前回の撮影で使ったレデューサーからフラットナーへの切り替えだけです。最初は短い方の中間延長アダプターを入れて、回転アダプターを鏡筒バンドから外に出して試したのですが、やはりピントがでませんでした。なので、再び中間延長アダプターを外して、カメラは回転しにくいですが、地面に鏡筒を置いた状態であらかじめカメラの水平を出して、カメラ回転アダプターを固定してから赤道儀に取り付けました。

カメラ回転が面倒な代わりに、新型フラットナーには48mm径のQBPをきちんとねじ込んで取り付けることができました。さすが新デザインで、より汎用性が高まっているようです。

いつものようにSharpCapで極軸をとり、CGEMIIのワンスターアラインメントで初期アラインメントです。実は最近ツースターアラインメントさえ使っていません。極軸がきちんと取れていれば、ワンスターアラインメントで十分です。ただし、流石にワンスターアラインメントだけの自動導入だとズレも出てくるので、Carte du CielとAstroTortillaでplate solvingしながらの構図決め。これは極めて便利で、準備始めから30分くらいで撮影を始めることができました。

何枚か撮れていることを確認して、仮眠をとりました。仮眠のつもりがぐっすり寝てしまい、夜中12時頃目を覚したら外は結構すごい風。しかも天頂越えで最後の何枚かは流れてしまっていたので、すぐに片付け。あとはダーク50枚ほどの撮影を放置しながら、また朝まで寝ていました。


画像処理

次の日フラットとバイアスを50枚づつ撮影して、そのまま全てPixInsightで処理です。枚数も4-50枚と少ないのですぐに終わります。 ストレッチは前回同様、赤とびを抑えるためにArcsinhStretchは使わずにScreenTransferFunctionとHistgram Transformationで済ませました。

今回は彩度までPixInsightで出してみました。今回はColorSaturationツールを使いましたが、Curves TransformationツールでSアイコンを選んで彩度を上げる手もあるようです。でもまだまだ手探りで機能を理解しきっているとは言い難いです。もう少し時間をかけて探ります。あとは、いつも通りPhotoshopに送って仕上げです。


出来上がり画像

出来上がった画像は以下のようになります。

light_PCC_stretched_morfing_satiration_DBE_morph_ps2a

新月期で時期的にはよかったとはいえ、それでも光害地での宅撮りでこのクオリティーなら個人的には十分満足です。3時間以上の露光とはいえ、それでもやはりQBPの威力は大きいでしょう。ただ、少しづつQBPに対する不満も出てきました。列挙しておくと
  • 恒星のオレンジが出ない。
  • 赤が、紅に近い赤で、紫がかった赤や、ピンクっぽい赤は出にくい。(ただし、燃える木のピンクはうまく出るようです。)
  • 恒星が赤飛びしやすい。
  • 青い星雲は出にくい。
といったところでしょうか。やはり透過波長域からもわかるように緑系や濃い青、また黄色やオレンジ領域もどうも苦手なようです。これはある意味当たり前で、そのために露光時間を延ばすことができるというわけなので、贅沢な悩みと言えるかもしれません。画像処理で多少誤魔化さなければならないところも出てくるので、ここら辺は腕の見せ所となのでしょう。


Plate solving


話は変わりますが、実際の導入と構図極めの際にはplate solvingとしてAstro Tortillaを使っています。でもあまり高機能でなく、解析結果もいたってシンプルであまりわかりやすくはないのですが、撮影時にBackYardEOSを使っているのである意味仕方なく使っている面もあります。一方、同じplate solvingのソフトなのですが、もう少し高機能なAll Sky Plate Solverを使うと、画像に星雲の名前などを入れてくれたりします。

seegull


右の方で名前がはみ出してしまったりしているのは愛嬌として、今回はいろんな星雲星団がある領域だったので、少し広角を狙いました。フラットナーがちょうどいい画角だったというわけです。plate solvingを使ってこんな解析も楽しいのではないかと思います。

本当はAll Sky Plate Solverが、そのままダイレクトにBackYardEOSに対応してくれたらと思うのですが、とても惜しいです。あ、一応BackYardEOSで撮影して、そのファイルを読み込ませるだけならできます。でもその足で赤道儀にフィードバックして位置を合わせ直すので、何度もそれをやるのは面倒だというだけです。Astro TorttilaとBackYardEOSなら、全自動で赤道儀の位置の合わせ直しまで繰り返しでやってくれるのでものすごく楽なのです。


新フラットナーの実力

この画像処理と並行して、昨日の記事で四隅を切り出すプログラムを作ったのですが、その結果を示しておきます。昨日の記事では画像処理後のものを出したのですが、よく考えたら撮って出しJPEGから切り取ったものの方が周辺減光の様子などもわかるのでいいのかと思います。

これが撮って出しのJPG画像で

SEEGULL_LIGHT_6D_300s_800_+9cc_20190205-21h20m00s179ms

ここから上下左右と真ん中250x250ドットを切り抜いています。

SEEGULL_LIGHT_6D_300s_800_+9cc_20190205-21h20m00s179ms_4cut


旧フラットナーの四隅の星像がどうしても気になって、使う機会があまりなかったのですが、今回の新型のフラットナーははるかに良くなっています。スターベースで店員さんから聞いた時には、それでも色によって極わずか収差で歪むとのことでしたが、これを見る限り私的には全く気にならないレベルです。

 

 

バイアスノイズで少しやり残したことがあるので、試しておきます。


疑問: バイアスフレームをマスターバイアスで補正してみたら?

前回、バイアスフレームを何枚かスタックしてリードノイズを求めてみましたが、枚数のルートで減っていくはずのリードノイズが実際には理論通りに減っていきませんでした。すべてのバイアスフレームに載っている共通のノイズがあると考えられたからです。

それでは、多数のバイアスフレームをスタックして最後に残った共通のバイアスノイズ(PixInsight用語では「マスターバイアス」というそうです)で、各バイアスフレームを補正してから、改めて何枚もスタックしたらどうなるのでしょうか?面白そうなので試してみましょう。


予測

単純に考えるとこんな予想ができます。
  • 前回の測定で、最後まで残った全バアスフレームに共通にあるノイズがさっぴかれるので、理想的に枚数のルートに比例してノイズが少なくなっていく。
  • 最終的にはあるオフセット(一定の輝度という意味)を持った、のっぺりした画像になる。
この予想は、実際に試す前に頭だけで考えたものです。さて本当にそうなるのか、もし違ったとしても実際にどこまで迫れることやら。


測定

さて、実際に試してみましょう。

マスターバイアスは再現性もチェックするために、前回撮影したのとは別に新たに撮影し直しました。枚数ですが、できる限りノイズの少ないものということで、1024枚重ね(て平均し)たものにします。このマスターバイアスで各バイアスフレームを先に補正してから1024枚スタックします。それでもノイズは単に理想的なものを1024枚重ねたものより、(マスターバイアスが足し合わさった分)ルート2倍大きくなるはずです。その分だけ理想的な枚数のルートでノイズが改善されるというのからはずれてくると思います。(と、ここら辺のズレくらいまで実際の測定前に頭の中で考えました。)

また、バイアスフレームも新たに撮影しました。マスターバイアスを作った際の1024枚でもいいのかと思ったのですが、それだと同じものから同じものを引いただけになってしまい、本来残って欲しいノイズもゼロになってしまうかと思ったからです。


結果


今回も1、4、16、64、256、1024枚の比較です。青色の理想的な場合と、緑色のマスターバイアスで補正されたもの赤色のマスターバイアスで補正されていない(前回と同じ)ものを載せています。あと、わかりやすいように縦軸をlogスケールにしました。理想的だとグラフは直線になります。

03_readnoise_vs_gain_02_masterbias


考察

さて、結果を改めて見てみます。マスターバイアスで補正したものは明らかに理想的なラインに近づいています。1024枚の時は同じ程度の(相関のない)ランダムなノイズを2回足し合わせていることになるので、理想的な場合に比べてルート2倍程度大きくなるはずです。無相関なノイズは足しても引いても2乗和のルートになるので、ルート2倍ということです。1.4倍くらいのはずが、実際には1.8倍くらいなので、それでも理論値より少しだけ大きい値になっているようです。256枚のところにも少なからずその影響が出ています。計算上は1.25のルートなので、1.18倍ですが、実際には1.24倍です。さらにマスターバイアスの枚数を増やせば1024枚のところでももっと理想的なラインに近づいてくるでしょう。


少し補足です。まずは1枚重ねで単純にマスターバイアスを引くことを試したのですが、平均値が同じものを差っ引くことになってしまうので、ADU(輝度)が0付近に行ってしまい、その影響で標準偏差も0に近い小さな値になってしまうことがわかりました。そのため次のようにして解決しています。
  1. まずマスターバイアスの平均値の半分の輝度を持ち、標準偏差0の全くのっぺりした画像を、PixInsightのNewImageで作成します。
  2. それをマスターバイアスから引くことで、マスターバイアスの平均値を半分にしました。
  3. そうやって作ったマスターバイアスを、それぞれのバイアスフレームから引きます。
  4. その結果、平均値が輝度0より十分に大きな、マスターバイアスで補正されたバイアスフレームを作り出しました。
IMG_6322


この過程を経て初めて正しそうな結果を得ることができました。


もう一つ、実際に処理した画像を比べてみましょう。左上の奥のがマスターバイアス補正をしていないもの、右下の手前の画像がマスター補正をしたもの。ともに1024枚スタックした時の画像で、輝度は揃えてありますす。

IMG_6328

PCの画面を直接撮影したので、モアレが少し残ってしまっています。見にくいところもあると思うのですが、それでもマスターバイアスで補正をすると残っていた縦線が明らかに消えているのがよくわかると思います。



まとめ

今回わかったことまとめておきます。
  • 全バイアスフレームに載っている共通のコモンノイズが存在する。
  • そのノイズは、多数枚のバイアスフレームをスタックして作ったマスターバイアスを使って、補正することができる。ただし、オフセットごと補正してしまうことに注意。
  • バイアスコモンノイズをさっ引いたバイアスフレームはかなり理想的なランダムノイズに近い。
と言ったところでしょうか。

うーん、今回はかなり予想通りにいったので、結構満足です。予測できなかったところは、マスターバイアスで単純に補正すると平均値が0になってしまい、ばらつきも少なくでしまうことでした。これは通常の画像処理でいう、オフセットをあげて暗い部分を切ることに相当します。

というわけで、画像処理は嘘をつかないということがかなりわかってきました、、、と言いたいところなのですが、すでに少しダークノイズを試していて、こちらはなかなか一筋縄ではいかないみたいです。また余裕ができたらまとめます。


それはそうと、今回新たにバイアスファイルを2000枚ほども撮影してしまいました。すでに合計3000枚、あぷらなーとさんにだんだん迫ってきてしまいました。やばい、これはやばい。まっとうな道を行きたかったのに(笑)。




 

近頃、KYOEIさんにおいてZWO社のASI294MC Proを手に入れました。これまでもASI294MCを使ってきていましたが、今回はこの冷却タイプにあたります。私にとっては初の冷却カメラの使用になります。

でもずっと天気が悪くていまだにファーストライトが実現できていないので、その分時間は余っています。せっかくなので、冷却タイプの性能評価を、ノーマルタイプと比較してみたいと思います。

IMG_6171


 
評価方法

さて、同じようなカメラが2台あるので、興味があるのはその性能の比較です。ノーマルタイプについては以前も性能評価をしています。SharpCapを利用することで、センサーの性能を簡単に実測することができます。測定できる項目は
  • コンバージョンファクター
  • リード(読みだし)ノイズ
  • フルウェル(飽和容量)
  • 実効ゲイン
などです。

SharpCapのSensor Analysis測定は3段階に分かれています。
  1. 最初はGain 0でe/ADU(コンバージョンファクター)を測定。
  2. 次が蓋をしての、ダーク、最短露光時間状態での、リードアウトノイズの測定。
  3. 最後に、再び蓋を外してゲインを変えての実ゲインの測定です。

詳しい説明はリンク先を参照するとして、興味があるのはセンサーが同じで、冷却した時にどこにどれくらい違いがでるのかを実際に確かめてみたいと思います。


 

測定時の注意点

測定は久しぶりだったので多少戸惑いました。今回気になった、測定するときの注意点です
  • 最初はRAW8に設定されていることが多いです。RAW16モードで測定すること。
  • 光源はiPadを使ったのですが、明るすぎるのと、フリッカーのような瞬きがあるので、紙を何重にかして光を通しています。
  • 光の量の調整が結構シビアです。暗いよりは明るいほうが測定の失敗が少ないです。測定開始時の最初の自動露光時間調整で、適度な露光時間に落ち着いたときの値が20msとかより短くなると、測定を開始することができますが、光量がまだ少なくて失敗する確率が増えます。露光時間が2msから5msくらいまでの間になるようにすると成功率が上がります。
IMG_6280
  • うまくいかない場合の典型なケースでも、最初のe/ADU(コンバージョンファクター)の測定と、ダークの測定まではすんなりいくはずです。
  • 次の「ゲインを変えての測定」がうまくいかないことがあるかもしれません。ここで失敗すると最初からすべてやり直しです。そのほとんどが光量が少なすぎて、露光時間が長くなりすぎるケースです。一つは、ものすごく光量が少ないとゲイン0の時に10秒以上の露光になって止まってしまうこと。たとえもう少し光量があっても、多分これはSharpCapのバグだと思うのですが、露光時間が1.5sとか1.7sくらいの時に、測定完了の判定がうまくできなくて、露光時間を長くしたり短くしたりを繰り返すことで、タイムアウトで終わってしまうことです。回避方法としては、光量を増やして、すべての測定の露光時間を1s以下に抑えることです。
  • できる限りホワイトバランスが取れている光を入れたほうがいいのかと思います。測定時の写真が以下のように紫に寄ったような光になりますが、センサーで見るとバランスが取れていたりします。
IMG_6273
  • 今回はiPadのColor Screenというソフトを使い、センサー側で見たホワイトバランスをある程度合わせてから測定しました。でもホワイトバランスがある程度ずれていてもうまく測定してくれるようで、何度か測定してもあまり結果は変わりませんでした。あまり気にしなくてもいいのかもしれません。
  • 結構重要なのが、SharpCapの一番下のPreviewingとかdroppedとか出ているところです。接続状態が悪いとdroppedの値が増えていきます。droppedが0でなかったらおかしいと思って、ケーブルをさしなおす、ケーブルを変えるなどしてください。0でなくても測定はできますが、すごく時間がかかります。通常の測定は全部終了するまでに5分もかかることはありません。dropしていると10分以上かかったりしてしまいます。


ASI294MC ノーマルタイプ

まずは測定がうまくできているかを検証するために、以前と同じASI294MCのノーマルタイプで測定しました。この時のセンサーの温度は冬の暖かい部屋の中での測定ということで、37度程度でした。センサーが動いている場合は外気温よりは高くなるので、特に問題ない温度だと思います。

IMG_6224


測定結果ですが、約一年前に測ったものと比べても、誤差の範囲内で特に変化はなく、経年劣化なども確認されなかったと言えます。相当ハードに、約1年間使い込んでもほとんど性能劣化が見られないというのは特筆すべきことだと思います。

ただ、読みとっている横軸のゲインの設定値がだいぶん違っています。これはSharpCapの方の選択の問題なのですが、以前は低ゲインを細かくとっていたり、最大ゲインの570をとっていたりしましたが、それらがなくなりました。その代わりに59と61をとるとか、119と121をとるとか、性能が大きく変わるところをあらかじめ知っていて、測定しているみたいです。今回の場合もゲインが119と121で特に読み出しノイズの値が大きく変わっていて、メーカーが出しているグラフの結果をよく再現しています。

ちなみに、RAW8で測定した結果は以下のようになり、8bitのダイナミックレンジで制限されてしまうことがよくわかります。SharpCapのマニュアルにはできるだけ大きなビット数で測定しましょうと書いてあるので、16ビットで測っておくのがいいのでしょう。

IMG_6207


ASI294MC Pro 冷却タイプ


IMG_6235
箱の中身。オフアキとかのことも考えて、各種厚みのリングが入っています。
CD-ROMの中に日本語のマニュアルが入っています。わかりやすいです。 

次にASI293MC Proですが、まずはUSB接続のみで、外部電源(12V/3Aと表示されています)も繋げずに常温で比べてみます。ただ、同じ部屋の中で測定してもなぜかセンサーの温度がそこまで上がりません。しばらく待って温度をならして、しかも測定をしながらでも25度程度でした。これは冷却コントロールをしなくても外気温をうまく取り入れる機構ができているのかもしれません。

IMG_6283

測定結果は、ASI294MCのノーマルタイプとほぼ同じです。正確に言うと、ノーマルが37度、Proが25度と温度が低いにもかかわらず、Proのほうが少し結果が悪いのですが、これは個体差の範囲内でしょう。


実際に冷却しての測定

さて、ここからの冷却過程は初めての経験になります。12V, 3A以上出せる外部電源を用意します。今回はいつも使っているACも出すことのできる40000mAhのリチウムイオンバッテリーの12V出力端子を使いました。SharpCapのThermal Controlsのところをオンにします。ターゲット温度を下げていくと、使用電力が上がり、センサー温度が下がっていく様子がわかります。何度が試しましたが、一番下がった時で-20度に設定して、-15.8度まで行きました。ものの5分もたたないくらいにターゲット温度まで行くので、ずいぶん簡単です。最低到達温度は外気温に結構依存しそうです。

測定時は-15度がターゲットで、到達温度が-11.7度でした。その状態での結果です。

IMG_6271


一見常温の時と変わりないように見えますが、リードノイズは明らかに下がっています。温度を変えて測定したのでグラフを示しておきます。

all

上のグラフだとかなり重なっていてわかりにくいので、Gain = 500のところだけを別のグラフにしてみました。

G500


これを見ると、温度とともにリードノイズが増えていることがわかります。理屈の上では回路系の抵抗の熱雑音が多少貢献していると考えられるので、温度が下がることによってリードノイズも下がることが期待されます。測定でもリードノイズが温度によって下がることは確かめられましたが、その一方、結果だけ見ると大した効果でなく、せいぜい40℃温度が上がると1割増えるとか、たかだかそれくらいということもよくわかると思います。


ダークノイズとリードノイズの関係


ここで今一度リードノイズとダークノイズの関係を確認しておきます。カメラに蓋をしてセンサーに光が入らないような暗い状態で測定した場合、測定されるノイズはダークノイズσdark [e-/sec] と読み出しノイズσread [e-]が合わさったノイズが出てきて、実際に測定されるノイズをσとすると、

σ=σ2darkt+σ2read

という関係式で書くことができます。ダークノイズとはセンサーに光が入っていない時にも暗電流が流れることにより存在してしまうノイズで、時間 t のルートに比例して増大していくノイズです。

SharpCapの場合は、測定時間 を設定できる最短の時間0.032msとして、上式の前項を無視できる形にして読み出しノイズσreadを直接測定しているようです。ただ測定過程をじっとみていると、測定中に"Brightness"を変化させてバイアス(ヒストグラムで見ると、ピークの中心値のこと)を何度か変えてテスト測定をし、最後は"Brightness"を20に固定して最終的な読み出しノイズを測っているようでした。この過程の理由がよくわからないのですが、ばらつきの結果出てくる負の値を防ぐためのように思われます。

ちなみに読み出しノイズは、画像処理で行われるバイアスノイズと同義と言ってしまってもいいのかと思います(これちょっと自信がありません)。


ダークノイズの温度依存性

読み出しノイズは温度の依存性はあまりないことは上の実測でわかりましたが、ダークノイズは盛大に温度に依存します。簡単にですが、その結果だけ示しておきます。

測定時の条件は
  • モード: RAW16 (16bit)
  • 露光時間: 30s 、バイアスノイズの時だけ0.0032ms
  • Gain: 120
  • Brightness(オフセット): 20
  • ホワイトバランス: Red 50, Blue 50
  • 画像はfitsファイルをPixInsightで開き、DebayerはせずにそのままJPEGに変換
です。Gainが120の理由ですが、ここでノイズが小さくなるからです。

まず露光時間を最短にしたリード(バイアス)ノイズに相当するもの。ただし測定時の温度は17.6℃です。
dark_10_frames_17.6C_2019-01-27T02_11_10


次に、露光時間を撮影時を想定して30秒とした場合でリードノイズとダークノイズが合わさった場合で、温度が低温時の-16.2℃の場合です。明るさは上のバイアスノイズと比較できるように同じ値でストレッチしました。
dark_10_frames_-14.1C_2019-01-26T20_42_42

右上にアンプノイズが見えます。左側に明るいカブリが見えますが、これは漏れ光とかではないと思うので、何か余分なノイズが出ているようです。

最後に同じく露光時間30秒で、常温時の温度が25℃です。
dark_10_frames_16.2C_2019-01-27T02_06_54

低温時と比べて背景も相当明るくなります。さらに拡大してみるとわかるのですが、輝点がはるかに大量に発生しています。


まとめ

疲れたので、今日はとりあえずここら辺までとします。今回わかったことは、
  • ASI294MCは一年ほど使い込んでも経年劣化のようなものは見られない。
  • ASI294MCとASI294MC Proにおいては常温時では性能に差が見られない。
  • Proの方がクーラーを使わなくてもセンサー温度が低い状態を保つことができる。
  • 読み出しノイズは、温度の増加で大きくなるが、大した影響ではなく、40℃温度が上がって1割程度の増加である。
  • 一方、ダークノイズは温度増加で、背景、輝点ともに盛大に増える。
などです。温度によるダークノイズの差は見えましたが、これが実際の撮影にどれくらい効くのか、次回以降、気合が残っていればもう少し定量的に評価してみたいと思います。

今回の記事は結構一般的なことだけ書きましたが、まだまだ他にもまとめきれていないことがたくさんあります。例えば、
  • リードノイズとBrightnessによるバイアス設定の関係
  • バイアスはゲインを合わせなくてはいけないのか?
  • Gain120の振る舞いがあまりに面白くて、これだけでひとつ記事が書けそう
とかです。特にGain120はちょっと変っぽいです。なんか、サチらないピクセルが存在するためにノイズが少なく見えているだけのような印象です。

いやあ、CMOSカメラも奥が深いです。温度というパラメータが一つ増えたのでちょっと溢れ気味ですが、焦らずゆっくり進めていきたいと思います。




赤道儀のセッティングの続きを少しだけ。初期アランメントで一発目に度くらいの精度で入ってくるかという話です。比較するのは、前回の記事で評価した

  • 水平インデックス法
  • 鏡筒水平法

の2通りの方法で実際どれくらいの誤差になりそうかというのを評価してみます。今回も極軸は十分な精度であっているとの仮定が入っています。あ、便宜上名前は勝手につけてしまいました。全然正式な名前ではありませんのでご了承ください。


水平インデックス法

1. 三脚の脚の長さででる水平度の誤差:
水準器を見ながら、最下部の脚の開きがざっくり1mくらいの幅で、手で3mmくらいの精度の脚の長さを合わせるのはできそうなので、
0.003[m] / 1[m] x 180[deg] / pi[rad] ~ 0.2 [deg] 

2. AVXの赤経体の直径が10cm(半径5cm)くらい、インデックスマークの幅が2mmくらいで半分の半分くらい幅の幅では少なくとも合わせられるとして、
(0.002[m] / 4) / 0.05[m] x 180[deg] / pi[rad] ~ 0.57[deg] 

3. 同じくAVXの赤緯体の直径が10cm(半径5cm)くらい、インデックスマークの幅が2mmくらいで半分の半分くらい幅の幅では少なくとも合わせられるとして、
(0.002[m] / 4) / 0.05[m] x 180[deg] / pi[rad] ~ 0.57[deg] 

4. 時刻の精度ですが、実際に時刻を打ち込んでからいつが赤道儀が動き出す最初かあまり確定していないのですが、30秒くらいの精度では合うとして、
0.5[min] / 60[min] / 24[h] x 360[deg] ~ 0.125[deg]


誤差は1から4までの2乗和のルートくらいになり、

sqrt(0.2^2 + 0.57^2 + 0.57^2 + 0.125^2) ~ 0.84[deg]

となります。この精度がどれくらいの意味を持つかというと、基本的にそのまま赤道儀の初期アラインメントの一発目がどれくらい中心からずれるかを示します。
  • 典型的な光学ファインダーの視野が、例えばVixenで7倍、50mmで実視界7度とのことなので、十分ファインダーには入るはずです。
  • 電子ファインダーで例えば、焦点距離50mm、1.8インチのASI178MCだと8度x6度と十分すぎる画角です。
  • 例えばFS-60Qで焦点距離600mmの鏡筒でフォーサーズサイズのASI294MCだと1.6x1.2度なので、まあなんとか入ってくるくらいです。
  • 例えばFS-60CBで焦点距離355mmの鏡筒で1/3インチのASI224MCだと0.8x0.6度くらいなので、ちょっと厳しいですね。


鏡筒水平法

一方鏡筒水平法では、誤差は結構変わってくるはずです。基本的に、三脚の脚の長さ調整の誤差と赤経のインデックスマークの誤差が、鏡筒においた水準器の精度に置き換わります。水準器の誤差はホームセンターで普通に売っている簡易なものでも簡単に0.1度くらいは出るようです。赤緯のインデックスマークの誤差は同じとします。全部の誤差を考えると

sqrt(0.1^2 + 0.57^2 + 0.125^2) ~ 0.59[deg]

くらいで、 
  • 光学ファインダーで電子ファインダーでも当然一発目で入ってきて、
  • 焦点距離600mmの鏡筒でフォーサーズサイズセンサーだとかなり真ん中に来て、
  • 焦点距離355mmの鏡筒で1/3インチセンサーでもなんとかギリギリ入ってくるくらいです。

確かにこのあいだの実際のテストでも、何度かやってみても鏡筒水平法の方が真ん中近くに来ていたので、あながち間違った見積もりでもないでしょう。

IMG_5887
水平インデックス法: 視野のギリギリで入るくらいです。入らない時もあります。

IMG_5895
鏡筒水平法: だいぶ真ん中に寄ります。視野に入らないことはまずありあません。

あと、鏡筒の光軸自身が赤道儀に取り付けたアリガタの向きからずれれている誤差は今回入れていません。これがずれていると、上の誤差以上のずれが出るかもしれませんが、見た目でそこそこ合わせているならそれほど大きくずれることはないでしょう。私は極軸を合わせた時に、カメラの視野の真ん中が極軸になるようにある程度光軸を合わせてあるので、実際に上の誤差よりも十分小さい範囲で合わせこまれていることになります。これはSharpCapで極軸調整した際に一回合わせてしまえば、それ以降アリミゾと鏡筒を外したりしなければあまりずれないので、一度はきちんと合わせておいてもいいかと思います。


いずれにせよ、水平インデックス法に変えて、鏡筒水平法にせよ、ファインダーレベルで一発目に入らないのはさすがに論外な誤差と言えるので、何か根本的におかしいと思っていいはずです。例えばりっくんさんは、AVXの設定を工場出荷時に戻したら、少なくとも一発目でファインダーに入るようになったというので、あまりに状況がおかしかったら他の原因を考えるのも解決につながるかもしれません。

仕事が忙しいのと、せっかく時間ができても全然天気が良くならないので、いままで書きかけていた大量のボツ記事を少し書き加えて公開しようと思います。

今回は電視観望をするときに適したカメラ選びという観点で、これまでの経験から比較検討してみようと思います。これから電視観望を始めてみたいという方の参考になればと思います。

IMG_5793

なお、今回載せたものはあくまで自分でよく触ったもの、近くで見ていたもの、もしくは評判をよく聞いていたものばかりです。これ以外にも電視観望に適したカメラは私が知らないだけで、たくさん存在するでしょうし、電視観望という用途以外ではもっといろんな選択肢があるということはいうまでもありません。この点ご注意ください。


まずは通常のスペックです。それでもカメラメーカーのところには普通はSNR1sのことはほとんど触れられていません。SONY独自の値ですが、電視観望にはこのSNR1sは、いかに暗い天体を制限された時間内に映し出すという意味で、非常に重要になります。

あと、基本事項としてですが、撮影では重要なファクターになる「冷却」は電視観望にはほとんど必要ありません。手軽さも性能の一つと考えると、電力、ケーブル取り回し、重量などから、冷却にかけるコストほどメリットが得られないと考えています。なので冷却モデルは今回は考慮に入れていません。


電視観望のためのカメラ比較

CameraセンサーTypeサイズ [mm] 画素数1素子サイズ [um] SNR1sbit価格
ASI224MCIMX2241/3"4.9x3.71304x9763.750.13lx123.0万
ASI385MCIMX3851/1.9"7.3x4.11936x10963.750.13lx124.4万
ASI294MCIMX2944/3"19.1x13.04144x28224.60.14lx149.5万
ASI290MCIMX2901/3"5.6x3.21936x10962.90.23lx123.6万
ASI290MMIMX2901/3"5.6x3.21936x10962.90.23lx124.8万
ASI178MCIMX1781/1.8"7.4x5.03096x20802.40.46lx144.4万
ASI183MCIMX1831"13.2x8.85496x36722.4?126.5万
Revolution ImagerICX8111/3"4.8x3.6976x5825.0??4.0万
SV105OV27101/2.7"5.9x3.31920x10803.0?100.7万

* 価格は2018年11月20日現在の天体ショップでの典型的な税抜き価格、ただしSV105はAmazonなど。

SNR1sの値が小さいほど電視観望に向いていると言ってしまってもいいくらいかと思います。一番SNR1sのいいASI224MCでさえ、まだ暗いと思っているので、まだまだ電視観望は発展途上の技術と言えます。表を見ると、SNR1sはセンサーの1素子のサイズにだいたい反比例することがわかると思います。なのでRevolution ImagerはSNR1sの値が公表されてないとはいえ、暗い天体に有利なはずで、電視観望用のカメラとしてはうまく選んでいるのかと思います。


用途など

Camera焦点距離用途使ったことがある自分で持っている参照記事
ASI224MC150-600mm星雲、星団参照記事
ASI385MC200-1200mm星雲、星団××
ASI294MC400-2000mm星雲、星団、天の川参照記事
ASI290MC200-800mm星雲、星団××
ASI290MM200-800mm太陽参照記事
ASI178MC300-600mm参照記事
ASI183MC400-1200mm星雲、星団×参照記事
Revolution Imager200-800mm星雲、星団参照記事
SV105200-800mm月、惑星×参照記事


用途と適した焦点距離は、私の経験から独断と偏見で書いてあります。基準はM31アンドロメダ銀河の全景が見えるのが最小、自動導入で困らないくらいの範囲でM57が程よく見えるのが最大の焦点距離です。手持ちの鏡筒がこの範囲に入っていればとりあえず使うことができると思います。

もし手持ちの鏡筒の焦点距離がこんなに短くないという場合には、Revolution Imagerに付属するような0.5倍のレデューサをつけると、倍の焦点距離で同じ視野角になるので、焦点距離の短い鏡筒の代わりになります。例えば、Revolution Imagerなら400-1600mm程度の焦点距離でも使えるようになります。ただし、星像は乱れるので注意が必要です。


メリット、デメリットなど
Cameraメリットデメリット
ASI224MC感度良、安価、電視観望入門向き、惑星撮影にも使えるセンサー面積小、導入が大変
ASI385MC感度良、面積中、コストパフォーマンスいい
ASI294MC感度良、面積大、高解像度、性能だけで見るとこれがベスト、広角レンズで天の川なども値段が高い
ASI290MC感度良、電視観望入門向き、モノクロ版とセットで持つと惑星撮影で良センサー面積小、導入が大変、値段が224MCより少し高く、SNR1sは少し劣る
ASI290MM太陽電視観望にはこれ、太陽撮影や惑星撮影にはベストかモノクロ
ASI178MC高解像度、月の電視観望にはこれ感度低い、星雲には向かない
ASI183MC面積大、高解像度、ビニングが使える感度低い
Revolution ImagerPC無しで手軽に電視観望ができる、モニターなど一式込みでトータルでは相当安価、カメラでスタックできるので星雲などもOKアナログ信号
SV105ひたすら安価露光時間が500msに制限されるため星雲は向かない、月や惑星なら可


ASI294の焦点距離は、カメラレンズアダプターとカメラレンズを使うと、広角なセンサーを利用して天の川などの星景、星野を見るのにも適しています。もちろんASI224MCなどの小さいセンサーでも、より焦点距離の短いCSマウントレンズなどを使って天の川を見ることもできますが、淡い星を見るという観点から行くと、広角センサーで「焦点距離の長いレンズを使う」方が迫力があります。コントラストは眼視の場合は倍率、カメラを使った場合には焦点距離だけで決まってしまうからです。


以下、それぞれについてコメントです。
  • ASI224MC、ASI385MC、ASI294MCに関しては感度の観点からはベストに近くて、これ以上を求めるのは現時点では難しいと思います。唯一可能性のあるのが同じSONYの一眼レフカメラのα7S系です。あれはお化けセンサーで、カメラ単体で電視観望をするならベストかと思いますが、今のところ単体でのセンサーの仕様は公表されていませんし、PCに取り入れてSharpCapでスタックとかになると、一部可能になりそうな動きはありますが、まだちょっと大変です。
  • ASI385MCは実際には触ったことはないですが、周りの評判を聞いている限りは感度も良く、入門機としても相当こなれている印象です。
  • ASI224MCは入門機としては安価でいいですが、センサー面積の小ささから天体の導入に苦労するかもしれません。そういった観点からはASI294MCは16倍の面積を見ることができるので、導入は相当楽になりますし、画素数もPCの解像度よりはるかにいいので、多少PC上で拡大しても画面が破綻することなく、広角から狭角まで幅広く対応できて使いやすいです。値段さえ気にしなければこれがベストでしょう。
  • ASI290MCは実際に使ったことがないのでわからないのですが、聞いている限り評判は悪くないですし、ASI290MMはモノクロということもあり、太陽の電視観望、撮影では遺憾無く性能を発揮したこともあり、惑星撮影まで視野に入れるなら、カラーモノクロ合わせて持っておくのもいいのかもしれません。
  • 私自身は短時間しか使っていないのですが、ASI83MCはその高解像度から特にビニングを利用するとよく見えますし、使い方によっては電視観望にも向いているカメラと言えると思います。
  • Revoluition Imagerは計算機を使わない電視観望としては数少ない有力な選択肢だと思います。PCを使わないので手軽で、観望会などでも使いやすいと思います。アナログ出力なので多少ノイズが多いですが、カメラ単体でスタック機能を持っていて、ノイズ軽減ができるのは特筆すべきでしょう。今回、改めて素子の大きさを認識することができました。根本的に感度のいいカメラなのかと思います。
  • SVBONYのSV105はブログのコメントに質問があり、星まつりで少し触らせていただいたので載せておきました。ただやはり500ミリ秒までの露光時間しか取れないところが決定的な欠点だと思います。値段が7千円程度と他と比べても格段に敷居が低いので、これでうまく使えたらと思ったのですが、星雲星団はよほどうまく使わないと厳しいかと思います。現時点では月、惑星などの明るい天体がオススメです。

こうやってみて、コストパフォーマンス、手軽さ、性能と比べると、(自分では使ったことはないですが)ASI385MCがベストバイでしょうか。次点がASI294MCとASI224MCですが、これらは高価高性能、お手軽入門用とベクトルが逆方向です。

以上参考になりましたでしょうか。自分自身のまとめも兼ねているのですが、個人で見ている機種に限りもあるのでここらへんが限界です。他にもQHYCCD社のカメラも同じセンサーを使っているものは同程度の性能があるかと思われます。面白い情報などありましたら、またコメントなどでおしらせください。



星をもとめてで購入したVixenファインダーアイピースですが、コメントをいただいたりっくんさんのリクエストに答えて、早速SCOPIOのf800mmに取り付けて試してみました。焦点距離が100mmのアイピースと同等なので、8倍という双眼鏡クラスのかなり低倍率になります。31.7mmのアイピース取り付け口に普通に差し込むことができます。


まずファインダーとしてです。
  • 両目導入をしたいと考えると、天頂プリズムなどは当然使うことができません。このアイピースは普通のアイピースに比べて大きいのと、長さがかなりあるため、結構しゃがんで覗かなくてはいけません。天頂の方をのぞく時などは普通のファインダーの位置よりかなり覗くところが下になります。
  • 両目導入は普通にできます。右目をファインダー、左目を裸眼で両方いっぺんに見ます。左目のターゲットに合わせて右目の十字線を左目のターゲットに合わせて持ってくると視野に入ってきます。
  • 普通のファインダーのような初期調整を全く必要としないところは、初心者には優しいと思います。
  • ピントが合う範囲が意外に広いので、唯一必要なピント調整も苦労することはないと思います。
  • 結構重いので、アイピースホルダーからストンと落ちそうになったことがありました。でも、切り欠きがあり落下防止が付いているので、落ちることはなかったです。


次に長焦点距離のファインダーとしてです。実は私はこちらの方に期待していました。
  • まず、長い本体にさらに結構長めのアイリリーフと言っていいのでしょうか、長いゴム状の筒がついています。そのためりっくんさんがコメントされたように、底を覗く感じという表現がぴったりです。
  • なんでこんなものがついているのかと思ったのですが、簡単に外れるので外してみてその理由がわかりました。思ったより像が見える位置が限られるのです。光線上にうまく瞳を持ってこなくては見えないという意味です。なので、アイリリーフで長い距離を稼いで、光軸と瞳を合わせようとしているのだとわかりました。
  • もう一つ重要な点ですが、倍率は低いけれども、決して視野が広いというわけではないということです。試しに月をこの100mmのファインダーアイピースと、20mmの別の星まつりで買った格安アイピース(特に視野が広いわけではないごくごく普通のという意味)で見比べてみるとよくわかるのですが、見ることのできる範囲は実際にはほとんど変わらなく、100mmの方が(倍率が低いために)小さく見えるというだけです。同じ範囲を遠くから見るか(100mmファインダーアイピース)、近くで大きく見るか(普通の20mmアイピース)と言った表現が近いでしょうか。

月をスマホでそれぞれ撮ってみました。

IMG_5464
100mmのファインダーアイピースの見え方


IMG_5468
一般の20mmのアイピースでの見え方

月の明るすぎるとか、ピントが合っていないとか、雲がかかってるとかは気にしないで下さい。外の円に対して月がどれくらいの比率で見えるかが重要です。結局見えている視野角としてはほとんど変わらないのがわかると思います。その代わりに月の大きさは焦点距離の倍率に従って5倍くらい変わっているのがわかります。この印象は目で見たときも同じです。

あわよくば焦点距離400mmくらいの短焦点の鏡筒にこの100mmのアイピースを使って4倍くらいにして視野を広げて星座でも見ようかと思っていました。その思いが拭い去れずに、ダメだと思いつつタカハシのFS-60CB(焦点距離355mm)で実際に小さい部類のこと座を見てみました。もうわかってはいましたが、さすがに視野がそこまで広いわけではないので、なかなか星座の形として認識することはできず、WideBinoのようにはいかないです。


でもせっかくなので、使う場面を想定してみましょう。私の場合、例えばFS-60やMEADEの25cmのシュミカセもそうなのですが、シンプル化や電子ファインダーを使ってしまうために、あえて鏡筒にファインダーをつけていないことも多いです。たまにどうしても導入がうまくいかなくて、でもファインダーをつけるのがめんどくさくて、鏡筒の直線部分を延長してのぞいて、無理やり、しかも苦労して導入することがあります。そんなときにはこのファインダーアイピースが役に立つのではと思いました。


あと、多分この種のものはある意味変わり種といいますか、使ってみると苦労して設計されたのが分かる気がするのですが、私はこれが製品化されたこと自体をすごく評価したいと思います。しかも定価4500円と、お試し価格のような素晴らしい値段設定で、気になったら本当に気楽に試すことができます。こういったメーカーの冒険心はいつか画期的な素晴らしい製品に結びつくのではと、ついつい期待してしまいます。厳しい昨今、売り上げがどうかとかは私にはわかりませんが、どうかこの手の火を絶やさないでいただきたいと切に願います。


最後にまとめですが、初心者にとって、普通のファインダーの初期調整というのは意外に難しいとよく聞きます。大きめで少し癖のあるこのファインダーアイピースですが、その初期調整が省けるというだけでも価値はあるのかと思います。定価で税別4500円と値段的にはかなり安い部類に入ると思うので、試しに持っておくのはいいのかもしれません。


このページのトップヘ