ほしぞloveログ

天体観測始めました。

もう、ムハッという感じです。ASI294MCすごすぎです。電視の画面の中で神々しいくらいの星がちりばめられています。

IMG_3297
オリオン座の三つ星付近です。画面は何の加工もしていません。
露光時間800ms、ゲイン450で、スタックも何もしていません。
iPhoneでPCの画面をそのままとっただけです。


今日もずっと雪で天気が悪かったのですが、夜に外に出て見ると雲が少し切れているところがあったので、駄目もとと思いながらASI294MCを出しました。

カメラ側はZWO製のCanonアダプターを付けて、レンズはNIKKOR-S 50mm F1.4のオールドレンズにCanonアダプターを付けてです。二つをくっつけて、簡単に三脚の自由雲台に乗せてのマニュアル導入です。中くらいの星座がちょうど入るくらいの画角なので、かなり広角で、手で合わせるので十分です。

IMG_0873


雲の切れ間といっても、けっこう霞んでいるので、目ではほとんど星なんて見えないです。たまに明るいプロキオンが見えるくらいで、リゲルもベテルギウスもほとんど見えません。とにかく動画を見てください。



ものすごい高感度のためにまるで昼間みたいに見えますが、れっきとした夜の映像です。場所は自宅の庭。露光時間は400ms、ゲインは500。ASI294MCの最大ゲインは570なのですが、それに近いゲイン500でもノイズがこれまで使ってきたカメラよりも圧倒的に少ないです。アップロードのために解像度を1024x698に落としていますが、もとは4144x2822の超高解像度映像です。

何本か撮影したうちの一つですが、間も無く雲が多くなってきて撤収しました。とにかくASI294MCですが、凄いポテンシャルかと思います。早く晴れたににじっくり見たいです。

 

Natusです。今年(中1)の夏休みの自由研究を紹介します。

夏休み明けに学校に提出した後、学校で展示していました。1ヶ月ほどで返って来たのですが、そのまま放りっぱなしになっていました。せっかくなのでブログにまとめておきます。


IMG_3281


テーマは「手動赤道儀の恒星自動追尾化」です。
去年の自由研究の「星でめぐる銀河鉄道の夜」に続き、今年も天文関係のテーマにしました。
夏休み前にハンドルを手で回して星を追う手動赤道儀型の天体望遠鏡を手に入れたので、手でハンドルを回さなくて済むように、自分で赤道儀を自動追尾化させてみようという内容です。




IMG_3278

使用した望遠鏡:ポラリス80L

<望遠鏡の説明>
    夏休み前に名古屋のスコーピオで手に入れました。

望遠鏡セット:Vixenのポラリス80L
       40年ほど前の製品で、1980年にはすでに発売されていたことが確認できた
      
   赤道儀:手動
       赤緯を0度にすることで経緯台にもなるタイプ
       目盛り環付き
       赤経、赤緯軸ともに微動ハンドル付き

<視野角の測定>
 昼間に下の写真のように望遠鏡から10m離れたところにあるメジャーを見てどのくらい見えるのかを調べ、その結果から望遠鏡の視野角を計算しました。 
IMG_3285

望遠鏡の視野角の測定

<赤道儀を動かす>
目標は「10分経っても視野の中心に入れた星が真ん中と端の中間を超えない」ようにすることです。そのためにはできるだけ正確に10分間で微動ハンドルを1回転させる必要があります。    
 
IMG_3286

                                               
1番のポイントは微動ハンドルをどうやって回すかということですが、最初、重りを使って回してはどうかと考えました。モーターの代わりに何らかの重りを使って回転軸をまわすというものです。

ところが、重りでは動摩擦係数と静止摩擦係数の差が大きすぎるため、なかなか星を追う時の回転速度を安定させて出すような仕組みは作れそうにないことが分かりました。



次にモーターで赤道儀を動かすことにしました。

IMG_3273

モーターを取り付けた写真

 
モーターのギアと微動ハンドルを外したところにつけたギアを噛み合わせて動かします。
モーターの回転速度は計測するとぴったりでそのまま使うことができました。



IMG_3283

極軸が1°ずれたときの星の動きと赤道儀の動きの誤差の計算

<実測>
実際に星を自動追尾させてみました。
モーターで星を自動追尾させ、目標の視野の真ん中と端の中間を超えるまでの時間を計測します。
前の日も計測をしたのですが、極軸を正確に合わせていなかったため、8分ほどで星が中間を超えてしまいました。
今回は極軸をできるかぎり正確に合わせました。(2分のずれ)

IMG_3277



結果、1時間経っても星は視野の中心からまったくずれませんでした。極軸合わせで結果がここまで変わるのかと驚きました。



<結論・感想>
元々の目標の10分間の追尾を大幅に越して、1時間をこえても目では確認できないくらいの星像の流れに収めることができたので、大成功です。
今までただ見ていただけの星を自分で追いかけることができると分かったことに、何より感動しました。
来年はもっとレベルアップしたものに挑戦したいです。



夜に晴れるのを待ちこがれながら、雪の日曜日の昼間にSharpCapでテストをしています。β版がまた期限切れになってしまったのでアップデートしたら、ヒストグラムがすごいことになっていました。


ヒストグラムと情報

小さなヒストグラムがLive stackモードにしなくても使えるようになったのは以前報告しましたが、右の狭いエリアの中にしか表示できなかったので、見にくかったのと操作がちょっとしにくかったです。今回のアップデートでは、以前Live stackモードでしか出てこなかった大きな画面でのヒストグラムが、スタックとは独立にいつでも見えるようになりました。しかも、カーソルを置くと、その位置での情報が見えます。

IMG_3254


意味は上から順に
  • Value: 横軸に相当。一番右端で2048(11bit?なぜ?)で100%になります。
  • Count: 縦軸に相当。カーソルを置いた位置でのピクセル数。
  • True ADU: 横軸に相当。ADCで数えたカウント数。一番右端で今回の場合14bitなので16384。単位は [ADU]。
  • Electrons: 上の数にコンバージョンファクターfcをかけたもの。単位は [e-]。
  • Electron Rate: 謎です。単位は[e-/s/um^2]
となるみたいです。また、RGBそれぞれの平均値(Mean)と標準偏差(SD, standard deviation)もわかるのもすごいです。

これらのヒストグラムの値は、デフォルトでは全画面ですが、上の方の赤い枠が表示されている小さなアイコンを押すと、エリアが選択できるようになり、場所と面積を任意に選べるようになります。その場合はヒストグラムはそのエリア内の情報を示すようになります。


読み出しノイズの影響

これだけでもすごいのですが、このヒストグラムの真骨頂は16bitのRAWモードを選ぶと出てくるバーにあります。これは8bit RAWなど他のモードでは出てこないので注意です。ヒストグラムの上の方に2本の色付きのバーが見えます。上のバーが読み出しノイズがどれだけ影響するかを示すもの。星雲の淡い成分もヒストグラムのピークより少し右側くらいにいますから、目安としてはヒストグラムのピーク位置で考えればいいと思います。このピークがどの色のところに来ているかで、読み出しノイズが支配的かどうかがわかります。赤のエリアにピークが来ている場合は、読み出しノイズが支配的なので、露出時間を長くすると読み出しノイズの影響を抑えることができるということを示しています。

IMG_3248
ピーク位置が上のバーの赤色のところにあると、読み出しノイズに支配されています。
露出時間を上げることで画質が改善されます。


オレンジはまだましですが、それでも読み出しノイズに影響されています。これもさらに露光時間を長くとった方がいいということです。

IMG_3247
ピークがオレンジのところだと、読み出しノイズが画質に明らかに影響があるという意味です。
これも露出時間を伸ばすと画質が改善されます。


グリーンのところに来ていれば問題ありません。このエリアになるまで露光時間を増やすといいということがわかります。

IMG_3250
この緑のところにヒストグラムのピークが来ると、読み出しノイズは画質には影響ありません。

上のバーの色の割合は、ゲインを変えると変化します。それぞれのゲインにあったピーク位置が存在するということです。一方、露光時間を変えただけではバーの色の割合は変化しません。このことはちょうど昨日記事にした、「読み出しノイズは露出時間を長くすると無視することができるようになる」と言っていたことと一致します。でも、昨日の時点でこの機能のことは知らなかったので、今朝のアップデートはものすごくタイムリーな機能を知ることとなりました。


ADCのbit分解能は十分?

一方、下のバーは8bitでいいのか、16bitの方が有利なのかを教えてくれます。 左の緑のエリアにピーク位置があると、8bitでは足りていなくて、このASI224MCが持っている14bit、もしくはもし得られるならばそれ以上のbit数の方が有利ということを示しています。

IMG_3252
ここの位置にピークが来ていると、SharpCapの設定で8bitにした場合と、
16bitにした場合に明らかに差があって、16bitに設定した方が有利だと示しています。


一方、ピークが黄緑の位置にある時は8bitでも14bitでもどちらでも画質に差はないということを示しています。

IMG_3253
黄緑のところにヒストグラムのピーク位置がくれば、
8bitモードでも16bitモードでも差がないということを示しています。



このことは、長年の疑問の一つ、ピーク位置をどこに持ってくればいいのかという疑問に対して一つの指針を示してくれています。ゲインを上げて、ピーク位置を黄緑のところまで持ってくれば8bitでもいいということです。ただし、これには注意が必要で、ピークを右側に持ってくれば当然明るい部分が飽和するまでに余裕がなくなってしまいます。なので当然14bitで撮影する(SharpCapの設定では16bit RAW)として、ピーク位置を緑と黄緑の境界くらいに持って来ると、暗い方の階調に関しては手持ちのbit数を最大限引き出しているということになるのかと思います。ただし、これも明るい部分の飽和には注意する必要があります。


背景光の測定モードも

他にもまだスカイノイズの測定もできるようです。バーの左上の脳みそマークを押すと、測定画面が出て来ます。こちらは暗い空を必要とするようなので、またいずれ試そうと思います。 

IMG_3255



最近のSharpCapのアップデート、特にTool類の追加はセンサー性能実測機能にとどまらず、凄まじいものがあります。特に最近個人的にはちょうどカメラのノイズのことを考え出したので、(もちろんただの偶然ですが)まるで自分のノイズの理解度に呼応してアップデートしてくれているような気分になってしまっています。 
 

KYOEIさんの在庫ありでせっかく手に入れることができたASI294MCですが、すでに一週間何もできずに過ごしてしまっています。昨日の朝起きたら、久しぶりに青空が広がっていて期待したのですが、夕方にはすでに曇り。今日はまたこれから雪みたいです。天気だけはどうしようもないので、相変わらず脳内ミュレーションです。今日はノイズについてもう少し考えてみます。


FullSizeRender

今日も家の外は雪景色。北陸の冬は天体観測には厳しいです。

カメラによる天体撮影をする時、誰もが綺麗な仕上がりになることを目指して撮影に臨むわけですが、最初は何をしたらいいのか、完全に手探りで全くよくわからないものです。それでも調べていくうちに、先人たちの貴重な経験から色々な手法があることがわかり、それに従ってマスターしていけばかなりのレベルで撮影ができるようになってきます。ところが、ある事柄について全く方向性が逆の手法が示されていたり、おまじないのようになぜそれをしなければならないかなど、手法の根拠がよくわからないということがよくあります。何が正しくて何が間違っているかよくわからなくなるのです。その助けになればいいと思って、ノイズのことをいろいろ調べたり考えてみましたので、メモがわりに書いておきます。


0. 天体撮影におけるノイズの一般式

まず一般的に天体撮影をする時にどういったノイズが出てくるかですが、定性的な話は調べるとたくさん出てくるのですが、きちんと式で説明してくれているようなところはなかなか見つかりませんでした。それでも天文系のCCDカメラやCMOSカメラを研究、開発しているようなところは、やはりノイズについても相当定量的に調べていて、我々アマチュア天文家の撮影にも使えそうな定式化をしてくれているので、そこらへんの話を考えてみます。

CCDカメラやCMOSセンサーを使ったカメラでの天体撮影において、信号とノイズの比S/Nは

S/N = (n t Ssig/ sqrt( A n σ^2 + A n t SskyA n t Sdark + n t Ssig) ∝ sqrt(n)

と書くことができます。ここで
  • A [pix] : 開口面積
  • n : フレーム枚数
  • σ [e-/pix] : 読み出しノイズ
  • t [s] : 1フレームの積分時間
  • Ssky  [e-/s/pix] : スカイバックグランウンド
  • Sdark  [e-/s/pix] : 暗電流
  • Ssig  [e-/s] : 天体からの信号
です。この式から様々なことがわかります。

まず、この式は全てのノイズ(分母の方)は枚数nを増やせば増やすほど、原理的には枚数のルートに比例して増えていくことを示しています。ノイズは減るのではありません、増えていくのです。その代わりに、ターゲットの信号に当たるS(分子の方)も枚数の1次で比例して増えていくので、結果としてS/Nは

/ sqrt(t) = sqrt(t)

で向上して行きます。もっと簡単に言い換えると、コンポジットした枚数のルートに比例して綺麗になっていくということです。

次に、分母のノイズの中身をもう少し詳しく見ていきましょう。


1. 読み出しノイズ

まず、読み出しノイズは積分時間によらず一定です。このことは、読み出しノイズは一枚のフレームをとるたびに必ず一定量入りますが、長く撮っても増えもしなければ減りもしないということを意味します。もちろん信号Sは時間の1次に比例して増えていくので、S/Nは結果として時間の1次で良くなっていきます。これはその他の時間のルートに比例して増えていくノイズと比べて、長時間かけて撮影するならば無視できうるノイズということになります。でも誤解しないで、式を今一度よく見てください。読み出しノイズは枚数を増やしても他のノイズと効きが同じでなだけで、無視できるようにはなりません。一枚あたりの時間を伸ばすことで初めて無視できるノイズということです。ここら辺は目からウロコの方も多いのではないでしょうか。私も最近まで意識できていませんでした。

読み出しノイズ以外のその他のノイズの振る舞いは、時間と枚数に関しては良く似ています。読み出しノイズを無視した形でS/Nを再び式を書くと


S/N ~ (n t Ssig) / sqrt( A n t Ssky + A n t Sdark + n t Ssig)
          = Ssig / sqrt( Ssky + Sdark + Ssig) x sqrt(n t∝ sqrt(n t)

となります。今度は時間のルートで全てのノイズが増大(減少ではありませんよ)していって、信号Sは時間の1次で比例して大きくなっていくので、結果としてS/Nが時間のルートで向上していくというわけです。nについても同じような関係になるため効果は同じですね。もう少し噛み砕いていうと、一枚の撮影時間をふやすか、もしくは撮影枚数を増やす、すなわちトータルの撮影時間を増やしていけばいくほど、そのルートで綺麗になっていくということです。


2. ダークノイズ

さて、分母に残った3種類のノイズの中で一番馴染みがあるのはダークノイズでしょうか。これはダークフレームを撮影した時にホットピクセルやクールピクセル、アンプの熱雑音ノイズなどに起因して明るくなったりするパターンノイズなどという形で実際に見ることができると思います。ここで注意ですが、そのダークフレームの中に写っている真っ暗に見える部分にも、ある程度の写り方のバラツキが存在するということです。ばらつきに関しては、すぐ下のノイズの説明のところで詳しく説明します。ダークフレームも時間をかけて撮影すると、時間のルートに比例してノイズが大きくなってきます。


3. スカイバックグランドノイズ

スカイバックグラウンドノイズは光害などに起因する背景の明るさのノイズですが、普段の撮影では、最もよく目にしているはずのノイズで、最も問題になるはずなのに、あまり定量的に議論されているのを見たことがありません。実はこれは撮影した画像からきちんと測定できるものなのですが、私もまだ実際に評価したことはないので、機会のある時に真面目に測ってみたいと思っています。撮影したときのある内部ゲインの時の、ADU(ADCのカウント数)からe-(センサーで数えられた電子の数)へのコンバージョンファクターfcが分かっていれば、画像の中での星が写っていない背景部分のADCのカウント数を数えることによって、きちんと定量的に見積もることができ、かつ電子の数として他のノイズと直接大小を比較できるわけです。ただ、ひとつ誤解を招かないようにしておきたいのは、今議論している画像というのは、すでにフラット補正もされて、背景光のオフセット分(DC成分)を差っ引いて、ノイズとなる揺らぎのみを考えているという意味です。なので、背景部分のADCのカウントをそのまま数えるのではなく、ある範囲のピクセルを多数数えて、そのバラつきを測定しなくてはいけません。また、ノイズがバラつきであるということを意識できていない場合が結構あるようなので、少しだけ説明しておきます。


ノイズとは

そもそも天体撮影におけるノイズとは一体どういうことなのでしょうか?ノイズを考えるには統計のことを少し知らなくてはなりません。例えば一台のカメラを使って全く同じ場所、同じ明るさ、同じ温度で多数枚の撮影をすることを考えます。赤道儀に望遠鏡を乗せて、カメラで設営するという状況で構いません。ゲインや露光時間も同じとします。適当な露光撮影、例えば1秒で、1000枚の画像を撮ったとしましょう。全く同じ状況なので、1000枚とも同じような画像が撮れると思いますが、ある一つのピクセルに注目した場合、1000枚とも全く同じ明るさ、言い換えると全く同じADCのカウントで全て記録されているでしょうか?通常はそんなことはありえません。よく似た明るさにはなるので、1000枚の平均値はある値を持ち、その値がそのピクセルでの明るさと言ってもいいともいます。ノイズというのはその平均値からどれくらいずれているか、そのずれがどれくらいの範囲に散らばっているかということを表す量です。細かい統計の話は教科書のようなものに譲るとして、ここで理解しておきたいことは、一般にノイズというのはバラツキ具合を「標準偏差σ」で表しているということです。標準偏差σという言葉に拒否反応を起こす人もいるかもしれませんが、最低限理解したいことはただ一点のみ。ある測定をしたときに、このバラツキの68%が標準偏差σで表される範囲内に入っているということです。

例えば先日測定したASI294MCの読み出しノイズは1.3[e-]ですが、これは平均値はよくわかりませんが、そのバラツキの68%は1.3[e-]という値の中に入っていますよという意味です。平均値はよくわからないので例えば10[e-]としましょう。ノイズはバラツキなので測定値がたまたま平均値と同じ10[e-]の時もあれば、10.1[e-]の時もあります。11.2の時もあれば11.5のときもあります。たまには12.6という結構外れた値をとることもあるでしょうし、13.9とかいうかなり外れた値をとる可能性も0ではありません。標準偏差のすごいところはここで、この場合10 - 1.3 = 8.7 [e-]から10 + 1.3 = 11.3 [e-]までの間に測定値が来る確率が68%と分かってしまうことです。もっと言うとσ=1.2 [e-]の倍の2.4[e-]、この場合2σ (にしぐま)と言いますが、この範囲に入っている確率は95%ということです。もし12.6[e-]なんていう値が測定されたら、これはありえない方5%に入っているので珍しいというわけです。ちなみに3σ = 3.9 [e-]なんていうと99.87%とほとんどの値が入ってしまうので、今回の場合13.9 [e-]以上なんていうとんでもない値をとるのは1000枚のうち1.3枚ほどしかないのですが、可能性としては0枚では決してないのです。

上は1000枚のフレームのある同じ1ピクセルについてのみ考えましたが、背景光なんかを測定する場合にはある一枚の100x100ピクセル分の平均値とバラツキの標準偏差を測定してやってコンバージョンファクターを使い電子の数に換算してやることで、読み出しノイズなどのその他のノイズとの大小が議論できるようになるというわけです。


4. ショットノイズ

さて式に戻って、分母の最後の残りsqrt(Ssig)についてです。これは入っている信号のルートに比例して出て来るノイズです。いろいろWebを調べていると、ダークノイズとショットノイズを混同しているケースた多々見受けられます。ショットノイズはセンサーに光を入れた時に、その光の量のルートに比例して出てくるので、真っ暗な時に出て来る限界のようなダークノイズとは別で扱う必要があります。ノイズなので、当然そのバラツキ具合で議論します。具体的な例でいうと、淡い星雲のようなところでは、当然星雲からの明るさがセンサーに入っているので、ダークノイズや、背景光のノイズもありますが、それに加えて星雲そのものの明るさのバラツキ具合もノイズとして考えなくてはいけません。また、天体がない背景の部分では逆に信号としてのSsigが小さいので信号Ssigからのバラツキも小さいため、Ssig起因のショットノイズは無視できるでしょう。


考察

以上のことから、ノイズを考えていくと、定量的にいろいろなことが評価できる可能性が見えてきます。実際には
  1. ある性能を評価したいカメラを使い、あるゲインを設定します。
  2. 既知の明るさが分かっている星を利用して、Ssigを測定してカメラのキャリプレーションのようなことを行い
  3. Sskyを測定することで
  4. そのカメラ、そのゲインでの限界等級を求める。限界等級は測定時間の関数になる。
  5. ゲインを変えて、各ゲインでの限界等級を繰り返し求めていく。
というような経緯で、カメラの性能をきちんと出すことができます。でもこれ真面目にやろうとすると結構大変で、私もそのうち余裕ができたらやろうと思っているくらいです。


定量的な評価まで行かなくても、式からわかる定性的な評価だけでも結構面白いです。例えば分母のノイズの項を考えてみましょう。理想的な暗い空では

Sdark ~ Ssky << Ssig

というような状況かと思います。冷却カメラはこのような状況時に非常に有効です。冷却はダークノイズを下げることができるので

Sdark << Ssky << Ssig

というような状況を作り出せてしまい、より高いS/Nを目指せます。

が、こんな状況はまれで普通は光害などがあり、淡い星雲などを写そうとすると

Sdark << Ssky ~ Ssig

というようになってしまいます。この場合はもともとダークノイズが十分無視できるため、冷却の効果は期待できません。光害地では冷却はあまり意味がないということになります。都市部などもっとひどい時には淡い天体は

Sdark << Ssig << Ssky 

というような状況にもなりますが、こうなってしまうと画像処理で無理やり天体をあぶり出す必要が出てきます。もちろんこのような状況でも撮影枚数や撮影時間を長くとることで、S/Nを改善することはできるということが式の上からわかります。


あとがき

今回色々式から天体撮影のノイズが原理的にどのような振る舞いをするのかを考えましたが、それでもしょせん式から導き出した推測だけに過ぎないことは心に留めて置いてください。なんでもそうなのですが、理論と実測は違います。例えば、S/Nはコンポジット枚数のルートに比例して無限に良くなっていくかと思いがちなのですが、実際にはそんなことはなく、ある程度の枚数に達すると改善しなくなります。例えば考えていなかったノイズに支配されてしまったりするからです。枚数をきちんと重ねられる方は、やはり撮影時の条件がきちんとしていて、他枚数のコンポジットにも耐えうるようなそもそもの素材を作り出していると言えるのでしょう。

もう少し言うと、一般的にどんな実験もそうなのですが、条件をきちんとしてかなり理想的な状況を作り出せば実験は理論に近づいていきます。でも通常は理想的な状態を作るのはものすごく大変なので、なかなかうまくいかないのです。理論が足りなかったり、実験条件が不十分だったりする場合がほとんどです。天体撮影は、夜のしかもとても暗い中でするので、決して環境がいいとは言えません。くれぐれも理想を追い求めるあまり無理をしすぎたりしないで、できないものはできないと割り切って、趣味の範囲で楽しみながら、少なくとも私はそのように進めたいと思っています。


おまけ

最後におまけとして、ノイズを考える例として、コンバージョンファクターを求める時に使った関係式

([ADU])^2 = [ADU] / fc [e-/ADU] + (Nread [e-])^2 / (fc [e-/ADU] )^2


の証明をしてみましょう。証明と言ってもあまり数学的にやるのもつまらないので、できるだけノイズの物理的な意味を具体的に理解できるように考えたいと思います。

ものすごく簡単に考えると、スタートはショットノイズの関係式ということになります。ショットノイズは信号のルートに比例するということです。式で書くと

[e-] = sqrt(S [e-])

両辺2乗して

([e-])^2 = S [e-]

コンバージョンファクター(gain) fc [e-/ADU]を考えると

(fc [e-/ADU] x [ADU])^2 = fc [e-/ADU] x S [ADU]

両辺fcの2乗でわると

([ADU])^2 = [ADU] / fc [e-/ADU]

という求めたい式の読み出しノイズを無視した形が出てきました。これは簡単に信号をショットノイズのみで考えたたためで、信号をきちんとショットノイズと読み出しノイズからなると考えると

[e-] = sqrt( (S [e-])^2 +(Nread [e-])^2 ) )

となるので、同様にして求める式がでてきますが、実際にコンバージョンファクターを求める時も読み出しノイズを無視できるくらい長時間をかけて測定するので、前半までの証明でも十分かと思います。


 

先日の記事で、メーカーが出しているASI294MCの性能のグラフの読み方を考えてみました。実際の性能を確かめるため、SharpCapを使い手持ちのASI294MCの実測もしたのですが、記事自体はかなり一般論になっていて、じゃあ具体的にどのような設定で使えばいいのかという話まではまだ繋がっていません。今回はそこら辺のところを考えてみたいと思います。難しい理屈は嫌だという方は、今回の記事だけ読んでも実用的には役に立つのかもしれません。

IMG_3233



さて今回は
  1. 電視観望
  2. 空が暗く、非常にいい環境での撮影
  3. 光害地での撮影
という3パターンに分けて考えてみましょう。



1. 電視観望

まずは電視観望から始めます。普通の天体撮影をされる方にとっては電視観望というのはあまり一般的ではないかもしれませんが、電視観望はかなり極端な設定を必要としますので、性能の限界を考える時にはなかなか面白いのです。

電視観望では、短時間でのリアルタイムビューを重要視するために、内部ゲインを相当上げて、露光時間をできるだけ短くして臨場感を出します。その代わりにノイズは大きいですし、そのノイズを緩和するためにライブスタックと呼ばれる、いわゆるコンポジットをリアルタイムで行なっていきます。

かなり基本的なところから考えます。まず、内部ゲインを上げるとは一体どういうことなのでしょうか?物理的にはセンサーの後に増幅回路があって、その増幅回路のゲインを上げるということなのですが、これがメーカのグラフの上でどのようなことを意味するのかを考えてみます。

電視観望ではZWOの言うGainを400とか500とか600近くまで上げます。Gainは200で20dB、すなわち10倍、400で40dB、すなわち100倍、600で60dB、すなわち1000倍ということです。簡単のため電視で仮に400まで上げたとしましょう。ZWOが出しているページのグラフの横軸で400のところを見ると、Read noiseは1.4 [e-] 程度とかなり小さい値を示しています。でも画面ではなぜかノイズが目立ちます。Read noiseは小さいはずなのになぜ?という疑問が湧くかもしれません。そこにコンバージョンファクター(ZWOのグラフではGAIN(e-/ADU)となっている2つ目のグラフ)がキーとなります。この値はGain400ではかなり低く、0近くになっていてグラフから読み取ることも困難です。昨日実測した値を見て見ると0.036 [e-/ADU]と記録されています。この値でADCのカウントでどれだけノイズが目立つのか計算してみると、

1.4 [e-]  / 0.036 [e-/ADU] = 39 [ADU]

となり、何とADCの読みで39カウントもノイズが出ていることになります。じゃあ39カウントのノイズって何だと言う話になりますが、分散とかの話をすると難しくなるので、まあざっくり39カウントくらいの間で明るくなったり暗くなったりしているピクセルが画面中にバラついていると考えてください。それよりも意識しておきたいことがあって、このGain400の時のfull wellの値です。full wellとは内部ゲインが高すぎる時にセンサーの出力が限られてしまい、これ以上ADCの値が上がらない上限値のことを指します。これも昨日の実測値を見てみると、何とわずか585です。ADCの値にすると、585が最大値でそのうちの39がノイズだとしたら、1割とは行かないまでもレンジの約7%がノイズになってしまっていることを示します。これじゃあ画面がノイズだらけなのは致し方ないと言うことです。

(追記1: すみません、上の記述勘違いしていました。[e-] が単位のfull wellと、[ADU]が単位の画面のサチレーションを勘違いしていました。ADCのサチレーションカウント16384の中で39カウントノイズになっているだけです。ちなみにゲインを600まで上げると400カウントくらいがノイズになります。これだと4%くらいになるので、これくらいでさすがに目に見えるくらいですね。)

(追記2: 改めてSharpCapのfull wellの値を見ているのですが、どうもこれは真面目に全てのゲインで飽和カウントを測定したわけではなく、単にADCのフルレンジ16384をコンバージョンファクターで割っているだけのようです。これはSharpCapだけでなくZWOの測定結果も同様の方法で簡易的に出しているだけのようです。そう言った意味ではセンサーが出せる最大出力という意味での真のfull wellとは言えないので注意が必要です。あくまで、ADCの最大カウントからくるfull wellがZWO及びSharpCapで示されているに過ぎないということでしょう。)



ライブビューを謳うので露光時間もあまり上げることができません。残る手はSharpCapの秘技、LiveStackです。これは単に画面を重ね合わせるのではなく、恒星の位置を数十個自動認識して、それらが重なるように画面をリアルタイムでコンポジットしていきます。上の読み出しノイズは枚数に正比例(注: 枚数のルートに比例してではありません、ノイズに関しての詳しい議論は後日します。)して減っていきますので、見ている間に劇的にノイズが軽減されていくというわけです。



2. 空が暗く、非常にいい環境での撮影

次に、かなり空が暗いすごく環境の良い状態で、撮影をすることを考えて見ましょう。まず、空が暗いということは、長時間露光してもサチルことがないので、一枚一枚の露光時間を長くとることができます。 内部ゲインx 露光時間でヒストグラムのピーク位置が決まります。ピークの位置が左から3分の1程度になればいいとか言われている(これもまた議論の余地があると思いますが、いつか検証します。)ので、適当にゲインと露光時間を調節するのですが、じゃあゲインは具体的にはどれくらいにすればいいのでしょうか?

こんな時に指標になるのが、3つ目のグラフDR、すなわちダイナミックレンジです。ダイナミックレンジはFull wellをRead noiseで割ったものをbit換算したものになります。グラフを見ると一番いいところで13[stops]くらいでしょうか、これは2の13乗を意味し、2^13=8192となるので、信号部分である天体を最大8192階調で表すことができると言うことを示しています。ここで面白いのが、Read noiseが横軸のGain120あたりのところで、いきなりジャンプして劇的に良くなっていることです。このためダイナミックレンジも最初Gainとともに落ちていくのが、Gain120のあたりで再び良くなっています。これはGain120より多少大きいあたりで撮影するのが一番得だということを示しています。このGainでヒストグラムのピークが3分の1くらいになるような露光時間で撮るのが、最も効率のいいセッティングになります。これで時間が許す限り取れるだけの枚数を撮ってしまい、あとはコンポジットしてノイズを減らしていきます。


3. 光害地での撮影

最後に光害地での撮影です。基本的には上の最も効率のいいGain120で、露光時間を短くすることでヒストグラムのピーク位置を3分の1程度のところに持って来ればいいのですが、それでも明るすぎる場合には、Gainを0近くに持ってくる手もあるのかと思います。ダイナミックレンジが一番得をするところを探すという考え方は同じです。ただ、同じクオリティーの画質を出すのにより長い時間かかってしまうので、結局は損をしてしまうと思います。



3パターンで考えましたが、センサーの性能を理解していると、効率のいい設定をあらかじめ予測することができます。もちろんこの設定が完璧というわけではなく、例えば雲が多くて時間が限られている日には多少恒星が飽和するのを覚悟して、Gainを上げて短時間で撮影するなどの戦略をとることもできます。実はこのカメラが欲しかった理由の一つが、センサー感度がいいことを利用しての短時間露光のシンチレーション回避を試してみたいと思っていることなのですが、これはまた上の原則には当てはまらずに、いろいろ戦略を練ることになりそうです。ここら辺は追い追い試していきます。

(追記: 実は上のことだけ考えていると、一般的なカメラ撮影でもダイナミックレンジが一番広い低感度で撮る、すなわちiso100とか極端なのがいいという変な結論に陥ってしまいますが、もちろんそんなわけはないです。これをきちんと考えるためには、撮りたい天体の極限等級、露光にかけたい時間などの要求値をあらかじめ決めておかなければならず、それらの条件のものでノイズを考え、その時のS/Nから要求が満たせるかどうかの判断をして、その要求が充たせる範囲の中でゲインや露光時間を調整すべきです。S/Nの話は、定性的なお話や、定式化までは簡単なのですが、定量的に考えようとすると、読み出しノイズやダークノイズなどのカメラの性能だけでなく、ターゲット天体の明るさを信号として、空の明るさなどをノイズとして数値的にきちんと評価してやらなくてはいけません。具体的にこのブログのレベルで示せるものなのか、ちょっと今試行錯誤中です。)



さて、外を見ると今日は一日中雪が降り続いています。晴れるのはいつになることやら。

もう少し、次はノイズについてちょっとだけ議論したいと思います。


 

富山は今日は雪。せっかくの新CMOSカメラも外で試すことができないので、仕方なくASI294MCの脳内シミュレーションです。

ZWOのASI294MCのページを見ると、カメラの性能を表すのにFW, gain, DR, Read noiseだとかいうグラフがならんでいますが、最初これらのグラフを見た時あまり意味がよくわかりませんでした。
  • Read noiseはなんとなく小さい方がいいとわかるのですが、それでもその数値の意味がよくわかりません。
  • DRはdyanmic rangeですが単位の[stops]が不明です。でもグラフの数値が14までなので、これはADCのビットに相当するものなのかという予測がつきます。ということは14というのは2^14で16383という意味なのでしょうか?
  • FWはfull well capacityのことで日本語でいうと飽和電荷数だとか、飽和容量というらしいのですが、一体どんな意味なのでしょうか?
  • gainに至ってはわかりそうなのに全くよくわかりません

一つ一つ紐解いていきましょう。まず、これらグラフの中で出てくる単位のADUだとかe-ですが、ADUはADC(Analog to Digital Converter)で読んでいる単位(Unit)の略でADU。ADCから出てくる数値そのものです。ASI294MCの場合RGB各色で14bitのADCが使われているので、例えばCMOSセンサーの一素子のR(赤)色成分に入ってくる光を露光時間分積分した結果、0から16383のある値をとります。この読み取った値そのものがADUとなります。真っ暗なら0[ADU]、サチルくらいなら16383[ADU]、半分くらいの明るさなら8192[ADU]となります。もちろん値はノイズで揺らいでいるので、真っ暗でも0にはなりません。e-は電子(電荷)の数です。例えば10 [e-]というと、10個の電子がセンサーの一素子で数えられたという意味です。

本当は全部電子の数で考えたいんです。でも直接電子の数を知ることはできません。唯一読み取れるのがADCの値なんです。電子の数はこのADCの値から推測するしかないのです。ところがこの推測が一定の変換ではなく、その変換係数が増幅回路のゲインに依って変わってしまうことが物事を難しくしています。それではこれ以降、個別に考えていきます。


1. gain: conversion factor, コンバージョンファクター

実際には電子の数は簡単には数えられませんね。そこで出てくるのが、一番わかりにくい「gain」というやつです。gainは「Conversion Factor」などと言われたりもしますが、ADCでのカウント数と電子の数を変換してくれるとても便利な値です。なので単位は[e-/ADU]とかになっています。要するに、電子の数は直接数えられなくてもADCでカウントした数は計算機上で数値を読み取ることができるので、このコンバージョンファクターさえ分かっていればADCのカウント数から、幾つ電子が数えられたかを知ることができるのです。例えば、ZWOのASI294MCのページのグラフの横軸のGain(unit0.1dB)の0のところのFW(e-ADC)を見ると、3.9位でしょうか。これはADCが約4カウントを数えると電子を一個数えたことになります。Gainが175くらいのところだと、gainが0.5[e-/ADC]くらいなので、ADCの読み2[ADU]で電子1個を数えたことになります。

そうは言っても、電子の数を数えても何がいいことがあるのかいまいちよくわかりません。でもこれは天体から入ってくる光子の数sと、センサーで数える電子の数nが、定数で変換でききるからなのです。この定数をシステム効率ηなどと呼び

η=n/s

と表すことができます。ポイントはこのシステム効率が内部回路のゲインや積分時間などによらないということです。なので、電子の数を数えるということは、幾つ光子が入ってきたかが直接わかるため、重宝されるというわけです。一方、ADCのカウント数と光子の関係は内部回路のゲインに依存してしまうため、便利でないのです。

このことは次の式を理解すると意味がわかるようになってきます。

センサー感光部に、入射光と暗電流を合わせてカウント[ADU]にあたる一定の電子が発生する時、あるピクセルのカウントの標準偏差を[ADU]、読み出しノイズをNread [e-]とすると、コンバージョンファクター(gain) fc [e-/ADU]は

([ADU])^2 = [ADU] / fc [e-/ADU] + (Nread [e-])^2 / (fc [e-/ADU] )^2

を満たします(証明は略します)。簡単のためNreadは十分小さいとし、右辺2項目を無視します。

例えば1秒間の積分の画像データを100フレーム取得し、各(ij)ピクセル目の100フレームの平均値をカウントSijとして、分散をカウントNij^2として測定することができます。測定したデータを横軸にSij、縦軸にNij^2として各ピクセルをプロットしてやると、例えば一例としてADI294MCで内部ゲイン0の場合のプロットが下の写真の右のグラフのようになります。

IMG_3238


上の関係式があるために、何とADCの値の読みSとその散らばり具合Nを多数プロットするだけで、これまでわからなかった[ADU]と [e-] との関係を導くことができてしまうのです。具体的には、このグラフの傾きがコンバージョンファクターの逆数に相当します。今回の結果によると、グラフの傾きは0.259と測定できたので、コンバージョンファクターは1 / 0.259 = 3.86 [e-/ADC]と測定することができました。この値を、ZWOが測定したASI294MCの値と比べて見ると、上から2番目のGAIN(e-/ADU)のグラフのから3.9程度と読み取ることができるので、実測とメーカーが測定した値とかなり一致していることがわかります。このコンバージョンファクターはカメラの増幅回路のGainに依存するので、各Gainで測定してやらなければいけません。

ちなみに、ZWOのカメラのGianの単位は0.1dBなので、200で20dB、すなわち一桁明るくなります。Gainは294MCの場合600まで上げることができるので、Gain600だと60dBすなわち3桁明るさを明るくすることができるというわけです。そうやってそれぞれのゲインで何点も測定した結果が以下のようになります。

IMG_3235

この結果は実はShaprcapのβ版に搭載された新機能で、カメラの性能を自動で実測して、コンバージョンファクター、読み出しノイズ、full well、実際のゲイン、ダイナミックレンジと評価に必要なデータを、数値データとともに直接出すことができる優れものの機能です。各数値をZWOのASI294MCの測定値と比較しても、かなり一致していることがわかるので、ZWOの出しているデータはかなり信頼できることがわかります。

というわけで、このコンバージョンファクターを求めること自体がすごく重要で、この(ゲイン依存の)変換係数があるおかげで、ADCの値を読むだけでありとあらゆるものを電子の数で考えることができるようになるので、単位が揃って便利だということです。



2. FW: full well, 飽和電荷容量

さて、このコンバージョンファクターがわかると、ADCの読みから様々なものが単位 [e-]として、電子の数で数えることができるようになります。例えばfull wellです。十分にサチレーションを起こすくらい明るい光をカメラに入射し、その時のADCの値の平均値を読み取り、それをコンバージョンファクターで電子の数に変換してやったものがfull wellになります。実測から例えばゲイン0だとADCで16385 [ADU]程度カウントされ、full wellが63271 [e-]となっているので、14bitのADCの分解能である16383の全部を使っていることになります。この値もZWOによるASI294MCの測定値の63700と比較してかなり一致していることがわかります。他にも、例えばGain200、すなわち20dBで一桁内部ゲインを上げた時のADCのカウントは1494 [ADU]で、その時のfull wellが5766で、これは14bitのADCフルレンジ16383の約9.1%を使用していることになります。

こうやって考えると、ZWOが今回改善されたと言っているfull wellの値63700は実際にはADCの14bitというダイナミックレンジの上限から制限されていることがわかります。


3. Read noise: 読み出しノイズ

ここまでわかると、Read noiseの意味もやっと分かってきます。日本語でいうと読み出しノイズだとか言われるこのノイズは、センサーの読み出し回路に起因するノイズのことです。これは露光時間に依存せずに短時間撮影でも必ず存在するノイズです。もう一つよく似たノイズにダークノイズというのがあります。こちらはセンサーに光が入っていない時にも暗電流が流れることにより存在してしまうノイズで、時間のルートに比例して増大していくノイズです。

これらのノイズの測定は、実際にはカメラに蓋をしてセンサーに光が入らないような暗い状態で測定したトータルノイズから算出します。測定されるノイズはダークノイズσdark [e-/sec] と読み出しノイズσread [e-]が合わさったノイズが出てきて、実際に測定されるノイズをσとすると、

σ^2 = σdark^2 x t + σread^2

という関係式で書くことができます。ダークノイズは時間のルートで増加していき、読み出しノイズは時間に依存せずに一定なので、十分な積分時間を取ると後者は無視できるため、まずは長時間撮影をしてダークノイズを測定します。その後、2枚の同条件で暗いところで1秒間でとった画像2枚をの差分を取ると、その時のノイズσ2との関係は

σ2^2 = 2 σdark^2 + 2 σread^2

となるため、そのトータルノイズから既知となったダークノイズの貢献分を除くことにより、目的の読み出しノイズを求めることができます。

当然のことながらこれらの測定は全てADCの出力を見ているので単位は [ADU] で出てくるのですが、先に測定したコンバージョンファクターがあるために、電子の数 [e-]に変換することができます。例えばカメラのGainが200、すなわち20dBのとき、今回の実測からRead noiseは1.65 [e-]と出ましたが、この時のコンバージョンファクターが0.35 [e-/ADU]なので、(この20dBというゲインの時は)ADCの出力として1.65 / 0.35 = 4.7 [ADU]くらいのノイズが実際には出てくることになります。

SharpCapはこの読み出しノイズまで自動的に測定してくれる優れものです。実測した値は最小値で1.4 [e-]程度と、ZWOが言っている1.2 [e-]には少し及びませんでしたが、それでも実測でこれならば十分優秀なカメラなのだと思います。


4. DR: dynamic range, ダイナミックレンジ

さて、最後に残ったダイナミックレンジですが、これはもう簡単で、Full wellをRead noiseで割って、bit換算したものです。例えばGainが0の時は63271 / 7.91 = 7999ですが、これをbitで表してやるとほとんど13bitになります。Gainが400の時は585 / 1.43 = 409とかなりダイナミックレンジは小さくなり、bitで書くと8bitが256で9bitが512なので、8bitの後半ということで8.68と出ています。



いま外を見たら、とうとう雪になっていました。今週はまだしばらく天気は期待できそうもありません。そんなわけで、今回は色々と部屋の中で試してしまいましたが、SharpCapの新機能にびっくりするなど、面白いことがたくさんわかりました。今回言えることは、ZWOのASI294MCはメーカーが示している性能と実測値がかなり一致していることがわかったということだと思います。これはある意味驚異的だと思います。

とりあえずなんとかカメラを測定する手段を手に入れたので、次回もう少し手持ちの他のカメラも測定してみようと思っています。







 

我が家に3台目のCMOSカメラ、通称赤カンがやってきました。ZWO社の新製品ASI294MCで、目的はもちろん電視です。1台目の224MCは星見屋さん、2台目の178MCはZWOのwebサイトから直で、今回はKYOEIさんでの入手になります。

元々は今回もZWOで手に入れようともしたのですが、国内の販売店の方がサポートなども楽にできるのでお勧めとのことです。実はKYOEIホームページを見てもZWOの新製品は載っていないので、最初ZWOに直に行ったのですが、残念ながらZWOでは在庫切れでした。一方KYOEIさんの方は、webには載せていなくても在庫があるとのことで、問い合わせてみることが大事だとよくわかりました。


ASI294の中身

さて、実際に箱を開けてみた中身ですが、

IMG_3231


  • まずはセンサーサイズの大きさに驚きます。これまで使っていたCMOSカメラとは全然違う印象です。
  • ASI224MCやASI178MCと違って、まずCSマウントの簡易レンズが入っていません。なので初めてのCMOSカメラとして一番最初に使おうとすると、簡単にテストができないので戸惑うかもしれません。フォーサーズレンズか、鏡筒を別途用意しておくといいでしょう。
  • 1.25インチ(φ31.7mm)に変換するアダプターは同じですが、それに加えてT2径を11mm伸ばすアダプターが付いていて、そこに先のφ31.7mm変換アダプターを取り付けることができます。そのため普通のアイピース差込口にそのままはめることができます。
  • さらに16.5mmと書いてあるアダプターがあるのですが、これは「M43-T2 adapter」と呼ばれるものなのでしょうか、4/3レンズをつけるマウントみたいですが、私はまだフォーサーズレンズを持っていないので確かめられません。
  • どうもいくつかZWOのASI294MCページの説明と写真とは少し違うようで、まず説明の方の1から7番の部品で、3、5、6番がオプションとなっていますが、2番のEOS-T2アダプターもオプションで付属はしていません。私は以前電視用に購入しているのですが、Canonレンズを使いたい場合は持っていてもいいかもしれません。
  • 1番のM43-T2 adapterは写真の方には載っていませんが付属しています。代わりに写真の「T2-1.25'' adapter」は付いてこないようなので注意が必要です。
  • キャップが1.25インチ、2インチともに付いているのは好感が持てます。


ASI294MCの特徴

さて、ASI294MCの特徴ですが、電視観望という観点からなにが面白いかと言いますと、

1. まずはフォーサーズという大きなサイズでありながら、2017年6月とかなり最近発表されたSONYの裏面照射CMOSセンサーIMX294を使うことで、SNR1s0.14lxという驚異的な数値を出しているところでしょう。これはこれまで最高だったASI224MCにも使われてるIMX224や、ZWOのもう一方の新製品ASI385MCに使われるIMX385の0.13lxに相当する値で、なおかつセンサーサイズが2.5倍から4倍と圧倒的に大きいということです。同じ画角で焦点距離の長いレンズを使うことでより暗い星まで映し出すことができるはずです。SNR1sは電視にかなり直結する値だというのが以前調べた時の印象で、今回は大きく期待できるところです。

2. また画素数も4144x2822もあり、不足気味だったASI224MCの1305x977と比べると、撮影にも十分対応できるくらいの分解能です。

IMG_3234


右がフォーサーズサイズのASI294MC、左が1/3インチサイズのASI224MCになりますが、実際のセンサーサイズを比べてみると、その差は歴然です。単純に一辺で4倍なので、面積は16倍になります。

なお、中の黒いリングは最初から固定されていて、取り外して使うことは想定していないようです。私は最初これにフィルターをつけることができるのかと思っていましたが、よくみるとネジを切っているわけではないので、取り付けることはできなく、下手に取り付けようとすると下のガラス面を傷つけるので気をつけた方がいいです。

3. 一素子のサイズも3.75umから4.63umと大きくなっているので、一素子あたり受けるフォトン数も約1.5倍となります。

それでもSonyのα7Sに使われている一素子8.4umでフルサイズ35mmというお化けセンサーに勝つことは到底できませんが、あれはセンサー単体では発表されていないのと、一眼レフカメラという制限がどうしても付いてしまうために、星食い問題があったり、別途スタックができないということなどから、意外に今回のIMX294でもなんとか太刀打ちできるのではないかと考えています。

4. 伏兵なのがFull wellが63700とかなり大きいということかもしれません。これまでASI224MCでの電視で不満だったことの一つが、明るい恒星がすぐに飽和してしまうことでした。大きなFull wellはダイナミックレンジに直結するので、飽和を緩和できるかもしれません。


考えられる使い方

まず一番に考えられるのが、大きなセンサーサイズを利用した、50mm以下の短焦点レンズを用いての広角の電視です。星が画面一面に散らばったような映像を楽しむことができると期待しています。その中に色がついた星雲がいくつも見えるような電視観望ができたらと思っています。実際、天の川などの淡い部分もかなりの光害下でも見えてしまうのではと思っています。いろいろ試してみたいと思っていますが、問題が一つ。これまでASI224MCの電視で使っていたようなCSマウントやCマウントのレンズを使うことは苦しくなってくるはずなので、別途レンズを揃える必要があります。以前買ったNIKORの50mm、f=1.4でまずは試して見たいと思います。

これまではASI224MCのセンサーサイズの制限から、星雲などを見るときも200mm以下の非常に短い焦点距離のレンズを使っていましたが、もう少し長い焦点距離のレンズを使うことができます。具体的にいうと、FS-60CBに0.5倍のレデューサーをつけて180mm程度にしていたものから、FS-60Q状態の600mmで使うことが十分できるようになります。圧倒的な解像度で楽しむことができるでしょう。その一方、当然焦点距離が伸びた分暗くなるので、電視にとっては幾分不利になるのも事実で、より明るい光学系が欲しくなるかもしれません。もしかしたら一番最初に買って最近あまり出番のない口径20cm、焦点距離800mmのSKYWatcherのニュートン反射BKP200がかなり使えるかもしれません。

できることなら撮影にも使いたいと思っています。冷却タイプではないのですが、解像度、14bitという分解能、圧倒的なセンサー感度から考えて、かなり「気軽」にそこそこの撮影ができてしまうのではないかと密かに期待しています。

さて、富山は冬型の気圧配置で今日も雲一面です。雪も降り始めているのですが、新CMOSカメラのテストができるように、晴れてくれる日がとても待ち遠しいです。


 

天文ショップを少し回りました。

特に買いたいものがあったわけではなかったのですが、スターベースで入門用の望遠鏡を選んでいるお客さんがいろいろ迷っているみたいだったので、お手伝いがてら話すことに。迷っていたのはSCOPETECH、Vixen、Celestron、MEADの入門用の屈折です。スターベースに置いてあるものなので、どれも入門用としては十分で、月や惑星を見るぶんには困らないと思います。その途中に、もう一人話に参加して来た他のお客さんがいて、その人と私でえらい盛り上がったのがスターベース製の入門用の屈折です。タカハシ色になっていて、国産品で作りはかなりしっかりしているようでした。アクロマートなので値段も特別価格のせいか、先のメーカと十分競争になるような価格帯なので、下手をしたら上記メーカーの入門機を食ってしまうような感じです。店長さん曰く「そうだといいんですが...」とのことで、さらにいろいろ聞くと、まだつい昨日かそこらでタカハシの工場に届いたばかりと、出来立てホヤホヤの新製品のようです。最初に迷ってたお客さんも、私たち二人の盛り上がり具合を見てさらに迷いだしたのですが、その方が一番重要視するのは、子供が使うということで重さとのことです。最後はSCOPETECHを選ばれたのですが、うちの小学5年生のSukeもSCOPETECHの大ファンで、軽さは何物にも変えがたいことも十分わかっているので、いい選択だったのではと思います。

さて、やっとここで今回のタイトルにたどり着くのですが、そこで一緒に盛り上がった方から「cafe TEMOって行きましたか?」と言われました。私は全く知らなかったのですが、なんでもcafe TEMOのTEMOは「てんもん」の意味だそうです。店長さんが双眼鏡が好きで、日の出光学の社長さんや、今回のSCOPETECHの社長さんもちょくちょく来ているところらしいです。そういえば天文ショップはこれまでたくさん行きましたが、天文をテーマにしたカフェなんてのは行ったことがなかったので、少し足を伸ばして行ってみました。

cafe TEMOの場所は武蔵小杉駅からだと歩いて15分くらい、武蔵中原駅からだともう少し近いみたいですが、今回は散歩がてら1kmちょっとの道をのんびり歩きました。お店は細〜い道にあり、一旦見過ごしてしまい、引き返してやっと見るけることができました。

IMG_3213


中に入ると、双眼鏡の棚があり、横には反射型望遠鏡が。

IMG_3221


この日は星月だというご主人は不在でしたが、奥様が店にいて、聞くとなんとこの反射型の鏡は貴重な木辺鏡だとか。

IMG_3218


私も星が好きなことを伝えると、所属グループの会報を見せてくれて、木辺鏡の由来なども知ることができました。2016年9月号の星ナビにも、由女さんのマンガにcafe TEMOの訪問記が載っていることがわかりました。いろいろ話を聞くと、ご主人は双眼鏡で星を見るのが好きで、売るほどあるので5年ほど前から販売も始めたとのこと。この日は日の出光学のD1という機種を覗かせてもらいました。

お客はずっと私一人だけ。本当に小さな、まるで隠れ家のようなカフェなのですが、もちろん食事もできます。この日はカレーを頂きました。五穀米に大きな牛肉がゴロゴロしていて、上に野菜をのせた、とても丁寧に作ってあるカレーでした。味はもちろん、ボリュームもかなりあり、大満足でした。奥様とついつい長話をしてしまい、カフェオレとチーズケーキまで食べてちょっと贅沢をしてしまいました。チーズケーキはチーズと生クリームだけで作った、何も焼いていないレアチーズケーキで、甘さも控えめで、とても美味しかったです。

IMG_3222


奥様とも星の話をいろいろしたのですが、その途中で娘さんがご主人にプレゼントしたという、新潮社の超大型本の部類に入る「PLANETFALL」という惑星の写真集を見せて頂きました。とても綺麗な惑星の写真を集めてあり、私は特に火星の表面の模様に感動しました。値段を見ると7000円と多少高価なのですが、本の大きさと内容の充実度から考えると全然安く感じます。それでも娘さんが高校生くらいの歳の時に、頑張って自分のお小遣いでお父さんにプレゼントしたというのを聞いて、同じ娘を持つ父親としてよほど嬉しかったんだろうなあと、その時の状況が眼に浮かぶようでした。そのお嬢さんも中3くらいまでは星見に付いて来てくれたみたいです。うちのNatsuも今中1ですが、いつまでついて来てくれるやら。

あまりの居心地の良さに、すっかり長居してしまいましたが、今度はぜひご主人がいる時に行ってみたいです。

他にも天文が好きな人がやっている店はあるはずで、こう行ったところを回るのも面白いなと思いました。また機会があれば、どこか行ってみようと思います。






 

先日の馬頭星雲と燃える木ですが、この間志摩で一緒だったAさんのFacebookでの投稿に刺激され、淡い上品な表現を目指したくなりました。それでも暗くなってしまうのを避けたいのもあり、今まで手をつけていなかった、星マスクに挑戦してみました。

先に出来上がった画像を示しておきます。前回の画像と比べてもかなり趣が変わったのと、恒星の飛びが抑えられているのがわかると思います。

HORSE_7c_20171128-00h09m_x34_kb_masked_PS_photo_ps



Steller Image8でのダーク減算、フラット補正、ホット/クールピクセル除去、コンポジット、レベル補正、デジタル現像までは同じなので、SI8からPhotoshopに受け渡したところから始まります。

まず、星マスクの作り方ですが、ホームページを漁るといくつか出て来ますが、どうやらよっちゃんさんが源流のようです。ここのページも合わせてみると理解しやすいかと思います。流れとしては
  1. 元画像から恒星以外の星雲を消し去って白黒反転させたマスクを作り
  2. そのマスクをアルファチャンネルに登録する
  3. マスクを加工しながら、適用範囲を調整する
  4. 元画像を白飛びを気にせず思う存分加工する
というような順序で実現するようです。

基本的には上記ページに従うのですが、私がやった過程も書いておきます。


マスク画像の作成1: 微恒星のマスク

  • まず、Photoshopで開いた元の画像を全選択してからコピーして、それをペーストして別のレイヤーを作ります。
  • ペーストして作ったレイヤーを「フィルタ」の「明るさの最小値」で2ピクセル程度に設定して適用します。ダスト&スクラッチでぼかしすのもいいようです。どこまで微恒星を残すかによるのですが、私の場合は後者の方がうまくいったようです。
  • そのレイヤーを「差の絶対値」として表示すると恒星のみが残ります。この際、大きな恒星は表示されないので、後で別にマスクを作ります。
  • これをグレースケールに変換します。その際下の画像と統合かと聞かれますが、統合しないと次のレベル補正がうまくいきません。
  • 一部星雲が残っているところはレベル補正で消します。
  • これを「階調反転」します。
  • さらに適用範囲を微調整するために、ガウスぼかしを0.5~1ピクセルくらいで適用します。
  • これをマスク画像1としますが、上の調整は適時行います。
IMG_3200



マスク画像の作成2: 大きな恒星のマスク
  • 再び元の画像開いて、これをコピーしてペースとして別のレイヤーを作ります。
  • 同様に「フィルタ」の「明るさの最小値」で恒星の大きさに合わせて5〜20ピクセル程度に設定して適用します。
  • その画像そのものをグレースケールに変換します。下の画像と統合かと聞かれます上と同様に統合します。
  • 一部星雲が残っているところはやはりレベル補正で消します。
  • これを「階調反転」します。
  • さらに適用範囲を微調整するために、「フィルタ」の「明るさの最小値」で恒星の大きさに合わせて5〜20ピクセル程度に設定して適用し、ガウスぼかしを10~40ピクセルくらいで適用します。
  • これをマスク画像2としますが、これも適用範囲を見ながら随時調整します。
IMG_3201


マスク画像の適用
  • マスク画像1と2を統合して、全選択してからコピーします。
IMG_3202

  • もとの画像を開き、「チャンネル」タブを選択し、一番下の「新規チャンネルを作成」というアイコンをクリックします。できたアルファチャンネルを選択して、そこに先ほどのマスク画像をペースとします。
IMG_3203

  • 一番下の「チャンネルを選択範囲として読み込む」アイコンをクリックするとマスク画像が適用状態になります。同じチャンネルタブのRGBを選択状態にすると、マスクが適用されたもと画像をいじることができます。
IMG_3204

  • あとは、普段なかなか思いっきりあげられない露光量や無理なレベル補正も思いのままです。
  • もし思ったっ通りにマスクが適用されていない場合には、アルファチャンネルを調整することで適用範囲を調整することができます。私の場合さらにレベル補正でもっと黒塗り部分を濃くすることでマスクの適用を強調したり、思ったより大きな恒星があったので、さらにガウスでぼかしたりしました。
いろいろやっていて思ったのですが、HDR用に3秒程度の撮影を毎回しているのですが、それをそのままマスクとして使っても楽なのではと思いました。

さて、できた画像が一番上に示したのものです。前回上部が赤カブリ、下部が少し緑カブリだったので、それも補正しました。ホワイトバランスもあまり崩れないようにしました。何よりピンクというよりは上品な桃色をめざしました。かなり印象が変わったのと、前回より時間をかけたので丁寧な仕上がりになっていると思います。自宅の庭でここら辺までできるのなら、自分的には結構満足です。こうなってくるといつでも撮影できる天体ドームが欲しくなってきます。天文趣味は本当にキリがないです。

星マスクは敷居が高く感じていたので、なかなか手が出せなかったのですが、やってみると思ったほど難しくは感じなかったです。むしろ明るい星の飛びに悩んでいたのですが、その効果は絶大なので、もっと早くにマスターしておけばよかったと思うテクニックです。






先日の志摩での観望会で、Kさんと話をしている時に、ダークフレームは何枚必要かという話になりました。私はライト画像と同程度の枚数が必要なのではと話したのですが、Kさんはもっと少なくてもいいのではということです。で、色々考察してみました。

目的はダーク減算による改善ではなく、ダーク減算をした時に何枚くらい使えばダークフレームからのノイズでライトフレームが汚されないかを見積もることです。例えば何十枚とコンポジットしたライトフレームではノイズが平均化されて滑らかになるのですが、その際のダーク減算をザラザラの一枚だけでやってしまったら、せっかく綺麗にするはずのライトフレームの滑らかさを逆に汚すのではないかとか、そういうことです。


今回ノイズを無相関に出てくる「ランダムなノイズ」と、相関を持って同じように出てくる「コヒーレントなノイズ」に分けて考えます。

ランダムなノイズとは統計的な信号のゆらぎのことを指し、例えば光に関して言うと「カメラの画素に光を入れた時に、単位時間あたりの光量が一定でないために、ある時間露光して積分した時に一つの画素に溜まる光の量にばらつきがある」ということをいいます。また、一つの画素のADCの読み取りにも統計的にランダムな読み取り誤差が存在するので、それらも画像になった時には結果としてノイズとなります。これらのランダムノイズは時間的に無相関であるために時間的に平均化してやると時間のルートに比例して小さくなっていきます。

一方コヒーレントなノイズは、例えば光害のように、何回撮影しても同様に相関を持って入ってくる光です。センサー温度が高い時に画面の一部が明るくなるアンプノイズも相関があるノイズです。これらのノイズは相関があるため時間とともに足し合わさっていくだけなので、時間に比例して一次で増えていくノイズです。

あといくつか仮定ですが、ダークフレームもライトフレームも同じカメラで同じISO、同じ露光時間で撮影するとします。センサーの温度も変わらないとします。


さてまずダーク一枚で考えてみます。基本的に光は入れていないので、センサーに流れる暗電流で決まるようなノイズです。この一枚あたりの無相関なランダムノイズをN_darkとします。これらをn_d枚コンポジットします。コンポジットは加算して枚数で割って平均化すると言う過程なので、

sqrt( n_d x N_dark^2 ) /  n_d = N_dark / sqrt( n_d)

となって枚数のルートでノイズが減っていきます。

次にライトフレームの信号をSとすると、ライトフレームのノイズN_lightは統計的に信号のルートに比例するので

N_light ∝sqrt(S)

と書くことができます。ライトフレームもコンポジットしてn_l枚を重ねるとすると上と同様に

N_light / sqrt( n_l)

というノイズが残ります。

通常はライトフレーム一枚に対しコンポジットしたダークフレームで補正します。ダーク補正は差に相当するので、無相関なノイズにとっては2乗和のルートになるので、その場合のS/N比は

S / sqrt( N_light^2 + N_dark^2 / n_d)

となります。このダーク補正したライトフレームをコンポジットするので、信号は

n_l x S

ノイズは

sqrt( n_l x N_light^2 + n_l^2 x N_dark^2 / n_d )

となります。ここで、N_light / sqrt( n_l)は各ライトフレームに適用されているので、無相関ではなく正の相関を持っているコヒーレントノイズになり、そのまま和になることに注意です。なのでn_lの2乗で足してあります。

これらをn_l枚で平均化するので、信号は

n_l x S / n_l = S

ノイズは

sqrt( n_l x N_light^2 + n_l^2 x N_dark^2 / n_d )  / n_l = sqrt( N_light^2 / n_l + N_dark^2 / n_d )

となるため、S/N比は

S / sqrt( N_light^2 / n_l + N_dark^2 / n_d )

となります。



やっと式ができました。この式を具体的に考察します。

まず、ライトフレームをダークに近いくらい暗い空で撮るとか、そもそも非常に低いISOとか短い露光時間でとったりして、ライトフレームのノイズとダークノイズが非常に近い場合には

N = N_light = N_dark

とおいて、さらにライトもダークも同じn枚撮るとするとS/N比は

S / sqrt( N^2 / n + N^2 / n ) = S / ( sqrt (2) x N/sqrt(n) )

となり、sqrt(2)倍だけノイズが大きくなってしまいます。すなわちこのようにライトの背景とダークが近い場合はダークの枚数をライトの枚数よりも増やしてやらないとルート2倍損をしてしまいます。

ちなみにルート2倍損をすると言う意味は、ライトフレームの撮影枚数が半分になったことと等価ですので、ずいぶん勿体無いですね。

一方、ライトフレームのノイズがダークノイズよりも十分に大きい場合(十分に明るい場合ということ)にはダークの枚数を減らしていいことになります。例えば、ライトフレームの背景が100倍ダークよりも明るいとすると、ライトフレームのノイズはsqrt(100) = 10倍大きいことになります。100枚ライトを撮った時に一枚だけダークを取った時、やっとノイズがコンパラになり、その結果上と同じ様にルート2倍損することになります。式で書くと、ライトフレームのノイズをNとすると

S / sqrt( N^2 / 100 + (N/10)^2  / 1 ) = S / (sqrt( (N^2 + N^2)/100 ) = S / (sqrt(2) x N/10)

 となります。 

こんな場合でもダークを10枚とってやれば

S / sqrt( N^2 / 100 + (N/10)^2  / 10 ) = S / (sqrt(1+1/10) x N/10)

となり、sqrt(1.1) ~1.05なので、5%くらいの悪化で抑えることができます。


さて、ライトフレームの背景のノイズとダークノイズの比は一体どれくらいなのでしょうか?先日撮った馬頭星雲の画像で比べてみます。ヒストグラムのピークが背景だと考えると、ピークの位置が明るさになるので、Photoshopで比較してみます。ライトフレームのピークはざっくりヒストグラムの半分ほどなので125くらい。ダークは暗過ぎて判断できないので、レベル補正で10倍の明るさにして平均値を見て10で割ってやると3.7位です。比は34程度と、思ったより小さいです。

IMG_3190
ダーク画像を10倍明るくしたもの。平均3.3と思ったより明るいです。


ライトフレームは36枚撮影していて、ダークは30枚使ったので、

S / sqrt( N^2 / 36[枚] + (N^2/34[倍]) / 30[枚] ) = S / (sqrt(1+1/30/34x36) x N/sqrt(36) )

となります。

sqrt(1+1/30/34x36) = 1.015

なので、1.7%の悪化となり、ほとんど影響ありません。枚数にしたらライトフレーム1.1枚くらいのロスです。今回の場合は5枚も取れば10%くらいの悪化で、ライトフレーム7.6枚くらいのロス、10枚取れば5%くらいのロスで、ライトフレーム2.8枚くらいのロスになるということです。


というわけで、またかなり長い記事になってしまいましたが、結論としては、背景の空が暗くてダークに近ければ近いほど枚数が多い方がいいが、空が明るい場合は少なくてもいいということになりそうです。志摩観望会で間違ったことを言ってしまったことになります。Kさんごめんなさいm(_ _)m。

 

先日自宅の庭で撮影した馬頭星雲と燃える木がかなり冴えなかったので、色々見直しました。

まず画角ですが、APS-Cサイズの60Dだとできた画面を見ていても無理に入れ込んでる感じでイマイチ迫力がありません。これはフルサイズにした方が良さそうです。ということで、9月にハヤタ・カメララボでなぜか一台だけ他より安くで出ていたHKIR改造済みのEOS 6Dを初投入です。

6Dですが、バッテリーが60Dと共通なのと、以前なぜか60D用と6D用を間違えて買ってしまったレリーズが余っています。まあそのうちレンズが欲しくなるのでしょうが、今のところ他にあまり買い足すものもなく使えるので便利です。バッテリーはこれまで2つあったのですが、さらに一つついてきたので3つを使いまわして6Dと60Dを使うことになりそうです。

ピント合わせや初期アラインメント時に、付属モニターのライブビュー画像で明るく星を見たいので、X5と60Dに引き続き今回もMagic Lanternを6Dに導入しました。完全自己責任ソフトなのですが、まあ中古で安く買っているので、あまり気にしないでガンガン使い込んでいきます。以前X560Dで比較で試した、付属モニターライブビュー画像での電視も試して見たいですが、それはまた今度の機会とします。

11月27日、この日は風もなく空に雲もほとんどない非常に綺麗な空だったので、平日だったのですが、リモート撮影であとは寝てればいいかと思い撮影を敢行しました。先週末に試した60Dでのリモート撮影の状態を崩さずにとっておいたために、最初のセットアップも短時間ですみます。なのでいつものFS-60QをAdvanced VXに載せ、これに6Dをとりつけたものになります。

月が沈む0時頃から撮影を始めました。HDR合成用に3秒露光のものを10枚、あとは180秒の枚数をできるだけ稼ぎます。感度はとりあえずこれまで60Dで使っていたISO3200で試しました。アラインメントをして撮影が始まってしまえば特にすることもなくなるので、明日が仕事ということもあり、そのままベッドに入って寝てしまいました。

さて朝起きて確認してみると、午前2時半頃まではうまくいっているのですが、後は流れていってしまっています。結局天頂を超える前に撮影を始めて、天頂を超えてある程度は持っていたのですが、限界がきて追尾できなくなってしまった様です。これは失敗でした。

もう一つわからなかったのが、PHD2で「最大撮影時間を過ぎた」みたいなメッセージが英語で出ていたのですが、これの変更方法がわかりません。以前もこれで撮影が中断されたことがあったので、なんとか解決したいのですが、マニュアルを見てもイマイチどこを触ったらいいかわかりません。

あと、先週は風が強くてぶれまくっていて、精度面で修理できたかどうか判断を先送りしていたAdvanced VXですが、写っている画像を見ている限り星は全て円像に写っていて、壊れたAdvanced VXは精度面においても直ったと言っていいと思います。後は修理に使ったM2.6のネジを太くして本数を増やすことで、強度面でも元の性能に近いものに戻ると思います。


さて、この日はダークもフラットも何も取らなかったのですが、ライト画像は衛星が写り込んでいるものをカットしても34枚、一枚3分なので計1時間42分が使える画像になりました。試しに10枚だけステライメージ8の自動処理で簡易画像処理をして見たのですが、これだけでも先週末の60Dよりはるかに綺麗に撮れていることがわかりました。こうなってくると欲が出てきて、ダークとフラットも撮影したくなります。次の日、また平日ですが懲りずに撮影し、それも込みで処理したのがこれです。

HORSE_LIGHT_6D_180s_3200_+7cc_20171128-00h09m41s_x34_PS_photo
富山県富山市, 2017年11月28日0時12分
FS-60Q + Advanced VX赤道儀
EOS 6D(HKIR改造, ISO3200, RAW), 露出3分x34枚 総露出1時間42分
f50mm+ASI178MC +PHD2による自動ガイド
Steller Image 8、Photoshop CC + Nik collectionで画像処理


前回の冴えないのと比べると、雲泥の差です。この原因は何かと考えました。風がなかったのは一因ですが、星雲の明るさには関係ないはずです。雲が少なくて透明度が高かったことはまずあると思います。後は60Dと6Dの差でしょうか。いろんな人から6Dはノイズが少なくていいと聞くのですが、その噂はやはり本当みたいです。今回は撮影した日時も違うので条件が合っていなくて何も結論めいたことは言えませんが、条件を限りなく同じにして、60Dと6Dで定量的に比較してみたくなりました。







 

この日は馬頭星雲を撮影する前に、もう一つのテストをしました。電視でのShaprCap Pro 3.1β版の新機能ヒストグラムについてです。この間の志摩での電視観望会でなんとインストールしてあった3.1βが現場で期限切れに気づくという間抜けなことがあったので、新たにアップデートしてきちんと動くかどうか試したのですが、大きく変わっているところがありました。電視観望にも大きく関係しそうです。

これまであった「Display Controls」が無くなってしまっていて、その代わりにRGB別のヒストグラム「Display Histogram Stretch」というのが足されていました。ヒストグラム自身は元のバージョンでもライブスタック時に見て調整することはできていたのですが、今回のものはライブスタックとは別に個々の画面でも使えるものです。しかもこの新しいヒストグラムも、これまであったライブスタック時のヒストグラムもRGB化されてるので、ホワイトバランスなどが取りやすくなっています。

とりあえず、M42オリオン大星雲を写して見た画面を載せます。スタック画面で無く、1.6秒露出のワンショットなのでノイズは多いです。新しいヒストグラムが右下に見えていると思います。

IMG_3163



まずスタックをしない時のこの「Display Histogram Stretch」ですが、Black Level、Middle Level、White Levelという3つの線を移動することによりレベルの応答を変えることができます。これはあくまで表示される画面の結果を変えるだけで、カメラの信号そのものを変更するようなものではないです。基本的にはブラックレベルとミドルレベルの線でヒストグラムのピークを挟むことによりより見やすい画面が得られるのですが、今回はヒストグラムのグラフの中にあるイナズマ状の「自動設定ボタン」を押すことによりこのような見やすい画面がほぼ自動で得られるようになっています。実際に上の画面はほとんど何も調整らしい調整はせず、ただこの自動調整ボタンを押したのみです。


IMG_3162


次に、上の画面の様にライブスタックを始めるともう一つのヒストグラムが有効になります。下の方のライブスタックエリアにある「Histogram」タブをクリックすることでスタック時のヒストグラム機能にアクセスできます。でも結果として、スタック無しの個々の画面用、スタック時用と2つのヒストグラムが出てくるので、その関係に戸惑います。

色々試してわかったのですが、単純に言うとまずスタックのヒストグラムの設定が大元の設定になり、その結果がDisplay Histogram Stretchに受け渡され、そこでの設定と合わさったものが画面に表示されるということみたいです。

実際にやる場合は
  1. スタックなしの単独画面の時は右側のDisplay Histogram Stretchで自動設定ボタンを押す。電視の最適化に近いような画面に簡単にすることができる。
  2. スタックがある場合は右側のDisplay Histogram Stretchは自動設定ボタンの下のリセットボタンを押して応答をまっすぐにしておいてから、スタック用のヒストグラムで調整する。スタック用のヒストグラムも自動設定ボタンが同じように使えて、簡単に電視の最適化に近いようなことができる。
  3. スタック用ヒストグラムはさらにカラーバランスを変えることもできる。この結果もそのまま右側のDisplay Histogram Stretchに渡される。
  4. 問題は、スタック用ヒストグラムで調整したことは、スタック用ヒストグラムでは確認できないということです。スタック用ヒストグラムで調整して、右側のDisplay Histogram Stretchでその効果を確認するというやりかたが使いやすいようです。


とにかく電視に関して特筆すべきは、今回はイナズマ状の自動設定ボタンを押すことによりこのような見やすい画面がほぼ自動で得られるようになっていることでしょう。これまであった「Display Controls」のGammaやContrast、Brightnessでの調整もなかなか細かいことができたり、大きくいじることで見えにくかったものが見えてきたりもしたのですが、それと比べても自由度は減っている気はしますが今回の自動設定ボタンはかなり優秀です。自由度は減っても、同じようなことを圧倒的な短時間と、技術に全くよらずにできてしまうことは、電視観望会などで大きな威力を発揮するのかと思います。

馬頭星雲で比較して見ました。最初が以前のバージョンのDisplay Controlsで調整した場合です。

IMG_3165


次が、新しいバージョンの自動設定ボタンで調整した場合です。

IMG_3167

共にスタックしていますが、古いバージョンは6.4秒x26スタック、新しいバージョンは6.4秒x16スタックと、総露出時間が短くても新しいバージョンの方が明らかに綺麗に見えています。

ベータ版で次々に新しい機能が付いてくるので、まだまだ今後のShapCapの進化が本当に楽しみです。


自分で修理したAdvanced VXのテストの一環として、カメラ撮影を試してみました。2017年11月25日の晩、対象は月が沈んだ頃に出てくるオリオン座が一晩中いるので、その中の馬頭星雲と燃える木。テスト撮影なので、色々試せるように自宅の庭での撮影です。

月が沈むまでに時間があったので、ついでに冬場の寒さに備えての家の中からのリモートコントロールを試しました。Advanced VXとCarte du CielとAstro TortillaをASCOMでつないでの自動導入とPlate solvingです。この組み合わせは春の寒いうちにやっていたことがあるので、その再テストになります。前回の記事で書いたように、Windows10に色々問題点もあったのですが、その甲斐あって夜のテストではほとんど問題なく導入と、BackYardEOSから画像を撮って、AstroTortillaが解析、さらにCarte du Cielへのフィードバックアラインメントの自動補正で、またBackYardEOSから画像を撮ってAstroTortillaで位置の再確認まですることができました。このおかげで自動導入の精度に全く困らなくなるので、暖かい家の中から導入から撮影まで安心して実現でき、非常に快適です。


さて、実際の撮影ですが機材はCarte du CielやStellariumで持っている機材の場合の画角を調べるとFS-60Q(焦点距離600mm)にAPS-CEOS60Dの組み合わせが良さそうです。実は9月に改造版の6Dを購入しているのですが、未だに使うチャンスがありません。MagicLanternもインストールして準備はできているのですが、使い始めはいつになることやら。ということで結局いつものセットアップで進めます。

AVXですが自動導入までは志摩でのテストで心配ないことはわかっているので、今回は実際にガイド撮影をしてのテストです。ところがこの日はものすごく風が強く、そのせいかわかりませんが、赤緯側に分単位の周期的な変動があります。壊れたのは赤経側ですが、もしかしたら偏心みたいな影響があるのかもしれません。それでも撮影している画像を見る限り、ほとんど流れたりすることはなく、むしろ風の影響のブレが大きいくらいでした。どれくらい風が強かったかというと、午前1時頃に撮影を始めてから眠ってしまったのですが、朝4時頃にあまりの風の音に目が覚めて心配で外に出たら、セットしてあったテーブルが風で遠くに吹っ飛んでいってしまっていました。色々置いてあったものも散らばっていて、写真を見てみると結局午前2時半頃以降はうまく撮れていなかったようです。まあ、三脚が倒れなかっただけでもよかったかもしれません。それくらい風が強かったので、ダークもフラットも撮る間も無くすぐに撤収しました。

というわけで画像処理したものですが、風でブレているものと薄雲がかかっていた分を除くと3分x13枚と大した枚数は稼げずに、粗い画像となってしまいました。もう少し色が出るかなと思ったのですがこれ以上出すと背景のノイズばかりが目立ってきます。自宅だとこれくらいが典型的なのかもしれません。やはりこれ以上は暗いところに遠征に行かざるを得ないみたいです。

New5b

富山県富山市, 2017年11月26日1時24分
FS-60Q + Advanced VX赤道儀
EOS 60D(新改造, ISO3200, RAW), 露出3分x13枚 総露出39分
f50mm+ASI178MC +PHD2による自動ガイド
Steller Image 8、Photoshop CC + Nik collectionで画像処理



さて、壊れてなんとか自分で修理したAdvanced VXですが、ガイドでも一応撮影に耐えうるくらいは動くみたいです。ただ、赤緯の周期変動が気になるので、今一度風のない日に試してみようと思います。





冬支度のために、リモート撮影環境を再度整えようとしているのですが、Windows 10のアップデートでStick PC上でいくつかこれまで動いていたソフトが動かないなどのトラブルが発生したので、メモがわりに対処法を書いておきます。


IMG_0717


RDP wrapper

Stick PCはモニタなどもないためリモート使用が前提なのですが、home editionのためRemote Desktopのサーバー側にはなれないため、RDP wrapperというソフトを使って外部からRemote desktopで接続していたのですが、Windows 10のCreator updateで使えなくなってしまいました。対処法はまずは
 
https://github.com/stascorp/rdpwrap/files/1236856/rfxvmt.zip

からrfxvmt.dllを拾ってきます。これを解凍して中身のrfxvmt.dllをc:¥Windows¥System32に入れるのですが、セキュリティーのため簡単には入りません。まず、コントロールパネル->システムとセキュリティ->ユーザーアカウント制御設定の変更に行き、カーソルを一番下まで下げる。エクスプローラーか何かで、c:¥Windows¥System32¥rfxvmt.dllを右クリックしてプロパティの「セキュリティー」タグで自分がフルコントロールできるようにし、その後リネームします。その後拾ってきたrfxvmt.dllをコピーします。ユーザーアカウント制御設定の変更を元に戻すのを忘れないようにしてください。

次に、RDP wrapperを再度ダウンロードしておきます。解凍後、uninstall.batを右クリックの管理者権限で実行してアンインストールしてから、再度install.batを右クリックで管理者として実行してインストール。最後にupdate.batを右クリックで管理者として実行。

これでアクセスできるようになるはずです。


Astrotortilla

星図とのマッチング、Plate solvingで使っていたAstroTortillaがどうもうまく動きません。「Tool」の「Log viewer」でみても数秒でNo solutionと出てしまいます。ログレベルを「Info」から「Debug」にしてみてみると1073741792というコードとともに止まってしまっています。googleで調べるとどうやらファイルの書き込み権限か何かの問題のようです。cygwinが怪しそうなので、再度インストールすることにしました。ただし、そのままインストールするだけではすぐに終わってしまってcygwin関連を書き換えないのでやはり同じエラーコードで止まってしまいます。まずはインストールされているcygwinをリネームするなり削除するなりして、cygwin以下が新規でインストールされるようにします。その後以前の記事のようにインストールし直します。データのダウンロードに再度数時間かかりますが、これをしない限り直りませんでした。cygwinも含めてインストールをしなおすと、無事に動くようになりました。



Windows10 設定変更ツール

今回のアップデートで懲りたのと、以前にも観測で使おうとしてアップデートが始まったことがあったので、今回「Windows10 設定変更ツール」v1.4というアプリを使って、アップデートを自動でしないようにしました。設定したところは作者HPの説明にあったように3箇所で、「ダウンロードとインストールを通知」「自動メンテナンスを無効にする」「Cortanaを無効にする」のみです。これで不意なアップデートは停止できるはずです。

前回の記事と少し前後しますが、先週11月12日の話です。

今回の飛騨コスモス天文台の観望会はめずらしく日曜日開催でした。子供達はこの観望会をすごく楽しみにしているみたいで、いつものように3人で数河高原を目指しました。明るいうちに着きたかったのですが、途中食事をとったりで、結局到着したのは18時過ぎ。車から出るととても寒かったですが、天の川がものすごく綺麗で、南西から北の方までかなりくっきりとかかっていました。

IMG_5298_stitch_si8_ps_photo


この日の目的の一つは修理した赤道儀のテストでしたが、セットアップしている途中で電視に移ってしまい、最後まで試すことができませんでした。電視の方はというと、高山の方から来ている方が何人かいるということで、いつものM57とM27をみんなで見ました。ちょうどドームの中で写真をみせてもらったらしく、それが実際に空にあるものを見ることができたので、喜んでくれたようです。数河高原はさすがに光害も少なく暗い空です。星雲もとても色鮮やかに見ることができました。他にももう少し見ようとしたのですが、Nexstarの導入精度があまり取れていなかったので、あきらめてしまいました。それよりも天の川が綺麗なのと、おうし座北流星群が極大日だったので、普通に空を見上げて星を見るのが楽しかったです。

IMG_5306


今回子供メンバーはというと、4年生のKちゃんに、5年のSuke、中1のNatsu、中3のS君と、いつものメンバーで、走り回って大騒ぎをしていました。S君がSukeにとってちょうどお兄さんみたいで、いつも相手をしてくれています。途中Yさんが出してくれたコーヒーが暖かくてとても美味しかったです。子供達はお菓子をパクパク食べていました。Yさん曰く、修理したドームも夜に温度が低くなってもきちんと動いているということで一安心です。

実は今年度は今回で最後の観望会です。間も無く雪が降って来るので、来年の春、4月か5月くらいまでは車で入ることもできなくなってしまいます。みんな名残惜しそうに、「よいお年を」と声をかけ、22時頃にコスモス天文台を後にしました。代表のYさん、いつも双眼鏡や望遠鏡を出してくれるSさん、今回会えなかったですがコスモス天文台の皆さん、今年も楽しい観望会をありがとうございました。また来年春の観望会を楽しみにしています。



このページのトップヘ