ほしぞloveログ

天体観測始めました。

カテゴリ: 調整・改造

つい最近(2019/3/24)、Stellariumが0.19.0にバージョンアップされました。最近Stellariumがかなりすごいです。


星雲星団の実画像表示

星雲星団の実画像の充実に気づいたのは何ヶ月か前、バージョン0.18.2から0.18.3にアップデートされた時(アップデート自身は2018/12/22)です。ちょうどプラネタリウムソフトで星雲や星団がきちんと写真レベルで表示されないかなと思って色々試している時でした。撮影時の実際の星雲の広がり具合とかをあらかじめ比べたかったからです。あれ、0.18.3になってなんか綺麗な画像が増えたなと思って当時ちょっと調べてみました。Mac版の場合、アプリケーションフォルダの中のStellariumのファイルを右クリックして、「パッケージの内容を表示」で、Contents->Resources->nelulae->defaultの中を見ると、実際の星雲星団の画像がたくさん入っているのがわかります。

IMG_6850

上の写真の一番下のファイル数で比べると、0.18.2->0.18.3で248ファイルから439ファイルと倍増近くになっています。0.18.3->0.19.0は439->473と数はそれほど増えたわけではないですが、細かく見ると画像のクオリティが上がってたりするのがわかります。

IMG_6851
左が0.18.3付属のIC1805、右が0.19.0のもの。
サイズは1MB->509kBと小さくなっているのに、
クオリティは明らかに上がっている。

例えばオリオン座のM42です。Stelalrium上でかなりの画質で表示させることができます。

IMG_6842

これを見るとトラベジウムあたりは飛んでいってしまていますが、拡大すると徐々に画像を消すなどしてうまくトラベジウムが見えるようにしているようです。

IMG_6844

それでも星雲の画像を表示させたくないときもあると思います。そんな時は、右の端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで「星雲の背景ボタンを表示」にチェックをしておいて、カーソルを画面下に持っていって出てくる「深宇宙の背景画像」をオフにしてやれば下の画面のように画像を消すことができます。

IMG_6852

まだ一部もやっとした光も残っていますが、これは天の川の一部として低解像度で表示されているものです。これも右端で出てくる「空と表示の設定」から「空」タブで「Milky Way brightness/saturation」をオフにすると完全に消すことができます。


自分の持っている機材で視野角を確認

さて、前項のこういった星雲や星団の実画像があると何が便利なのか?それは撮影時の実際の視野角と簡単に比較することができるからです。

ご存知の方も多いと思いますがStellariumでは自分で持っている機材を登録して、視野を直接画面の中に表示することができます。右上の左から二番目の四角の枠だけのアイコンを押すと、画面の中に赤い枠が出てくると思います。これが現在設定されている視野です。これを自分の持っている機材に変更します。同じく右上の一番右のアイコンを押します。タブに「望遠鏡」、「補正レンズ」、「CCD」、「アイピース」がありますが、それぞれ設定します。「望遠鏡」は鏡筒、「補正レンズ」はバローレンズやレデューサなど、「CCD」はCCDカメラやCMOSカメラ、一眼レフカメラでももちろん構いません。赤道儀の機能は「望遠鏡」のところの「赤道儀」をクリックします。実際の視野の回転は「CCD」のところの「回転角(度)」で調整します。ここは大抵0度か90度ですね。

いくつか鏡筒やカメラを登録すると、右上の左から二番目の四角アイコンを押した時に、登録した機材を画面を見ながら変更することができます。この時、星雲の実際の画面があると、どれくらいの視野で、どのような機材で撮影すればいいのかが一発でわかるのです。


他波長での背景表示

もう一つ面白い機能を紹介します。多波長で空を見た場合、その画像をStellariumの背景として表示させることができます。これはバージョン0.18.0から搭載された機能で、まだテストレベルのようです。

画面右端で出てくる「空と表示の設定」から「Surveys」タブで「Deep Sky」を選び、ズラーっと出てくるリストが衛星や観測装置など研究レベルで撮影されたデータになります。たくさんあるのですが、アマチュア天文で撮影に使用する場合はほとんどがあまり関係なく、この中でお勧めできるのは「DSS colored(2つあるうちの下の方の)」と「DSS2 Red(F+R)」です。

IMG_6846
DSS colored

IMG_6848
DSS2 Red(F+R)

上のように分子雲モクモクの背景を表示させることができます。写真ではカラーの方が見栄えが良くなってしまっていますが、実際のPCの画面ではモノクロの方が見やすいかと思います。特に構図を決める時はかなり狭角で見ることになるので、モノクロの方がより分子雲の度合いがわかります。一方、広角で見る場合はモノクロの場合はつぎはぎになってしまうのでカラーの方がお勧めです。

この画面を表示させるためにはもう一つやることがあります。このやり方が最初どうしてもわからなくてしばらくの間ずっと画像を表示できなくてやきもきしていたのですが、色々調べてやっとわかりました。画面右端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで「Show HiPS button」をオンにして、画面下に出てきた「Toggle Hierarchical Progressive Surveys (experimental)」をオンにすると、やっと上のような画像が出てきます。でもこの機能はとても重いのと、多分データをその都度ダウンロードしているようなので、ある程度早いCPUパワーとネットワークが必要になるかと思います。

IMG_6845

他に面白いのは、「IRAS IRIS HEALPix survey, color」でしょうか。天の川全体を表示させるような場合は、IRAS IRIS HEALPix survey, color上のDSS coloredのように、カラー化されたものの方が見やすそうです。

IMG_6849
IRAS IRIS HEALPix survey, color

Surveysの方のリストはたくさんありすぎて私も全部は見ていません。いくつかのデータは表示してもほとんど何も変化がなかったりもするので、もしかしたら多少加工しなければ見えないようなデータもそのまま表示してしまっているのかもしれません。もしリストの中で他にも撮影の役に立ちそうなものがあったら、コメントなどで情報共有してもらえるとありがたいです。

あと全く別の同様の機能に、「デジタル・スカイ・サーベイ(DSS)ボタン」があります。こちらも画面右端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで設定できます。画面下に出てきた「デジタル・スカイ・サーベイ(TOAST)」ボタンを押すと、分子雲なども多少見ることができる背景が表示されますが、「Survey」で表示されるものの方が見やすいかと思うので、あまりこの機能はお勧めしません。

いずれにせよ、上の両機能ともものすごく重いので、お勧めの表示のさせ方を書いておきます。
  • まずプラネタリウム表示の時間経過を止める。画面下の三角ボタンを押すと止まります。
  • 画面を移動する時には、両機能ともオフに。
というくらい気を使うことになると思います。

また、最近のステライメージも最新版では多波長に対応しているとのこと。おそらく、画像を多少加工してあるのでしょうか、ステライメージの方が見やすくなっているようなので、こちらもお勧めです。

分子雲モクモク画面を見ていると、かなり構図決定の参考になるかと思います。これからもこういったものを撮影に活用していければと思います。

 

もう先々週になってしまいますが、3月8日金曜日の帰宅後、ちょっと疲れていたのですが新月期で天気も良かったので、かねてより試したかったAZ-GTiによる2軸ガイドを試してみました。これができると、かなり軽量コンパクトな撮影システムになるので、海外や登山でも持っていけそうです。

撮影対象はM42、オリオン大星雲です。画像処理に時間がかかってしまったので、記事にするのに時間がかかってしまいました。撮影結果を先に示しておきます。本来ガイドを試して星像を見るテストなのですが、今シーズン最後のオリオンになるだろうことと、撮影時間1時間弱にしてはそこそこ出たので、AZ-GTiで(まだまだ稚拙ですが)ここまでは出るという指標として、きちんと画像処理までしたものをあげておきます。

light_M42_PCC_maskstretched_ok_HDR_dark

富山県富山市下大久保 2019/3/6 21:23-23:04
f=600mm, F10 + AZ-GTi(赤道儀モード)
EOS 6D(HKIR改造, ISO3200, RAW)
300sec x 11frames 総露出時間55分 + HDRのため3sec x 12
PixInsight , Photoshop CCで画像処理




AZ-GTiのこれまでの経緯

これまで、これまでAZ-GTiを赤道儀モードも含めていろいろ試してきました。
  1. AZ-GTiのファーストテスト
  2. AZ-GTiの赤道儀化(その1): ハードウェア編
  3. AZ-GTiの赤道儀化(その2): ソフトウェア編
  4. AZ-GTiの赤道儀化(その3): 極軸調整とオートガイド
  5. AZ-GTiの赤道儀化(その4): Stick PCでのガイドとTips

実際4のところでガイドも試していますが、露光時間が30秒と短すぎたのでまだちゃんとしたテストにはなりませんでした。その後、この赤道儀モードでもう少し時間をかけた撮影を試みました。
  1. 昨年11月2日にAZ-GTiの赤道儀モードでノーガイドでテスト。
  2. 11月3日にAZ-GTiの赤道儀モード2軸ガイドに挑戦するが、接続問題で断念。
  3. その後、ブログの記事にはしていませんが、11月15日に少しくらい山の方に行ってAZ-GTiの赤道儀モード2軸ガイドに挑戦するが、ISO1600、3分で13枚だけとって、そのうち成功はわずか2枚、Maybeが5枚で、失敗6枚とほとんどダメだったので、検証は失敗。原因は風が強くて全く点像にならず。
と、現状はこういったところです。

この頃はまだQBPフィルターを手に入れる前なので、自宅ガイド無しで露光時間90秒が最長、山の中のガイドありでも3分が最長で、その代わり特に自宅だと露光時間の短さを補うためISOが6400と高めです。それからだいぶん日にちが経ってしまいましたが、今年の目標の中にはまだAZ-GTiの赤道儀モード2軸ガイドは入っていました。なかなか天気が良くなかったり、途中レデューサーフラットナーのテストも入ったりしたのですが、それらのテストも一巡して、FS-60CBだった鏡筒もやっとエクステンダーを付け直して、焦点距離600mmのFS-60Qに戻りました。やっと久しぶりのテスト再開です。


目標

さて、この「AZ-ZGiでの2軸ガイド」計画の目標ですが、具体的には
  1. 焦点距離600mmの鏡筒をAZ-GTiの赤道儀モードで稼働し、2軸のガイドを実現すること。
  2. フルサイズのカメラで撮影して、少なくとも3分以上の露光で、赤道儀起因の流れが十分無視できる程度の撮像が得られること。
  3. 撮影枚数のうち、8割以上の成功率を実現すること。
の3つです。これは海外へ行く時など、できる限り軽量で実用的な撮影ができるという条件から設定しています。この目標が達成できれば、十分海外へ持っていっても使い物になると考えることができます。

1については上で書いたように、赤道儀化テストの4番目や、昨年11月15日にシステムとしては稼働しているので、すでにほぼ目標達成です。2については上記の3に書いてあるように、3分で2枚だけ成功しているのですが、風が弱かった時での成功で、もしかしたらピリオディックモーションがたまたま小さかった時のみの成功かもしれません。なので主にここからの検証です。

機材とソフトウェア

  • 鏡筒: タカハシ FS-60Q (口径60mm, 焦点距離600mm)
  • 赤道儀: AZ-GTiを赤道儀モードで使用
  • センサー: Canon EOS 6D(HKIR改造)、ISO3200、露光時間5分x11枚、計55分 + HDR合成のため、3秒x12枚、バイアス画像100枚、ダーク画像5秒x15枚、フラット補正無し(撮影後、フラットを撮る前にセッティングを変えてしまったため)
  • 初期アラインメントおよび追尾ソフトウェア:iPhone上でのSynScan Pro、その後Windows10上のSynScan Pro
  • 自動導入および視野確認: Carte du Ciel + SynScan Pro AppのASCMOドライバー、Astro Trotilla + BackyardEOS
  • ガイド時のソフトウェア: Windows10上のSynScan Pro AppのASCMOドライバーにPHD2 + BackyardEOSでガイド+ディザー撮影
  • ガイド機器: ASI178MC + 50mm Cマウントレンズ
  • フィルターサイトロン Quad BP フィルター(クアッド バンドパス フィルター、 以下QBP)
  • 撮影場所: 富山県富山市下大久保
  • 日時: 2019年3月6日、21時23分から
  • 月齢: 29.6(新月)、天気快晴、風が少々
  • 画像処理: PixInsight、Photoshop CC


セットアップ

まずはAZ-GTiを赤道儀モードで稼働させることが前提です。経緯台モードでも2軸ガイドができるという情報もありますが、私はまだ試したことがありません。

AZ-GTiでの2軸ガイドのポイントの一つは、SynScan App用のASCOM driverをインストールして、PHD2からのガイド信号をSysScan経由でAZ-GTiにフィードバックすることです。すなわち、PC上で信号のやり取りはほぼ済んでしまうために、ケーブルとしてはガイドカメラからのUSBケーブル一本、あとは今回の場合BackYard EOSを使ってディザーガイドをしているため、PCとEOS 6DをつなぐUSBケーブルが一本の、計2本です。AZ-GTiの電源は乾電池で内臓、EOS 6Dの電源も電池のため内臓で、AZ-GTiの駆動はWi-Fi経由なので、本当にケーブル2本、もしディザーをしなくてカメラ単体でとるのならわずかケーブル1本での2軸ガイドが可能です。

さらに今回の場合、Stick PCを使い、PC自身も三脚あたりに取り付けてしまったため、本当にコンパクトな2軸制御システムとなりました。Stick PCの操作はWiFi経由なので、自宅からぬくぬくと撮影、モニターをすることができます。


実際の撮影

極軸合わせはいつも通りSharpCapで行いました。一つだけポイントを挙げておきます。

AZ-GTiは構造的にそこまで頑丈ではないです。SharpCapの極軸合わせで90度視野を回転させる場合、手で回す際はウェイトバーがついているところのネジを緩める必要があるのですが、その時全体が大きくたわんでしまいます。90度回す時はモーターで回転させた方がはるかに精度が出ます。

さて、実際の撮影はフル自動導入の赤道儀とほぼ同様に扱うことができます。これは、Carte du CielなどのプラネタリウムソフトでAZ-ZTiを制御して自動導入することもできますし、Astro Tortillaなどでplate solvingすることもできるので、撮影した写野から位置を特定することもできることを意味します。ようするに、操作性だけ言えば大型で高機能な赤道儀に全然遜色ないということです。

視野が決まれば、あとは撮影です。QBPを使っているので、5分露光くらいまでは十分耐えることができます。ISOは3200としました。撮影中は自宅にいたのですが、今回は星像が気になってしまい、仮眠をとったりすることができませんでした。というのも、最初のうちはガイドは非常に安定していたのですが、30分くらいしてからガイド星の位置が結構頻繁に飛びはじめたのです。しかもピリオディックモーションが出ないはずの赤緯の方です。時に上に行ったり、時に下に行ったり、ガイドがかなり頑張って補正しているようでした。何か調子が悪いのかと思って外に出たらすぐに納得しました。明らかに風が強くなっていたのです。どうやらAZ-GTiは、撮影レベルになるとやはり外乱の影響を受けやすくなってしまうようです。もちろん三脚などでも変わると思うので、もう少し大型の三脚に載せてもいいかもしれませんが、それだと売りのコンパクトさが損なわれてしまいます。使えるのは風が強くない日限定でという制限をつけた方がいいかと思います。

この頃は冬も終わりに近づき、オリオン座も西に傾く時間がはやくなってしまっているので、結局撮影に使えた時間は21時半くらいから23時くらいまでと1時間半で、総露光時間は55分と1時間を切ってしまいました。


撮影結果

結局14枚撮って(ただし、撮影最後の西に沈んで影になった3枚はカウントから覗きました)11枚が成功でした。と言っても衛星が大きく通った一枚も失敗とカウントしたので、星像という意味では実際には14枚中12枚が成功と言っていいと思います。86%の成功率なので、目標達成といっていいでしょう。

隅の星像を(自作プログラムを改良して8隅が出るようにしました。)拡大してみます。大体のガイド性能までわかると思います。ただし、AZ-GTiのそもそものピリオディックモーションが+/-75秒程度とかなり大きいので、ガイドをしてもその影響を取り去ることはできません。また、風の影響も多少あります。

星像がまともと判断したものの中でベストに近いもの。まあまあ、丸になっていますが、やはり完全ではなく、わずかに斜め方向に伸びています。

M42_LIGHT_6D_300s_3200_+7cc_20190308-21h47m38s110ms_8cut


星像がまともと判断したものの中でワーストに近いもの。ここら辺までが許容限界としました。スタックすると多少は平均化されるのですが、拡大すると明らかに縦方向に伸びています。主に風の影響です。

MAYBE_M42_LIGHT_6D_300s_3200_+6cc_20190308-22h50m46s955ms_8cut


また、下のように風の影響で星像が2つに分かれてしまっているものもあります。一瞬大きな風が吹いたのかと思われます。これはもちろん使えないとしました。

BAD_M42_LIGHT_6D_300s_3200_+6cc_20190308-22h57m53s875ms_8cut


画像処理

画像処理は今回のテーマでないのですが、1時間弱にしては結構出すことができたので少しだけ書いておきます。

結果は一番上の画像を見ていただくとして、とりあえず処理してみると分子雲が結構出てきたので、少し強調してみました。露光時間が短いのでまだ粗いですが、自宅撮影でQBPがあればここら辺までは出せることはわかりました。また、青を出す方法も少しわかってきました。といっても、トーンカーブで青の真ん中らへんを持ち上げるだけですが。やはりQBPだと青色が出にくいので、少し強調してやる必要がありそうです。

最後に、全てスタックして画像処理をした画像(一番最初に示した画像)の星像です。やはり、ごくわずか縦長になってしまっています。どれくらい歪むかは風の強さによるかと思いますが、あとは歩留まりで調節するのかと思います。私的にはここら辺までなら、まあ許容範囲です。

light_M42_PCC_maskstretched_ok_HDR_dark_8cut




まとめ
  • AZ-GTiの赤道儀モードで、PHD2とSynScan用のASCOMドライバーを使った2軸ガイド撮影はそこそこ実用レベルで使用することができる。
  • 具体的には焦点距離600mm程度なら、露光時間5分でもある程度の歩留まりで星像は安定する。
  • ただし軽量システムのため、風に弱い点は否めない。
なんとか目標の歩留まり8割にたどり着きました。軽量コンパクトな撮影システムの構築という目的はある程度達成したと思います。次回海外へ行く時や、登山(多分することはないとわかっているのですが...)で持っていくシステムとしては完成です。このシステムは電視観望システムを含んでいるので、海外とかでのデモンストレーションもできることを考えると、当分コパクトシステムはこれで行くことになりそうです。やはり2軸制御できるところがポイントです。惜しむらくはピリオディックモーションです。もう少し小さいと星像ももっと安定すると思うのですが、この価格でそこまで求めるのは酷かもしれません。SWATなどの方がここら辺は利がありそうです。

AZ-GTiの購入から半年ちょっと、すごく楽しめました。軽量撮影システムとしてはこれで大体完成なのですが、本当に撮影で普段使いをするかというとこれはまた別問題。やはり風に弱いという欠点があるため、車が使える時や、自宅では頑丈な赤道儀を使っての撮影になるかと思います。あ、でも電視観望ではAZ-GTiは完全に主力ですよ。

AZ-GTiは、特に天文を始めたばかりの人でも、アイピースでの観察から電視観望、経緯台モードでの簡易撮影から、赤道儀モードでの本格的な撮影までこれ一台で相当楽しめるはずです。コストパフォーマンスを考えたら間違いなくオススメの一品です。


昨日の記事の続きです。やっとなんとか形になりました。

ノイズを標準偏差で評価するか、平均偏差で評価するか迷っていたのですが、Twitteでガウス分布から外れているのなら飛んだ値が多いはずなので、(飛んだ値に影響されにくい)平均偏差の方がいいのではという意見をもらいました。なるほど、考えてみればその通りで、標準偏差と平均偏差にすでに無視できないような有意な差があるということは、いいかえてみればガウス分布から外れた値も多いということが言えるのではと思います。

Fits画像のhistogram


というわけで実際にヒストグラムで分布を見てみました。まず、debayerなど何の処理もしていないRAW画像です。 

histgram_raw

見ての通り、ガウス分布からかなり外れていることがわかります。これはRGBでそれぞれ反応が違うために山がいくつもできるのかと思われます。

次に、同じ画像をdebayerしてRed、Green、Blueに分けたヒストグラムものを示します。

まずはRed:
histgram_R
次にGreen:
histgram_G

最後にBlue:
histgram_B


不思議なのは、RGBに分離しても山がいくつも見えることです。debayerの際に周りのピクセルの状況も読み込んでいるからなのか、もしくは画面の中で場所によって明るさに違いがあって、それが山になっているのかもしれません。また、RGBを合わせてもRAWの山の形になりそうもないことも不思議です。一瞬違う画像を処理したかと思ってしまったのですが、きちんと確認しても同じRAW画像から分離したものです。debayerもそんなに単純でないようです。

最後に、その中の50x50ピクセルを取り出してきた場合のヒストグラムです。
histgram_50x50
山がいくつもあるようなことはなくなり、大まかな形としてはガウス分布にだいぶん近づきます。それでもサンプル数が少ないことによるばらつきがあるのも確かなので、ここでは平均偏差でいくのが良いと考えることにします。



Conversion Factor

さて、実際にコンバージョンファクターを求めてみました。サンプル数を多くするために画像中心付近の100x100ピクセルを選んで解析しています。

結局今回はPythonで平均偏差を求めるルーチンをを自前で書いて、各ピクセルごとに計算しています。書き忘れてましたが上のヒストグラムも全部Pythonで書いています。やっとPythonでの画像解析に慣れてきました。結果ですが、以下のようになります。

20190302_01_Conversion_Factor

ついにここまでくることができました。結果はグラフの中にも数値で書いてありますが、コンバージョンファクターとして4.12、そこから計算できるUnity gainが200 x log10(4.12) = 123となり、メーカー値の117とわずか0.6dB、1.07倍の誤差くらいの範囲で求めることができました。

検証


もう少し検証してみます。

IMG_3262

上のようなSharpCapでの自動測定の結果のグラフと比べると、自動測定の測定値を伸ばしていくと0点近くに行きますが、自分で測定したものは0点に向かわずに、y切片で-352くらいのところにあたります。本当にきちんと測定しようとするならバイアスノイズをのぞいたり、フラット補正をすべきなのですが、今回は省いています。それでもSharpCapもそれ専用の測定はしていないように見えるので、うまくy切片が0になるような補正をかけているものと考えられます。

もう一点、自動測定の場合、測定点がいくつか重なっているように見えます。おそらくこれはRGBと分解した3点が重なっていると推測されるのですが、それにしても横軸(ADU)が一致しすぎています。普通に測定すると、自分で測定した時みたいにRGBで光源も違えばセンサーのフィルター特性も違うはずなので、ずれるはずです。これもSharpCapの自動測定では何らかの補正をしているものと思われます。


まとめ

結局、上の結果を得るまでに2週間くらいかかりました。色々苦労しましたが得たものも多く、まずPythonでの画像解析の環境がだいぶ揃いました。既存ライブラリに頼らない、ピクセルごとに解析する手法もある程度得ることもできました。統計的にどのようにアプローチすればいいのかも少し学ぶことができました。

次はEOS 6Dのユニティーゲインを求めることでしょうか。
あー、ホントはCP+行きたかったです。

今回はCMOSカメラ、ZWOのASI294MC Proの性能評価の一環で、全ての測定の元になるADUからeへの変換のコンバージョンファクターの測定についてです。結論から言いますと、SharpCapの自動測定機能での結果と、SharpCapでマニュアルで一枚一枚撮影しその画像を自分で解析した結果がどうしても合いません

この記事は多分ほとんどの人にはめんどくさい話で、よほどでない限り興味がないことと思いますし、しかもうまく結果が出なかったものなので、公表するかどうかも迷っていたのですが、それでも自分のメモがわりに書いておこうと思います。ご容赦ください。


動機

もともとダークノイズを評価する過程の一環で進めているのですが、今回の測定の動機は2つあります。
  1. ダークノイズの測定は多岐に渡るので、まずは解析環境をpythonで整えようとするのにちょうどいい練習になる
  2. 天体用CMOSカメラだけでなく、一眼レフカメラの性能評価もできないかと思ったから
です。特にEOS 6Dのユニティーゲイン(ADUとeの比が1になるゲイン)、引いてはコンバージョンファクターの測定まで自前でできたらなと目論んでいたのですが、今のところ見事に失敗。

最近ブログをなかなか更新できなかったのは、天気が悪くて星が見えないとか、仕事が忙しいとかもありますが、この解析が全然うまくいかなくてずっと悩んでいたというのが、一番大きな理由です。


測定方法

各画像の撮影はSharpCapで撮影します。共通の設定は
  • iPadのColor Screenというソフトを光源とした
  • RAW16
  • Gain = 0
  • Brightness = 8
  • White Bal(R) = 50
  • White Bal(B) = 50
  • 温度15度程度(コントロールなし)
となります。この状態で露光時間を変更して10枚程度の画像を撮影します。上記設定や露光時間はSharpCapでのセンサー性能を測る時のパラメーターを参考にしています。というか、最初適当に設定していたのですが、結果が全然合わないので、最後はコンバージョンファクターを測る時の状況に限りなく合わせるようにしました。

ゴールとしては下の写真(SharpCapのセンサー性能測定機能で自動測定した場合)の

IMG_3260

右のようなグラフが得られればOKです。横軸(各ピクセルの明るさ)が10000程度の時に縦軸(ノイズの2乗)が2500程度です。グラフの傾きは0.25程度、その傾きの逆数が今回求めたいコンバージョンファクターになり、普通に測定すると1/0.25=4程度になるはずです。この値はZWOが示している値ともほぼ一致しています。

コンバージョンファクターはちょっと理解が大変かもしれませんが、関係式と意味についてはこのページの1のところに、式の証明についてはこのページの一番最後のおまけのところに書いてあります。


測定結果

ところが自分で測定してみた結果は散々なものです。普通に画像を撮影してそのまま何も考えずに解析すると、そもそもDebayerもされていなかったりするので、ノイズが大きく出すぎてしまいます。結果を見せるのもあほらしいのですが、

mymag_all


のようになり、SharpCapの結果にカスリもしないくらいノイズが大きく出てしまっています。傾きが30くらい、コンバージョンファクターは0.03とかで、メーカー値の100分の1以下です。ここから苦難のノイズハンティングの道が始まりました。結局やったことをまとめると
  1. SharpCapでfitsファイルを撮影
  2. PixInsightでCosmeticCorrectionでホット、クールピクセルを除去 (飛び抜けて明るいピクセルなどあるとばらつきが大きく出てしまう)
  3. PixInsightでDebayerをしてカラー化 (RGBでゲインが多少違うため、debayerせずに標準偏差を取るとばらつきが大きく出てしまう)
  4. PixInsightでR、G、B画像に分離し、一枚一枚を個別に保存する (今回解析に使ったirafは天文研究に使われるソフトで、モノクロがほぼ前提なので、カラー画像を解析できない)
  5. 中心近くの50x50ピクセルのみを選択して解析 (画像全体だと周辺減光などの影響で、ばらつきが大きく出てしまう)

4番まで進めた時のグラフが

mymag _rgb_all


のようになりますが、まだ傾きが10程度、コンバージョンファクターにして0.1程度しかありません。

さらに5番目の中心部分のみを解析するようにして、やっと下のグラフくらいにまでなりました。

mymag_rgb_cut


それでも結局傾きが0.35程度、コンバージョンファクターが1/0.35で3程度になり、どうしてもまだ4近くにまでなりません。

考察と今後

なぜこの差が縮まらないか、もう少し検証します。まず、横軸(各ピクセルの明るさ)が10000の時に縦軸(ノイズの2乗)が2500くらいになるためには、ノイズはそのルートの50程度でなければなりません。ではノイズと言っているものが何かと言うと、画像から測定したピクセルの明るさのばらつきということなので、普通は標準偏差(standard deviation)をとればいいと思われます。この標準偏差を求めるのに今回は天文研究でよく使われているirafを使いました。ところが、明るさ10000程度の50x50ピクセルの明るさのばらつきの標準偏差をirafで測定すると60程度になってしまいます。グラフの横軸でいうと2乗なので3600程度になってしまうわけです。

ここでirafを疑いました。何か間違った結果が出ているのではと思ったのです。そこでPixInsightの統計ツールで測定したのですが、標準偏差はやはり60程度とでます。それどころか、SharpCapでも画像の選択したあるエリアの各色の標準偏差をリアルタイムで測定できるのですが、それもやはり60程度なのです。

SharpCapで測定しても60とでるならば、SharpCapの自動センサー性能測定の測定はどうやってやっているのでしょうか?何か特別なことをやって50と出しているのか、それともまだ私が何か勘違いをしているのか

PixInsightの統計ツールで少しヒントになるようなものを見つけました。標準偏差ではなくてオプションでAverage absolute deviationという値を出すことができるのですが、この値がちょうど50程度になるのです。

IMG_6410
標準偏差(stdDev)が60ちょい、Average absolute deviation(avgDev)が
50切るくらいになっているのがわかると思います。

Average absolute deviationのは一般的にはMean absolute average (around the mean)というらしくて日本語では単純に平均偏差というらしいです。標準偏差が各値(Xi)から平均値(M)を引いたものを2乗したものの総和を総数Nで割ったもの

1Ni=0N(XiM)2

に対して平均偏差は各値から平均値を引いたものの絶対値の総和を総数で割ったもの

1Ni=0N(XiM)

となります。他にもMean absolute average (around the median)というのもありますが、こちらは平均値を引く代わりに中心値を引きます。

標準偏差が2乗和のルートになるので、ばらつきがより効いてくることになり一般的に

標準偏差 > 平均偏差

となるそうで、確かに標準偏差より小さい値になっていて納得です。

さて、平均偏差を使えば、メーカー値もしくはSharpCapで測定した値に近い結果が出るはずなのですが、そもそも平均偏差を使っていいものなのか?やはり普通に考えると標準偏差を使った方が、あとの統計的な評価が簡単になりそうで、素直な気がします。

さらに、irafなどの一般的な解析ツールでは平均偏差を出すことができるものが少ないので、グラフまで出せるくらいにきちんと解析するのなら自前で統計処理の部分のコードを書く必要があります。

そんなこんなで、今pythondで書いているのですが、果たしてこの方向が正しいのかどうか?
まだ色々迷っています。


先日作った画像四隅切り抜きソフトを使って、FS-60CBでの星像を比較してみました。比較対象は焦点距離の長い順から
  1. FS-60CB + エクステンダー => FS60Q: F10、焦点距離600mm
  2. FS-60CB + 旧フラットナー(フラットナー FS-60C): F6.2、焦点距離370mm
  3. FS-60CB + 新フラットナー(FC/FSマルチフラットナー1.04): F6.2、焦点距離370mm
  4. FS-60CB + レデューサー(RD-C0.72×): F4.2、 焦点距離255mm
です。条件などです。

  • カメラは2番目の旧レデューサーのみEOS 60DでAPS-Cですが、他3つは6Dでフルサイズになります。
  • また、旧レデューサー以外はQuad Band Passフィルターが入っています。ほとんど影響はないと思いますが、稀に星像が歪むという報告もあるようなので、一応気に留めておいてください。
  • 撮影場所は全て富山市の自宅ですが、どれも撮影日が違うので、条件は同じでないことをご了承ください。
  • 画像は全て撮って出しのJPEGですが、ホワイトバランスはその時々でいじっているので色はあてにならないです。
  • 何も校正していないので、周辺減光を読み取るのは厳しいです。

それでも下に示す画像を見てもらえればわかりますが、同じ鏡筒でも取り付けるオプションによって星像の違いがはっきりと出るのがわかります。


エクステンダー: 600mm 

まずは、1番のエクステンダーです。四隅と真ん中をそれぞれ250ドット角で切り取った画像と、その元の画像(モンキー星雲)になります。

LIGHT_6D_300s_3200_+3cc_20190109-22h33m50s976ms_4cut

LIGHT_6D_300s_3200_+3cc_20190109-22h33m50s976ms


四隅でもほぼ真円になっています。これなら全く文句ないです。


旧フラットナー: 370mm

次に旧フラットナーです。カメラが60DなのでAPS-Cサイズでの撮影であることに注意してください。北アメリカ星雲です。

NORTH_AMERICA_LIGHT_60s_3200iso_+30c_20170913-21h38m38s_4cut

NORTH_AMERICA_LIGHT_60s_3200iso_+30c_20170913-21h38m38s996ms

やはり四隅がかなり流れているのがわかります。結局旧フラットナーではちゃんとした撮影はこの一枚だけでした。それでも天リフの今日の一枚に選ばれた感慨深い一枚です。

星像比較とは関係ないのですが、この画像の撮影日は2017年9月13日で一年以上前です。フィルターも何もなしで、ISO3200で露光時間1分ですが、他の3つと比べてこれだけかなり背景が明るくなっています。他の3つはQBPで露光時間を伸ばせているので、QBPの効果がかなり大きいことがわかります。


新フラットナー: 370mm

新型のフラットナーです。昨日の記事で出したものと同じ画像でカモメ星雲です。

SEEGULL_LIGHT_6D_300s_800_+9cc_20190205-21h20m00s179ms_4cut

SEEGULL_LIGHT_6D_300s_800_+9cc_20190205-21h20m00s179ms


星像ですがほぼ真円。それでも拡大してエクステンダーとよく見比べてみると、四隅で極々僅かに円周方向に伸びているのがわかります。でもこれくらいなら私的には十分許容範囲です。


レデューサー: 255mm

最後はレデューサーです。オリオン座のM42と馬頭星雲一帯です。

ORION_LIGHT_6D_300s_800_+5cc_20190114-22h39m34s849ms

ORION_LIGHT_6D_300s_800_+5cc_20190114-22h39m34s849ms_4cut

まず、広角なのでさすがに周辺減光が目立ってくることがわかります。フラット補正は必須でしょう。星像も真ん中はまだそれほどでもないですが、四隅では円周方向にもそれと垂直にも伸びていて、十字のように見えます。それでも旧フラットナーよりはましですが、新フラットナーには完全に負けています。

拡大しなければ気にならない範囲とも言えますが、これは画像処理での補正方法を検討した方がいいのかと思います。ちょっと色々試してみようと思います。


まとめ

今回はFS-60CBについて、4種類のアダプターを試してみました。結果としては

エクステンダー > 新フラットナー >  レデューサー >> 旧フラットナー

といったとことでしょうか。ほぼ評判通りで、メーカーの言っていることも正しいと思います。やっぱり自分で確かめると納得しますね。細かい違いもよくわかりました。

できれば、これをレンズ設計ソフトで再現してみたいです。だれかFS-60CBのレンズデータとかどこかにあるか知りませんでしょうか?タカハシに聞いてもさすがに教えてくれないだろうなあ。


今週の火曜日、水曜日と新月期で、冬なのに珍しく晴れていました。外に出てもそれほど寒くないので、平日ですがQBPを使って宅撮りです。前回の撮影ではレデューサーを試したので、今回は新タイプのフラットナーのテストです。ターゲットは、これまで何度か撮ろうとしては雲が出てできて失敗しているかもめ星雲です。

機材セットアップ

今回の目的は、先日購入した新フラットナーでの撮影です。以前の旧フラットナーから星像がかなり改善されているそうなので楽しみです。
  • 鏡筒: タカハシ FS-60CB (口径60mm, 焦点距離355mm) + FC/FSマルチフラットナー1.04で焦点距離370mm
  • 赤道儀: Celestron CGEM II
  • センサー: Canon EOS 6D(HKIR改造)、ISO800、露光時間5分x41枚 、計3時間25分
  • ガイド: ASI178MC + 50mm Cマウントレンズ、PHD2 + BackyardEOSでガイド+ディザー撮影
  • フィルターサイトロン Quad BP フィルター(クアッド バンドパス フィルター、 以下QBP)
  • 撮影場所: 富山県富山市
  • 日時: 2019年2月5日、19時22分から
  • 月齢: 0.6(新月)


撮影

撮影は準備から含めて極めて順調。唯一大変だったのが、前回の撮影で使ったレデューサーからフラットナーへの切り替えだけです。最初は短い方の中間延長アダプターを入れて、回転アダプターを鏡筒バンドから外に出して試したのですが、やはりピントがでませんでした。なので、再び中間延長アダプターを外して、カメラは回転しにくいですが、地面に鏡筒を置いた状態であらかじめカメラの水平を出して、カメラ回転アダプターを固定してから赤道儀に取り付けました。

カメラ回転が面倒な代わりに、新型フラットナーには48mm径のQBPをきちんとねじ込んで取り付けることができました。さすが新デザインで、より汎用性が高まっているようです。

いつものようにSharpCapで極軸をとり、CGEMIIのワンスターアラインメントで初期アラインメントです。実は最近ツースターアラインメントさえ使っていません。極軸がきちんと取れていれば、ワンスターアラインメントで十分です。ただし、流石にワンスターアラインメントだけの自動導入だとズレも出てくるので、Carte du CielとAstroTortillaでplate solvingしながらの構図決め。これは極めて便利で、準備始めから30分くらいで撮影を始めることができました。

何枚か撮れていることを確認して、仮眠をとりました。仮眠のつもりがぐっすり寝てしまい、夜中12時頃目を覚したら外は結構すごい風。しかも天頂越えで最後の何枚かは流れてしまっていたので、すぐに片付け。あとはダーク50枚ほどの撮影を放置しながら、また朝まで寝ていました。


画像処理

次の日フラットとバイアスを50枚づつ撮影して、そのまま全てPixInsightで処理です。枚数も4-50枚と少ないのですぐに終わります。 ストレッチは前回同様、赤とびを抑えるためにArcsinhStretchは使わずにScreenTransferFunctionとHistgram Transformationで済ませました。

今回は彩度までPixInsightで出してみました。今回はColorSaturationツールを使いましたが、Curves TransformationツールでSアイコンを選んで彩度を上げる手もあるようです。でもまだまだ手探りで機能を理解しきっているとは言い難いです。もう少し時間をかけて探ります。あとは、いつも通りPhotoshopに送って仕上げです。


出来上がり画像

出来上がった画像は以下のようになります。

light_PCC_stretched_morfing_satiration_DBE_morph_ps2a

新月期で時期的にはよかったとはいえ、それでも光害地での宅撮りでこのクオリティーなら個人的には十分満足です。3時間以上の露光とはいえ、それでもやはりQBPの威力は大きいでしょう。ただ、少しづつQBPに対する不満も出てきました。列挙しておくと
  • 恒星のオレンジが出ない。
  • 赤が、紅に近い赤で、紫がかった赤や、ピンクっぽい赤は出にくい。(ただし、燃える木のピンクはうまく出るようです。)
  • 恒星が赤飛びしやすい。
  • 青い星雲は出にくい。
といったところでしょうか。やはり透過波長域からもわかるように緑系や濃い青、また黄色やオレンジ領域もどうも苦手なようです。これはある意味当たり前で、そのために露光時間を延ばすことができるというわけなので、贅沢な悩みと言えるかもしれません。画像処理で多少誤魔化さなければならないところも出てくるので、ここら辺は腕の見せ所となのでしょう。


Plate solving


話は変わりますが、実際の導入と構図極めの際にはplate solvingとしてAstro Tortillaを使っています。でもあまり高機能でなく、解析結果もいたってシンプルであまりわかりやすくはないのですが、撮影時にBackYardEOSを使っているのである意味仕方なく使っている面もあります。一方、同じplate solvingのソフトなのですが、もう少し高機能なAll Sky Plate Solverを使うと、画像に星雲の名前などを入れてくれたりします。

seegull


右の方で名前がはみ出してしまったりしているのは愛嬌として、今回はいろんな星雲星団がある領域だったので、少し広角を狙いました。フラットナーがちょうどいい画角だったというわけです。plate solvingを使ってこんな解析も楽しいのではないかと思います。

本当はAll Sky Plate Solverが、そのままダイレクトにBackYardEOSに対応してくれたらと思うのですが、とても惜しいです。あ、一応BackYardEOSで撮影して、そのファイルを読み込ませるだけならできます。でもその足で赤道儀にフィードバックして位置を合わせ直すので、何度もそれをやるのは面倒だというだけです。Astro TorttilaとBackYardEOSなら、全自動で赤道儀の位置の合わせ直しまで繰り返しでやってくれるのでものすごく楽なのです。


新フラットナーの実力

この画像処理と並行して、昨日の記事で四隅を切り出すプログラムを作ったのですが、その結果を示しておきます。昨日の記事では画像処理後のものを出したのですが、よく考えたら撮って出しJPEGから切り取ったものの方が周辺減光の様子などもわかるのでいいのかと思います。

これが撮って出しのJPG画像で

SEEGULL_LIGHT_6D_300s_800_+9cc_20190205-21h20m00s179ms

ここから上下左右と真ん中250x250ドットを切り抜いています。

SEEGULL_LIGHT_6D_300s_800_+9cc_20190205-21h20m00s179ms_4cut


旧フラットナーの四隅の星像がどうしても気になって、使う機会があまりなかったのですが、今回の新型のフラットナーははるかに良くなっています。スターベースで店員さんから聞いた時には、それでも色によって極わずか収差で歪むとのことでしたが、これを見る限り私的には全く気にならないレベルです。

 

 

バイアスノイズで少しやり残したことがあるので、試しておきます。


疑問: バイアスフレームをマスターバイアスで補正してみたら?

前回、バイアスフレームを何枚かスタックしてリードノイズを求めてみましたが、枚数のルートで減っていくはずのリードノイズが実際には理論通りに減っていきませんでした。すべてのバイアスフレームに載っている共通のノイズがあると考えられたからです。

それでは、多数のバイアスフレームをスタックして最後に残った共通のバイアスノイズ(PixInsight用語では「マスターバイアス」というそうです)で、各バイアスフレームを補正してから、改めて何枚もスタックしたらどうなるのでしょうか?面白そうなので試してみましょう。


予測

単純に考えるとこんな予想ができます。
  • 前回の測定で、最後まで残った全バアスフレームに共通にあるノイズがさっぴかれるので、理想的に枚数のルートに比例してノイズが少なくなっていく。
  • 最終的にはあるオフセット(一定の輝度という意味)を持った、のっぺりした画像になる。
この予想は、実際に試す前に頭だけで考えたものです。さて本当にそうなるのか、もし違ったとしても実際にどこまで迫れることやら。


測定

さて、実際に試してみましょう。

マスターバイアスは再現性もチェックするために、前回撮影したのとは別に新たに撮影し直しました。枚数ですが、できる限りノイズの少ないものということで、1024枚重ね(て平均し)たものにします。このマスターバイアスで各バイアスフレームを先に補正してから1024枚スタックします。それでもノイズは単に理想的なものを1024枚重ねたものより、(マスターバイアスが足し合わさった分)ルート2倍大きくなるはずです。その分だけ理想的な枚数のルートでノイズが改善されるというのからはずれてくると思います。(と、ここら辺のズレくらいまで実際の測定前に頭の中で考えました。)

また、バイアスフレームも新たに撮影しました。マスターバイアスを作った際の1024枚でもいいのかと思ったのですが、それだと同じものから同じものを引いただけになってしまい、本来残って欲しいノイズもゼロになってしまうかと思ったからです。


結果


今回も1、4、16、64、256、1024枚の比較です。青色の理想的な場合と、緑色のマスターバイアスで補正されたもの赤色のマスターバイアスで補正されていない(前回と同じ)ものを載せています。あと、わかりやすいように縦軸をlogスケールにしました。理想的だとグラフは直線になります。

03_readnoise_vs_gain_02_masterbias


考察

さて、結果を改めて見てみます。マスターバイアスで補正したものは明らかに理想的なラインに近づいています。1024枚の時は同じ程度の(相関のない)ランダムなノイズを2回足し合わせていることになるので、理想的な場合に比べてルート2倍程度大きくなるはずです。無相関なノイズは足しても引いても2乗和のルートになるので、ルート2倍ということです。1.4倍くらいのはずが、実際には1.8倍くらいなので、それでも理論値より少しだけ大きい値になっているようです。256枚のところにも少なからずその影響が出ています。計算上は1.25のルートなので、1.18倍ですが、実際には1.24倍です。さらにマスターバイアスの枚数を増やせば1024枚のところでももっと理想的なラインに近づいてくるでしょう。


少し補足です。まずは1枚重ねで単純にマスターバイアスを引くことを試したのですが、平均値が同じものを差っ引くことになってしまうので、ADU(輝度)が0付近に行ってしまい、その影響で標準偏差も0に近い小さな値になってしまうことがわかりました。そのため次のようにして解決しています。
  1. まずマスターバイアスの平均値の半分の輝度を持ち、標準偏差0の全くのっぺりした画像を、PixInsightのNewImageで作成します。
  2. それをマスターバイアスから引くことで、マスターバイアスの平均値を半分にしました。
  3. そうやって作ったマスターバイアスを、それぞれのバイアスフレームから引きます。
  4. その結果、平均値が輝度0より十分に大きな、マスターバイアスで補正されたバイアスフレームを作り出しました。
IMG_6322


この過程を経て初めて正しそうな結果を得ることができました。


もう一つ、実際に処理した画像を比べてみましょう。左上の奥のがマスターバイアス補正をしていないもの、右下の手前の画像がマスター補正をしたもの。ともに1024枚スタックした時の画像で、輝度は揃えてありますす。

IMG_6328

PCの画面を直接撮影したので、モアレが少し残ってしまっています。見にくいところもあると思うのですが、それでもマスターバイアスで補正をすると残っていた縦線が明らかに消えているのがよくわかると思います。



まとめ

今回わかったことまとめておきます。
  • 全バイアスフレームに載っている共通のコモンノイズが存在する。
  • そのノイズは、多数枚のバイアスフレームをスタックして作ったマスターバイアスを使って、補正することができる。ただし、オフセットごと補正してしまうことに注意。
  • バイアスコモンノイズをさっ引いたバイアスフレームはかなり理想的なランダムノイズに近い。
と言ったところでしょうか。

うーん、今回はかなり予想通りにいったので、結構満足です。予測できなかったところは、マスターバイアスで単純に補正すると平均値が0になってしまい、ばらつきも少なくでしまうことでした。これは通常の画像処理でいう、オフセットをあげて暗い部分を切ることに相当します。

というわけで、画像処理は嘘をつかないということがかなりわかってきました、、、と言いたいところなのですが、すでに少しダークノイズを試していて、こちらはなかなか一筋縄ではいかないみたいです。また余裕ができたらまとめます。


それはそうと、今回新たにバイアスファイルを2000枚ほども撮影してしまいました。すでに合計3000枚、あぷらなーとさんにだんだん迫ってきてしまいました。やばい、これはやばい。まっとうな道を行きたかったのに(笑)。




 

今回はASI294MC Proのバイアスフレームについて色々検証してみました。結構面白い結果が出たのでまとめておきます。


はじめに

昨日の昼間、めずらしくものすごい快晴。これはと思い、早速夜からカモメ星雲を撮影しようと準備をして、やっと撮影を始めたらわずか数枚で雲がもくもく。こんな日はむしゃくしゃするので、諦めてASI294MC Proの評価の続きです。

さて、大きな目的としては、前回の課題の一つダークノイズがどれくらい撮影に影響があるかですが、今回はその前々段階くらいにあたる、リードノイズのいろいろなテストです。実はあぷらなーとさんの解析に触発され、自分でももう少し泥臭い検証をしてみたくなりました。


バイアスフレーム一枚からのリードノイズの算出

あぷらなーとさんが自作ツールでバイアスフレームを解析し、見事メーカーが公表しているリードノイズと値が一致しました。私も前回の記事でSharpCapのSensor Analysis機能を使うことで、メーカー値と同じ値を確認したのですが、もう少し自由に測定できないか試したくなりました。それでも独自ツールを作るのは大変なので、今回はPixInsightの「ImageInspection」の「Statistics」を使いってリードノイズを求めたいと思います。

まず、SharpCapを使い、ASI294MC Proのバイアスフレームを撮影します。条件は
  • モード: RAW16 (16bit)
  • 露光時間: 0.0032ms
  • Gain: 121
  • Brightness(オフセット): 20
  • ホワイトバランス: Red 50, Blue 50
とします。それをPixInsightで読み込み、Statisticsツールを起動し、開いた画像を選択します。

IMG_6308


Statisticsツールでは「14bit [0,16383]」を選び「Normalized」にチェックを入れます。その時のavgDevの値を読みます。この場合、2.1でした。単位はADUなので、eに変換するためにコンバージョンファクターを使います。前回の測定から

IMG_6283

ゲイン121のところ見ると、0.88とあります。先ほどの2.1 [ADU]にこの0.88 [e/ADU]をかけると1.85 [e]となります。SharpCapで測定した値が1.86 [e]なのでほぼ正しい値が出ているようです。

ちなみにコンバージョンファクターがわからない時は、あぷらなーとさんのブログの記事でも紹介されていたように、ユニティーゲイン (UG、eとADUが同じになるゲインのこと、すなわちコンバージョンファクターが1ということ)から求めても同じことです。メーカーによるとUGが117とのことです。ゲイン121の時とは(117-121)/10=-0.4dB違うので、10^(-0.4/20) = 0.95となります。コンバージョンファクターも0.95倍すればいいので0.95 [e/ADU]となります。SharpCapの実測の0.88 [e/ADU]とは少し違いますが、UGをメーカー値としたためこれくらいのズレはあり得るでしょう。UGが正しいとしてリードノイズを求めると、2.1 [ADU] x 0.95 [e/ADU] = 2.00 [e]となりますが、それでもそれほどのズレではないです。


ちょっと脱線します。SharpCapで測定したデータですが、実際に測定しているところは

Gain Value e/ADU Read Noise (e) Full Well (e) Relative Gain Rel. Gain (db) Dynamic Range (Stops)
0 3.99686 7.80246 65484.6 1 0 13.0349
59 2.04740 6.86512 33544.6 1.95217 5.81034 12.2545
61 1.99842 6.83844 32742.1 2.00001 6.02064 12.2252
100 1.28103 6.34598 20988.4 3.12004 9.88322 11.6915
119 1.03257 6.11416 16917.6 3.87080 11.7560 11.4341
121 0.88019 1.85936 14421.0 4.54092 13.1429 12.9211
200 0.35776 1.59308 5861.64 11.1717 20.9624 11.8453
300 0.11418 1.41354 1870.75 35.0044 30.8825 10.3701
400 0.03624 1.35693 593.803 110.280 40.8499 8.77350
500 0.01171 1.32912 191.794 341.432 50.6661 7.17294

だけで、あとは全て計算値です。このことは、例えばFull Wellの値とRelative Gainをかけてみると、全てのゲインで65484.6(上の表は小さな桁を丸めてあるので少しずれます。)と同じ値になり、さらにこれにゲイン0の時のe/ADUの値3.996863906をかけるとぴったりと14bitで整数値の16384になることなどでわかります。Full Wellは本来サチルくらいの光量をカメラに入れて測定から求めるべきなのですが、SharpCapは14bitの最大値をサチった値と仮定して簡易的に求めていることもわかります。ZWOのメーカー値もどうやら同じように測定されているみたいなので、これはこれでありなのかもしれません。


さて、本題に戻ります。一例としてゲイン120の場合で計算してみましたが、他のゲインはどうでしょうか?他のゲインの値も、実際に撮影した画像からPixInsightを使ってリードノイズの値を求めてみたので、グラフにしてみます。赤がSharpCapのSensor Analysis機能で測定した線青がPixInsightを使って一枚一枚マニュアルで求めた線です。

03_readnoise_vs_gain1


グラフを見ても、SharpCapとマニュアル測定の差はほとんど誤差の範囲だとわかります。

というわけで、PixInsightを使うことで、リードノイズの値を画像からいつでも求めることができるという手法を手に入れたということになります。



バイアス画像を多数枚スタックするとどうなるか?

とりあえず、簡単にリードノイズを測定することができるようになったので、色々やってみたいと思います。

まずは、これらバイアスフレームを多数枚スタックするとどうなるのでしょうか?

スタックするとばらつきが平均化されるので、もしバイアスフレームに存在するノイズが完全にランダムなら、理想的には枚数のルートに比例してノイズが小さくなっていくはずです。

2、4、16、256、1024枚と、枚数を増やして、上と同様にPixInsightで実測したリードノイズの値を求めてみました。その結果をグラフに示します。理想の場合(青線)と、実際にスタックした場合(赤線)での比較になります。スタックはPixInsightのIntegration機能を使いました。蛇足になりますが、Macbook Proでスタックした場合4144x2822の16bitのfits画像1024枚でスタック時間は7分くらいでした。これくらいなら待つことができます。



03_readnoise_vs_gain2


グラフを見るとわかりますが、理想的なノイズの減り方に比べて、実測の方が明らかにノイズの減り具合が悪いです。これはなぜなのでしょうか?


実際のスタックしたバイアス画像を見比べてみる

この謎を解決するために、実際にスタックした画像を見比べてみましょう。まずはこちら、

IMG_6310


左上の奥の画像から1、4、16枚、最後の右下手前の画像が256枚重ねたものです。輝度は1枚ときの画像に全て合わせているので、直接見比べることができます。ぱっと見てわかるのは、枚数が多くなると明らかにノイズが滑らかになっていることでしょうか。これを見る限りは理想的にはどんどんノイズ(ばらつき具合)は少なくなっていってもいいはずです。


では次に、同じ画像で輝度を256枚重ねた画像に合わせてみましょう。

IMG_6312


前は綺麗に見えていた256枚画像も、実は完全にランダムなノイズではないことがわかります。縦線みたいなものが残っています。逆に1枚の時には横線が目立っています。これは横線に関してはランダムに近いノイズで、枚数を重ねることで滑らかになっていくのですが、それでも全枚数に共通に存在する縦縞のノイズが残ってしまい、それがグラフでの理想値との差を生むと推測されます。実際に1枚重ねだけの画像を何枚も見比べてみると、横線がてんでバラバラに入っていることがわかります。

ここからわかることは、
  • 多数のバイアスフレームを使うのは、バイアスフレームのランダムに存在するノイズを減少させるため。
  • バイアスフレームでライトフレームを補正するのは、スタックしたバイアスでさえも残った、バイアスフレーム全てが持つ共通のノイズを除くため。
ということが言えるのではと思います。

まとめ


はあ、ババーッとまとめてさすがに疲れたので、今日はこれくらいにします。まだまだ面白いことはあるのですが、さすがに書くスピードの方が追いつきません。さて、今日のまとめです。
  • 単体のバイアスフレームから、リードノイズを見積もることができる。
  • SharpCapも全部のゲインで全部の測定をしているわけでなく、一部を測定して、あとは計算で出している。
  • バイアスフレームをスタックすると、ノイズは減っていくくが、無限に小さくなるわけではない。
  • バイアスフレーム全てに共通するノイズが存在し、それらはバイアス補正でライトフレームから差っ引くことができる。
といったところでしょうか。

ちなみに、あぷらなーとさんはバイアス解析だけ1万枚も撮影するというような、言わずと知れた変な人です。私はたかだか千枚ほどしか撮影していないので、あぷらなーとさんに比べて10分の1くらいしか変でないということがわかってもらえると思います。






近頃、KYOEIさんにおいてZWO社のASI294MC Proを手に入れました。これまでもASI294MCを使ってきていましたが、今回はこの冷却タイプにあたります。私にとっては初の冷却カメラの使用になります。

でもずっと天気が悪くていまだにファーストライトが実現できていないので、その分時間は余っています。せっかくなので、冷却タイプの性能評価を、ノーマルタイプと比較してみたいと思います。

IMG_6171


 
評価方法

さて、同じようなカメラが2台あるので、興味があるのはその性能の比較です。ノーマルタイプについては以前も性能評価をしています。SharpCapを利用することで、センサーの性能を簡単に実測することができます。測定できる項目は
  • コンバージョンファクター
  • リード(読みだし)ノイズ
  • フルウェル(飽和容量)
  • 実効ゲイン
などです。

SharpCapのSensor Analysis測定は3段階に分かれています。
  1. 最初はGain 0でe/ADU(コンバージョンファクター)を測定。
  2. 次が蓋をしての、ダーク、最短露光時間状態での、リードアウトノイズの測定。
  3. 最後に、再び蓋を外してゲインを変えての実ゲインの測定です。

詳しい説明はリンク先を参照するとして、興味があるのはセンサーが同じで、冷却した時にどこにどれくらい違いがでるのかを実際に確かめてみたいと思います。


 

測定時の注意点

測定は久しぶりだったので多少戸惑いました。今回気になった、測定するときの注意点です
  • 最初はRAW8に設定されていることが多いです。RAW16モードで測定すること。
  • 光源はiPadを使ったのですが、明るすぎるのと、フリッカーのような瞬きがあるので、紙を何重にかして光を通しています。
  • 光の量の調整が結構シビアです。暗いよりは明るいほうが測定の失敗が少ないです。測定開始時の最初の自動露光時間調整で、適度な露光時間に落ち着いたときの値が20msとかより短くなると、測定を開始することができますが、光量がまだ少なくて失敗する確率が増えます。露光時間が2msから5msくらいまでの間になるようにすると成功率が上がります。
IMG_6280
  • うまくいかない場合の典型なケースでも、最初のe/ADU(コンバージョンファクター)の測定と、ダークの測定まではすんなりいくはずです。
  • 次の「ゲインを変えての測定」がうまくいかないことがあるかもしれません。ここで失敗すると最初からすべてやり直しです。そのほとんどが光量が少なすぎて、露光時間が長くなりすぎるケースです。一つは、ものすごく光量が少ないとゲイン0の時に10秒以上の露光になって止まってしまうこと。たとえもう少し光量があっても、多分これはSharpCapのバグだと思うのですが、露光時間が1.5sとか1.7sくらいの時に、測定完了の判定がうまくできなくて、露光時間を長くしたり短くしたりを繰り返すことで、タイムアウトで終わってしまうことです。回避方法としては、光量を増やして、すべての測定の露光時間を1s以下に抑えることです。
  • できる限りホワイトバランスが取れている光を入れたほうがいいのかと思います。測定時の写真が以下のように紫に寄ったような光になりますが、センサーで見るとバランスが取れていたりします。
IMG_6273
  • 今回はiPadのColor Screenというソフトを使い、センサー側で見たホワイトバランスをある程度合わせてから測定しました。でもホワイトバランスがある程度ずれていてもうまく測定してくれるようで、何度か測定してもあまり結果は変わりませんでした。あまり気にしなくてもいいのかもしれません。
  • 結構重要なのが、SharpCapの一番下のPreviewingとかdroppedとか出ているところです。接続状態が悪いとdroppedの値が増えていきます。droppedが0でなかったらおかしいと思って、ケーブルをさしなおす、ケーブルを変えるなどしてください。0でなくても測定はできますが、すごく時間がかかります。通常の測定は全部終了するまでに5分もかかることはありません。dropしていると10分以上かかったりしてしまいます。


ASI294MC ノーマルタイプ

まずは測定がうまくできているかを検証するために、以前と同じASI294MCのノーマルタイプで測定しました。この時のセンサーの温度は冬の暖かい部屋の中での測定ということで、37度程度でした。センサーが動いている場合は外気温よりは高くなるので、特に問題ない温度だと思います。

IMG_6224


測定結果ですが、約一年前に測ったものと比べても、誤差の範囲内で特に変化はなく、経年劣化なども確認されなかったと言えます。相当ハードに、約1年間使い込んでもほとんど性能劣化が見られないというのは特筆すべきことだと思います。

ただ、読みとっている横軸のゲインの設定値がだいぶん違っています。これはSharpCapの方の選択の問題なのですが、以前は低ゲインを細かくとっていたり、最大ゲインの570をとっていたりしましたが、それらがなくなりました。その代わりに59と61をとるとか、119と121をとるとか、性能が大きく変わるところをあらかじめ知っていて、測定しているみたいです。今回の場合もゲインが119と121で特に読み出しノイズの値が大きく変わっていて、メーカーが出しているグラフの結果をよく再現しています。

ちなみに、RAW8で測定した結果は以下のようになり、8bitのダイナミックレンジで制限されてしまうことがよくわかります。SharpCapのマニュアルにはできるだけ大きなビット数で測定しましょうと書いてあるので、16ビットで測っておくのがいいのでしょう。

IMG_6207


ASI294MC Pro 冷却タイプ


IMG_6235
箱の中身。オフアキとかのことも考えて、各種厚みのリングが入っています。
CD-ROMの中に日本語のマニュアルが入っています。わかりやすいです。 

次にASI293MC Proですが、まずはUSB接続のみで、外部電源(12V/3Aと表示されています)も繋げずに常温で比べてみます。ただ、同じ部屋の中で測定してもなぜかセンサーの温度がそこまで上がりません。しばらく待って温度をならして、しかも測定をしながらでも25度程度でした。これは冷却コントロールをしなくても外気温をうまく取り入れる機構ができているのかもしれません。

IMG_6283

測定結果は、ASI294MCのノーマルタイプとほぼ同じです。正確に言うと、ノーマルが37度、Proが25度と温度が低いにもかかわらず、Proのほうが少し結果が悪いのですが、これは個体差の範囲内でしょう。


実際に冷却しての測定

さて、ここからの冷却過程は初めての経験になります。12V, 3A以上出せる外部電源を用意します。今回はいつも使っているACも出すことのできる40000mAhのリチウムイオンバッテリーの12V出力端子を使いました。SharpCapのThermal Controlsのところをオンにします。ターゲット温度を下げていくと、使用電力が上がり、センサー温度が下がっていく様子がわかります。何度が試しましたが、一番下がった時で-20度に設定して、-15.8度まで行きました。ものの5分もたたないくらいにターゲット温度まで行くので、ずいぶん簡単です。最低到達温度は外気温に結構依存しそうです。

測定時は-15度がターゲットで、到達温度が-11.7度でした。その状態での結果です。

IMG_6271


一見常温の時と変わりないように見えますが、リードノイズは明らかに下がっています。温度を変えて測定したのでグラフを示しておきます。

all

上のグラフだとかなり重なっていてわかりにくいので、Gain = 500のところだけを別のグラフにしてみました。

G500


これを見ると、温度とともにリードノイズが増えていることがわかります。理屈の上では回路系の抵抗の熱雑音が多少貢献していると考えられるので、温度が下がることによってリードノイズも下がることが期待されます。測定でもリードノイズが温度によって下がることは確かめられましたが、その一方、結果だけ見ると大した効果でなく、せいぜい40℃温度が上がると1割増えるとか、たかだかそれくらいということもよくわかると思います。


ダークノイズとリードノイズの関係


ここで今一度リードノイズとダークノイズの関係を確認しておきます。カメラに蓋をしてセンサーに光が入らないような暗い状態で測定した場合、測定されるノイズはダークノイズσdark [e-/sec] と読み出しノイズσread [e-]が合わさったノイズが出てきて、実際に測定されるノイズをσとすると、

σ=σ2darkt+σ2read

という関係式で書くことができます。ダークノイズとはセンサーに光が入っていない時にも暗電流が流れることにより存在してしまうノイズで、時間 t のルートに比例して増大していくノイズです。

SharpCapの場合は、測定時間 を設定できる最短の時間0.032msとして、上式の前項を無視できる形にして読み出しノイズσreadを直接測定しているようです。ただ測定過程をじっとみていると、測定中に"Brightness"を変化させてバイアス(ヒストグラムで見ると、ピークの中心値のこと)を何度か変えてテスト測定をし、最後は"Brightness"を20に固定して最終的な読み出しノイズを測っているようでした。この過程の理由がよくわからないのですが、ばらつきの結果出てくる負の値を防ぐためのように思われます。

ちなみに読み出しノイズは、画像処理で行われるバイアスノイズと同義と言ってしまってもいいのかと思います(これちょっと自信がありません)。


ダークノイズの温度依存性

読み出しノイズは温度の依存性はあまりないことは上の実測でわかりましたが、ダークノイズは盛大に温度に依存します。簡単にですが、その結果だけ示しておきます。

測定時の条件は
  • モード: RAW16 (16bit)
  • 露光時間: 30s 、バイアスノイズの時だけ0.0032ms
  • Gain: 120
  • Brightness(オフセット): 20
  • ホワイトバランス: Red 50, Blue 50
  • 画像はfitsファイルをPixInsightで開き、DebayerはせずにそのままJPEGに変換
です。Gainが120の理由ですが、ここでノイズが小さくなるからです。

まず露光時間を最短にしたリード(バイアス)ノイズに相当するもの。ただし測定時の温度は17.6℃です。
dark_10_frames_17.6C_2019-01-27T02_11_10


次に、露光時間を撮影時を想定して30秒とした場合でリードノイズとダークノイズが合わさった場合で、温度が低温時の-16.2℃の場合です。明るさは上のバイアスノイズと比較できるように同じ値でストレッチしました。
dark_10_frames_-14.1C_2019-01-26T20_42_42

右上にアンプノイズが見えます。左側に明るいカブリが見えますが、これは漏れ光とかではないと思うので、何か余分なノイズが出ているようです。

最後に同じく露光時間30秒で、常温時の温度が25℃です。
dark_10_frames_16.2C_2019-01-27T02_06_54

低温時と比べて背景も相当明るくなります。さらに拡大してみるとわかるのですが、輝点がはるかに大量に発生しています。


まとめ

疲れたので、今日はとりあえずここら辺までとします。今回わかったことは、
  • ASI294MCは一年ほど使い込んでも経年劣化のようなものは見られない。
  • ASI294MCとASI294MC Proにおいては常温時では性能に差が見られない。
  • Proの方がクーラーを使わなくてもセンサー温度が低い状態を保つことができる。
  • 読み出しノイズは、温度の増加で大きくなるが、大した影響ではなく、40℃温度が上がって1割程度の増加である。
  • 一方、ダークノイズは温度増加で、背景、輝点ともに盛大に増える。
などです。温度によるダークノイズの差は見えましたが、これが実際の撮影にどれくらい効くのか、次回以降、気合が残っていればもう少し定量的に評価してみたいと思います。

今回の記事は結構一般的なことだけ書きましたが、まだまだ他にもまとめきれていないことがたくさんあります。例えば、
  • リードノイズとBrightnessによるバイアス設定の関係
  • バイアスはゲインを合わせなくてはいけないのか?
  • Gain120の振る舞いがあまりに面白くて、これだけでひとつ記事が書けそう
とかです。特にGain120はちょっと変っぽいです。なんか、サチらないピクセルが存在するためにノイズが少なく見えているだけのような印象です。

いやあ、CMOSカメラも奥が深いです。温度というパラメータが一つ増えたのでちょっと溢れ気味ですが、焦らずゆっくり進めていきたいと思います。




先日の名古屋名城公園での電視観望の際、最初新しいiPhone XRのSynScan Proで操作していたのですが、どうもWi-Fi接続が時間にして分くらいのオーダーですぐに切れてしまいます。接続し直すと再度操作できるようになるのですが、ちょっと手間なのとアラインメントが保たれるか不安だったので、その時は仕方なくPCの方のSynScan ProでWi-Fi接続してことなきを得ました。PCからの接続は安定していて、際接続が必要なことはなかったのですが、SharpCapと併用していたのでいちいちソフトを切り替えるのが面倒だったくらいです。

この件ちょっと気になっていたので、色々調べてみました。


問題点の確認

まず検証できる手持ちの機材ですが、
機種SynScan Pro Ver.SynScan Ver.
iPhone XR1.13.01.12.0
iPhone 51.9.01.9.0
iPad mini 31.9.01.9.0

の3機種で、それぞれに上記のようなバージョンのSynScanとSyncScan Proが入れてあります。iPhone XRに入れてあるバージョンのみが他と比べて新しいです。

この状態で3機種を比べました。
  • まず、iPhone XRのみ不安定です。iPhone 5とiPad mini 3においては以下の現象は発生しません。
  • 現象としては、一旦接続をして操作ができる状態になった状態で、右スイッチで一旦画面を暗くしたり、自動ロックで画面が暗くなってしまうと、そこで接続が切れてしまうようです。再度アプリに戻って矢印を押したり、「設定」->「Diagnostic」->「Response Time」と調べてもわかるのですが、接続が確立されていません。
  • その後、上部の「AZ-GTi(経緯台)」とか書いてあるところをクリックし、一旦切断してから、
  • 再度接続をやり直すとまた接続が確立し、操作できるようになります。
  • この状況は、SynScan、SyncScan Proともに同じです。
  • また、アクセスポイントモードでつながっていても、ステーションモードでつながっていてもともに同様に起きるため、AZ-GTiのハードの方の問題というよりは、SynScanとSyncScan Proと考えられます。
SynScanとSyncScan Proのバージョンが関係しているかどうかはこの時点では不明です。でもこの間バージョンアップするまではiPhone XR普通に安定に動いていたと思うので、バージョンアップによって引き起こされた可能性も高いです。SyncScan Proのバージョンを落とそうと努力したのですが、最近は普通の方法だと難しそうなので結局あきらめました。

他の方の状況

ネットを調べてみても、あまりこのような状況をあらわに書いてある記事が見当たりません。数少ない記事の中、あっかさんという方のブログにそれらしきことが書いてありました。よく似た現象なので、再接続をしていないからかと思ったのですが、のちの記事にアライメント方法で解決したと書いてあるので、もしかしたら勘違いかもしれません。(追記: その後、あっかさんのブログのここ半年の記事を全部読んだら、そのものの記事がこことか、ここにありました。)

ほかにも、TAKさんという方のページにSkySfariとの接続の記事があって、その中に「現行のiOSはバックグランドの処理で...」とか書いてあるので、もしかしたらiOSのアップデートも関係するのではと考え、とりあえず最新のiOSにしました。結果はまったく改善せず。同様の記事で、iPadだとバックグランド処理も問題ないとどこかに書いてあったので、やはりiPhone XRが問題なのか?


アップデート実験 

問題を切り分けるために、今ある古いバージョンのものをアップデートしてもいいのですが、それによって今使えているものが不安定になるのも嫌です。なので一番使用頻度の低いiPhone 5のSynScanのみ最新版の1.13.0にアップデートしてみました。

すると、最新バージョンのSynScanではiPhone 5でも同様に接続が切断されることがわかりました。同じiPhone 5でも、アップデートしなかったProの方は画面を一旦画面ロックしても安定に接続し続けています。

結局最新バージョンのSynScanアプリの問題ということで確定
です。もし、今のバージョンで接続が安定して保っているなら、この問題が解決するまでは今しばらくSynScanとSyncScan Proのアップデートは控えておいたほうが賢明かと思います

IMG_6139
こんな風に右上にクルクルマークが出たら、もうダメです。
再接続しか手がありません。


  • 同様に困ってる方いらっしゃいますでしょうか? 情報を共有したいです。コメントに書き込んでいただけるとありがたいです。
  • Sky-Watcherさんには早急に対策をしていただきたいです。


その他Tips

この検証の過程でいくつか発見したことがありました。メモがわりに載せておきます。
  • AZ-GTiのWi-Fiはいくつも同時に接続できるようです。例えば3機種同時に接続してもきちんと反応します。それぞれで操作してバッティングしないか、例えばアラインメント情報がどうなるかとかはまだ不明です。
  • ネットワークの情報は本体の方に保存されているようです。例えば一旦アクセスポイントモードステーションモードを両立させてしまえば、その後AZ-GTiの電源を切ってもその情報は保存され、再度立ち上げた時に同様のWi-Fiが使えればステーションモードで勝手につながります。
  • SynScan、SynScan Proの「設定」->「ユーザーインターフェース」にある「Keep screen on」をオンにておくと、SynScan、SynScan Proが立ち上がってる最中は画面の自動ロックがかからなくなるので接続は保たれます。それでも自分でロックして画面を暗くしてしまうと接続が外れるので注意です。あと、付けっ放しになるので電池の持ちにも注意ですね。


後日談

ここから2019/1/14に追記です。

バージョンが1.14.1になって画面ロックでの接続断は解決されたようです。自分でも確かめました。皆さんの情報のおかげです。販売店に伝える時も何人もの人が同じ状況だと説明できたので、説得力が増しました。どうもありがとうございました。
販売店に伝えたのが1月8日で、その時点でもメーカー側も把握していなかったとのことで、それからわずか10日ほどでの解決となります。メーカーの方の素早い対応にも感謝です。 

このページのトップヘ