ほしぞloveログ

天体観測始めました。

カテゴリ:調整・改造 > テスト

ちょっと間が空きましたが、N.I.N.A.の試用記の続編です。



前回の記事を書いてからなかなか晴れなくて、やっと日曜の夜に少しだけ星が見えたのでテストしました。本当は撮影までしたかったのですが、結局曇ってしまいNINAのテストだけで終わってしまいました。

第一回の撮影までに加えて、今回は少し応用編。導入など、撮影の準備に相当する部分になります。撮影までのことなので、本当はこちらを先に説明しても良かったのですが、一度赤道儀で導入して撮影まで進めてしまえば見通しが良くなると思ったからです。


スカイアトラス 

最初に左アイコン群の「スカイアトラス」でターゲットを調べるといいでしょう。左上に対象とする天体を入力します。例えばM57と入力すると、その情報が出てきます。

IMG_0155

その際、「オプション」「一般」タブの「スカイアトラス画像ディレクトリ」を設定しておくといいでしょう。ここはスカイアトラスで画像を表示するために使います。サイトのダウンロードページの一番下にある「Misc」のところの「Sky Atlas Image Repository 」をダウンロード、展開して、「スカイアトラス画像ディレクトリ」で設定したディレクトリに置くと、「スカイアトラス」の「詳細」のところにカタログ画像が表示されるようになります(TKさんに教えてもらいました。ありがとうございました。)。

このスカイアトラスのところで「導入」ボタンを押してしまっても導入はできるのですが、次のフレーミングで導入した方がいいでしょう。


フレーミング

撮影時にPCがインターネットに接続されているなら、フレーミング機能が便利です。デフォルトで縦横3度の視野角を見るようになっていますが、画像を落とすのに結構時間がかかります。今どれくらいダウンロードしたか表示があるとよかったかもしれません。

一旦ダウンロードした画像はキャッシュに保管され、キャッシュを表示することを選べばインターネットがない環境でも確認することができます。撮影時にインターネット環境がないなら、事前に対象天体の検索して画像をダウンロードしておくといいでしょう。

ダウンロードした画像があると、撮影時の画角や位置を確認できます。

IMG_0156

M57を囲んで大きな四角い枠が見えます。これが接続されているカメラと、この画面の「画像の読み込み」の「カメラパラーメーター」の「焦点距離」から計算された、撮影した場合の画角になります。

黄色の丸は、現在赤道儀(望遠鏡)が向いている位置になります。上の写真の場合、M57の中心からは少しずれた位置にいることになります。でもこれは実際に向いている位置とは限らなくて、N.I.N.A.が「赤道儀が向いていると思っている」位置です。この数値は接続した赤道儀から得ています。なので、この状態で撮影しても、黄色の場所が中心なるとは限らず、後のプレートソルブを使い誤差を無くします。

さて、画角を示すこの四角は移動することができます。四角の中心が導入したい目的の位置になります。今はM57の中心が四角の中心になっているので、ここで「導入」ボタンを押してみます。すると実際の赤道儀の向きに合わせて、一旦黄色い丸が画面からはみ出し、しばらく待つと

IMG_0160

のように、黄色い丸が画角の中心にきます。

この際、もしガイドをしっぱなしなら、PHD2のオートガイドを外すのを忘れないようにしてください。また、導入が終わったら、撮影前に再びPHD2のオートガイドをオンにするのを忘れないでください。

でもまだ注意です。ここですでに画面中央に目的の天体が導入されたかに見えますが、本当にその向きに向いているかどうかの保証はありません。赤道儀の持っている情報と実際の向きが合っているかは保証がないからです。ここで次のプレートソルブの出番です。


プレートソルブ

プレートソルブは思ったよりはるかに簡単にできました。もともとAPTで「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしていたからというのもあります。この場合は「オプション」「プレートソルブ」のところでパスを通すだけで使えてしまいました。

IMG_0101

具体的には、撮像ページで右上「ツール」アイコン群の左から3つ目「プレートソルブ」を押してプレートソルブパネルを出します。

IMG_0165

パネルの位置がわかりにくいかも知れません。「画像」パネルの下のところに「プレートソルブ」タブが出ていると思いますので、それを選択します。ここで「同期」が「オン」になっていると、プレートソルブが成功した際の位置情報が赤道儀にフィードバックされ、赤道儀上の一情報が書き換わります。その際「ターゲットの再導入」を「オン」にしておくと「エラー」の値よりも誤差が大きい場合に再度自動で導入し直してくれますが、導入は後で自分でもできるので、とりあえずはオフでいいでしょう。「露出時間」と「ゲイン」なども適当に入れます。準備ができたら、真ん中の三角の再生マークのところの「画像素取得してプレーとソルブ処理します。」を押します。

勝手に撮像が一枚始まって、プレートソルブが始まり、うまく位置が特定できると「成功」のところにチェクマークが出ます。

IMG_0164

フレーミングでM57を中央にしたにもかかわらず、やはり実際に撮影するとずれしまっていて、その誤差を赤道儀側にすでにフィードバックしているので、今一度フレーミングを見てみると、

IMG_0166

のように、黄色い丸がずれているのがわかると思います。横にずれたのはカメラが90度回転しているからです。この状態で再度「導入」を押すと黄色い丸がM57のところに行き、実際に撮影してみると

IMG_0168

のように、今度は本当に赤道儀がM57の方向をきちんと向いていることがわかります。


その他

ASI290MMでLRGB撮影をやってみようと思っていて、かなり前に勝手ずっと使っていなかったZWOのフィルターホイールを繋いでみました。ポイントはEFW用のASCMOドライバーをZWOのページから落としてきてインストールしておくことと、NINAを一度再起動することです。これでNINAの「機材」の「フィルターホイール」からZWOのフィルターホイールとして認識され、選択することができるようになります。

IMG_0162


フォーカスに関して
  • オートフォーカス機能はあるようですが、マニュアルでのフォーカスをサポートするような機能は見当たらない。と思っていたら、撮像の右上のツールのところにありました。今度使ってみます。

まとめ

だいたい試したのはこれくらいでしょうか。2度に渡って使用して、その使い勝手をレポートしましたが、2回目は撮影まではしていないので、まだ説明が不十分なところもあるかもしれません。例えば、フォーカサーとかフラットパネルと接続した撮影の機能もあるみたいで、ここら辺は機材を持っていないので試すことができません。

とりあえず十分すぎるくらいの機能があることもわかって、撮影するには何も不便なところはなく、ベータ版でもすごく安定しています。

前回と今回の記事を読めば導入して撮影するまでできるのではないかと思います。わかりにくいところがあったらコメントしてください。私も全部理解しているわけではないですが、質問に答えがてら理解していきたいと思います。


前回のEVOSTAR 72EDの記事で、フルサイズ領域での星像を、鏡筒そのものと、SkyWatcher純正の専用レデューサー、実際の星像を撮影して評価してみました。



さて今回の記事はフラットナーを試しています。

「え?フラットナー?EVOSTAR用のフラットナー
なんてありましたっけ?」

と言う方、正しいです。ありません。

今回の記事はEVOSTAR 72EDにタカハシのマルチフラットナーが使えるかどうか試してみたというテスト記事です。SkyWatcherとタカハシの両方から怒られてしまいそうな(笑)記事です。


タカハシマルチフラットナー1.04x

タカハシの「マルチフラットナー1.04x



は別売りの「マルチCAリング」と呼ばれる長さの異なるアダプターリングを取り付けることによって、タカハシ製のFC50からFS152まで対応できるかなり汎用性のあるフラットナーです。私もFS-60CB用とFC-76用のリングを持っていて、フラットナー本体は使い回しが効くので非常にコストパフォーマンスのいいフラットナーになります。

性能も申し分なく、例えば以前比較した記事の中の新旧のフラットナーのところを比較していただければわかりますが、以前の専用品よりもはるかに綺麗な点像を実現します。




今回これを汎用的なフラットナーとして、専用フラットナーのないEVOSTAR 72EDに適用してみたらどうなるかと考えてみました。前回レデューサーでは星像が改善することが分かったのですが、レデューサーなので当然焦点距離が短くなります。鏡筒そのままの焦点距離で撮影したいこともあるはずです。


EVOSTAR 72EDへの接続方法 (その1)

さて、タカハシ製マルチフラットナーのEVOSTAR 72EDへの実際の取り付けですが、少し面倒です。

マルチフラットナーの取り付けネジ径がM56x0.75というものらしいのですが、そのままだとEVOSTAR 72EDに取り付けることができません。今回はレデューサーに付属されていた、アダプターリング(下の写真)を使用することで問題を簡易的(ある意味無理矢理)に回避しました。

まずは鏡筒本体に付属の2インチスリーブを回転して取り外します。そこにレデューサー付属のアダプターリングを取り付けます。この状態でフラットナー本体を取り付けことができるのですが、実は微妙にネジ径は同じなのですが、ピッチが違うようで、途中で止まってしまい最後までねじ込むことができません。この時点ですでに怪しい取り組みになるので、気になる方は真似しないでください。でもこんなことを気にしてると何もできません。今回の記事を最後まで読むとわかりますが、もっと怪しくなります。とにかく、当然ですがメーカーのサポート外のテストになりますので、試してみたい方は決して販売店の方に問い合わせるようなことはしないでください。あくまで自己責任でお願いします。

さてこのレデューサーに付属のリングですが、結局SkyWatcherの独自規格のようで、いろんなところの情報とノギスでの実測でM54オスとM56オス(普通は雄ネジ側の径で測定するのでこちらのネジ径が正しい値となります。ただし誤差は含みます。)という微妙なネジ径の違いを変換するリングということになります。ただし、M56のピッチを測ってみると1mmのようで、タカハシ標準の0.75mmとは違うので、同じ径のようですが直接の互換性は無いようです。便利なので別売りしてくれれば良いのですが、さすがに難しいでしょう(おそらく後述のSkyWatcher製のカメラ回転リングで代用できそうです)。

IMG_9739
ED72レデューサーに付属の、アダプターリング

さらに写野の回転を考える場合は、回転装置などを取り付けた方が良いかと思います。レデューサー付属のアダプターリングを使うことで、タカハシの「カメラ回転装置(SKY90用) [KA21200]」を(フラットナー接続時と同様に)無理矢理にですが取り付けることはできます。取り付け場所はアダプターリングとマルチフラットナーの間になります。実際やってみるとネジ径が違うはずなのにカメラ回転装置の場合は結構すんなり最後の方までネジ込めます。その後はマルチフラットーをそのまま取り付けることができるので、この方が素直かもしれません。

IMG_9740
左から順に、鏡筒本体、レデューサー付属のアダプターリング、
タカハシ製カメラ回転装置、マルチフラットナー、タカハシ純正カメラアダプター


EVOSTAR 72EDへの接続方法 (その2)

もう一つのマルチフラットナーのEVOSTAR 72EDへの接続方法です。こちらは実際には試していなくて、推測になりますのでご了承ください。レデューサーを持っていなくて、変換アダプターリングがない場合の話です。EVOSTAR 72ED専用のカメラ回転リングというのがあります。



このページを見るとレデューサー付属のアダプターリングの代わりに使っているので、これがそのまま使えるかもしれません。二千円と安価ですし、カメラ回転装置も兼ねるので便利かと思います。上の(その1)で紹介したタカハシ製のカメラ回転装置を使わなくてよくなるので、かなり節約できます。

それでもタカハシのマルチフラットナーを取り付ける際のネジ径は(その1)で示した通り、ピッチが1mm
と0.75mmで微妙に違うのできちんとははまらないはずです。あくまで、自己責任で納得しながら試すことになります。繰り返しになりますが、私は自身は今回この回転リングを試していないので、アイデアのみのお話です。試す場合は人柱になることを覚悟して、自己責任でお願いいたします。

さて、ここでふと気づいたのですが、私がお借りしているのはEVOSTAR 72ED(だと思います)で、現在シュミットさんのページに載っているのがEVOSTAR 72ED IIになります。ホームページには「※初期型との外観の違いは鏡筒長がわずかに短くなっています。レンズ性能等は従来のモデルと同等です。またロゴ等も変更はありません。」と書いてあるので、外観以外にもしかしたら違いがあるのかもしれませんし、そもそも外観も新旧見比べないと分からないです。ので、イマイチ変更点が不明で、もしかしたら自分のところにあるのもすでに新型のIIなのかもしれません。(追記:  シュミットさんに電話で聞いてみました。現在手持ちのものはIIで確定。初期型のものとIIとの違いは本当に鏡筒長以外、ロゴなどからはほとんど分からないそうです。)

問題はカメラ回転リングがホームページの説明によると「※初期型EVOSTAR72EDにはお使いいただけません。」となっていることです。もし手持ちで初期型のEVOSTAR 72EDをお持ちの方は(どこがダメなのかはわかりませんが)おそらくうまくいかないと思いますので、注意してください。


マルチフラットナー以降の接続

さて、やっとマルチフラットナーまで接続できましたので、さらにその後ろの接続に行きます。

フラットナーの後ろにはタカハシが販売している、それぞれの鏡筒に適合したマルチCAリングと呼ばれるアダプターリングをつけるのですが、これが今回色々試してみるところです。今回は手持ちのマルチCAリング 60CとマルチCAリング 70を試します。

アダプターリングの後ろには、タカハシ純正の「カメラマウントDX-60W(EOS) [KA20245]」を使っています。EOS用とNikon用があるのに注意してください。私はCanonなのでEOS用、Nikonの場合は同ページで購入できますが、型番が違います。ポイントは、この部分をタカハシ純正以外の代替品に変えてしまうとバックフォーカス長が変わってしまい、きちんとした比較ができなくなるので注意が必要です。自分で何種類もマルチCAリングを試す場合は、この限りではなく、サードパーティ製でも構わないと思います。

ここまでできたらあとは、手持ちの一眼レフカメラを取り付けるだけですね。

IMG_9660


やっと準備が整いました。それでは実際の撮像を見てみましょう。


マルチCAリング 60C

まずはFS-60CBに使っているマルチCAリング 60Cを試します。FS-60CBが焦点距離355mmなので、今回のEVOSTAR 72EDの焦点距離420mmに一番近いからです。

IMG_5431

IMG_5431_cut

お、結構うまく補正されています。フルサイズではまだ少し流れていますが、APS-Cでは十分許容範囲でしょう。いやいや、素の鏡筒の星像から見たらすでに相当な改善で、マルチフラットナーとりあえず十分使えそうです。


マルチCAリング 76

次に、FC-76に使っているマルチCAリング 76を試します。FC-76が焦点距離600mmなので、今回のEVOSTAR 72EDの焦点距離420mmより多少長いです。

IMG_5433

IMG_5433_cut

CAリング60Cの時に比べると、同程度か若干CAリング76の方が星像の流れが大きいくらいでしょうか?

むしろ、CAリングの長さが1cm以上短くなっているのに、星像がそこまで変わらないのはなぜなのでしょう?答えは次でわかります。


マルチCAリング無し

リング長で星像が多少なりとも変わることが分かったので、今度はマルチCAリングを外してしまいました。その時の星像です。

IMG_5434

IMG_5434_cut

これはAPS-Cでさえも全然ダメですね。

マルチCAリングのラインナップを見てみると、焦点距離の長い鏡筒用のものほど、マルチCAリングの長さが短いです。ということは、リング無しだと全然補正できなくて、CA76でもまだ補正が足りない、EVOSTAR 72EDがFC-76とFS60CBの間の焦点距離なので、CA60Cだと過補正になっているのではという推測ができます。


最後の無理矢理、マルチCAリングゆるゆる撮影

CA76だと短すぎ、CA60Cだと長すぎということのようです。それではここでCA76を緩めて少しだけですが長さを伸ばしてみましょう。ネジの箇所はマルチフラットナーとCAリングの間、CAリングとカメラアダプターの間の2箇所あります。それぞれネジ山に2回転くらい引っ掛けただけなので、ガタガタしていますが、1箇所で2.5mmくらい伸ばすことができました。合計5mm程度伸びていることになります。この状態で撮影してみました。

下がその時の星像です。ただし、ガタガタしているために少しカメラ側が下がって、光軸がずれている可能性があります。

IMG_5435

IMG_5435_cut

いや、これは今までで一番良いんではないですか!!

ガタつきのために上下で少しだけ差が出ていますが、ほとんど誤差の範囲くらいです。これだけうまく補正できるのなら、マルチフラットナーでの補正を真剣に考えても良さそうです。

ここから考えると、マルチCAリング 76よりも少し長い、マルチCAリング 60 (60Cとは違うことに注意、60Cは相当長いです。) が一番適していそうだということが分かります。実際にはCA60だと1-2mm足りないかもしれないので、ガタつかないようにプラスチックシートなどでリング状のスペーサーを作って、微調整しながら少し伸ばして使うといいかもしれません。


少し考察

この記事を書いている途中で気づいたのですが、実は同様のことは天リフさんでもすでにFOT104で試されていました。



というか、天リフさんの記事のことすっかり忘れていて、最初は自分で考えたいいアイデアだと思って喜んでいました。改めて天リフさんの記事を読み直してみると、今回のテストやらなくても良かったのではというくらいのかなり詳細なレポートでした。ちょっと悔しいです。でも、よく内容を見比べてみると今回の結果に驚くほど一致しています。今回の記事もマルチフラットナーの汎用性の実証の一つくらいにはなったと思いますので、まあ、やってよかったかなと。

ところで、今回の結果を考えてみると、バックフォーカス長が相当重要だということが分かります。これはタカハシというメーカーが一眼レフカメラの接続まで純正オプションを揃えることで初めて成り立つ状況です。

では、CCDやCMOSカメラでの撮影はどうなのでしょうか?この場合は純正オプションはないので、結局自らテストしながら最適バックフォーカス長を調整していかなければいけません。これまでバックフォーカス長を気にしたことがあまりなかったので、少なくともレデューサーやフラットナーをつけるときは、これから気をつけなければということに気づかされました。

といったこともあり、前回のレデューサーの記事はカメラまでの部品をSkyWatcher推奨の純正品で揃えてバックフォーカス長をあわせた方が良いのでは、というような書き方にしています。でも実際にそこまで色々試したわけではないので、多少の許容範囲はあるでしょうし、それぞれの場合でテストしながらやっていくのが正しい道なのかと思います。


まとめ

今回は、メーカーを跨いだフォーカサーの試用テストをしてみました。タカハシ製のマルチフラットナーは汎用フラットナーとしての可能性を大きく秘めています。これは天リフさんと同じ結論かと思います。バックフォーカス長が調整できるような可変のリングが存在すれば、さらに応用範囲が広がると思います。

新しい可能性がある一方、メーカーの指定条件からは外れてしまうので、規格の違いなどもあり試行錯誤が必要となります。タカハシさんのほうがこのような使い方を喜ばない可能性も十分にあり得ます。

ユーザーとしては、こういったことを面白いと楽しめるなら、色々試してみるといいでしょう。もしくは、こういったやり方は不安だという方もいらっしゃると思いますので、やはりその場合はメーカー推奨のやり方で進めながら撮影に臨まれる方がいいかと思います。

個人的には、光学という誰でも自由に試すことのできる物理現象の範囲の話なので、手に入る設計のレンズなどを好き勝手に使いながらやるというので正しいのかと思います。うまくいかない時も当然あるので、それは自己責任でということを納得しながらやれば、いろんな応用範囲が広がっていくのかと思います。メーカー指定の範囲外でうまくいかないことを、メーカーに文句を言ったり問い合わせたりするのは、この場合筋違いです。

いや、何より楽しいのが一番で、こういった自由なテストをできること自体が天文趣味の醍醐味だと思っています。とりあえず楽しくて仕方ありません。


最後、おまけの裏話に続きます。

 

トラペジウムでさらに楽しんでいます。

何回か前の記事でトラペジウムのE星、F星が見えたことを書きました。 



その後、気を良くしてシリウスBに挑戦したのですが、



シンチレーションが良かったせいか、シリウスBもあっさり見えたので、同じ日にトラペジウムを今一度撮影してみました。

もう少し見えるのでは?

シリウス撮影終了後、バローを試すかどうか一旦悩んだのですが、どうせバローを試すならトラペジウムで同じ条件にしてから試そうと考えたのが、トラペジウムに移ったそもそもの動機です。

そもそもこの日はシンチレーションが良かったので、前回トラペジウムを見た時よりももう少し見えるはず。前回のE星、F星はある意味ラッキーイメージングに近いもので、動画で撮影し、揺れている映像の中からいい画像を一枚抜き出したものになります。シンチレーションがいい場合は、いいところだけを選ぶ必要もなくスタックとかもできるはずで、ノイズを劇的に減らすことができるはずです。

鏡筒は同じくTSA-120、カメラはASI294MC Proを常温(冬場なので8℃程度になっていた)です。いつものようにSharpCapで撮影し、露光時間は前回一番よく見えた1秒、ゲインは高めの285です。ゲインを高くした理由ですが、この日は月が近くにあり、背景の星雲の様子もあわよくば一緒写ればと思い、アメリカンサイズのQBPをカメラ手前に入れたからです。全体的には少し暗くなるのでその分ゲインをあげてあります。ただ、QBPは恒星からの明かりも暗くするはずなので、トラペジウムをより細かく見ると言う目的で得策だったかどうかは不明です。

画面で見たものをとりあえず一枚見てみます。これはLiveStack上で炙り出した画面をそのままPNGで保存して、Photoshopで少し炙り出し、拡大してトラペジウム周りを切り取った画像です。

20_41_06_Stack_5frames_5s_WithDisplayStretch_cut_arrow

前回と同じくE星とF星は見えているのですが、さらに矢印の先に恒星らしきものが見えている気がします。位置的にはG星のようです。これが見えたのが今回の記事の始まりです。


シンチレーションが悪くなっていく

なんか見えそうなことは分かったので、パラメーターを詰めていきます。いろいろ探った結果、撮影はLiveStackを使い、1秒露光を60枚重ねて、それを1枚の画像とすることにしました。ダークフレームはSharpCapのダーク撮影機能で64枚撮影したものを使っていて、撮影中にリアルタイムで補正してあります。ガイドは無しなので、星像の流れは極軸合わせの精度のみで決まってしまいますが、1秒の短時間露光の重ね合わせなので、それほど問題ないはずです。結局14枚の合計14分の画像を撮影しました。

ところがこの方針、あまり良くなかったようです。14枚をPixInsight (PI)でスタックしたのですが、いくつかの落とし穴にハマってしまいました。

1. まずはトラペジウム周りにミミズのはったような跡が残ってしまったこと。

integration1_HT_cut

これはPI上でCosmeticCorrection (CC)をしたことによる弊害でした。画面全体を見ると目立たないのでわからないですが、一部を強拡大してみると明らかに偽の跡が残るのがわかりました。探っていくと、CCを欠けた直後から、一枚一枚にミミズが走っていました。これまでCosmeticCorrectionを気にせず使っていましたが、闇雲に補正するのではなく、今後注意して使用したいと思います。

2. 次の問題が、スタックです。スタック後の画像のトラペジウム回りを見ても、どう炙り出しても解像度が上がってこないのです。

integration1_cut

これは少し悩みました。少なくともこれまでの経験ではスタックすることではるかに暗い星まで見えてくるはずです。

でも「あ、そういえばこの後シリウスに戻ったときにシンチレーションがボロボロだった」と思い出し、改めて画像を一枚一枚見てみると、時間が経つにつれ分解能が悪くなっていることがわかりました。かなり暗い状態で撮っているので、LiveStackでもドロップしている画像が結構あって、60秒分の露光を一枚撮るのに実際3分くらいかかっていることが原因でした。結局まともそうに見える最初の4枚だけを使い、スタックすることにしました。

それでもLiveStackを使わずに、枚数は多くなってしまいますが、個別に画像を残しておいた方がさらにラッキーイメージング的に選別できるのでよかったのかもしれません。これは次の課題です。

あと、今回結局お借りしたPowerMATEは使いませんでしたが、やはりCMOSカメラのピクセル解像度で制限されつつあるので、使っておいた方が良かったのかもしれません。でももし使っていたら、設置やピント出しなどで時間を食ってしまい、いいシンチレーションを逃していた可能性が高いので、まあとりあえずは結果オーライとして、こちらも次回以降の課題です。


今回の記事のテーマとは違うので蛇足になりますが、14枚全部スタックした画像を一応出しておきます。

integration1
縞ノイズ、四隅の星像など課題も。

ガイド無しということもありものの見事に1方向に流れてしまっていて、縞ノイズがひどいです。さらに、フラットナーとかつけずに撮影しているので、さすがにTSA-120といえども四隅は星像が崩れてしまっています。フラットナーの評価も次回の課題にします。

それでも向きを揃えて、DeNoiseとかかけるとそこそこ見えてしまいます。

integration2

フラット補正を何もしていないので、炙り出しは控えています。それでもHDRとかマスクとか全く無してここまでトラペジウム(E、F星は拡大するときちんとわかります)が出るので、今後もう少し煮詰めて完成度を高めていきたいと思います。


トラペジウムのG、H、I星

ちょっと寄り道に逸れてしまいましたが元に戻って、先に4枚だけスタックした画像をPixInsightのMutiscaleLineaTransformでシャープ化しPhotoshopでもう少し見やすくしたのが下の画像です。

integration_cut

E星、F星に加え、さらに星が炙り出されています。わかりやすいように矢印を入れてみました。

integration_cut_arrows

G、H、I星までなんとか見えていると言っていいでしょうか。H星は実際にはさらにH1とH2に分離しているはずで、画面を見ると確かに横に伸びているような気もしますが、さすがに分離している様子までははっきりとはわかりませんでした。

また、H星のすぐ左にも恒星がありますが、最初フェイクかとも思ったのですがハッブルやMUSEの画像を見ると、確かに存在するようです。





G、H、I星の他に写っている恒星もまだあり、ハッブルの画像と比べてどこまで写っているかとか比べていると、時間が経つのを忘れてしまいます。たかだか12cmの口径でここまで迫ることができれば、もう十分満足です。


まとめ

そもそもG星、H星まで述べているページや、実際にG星、H星が写っている画像があまりなく、I星に至ってはMUSEなどの研究用を除いてはアマチュアでは画像としては1例しか見つけることができませんでした。なので今回のものがどこまで正しいのかは良くわかりません。また、星像がくっきりではないので、これで写っていると言っていいのかどうかも不明です。ですが、自分のTSA-120で撮れた解像度としては明らかに前回の撮影を上回っています。

今回のがシンチレーションが良かった故の奇跡なのか、またこのレベルのものを再び撮影することができるのか。PowerMATEを試したいこともあるので、今しばらくトラペジウムを楽しめそうです。

これまでTSA-120を4回使ったことになりますが、なんとか性能を引き出せつつあるようです。妻に「この間の高かった望遠鏡、やっぱり無理してでも買ってよかった」と報告したら「よかったねぇ」と言ってもらえました。やっと納得してくれたようです。


前々回の記事でトラペジウムのE星、F星が見えたことを書きました。



その後のコメントと、Twitter上で、シリウスBの話で盛り上がりました。


TSA-120でシリウスBを見ることは可能か?


その中で、多分すばる関連の方だと思いますが、沖田さんという方が口径とシーイングとシリウスBの関係をグラフ化してくれました。



この計算によると12cmでもシーイングによっては十分に見えるようです。Lambdaさんによると、反射だと20cmギリギリで、計算結果も感覚とあっているとのこと。コントラストの良い屈折ならばもう少しいけるはずではないかとのことです。

そんなこともあり、できればTSA-120でシリウスBを見てみたいと思い挑戦してみることにしました。


3月2日、シリウスB初挑戦

さて、一昨晩のことです。21時過ぎでしょうか、雲もありましたが、一部で星が見えているので早速TSA-120のセットアップ。前回の経験から、極軸は出来る限り正確に合わせておいた方が導入も正確だし、ずれていかないので落ち着いてみることができるため、SharpCapで極軸を1分角程度の範囲には合わせておきます。

まずはオリオン座のトラペジウムを導入し、前々回の記事の再現です。カメラは分解能的にまだ余裕はありそうなので、ASI178MCからASI294MC Proに変更しました。294の方が感度がいいので暗い星が見えるだろうことと、センサー面積が広く広角で撮ることができるので、M42の全体像と一緒に撮影とかできるかと思ったからです。

とりあえずカメラの映像を見てみると、まあ、揺れていますがE星はPCの画面上でも確認できます。F星は見えるような見えないような。ラッキーイメージ的にたまに見える時があるので、以前の状態をある程度再現することができていると判断。そのままシリウスに向けます。

ところが画面上でいくら露光時間やゲインを変えようが、ヒストグラムで炙り出そうが、伴星があるようにはかけらも見えません。埒があかないので、その後アイピースに変えてみました。アイピースは3.5mmまで試したので、約250倍と倍率程にはそれほど悪くないはずです。そもそもディフラクションリングがほとんど見えません。シリウス自身もピンピンチカチカ弾け飛んでいるように見えます。

前回のトラペジウムの時に、セレストロンの3倍バローを使ったら収差のせいで逆に見えにくくなったと書いたのですが、Twitter上で宮路泉さんが「それなら」と貸してくれたTeleVueのPowerMATEの4倍をダメ元で使ってみることに。TeleVeu製は初めてで、これまでこんな高級機使ったことありません。このPowerMATEは位置出しが大変で、結局2インチの延長筒を3つ鏡筒側に取り付けて、その先にPowerMATEを取り付けることでやっと焦点を出すことができました。

延長筒3つとPowerMATEで結構な長さと重さですが、さすが2インチ。各固定もしっかりしているのでほとんどブレることはありません。目で見ている限り収差は分かりませんが、倍率を上げているので多少暗くなることもあり、結局シリウスBが見えることはありませんでした。

本当はカメラも試したかったのですが、23時頃には雲がかなり広がってきてしまい、結局この日は諦めることに。シリウスB結構難敵です。


見えなかった原因は?

その後、少し計算してみました。TSA-120にASI294MCを取り付けたときのCMOSセンサーの1素子のピッチが0.96秒角と判明。画面上でざっくり1ドットが1秒ということになります。シリウスの伴星の離角が2020年頃は11秒くらいとのこと。ということは、画面で見えているシリウスの中心から11ドット離れたくらいのところにシリウスBがあることになります。撮影した画像を見てみると贔屓目に見ても中心から10ドットくらいまではシリウスの明るさで完全に支配されているような状態。ちなみにシリウスAは-1.09等級、シリウスBは8.44等級。さすがに10等近く差がある伴星を見るのは、今の状態では厳しでしょう。

やはり、シンチレーションがひどいようです。目で見てもチカチカゆらゆらしているので、この状態では程遠いです。やはり口径の大きいのが必要なのでしょうか?


3月3日、ついに!

次の日の19時過ぎ、子供を迎えにいかなければならなかったのですが、外を見たら快晴。星の瞬きもパッと見、ほとんどありません。これはチャンスと思い、子供の迎えを「ごめん!」と言って妻に頼んで、早速TSA-120をセットアップです。極軸も同じようにきちんと取ります。連夜同じことをすると、前のセットアップが残っているので楽なもんです。極軸合わせも、ものの5分とかからず。

今日のポイントは、下の写真のように、むかーし、最初に行った原村の星まつりで買った2インチのフリッパーミラーを入れたこと。

IMG_9634

そもそも延長筒を一つつけて、フォーカサーを相当伸ばしたところでピントが出ているので、多少の物をつないでも全然焦点内に入りそうです。鏡筒からの長さが必要なPowerMATEもこれで多少使いやすくなるはずです。これまでほとんどこのフリッパーミラー使っていなかったのですが、やはりアイピースとカメラの切り替えが楽ですごく便利です。惑星撮影にでも使えば良かったですが、そもそも多分アイピースをほとんど使ってこなかったので、フリッパーミラーの必要性も感じてこなかったのだと思います。

リゲルで初期アラインメントを終え、とりあえずはリゲルBを確認。一番倍率の高い3.5mmで見ますが、こちらはファーストライトで見た通り、余裕で見ることができました。次にシリウスを導入して、まずはやはり基本のアイピースでの観察。愛機CGEM IIの導入精度もまあまあで、西の空のリゲルから東の空のシリウスに赤道儀が反転しましたが、それでも3.5mmで視野内に入るくらいの一発導入です。

その途中ですでに分かったのが「あれ?今日はディフラクションリングがはっきり見えるぞ!」ということ。そもそもピントを合わせていく最中に、何重ものリングが小さくなっていく様子がはっきり見えます。これまでこんなことはありませんでした。ピントを合わせ切ると、随分とシリウスが小さい印象です。

しばらく見ていると、多分2、30秒でしょうか、

明らかに小さな星があります!シリウスBです。
しかも一発で確証が持てるくらいはっきり見えます。

「え?こんなにあっさり見えていいの?」というような状態です。何度見直しても同じ位置にいます。これはさすがに見間違いのレベルではありません。


シリウスBを撮影してみる

次にCMOSカメラで撮影を試みます。カメラは昨日と同じASI294MC Proですが、冷却はしていないです。温度を見たら8℃くらいだったので、冬場のこともありそれほど熱くはなっていないようです。

SharpCap上の設定は、最初は露光時間もゲインも適当でしたが、それでもすぐにシリウスBらしきものが見え始めました。結局一番良かった設定が、露光時間100ミリ秒、ゲイン140とかでした。その時の画像です。ROIで640x480ピクセルに制限して、ヒストグラムで炙り出して、画面に見えたものをそのまま画像に落としています。一枚画像で、スタックとかもしていません。

Capture_00005 19_57_55_WithDisplayStretch

ちょっと分かりにくいので、シリウス周りをトリミングして、画像を拡大してみます。

Capture_00005 19_57_55_cut

下の方にはっきりと写っています。


シリウスBの離角

でも上の画像、拡大してサイズ変更した時に補完されてしまって滑らかになっているので、ピクセルのドットが消えてしまっています。なので、拡大前の画像も載せておきます。

Capture_00005 19_57_55_cut


ちっちゃいですが、この画像を今見ているPC上で拡大してみてください。写っているピクセルの数を数えることができます。(と思ったけどダメでした。ブログにアップする時点でドット間が補完されてしまうようです。)オリジナルの画像で実際に数えてみるとシリウスAの中心からちょうど11ドット目にシリウスBが写っています。最初の方に書いた通り、1ドットが1秒角なので、やはりちょうど11秒角くらい離れたところにいることがわかります。これはシリウスBであることの確実な証拠の一つですね。

追記: PC画面で拡大した画像の画面をiPhoneで撮影してみました。PC画面の直接撮影なので少し色が変になってしまっていてシリウスBが緑色に見えてしまっています。そででもこれでドットの数を数えることができると思います。

IMG_9640



その後

拡大してみてみると、シリウスBが写っているのが1ピクセル少々なので、本当はここでPowerMATEを試して解像度を稼ぐべきだったのですが結局できませんでした。

実は見ている間に、時間と共にシンチレーションが悪くなってきたのか、多分10分くらいの単位でしょうか、明らかに見え味が落ち始めました。そのせいもあって、その後確認のために、もう一度トラペジウムに戻って色々試したのですが、これは次回の記事で書くことにします。なのでお借りしたPowerMATE、結局まだ試すことができていません。宮路泉さん、今しばらくお待ちください。手持ちのバローと合わせて比較してみたいと思っています。

ちなみに、トラペジウムから帰ってきて今一度シリウスBを見てみたのですが、もう揺れ揺れで全くみることができなくなっていました。どうやら冬場の一瞬の奇跡の時間だったのかもしれません。


まとめ

とにかく、シリウスBをやっと初めてこの目で見ることができました!いやあ、うれしかったです。

普通は数十cmの口径の鏡筒で見るのがほとんどで、本当に12cmという小口径で見えるのかと疑問で、Twitterで教えてもらったVixenの10cmで見ることができたという情報が頼りでした。その画像を見るとディフラクションリングが余裕で見えているので、やはりシンチレーションに依存するのかと予測はしていましたが、実際に試してみると本当にその通りでした。しかも時間とともにシンチレーションが悪化していく様子も体感することができ、こんなに状況は早く変わるんだという感想です。冬で環境が悪いはずでしたが、本当にわずかの貴重な揺れの少ない時間だったようです。

TSA-120の性能も改めて信頼できると言うことがよくわかりました。コントラスト良く見えるのも屈折ならではなのかと思います。トラペジウムの時にも同じことを言いましたが、本当にこの鏡筒手に入れて良かったです。

さて、ここから少しずつTSA-120と使った撮影に入っていこうと思います。乞うご期待。

TSA-120でやってみたかったことが一つ実現しました。トラペジウムでの分解能ベンチマークです。

ファーストライトで月とリゲルB、ディフラクションリングを見て、セカンドライトで金星。今回はTSA-120でのサードライトになります。


TSA-120でオリオン座を見てみる

連休の最終日、新月期で晴れていたのですが、空を見るとけっこう霞がかっています。さすがにこれだと撮影しても仕方がなさそうなのですが、せっかく星は見えているのでTSA-120を出していろいろ試してみることにしました。

まずはオリオン大星雲M42を眼視。星祭りでジャンクで手に入れた北軽40mmアイピースで見てみます。もちろん星雲の淡いモヤモヤは見えます。でもこれは結構ふーんという感じです。さすがに120mmの口径でも、淡い星雲はそこまでインパクトはありません。おそらくもっと大口径の方がよりはっきり見えます。そもそも今日の目的は星雲ではありません。

少し倍率を上げ、PENTAXの5mmで観察。まずは眼視でトラペジウムがはっきり見えることを確認。台形の形をしています。これも順調です。


トラペジウムでのテスト

さてトラペジウムがどこまで認識できるのか、CMOSカメラで試してみます。カメラは解像度重視で、手持ちの中ではピクセルサイズが一番小さいASI178MC。ソフトはいつものSharpCap。

分解能を真剣に探るのはある意味初めての試みなので、動画、静止画色々試してみました。まず、この日はシンチレーションが結構ひどい。トラペジウムの台形の長い方の辺の1-2割は常に動いているような状態です。それでもSharpCapのヒストグラムであぶり出しをすればA星横のE星は比較的簡単に(!)見えそうです。

露光時間は0.1秒から1秒くらいまでをいくつか試し、ゲインはダイナミックレンジ重視でできるだけ低め。ホットピクセルが邪魔なのでリアルタイムでダーク補正をします。ダークファイルはSharpCapのダークキャプチャーで64枚とったものを使いましたが、そのまま使うと背景が暗くなりすぎるので、まずBrightnessを300でダーク撮影し、その後ダーク補正を適用してからBrightnessを400にあげています。

撮影したのは
  • 動画: 0.1秒露光、ゲイン310を500枚
  • 動画: 1秒露光、ゲイン190を50枚
  • 動画: 1秒露光、ゲイン260を50枚
  • 静止画: 同じような露光時間とゲインを調整しながら24枚
などです。

シンチレーションがひどいので、ラッキーイメージ状態で良いものを選ぶことになります。シンチレーションでくずれてるとダメなものは全くダメ。たまたま星像のいい画像を選ぶことで、分解能が出ます。静止画は枚数が少なすぎて、なかなかいいのがありません。この中で一番うまくいったのが1秒露光、ゲイン190の動画の50枚の中の数枚でした。その中で一番きれいに見えたものを炙り出したのが下の一枚です。

trapezium_ok2

結構拡大してトリミングしているので画像サイズが小さくなってしまっていますが、

E星どころか、F星まではっきりと写っています!

もう、この画像が撮れただけでもTSA-120を手に入れた甲斐があったというものです。さすがにさらに5等(100倍)以上暗いG星とかH星までは写っていませんでしたが、かなり満足な結果です。今回は1枚画像ですが、スタックするとまだまだ見える可能性がありそうです。今後の楽しな課題の一つです。

ちなみに台形の明るい4つのうち、右下がA星、右上がB星、左上がD星で、左下の一番明るいはずのが(なぜか?)C星です。A星の右隣の小さいのがE星で、C星の左隣の小さいのがF星になります。E星はPCの画面上でも比較的簡単に見えました。でもF星はC星の明るさに負けてしまってPC画面上ではなかなかうまく捉えられません。画像処理を何もしない段階だとF星あるかな?というくらいです。

これまでCelestron C8MEADE 25mシュミカセVixenのVISACでトラペジウムを撮影してきましたが、ここまで出たのは全く初めてです。







TSA-120が分解能に関して相当の信頼性がおける鏡筒だということがよくわかりました。今回それでも見にくかったのはあくまでシンチレーションのせいで、確実にそれ以上のポテンシャルを持っている鏡筒だということがわかる結果です。

一方、結局カメラの解像度は十分だったので、感度重視でASI224MCとか、もしくはモノクロのASI290MMでも良かったかもしれません。こちらは今後の課題です。


じゃあ、バローレンズで見てみたら

実は途中で少し面白いことを試しています。ちょっと蛇足になってしまいますが、セレストロンの3倍のバローレンズを使った場合のトラペジウムの見え方です。ちなみのこのバローレンズ、惑星撮影の時にもよく使っているもので、C8にこのバローを使った時の土星とか火星の撮影結果を見ても、特に不満はありません。



バローをCMOSカメラの手前に入れてみます。するとPCの画面で見た時にすぐに明らかに変化がありました。当然画面上でのトラペジウムは3倍大きくなるのですが、バローなしの時に比べて、バローを入れた方がE星が見えにくいのです。3倍大きく見えているので、カメラの分解能に対しては余裕が出るはずです。でも、ものすごく調整すればなんとかE星まで見えるのですが、バローなしの時にE星までは比較的簡単に見えたのに比べると全然見えません。

いろいろ探ってやっとわかりました。下の画像を見てもらえると一発です。

Capture_21_23_07_00018_22_01_01_21_23_07_00018_22_01_01

これでも一番見えているものを選んでいます。なのでE星はなんとか見えていますが、F星は全くダメです。原因は明らかに収差が出ていることです。上の方に青っぽいのが広がっています。画像処理までしてやっとわかりました。

ほんのこれだけですが、PC上での見え味でもはっきり差が出るくらいバローを入れた時の収差の影響がわかりました。惑星撮影だけではこれまで全然気にならなかったことです。

(追記: その後、今回のCelestronの3倍も含め、バロー 4種を比較した記事を書いています。)


ついでに

トラペジウムのE星、F星が見えたことに味をしめ、ついでにシリウスBに挑戦してみました。バローは当然外しています。でも今回もあえなく撃沈。霞のせいでしょうか?それともまだ何か足りないのか?

最後に今一度眼視でトラペジウムを見てみましたが、霞が酷くて暗く、E星も全く見ることができませんでした。こちらはまた次回、シンチレーションの良い日を選んで試していたいと思います。

ここで、少し雲も出てきたのでこの日は退散です。

(追記: 後日、今回のE星、F星に加えて、G、H、I星まで見えた記事を書いています。)


まとめ

この日はとにかく、TSA-120の実力をまざまざと見せつけられた日でした。すごい。トラペジウムがここまで分解して撮影できるとは。私の中で参照鏡筒としての地位が確立されてきています。まだまだ試したいことがたくさんあります。この鏡筒をきっかけに、少し別の世界が広がりつつあります。


あ、そういえばなぜかこんなものが...。

IMG_9555

さて、次回は撮影になるのでしょうか。

あぷらなーとさんはじめ何人かの方がMatlabを購入し画像処理に活用し始めましたようです。



私もMatlabは学生の頃から使っていて、今調べてみたら一番古いファイルは1998年でした。なので20年以上使っていることになりますが、 これまで画像処理に使ったことはありませんでした。

あぷらなーとさんが指摘しているように、確かにMatlabは行列を容易に扱えるので、2次元が基本の画像処理は向いているはずです。最近過去のコードをpython化したりしてるのですが、pythonは2次元だと必ず繰り返し処理が入るので、コードが冗長になりがちです。私も少し試してみたのですが、どうやら画像処理に関してはMatlabの方がコードがかなりシンプルになり見通しが良くなるので、有利というのは正しそうです。とうわけで、遅ればせながら私もMatlab画像処理に参画します。

Matlabを使ってまず手始めに試したのが、昨年3月依頼謎が解けなくて止まってしまっているASI294MC Proのノイズ解析の続きです。

 


最初にごめんなさいと謝っておきます。今回の記事はかなり細かくてめんどくさい話で、ほとんどの人には役に立たないです。しかもうまくいかなかったという結果なので、ほんとに興味のある方だけ読んでみてください。

Matlabで画像処理を始めてみたいという人がいたら、もしかしたらコードが参考になるかもしれません。


以前のおさらい 

ざっとおさらいしてみます。ZWO社のASIシリーズは性能を示すデータを公開してくれています。例えば広いセンサー面積を利用した電視観望や、撮影にも十分に使うことができるASI294MC Proのページを見ていくと、下の方にいくつかグラフが出てきます。このグラフ、一見分かりそうで分かりにくいところもあるので、以前その読み方を解説しました。



上のページでも解説している通り、SharpCapを使うとZWOのページにあるようなデータを測定することができます。冷却バージョンのProも



で実際に測定した記事を書いています。特にGain[e/ADU]の値はコンバージョンファクターとも呼ばれて、設定gainが0の時のコンバージョンファクターはユニティーゲインなどにも直結するような非常に重要な値になります。少しコツは必要ですが、SharpCapのスクリプトでCMOSカメラの特性を実測すると、ZWOにあるような値に非常に近いものを測定することができます。2つのツールで同様のデータが取れているということはかなり信頼が置けるはずです。さらにもう一歩進めて、このようなツールでのスクリプトでなく、実際に自分でノイズを撮影して解析してみようと試したのが、昨年3月までの一連の記事になります。

ところが、実際に撮影して解析してみるとどうしてもZWOのデータやSharpCapでの解析結果と合いません。

SharpCapで撮影した時の撮影条件は限りなく再現させたと思っています。具体的には撮影対象の明るさ、カメラのゲイン、露光時間です。明るさは同等のものが撮れているので、撮影に関しては問題ないと思います。問題はノイズです。明るさとノイズの関係からコンバージョンファクターを求めるのですが、撮影された画像の明るさのばらつきが、想定していたものよりかなり大きいと出てしまいます。

具体的には標準偏差を用いるとノイズが大きすぎると出てしまい、苦肉の策で(ノイズが小さいとでる)平均偏差を使うと、大体ZWOとSharpCapの測定と一致するという結果でした。

ヒントになるかと思いモノクロのASI290MMで測定したら、標準偏差で計算してもZWOやSharpCapと一致した結果を得ることができました。ということはやはりカラーの場合も平均偏差などを使わずに標準偏差を用いるのが正しいのではと推測することができます。

そんな折、あぷらなーとさんがRGGBを一素子づつ解析したCFA(Color Filtr Array)で評価した場合と、RGBにdebayerした場合では、debayerの方が標準偏差で考えて0.75倍とか0.79倍程度に小さくなることを示してくれました。



それでもdebayerで計算してもまだZWOやSharpCapでのノイズの少なさには辿りつきません。

いろいろやっていて結局行き着いたところはこの画面で、

IMG_6436

小さいと思われるRGBの標準偏差よりも、Lの標準偏差の方がなぜかさらに小さいことがSharpCapの一枚の撮影で出てしまっていることです。いまだにSharpCapが内部でどうやって計算しているのかよくわかりません。このLの標準偏差を仮定するとノイズはかなりZWOもしくはSharpCapのスクリプトで測定した結果に一致します。言い換えると、これくらい小さい標準偏差くらいのばらつきになっていないと結果は一致しないということです。


Matlabでの画像処理の実際

やっと前振りが終わりましたが、今回Matlabで以前のpythonコードを書き直すかたらわら、どうしたら一致した結果を出せるか、なぜSharpCapのLがノイズが小さく出ているかを念頭に置きながらいろいろ試してみました。

Matlabを初めて使う人が一番面食らうのは、配列の表記法かと思います。これが独特なのですが、この独特な表記によりコードがシンプルになるので避けるわけにもいきません。私が書くよりももっといい説明がたくさんあるかと思いますが、今回の画像処理に必要な最低限だけ書いておきます。

まず2次元の配列、Matlabだと行列といっていますが、例えば2行x3列の配列Aを

>> A=[1 2 3;4 5 6;]

A =
     1     2     3
     4     5     6

と作ります。例えば第2行,第1列成分を見たい場合には

>>A(2,1)

と打つだけです。答えは

ans = 4

と出ます。これは至って普通です。独特なのは:(コロン)の使い方で、例えばAの1行目すべてを見たい場合は

>>A(1,:)

と打ちます。答えは 1 2 3となります。:はどこからどこまでを意味し、

>>A(1,1:2)

だと

ans =     1     2

となります。:(コロン)だけだとその次元の最初から最後まで全部という意味です。これがMatlabで絶対理解しておかなければならない表記法の一つです。

今回は画像を扱うのに4次元の配列を使っています。1、2次にy座標とx座標。左上からyは向かって下に、xは右に移動していきます。3次目はRGBやCFAのインデックス。RGBなら3つ、CFAなら4つとっています。 4次目は何枚目の画像かを表しています。今回8枚の画像を使っていますが、その何枚目かを表します。あと成分を表す数字は1から始まることにも注意です。0からではありません。 

例えば、AにRGBで別れた画像が8枚入っているとすると、5枚目のG画像を表す時は

A(:, :, 2, 5)

と表します。:が2つあるのはy、x座標それぞれ全部を表しています。"2"はRGBの2番目と言う意味です。Bなら3ですね。"5"は5枚目と言うことです。

例えばサンプルコードの最初の方にある

 Raw(:, :, i) = fitsread(ファイル名);

はi番目の画像にfitsファイルを読み込んで、1次目にy座標のデータ、2次目にx座標のデータを全部入れていきなさいと言うのをわずか1行で表記したものです。

これらの表式は慣れるしかないのですが、ここらへんを感覚的に理解できるとコードもすらすら読めて、シンプルなコードを書くことができるようになるのかと思います。


モノクロセンサーASI290MMの場合

とりあえずMatlabでやってみた画像処理を説明していきます。まずはモノクロのASI290MMの結果です。

ASI290MM
このグラフを出したMatlabのソースコードをアップロードしておきます。使用した画像も(サイズを切り詰めるために中心部のみ切り取ったものですが)一緒に入れておきましたので、すぐに走らせることができると思います。もしMatlabを持っていて興味があったら走らせてみてください。

ASI290MM.zip 


結果は前述したとおり、平均偏差ではなく一般的な標準偏差を使っています。メーカー値はコンバージョンファクターが3.6程度、ユニティーゲインが110程度ですので、グラフ内の数値と比較してみるとそこそこ一致していることがわかります。なので、カラーでも標準偏差を用いる方向を探りたいと思います。

また、以前pythonで書いたコードと比較して同等の結果を出すことできています。

Conversion_Factor_ASI290MM_std

Maltabでもこれまでと同様のことができることがわかり、かつ遥かにシンプルに書けることがわかりました。


カラー版ASI294MC Proの場合: CFAで解析 

さて、Matlabでの画像処理にも慣れたところで問題のカラーのASI294MC Proの解析です。

結論から言うと、結局今回も謎は解けずじまいでした。

まずはシンプルなCFAの方から。RAW画像からCFAへ分離するところはビルトインの関数とかはないようなので自分で書いてみました。以前は平均偏差(mad)で無理やり答えを合わせましたが、今回ASI290MMの結果なども含めていろいろ考えた末に、結局諦めて標準偏差(std)を使うことにしました。

ASI294MCPro_CFA

各測定点はそのまま解析した結果を表示していますが、フィッティングは無理やり合うように補正してます。考え方としては、謎な部分をunknown factorとしてフィッティングするところで無理やり補正するというやりかたです。今回のCFAの場合、unknown factorはノイズ(標準偏差の2乗)を2分の1とすることでZWO、SharpCapの結果と一致することがわかりました。

ちなみにメーカー値はコンバージョンファクターが3.9程度、ユニティーゲインが117程度です。繰り返しますが、CFAで測定されたノイズを無理やり半分にすることでメーカー値に近くなります。

先に説明したように、SharpCapでLのノイズが小さく出ている理由がわからなかったので、もうこのように無理やり合わせてしまうしかなかったという苦肉の策です。これはあぷらなーとさんが示してくれた、CFAとRGBで標準偏差で0.75倍違うというのを考慮してもまだ少し足りません。

まあ、このやり方に言いたいことはたくさんあるかと思いますが、とりあえず先に進むことにします。


カラー版ASI294MC Proの場合: RGBで解析

次はRGBでの解析です。

最初はMatabビルトインのdemozaicという関数を使ったのですが、これだと中で何か変に処理しているのかノイズが話にならないくらい大きくなりすぎました。仕方ないので自分でRGBに落とすコードを書いています。そこそこまともそうな値は出たのですが、ただしこのコードまだ未完成です。なぜかというと、センサーアレイはRGGBなのでG(グリーン)が二つあるのですが、その応答が少し違うことに起因します。Gを2つ使って求めると強度の山が2つでできてしまい、ばらつきが大きくなりすぎるからです。そのため今回は2つあるG素子のうち1つだけを使うことにしました。

ASI294MCPro_RGB

RGBになりあぷらなーとさんが示してくれた通り、CFAの時よりもばらつきは少なくなることがわかりました。それでもまだノイズが大きすぎるのでCFAの時と同様にunknown factorとしてフィッティングするところに無理やり入れました。RGBの場合、unknown factorはノイズ(標準偏差の2乗)をルート2で割ってやることでZWO、SharpCapの結果とかなり一致することがわかりました。


考察

ASI294MC Proで使ったファイルもアップロードしておきます。よかったら参考にしてください。

ASI294MCPro.zip 

今回はまだ苦肉の策で、無理やり答えを合わせるように測定結果を割っているだけなので、考察と呼べるようなものにはなりません。CFAの場合出てきたノイズを半分に、RGBの場合ルート2でわってやるとSharpCapやZWOの結果とかなり近い結果になりましたが、その理由は全然わかっていません。

前回のpythonコードを使った時はCFAやRGBの変換はPixInsightを使いました。でも今回はRAWファイルから直接計算してCFAもRGBも取り出しています。ここら辺はMatlabに移ったことでやりやすくなったところだと思います。このように今回はかなり噛み砕いてブラックボックスがないように進めてきたつもりです。撮影した画像はSharpCapのスクリプトで撮影したものと同等と仮定していいかと思います。これでも結果が一致しないということは、
  • ZWOもSharpCapも何か特殊なことをやっているか
  • もしくはまだ私が馬鹿なミスを犯しているか
です。とにかく怪しいのがZWOのLのノイズが小さく出過ぎていること。この謎が解けない限り進展がない気がします。


まとめ

週末を結構な時間費やしましたが、コンバージョンファクターに関しては結局昨年から進展がなかったので疲れてしまいました。それでも得られた成果としては、
  • Matlabでの画像解析の手法に慣れることができた。
  • あぷらなーとさんが出してくれた、debayerの方がCFAよりもノイズが0.8倍程度と小さくなることを確かめることができた。
ことくらいでしょうか。でも全然だめですね。これ以上は時間の無駄になりそうなので、一旦ここで打ち切ることにします。

それでもMatlabが使いやすいことは分かったので、今後の画像解析はMatlabで進められそうな目処はついたと思います。

元々この解析はダークノイズ解析につなげたいとか、EOS 6Dのユニティーゲインを測定したいとかで始めたのですが、なかなか進みません。いつ実現できるのかまだまだ未定ですが、諦めることはしたくないのでまたいつか再開する予定です。

連休ですが、富山は相変わらず天気はよくありません。こんな時はたまっていた課題を片付けます。


CMOSセンサーを顕微鏡で見るとどうなる?


事の発端は、小海の星と自然のフェスタでスタベのアルバイトのK君がASI294のセンサー面を実体顕微鏡で見てみたいと言った事です。ASI294は電視観望用に持っていますが、うちにはたまたま実体顕微鏡もあります。下の子Sukeの自由研究のために2017年の原村星まつりで買ったものです。これならなんとかなりそうです。

ところがシベットさんからコメントで実体顕微鏡では倍率が低すぎるのではという指摘がありました。なぜかうちには倍率の高い生物顕微鏡もあります。これも同じく下のSukeの自由研究のために2016年の原村星まつりで購入しています。というわけで、必要なものはそろっているので実際に見ることにしました。果たして何が見えるのか?

IMG_9068


まずは実体顕微鏡

手持ちの実体顕微鏡は対物レンズが4倍、接眼レンズが10倍で、40倍のものです。ここにASI294を置いてやればいいのですが、カメラ本体が大きすぎでレンズに近づき過ぎてしまいピントが出ません。仕方ないので、今回はもっと奥行きの短いASI224MCで試すことにします。K君、ごめんなさい。

ASI224MCのセンサーサイズは4.8×3.6mm、解像度は1304×976で一素子のサイズは3.75×3.75ミクロンとのことです。

IMG_9091

センサーは思ったより小さく、周りに金色の線がたくさんつながっています。これを40倍の実体顕微鏡で見てみました。とりあえずiPhoneのカメラで撮ってみます。

IMG_9036

よく見えていますが、センサー面はのっぺりしているだけでやはり全然倍率が足りないことがわかります。

でも実体顕微鏡は簡単には倍率を変えることができません。いろいろ考えて、手持ちのアイピースを利用することにしてみました。接眼レンズを片方外します。31.7mmのアメリカンサイズは径が大き過ぎたので、昔の1インチタイプのものを使いました。手持ちは20mmと12.5mmと9mmの3つ。

IMG_9071

最初に20mmのもので見てみます。1インチサイズだと今度は径が小さすぎるので、とりあえず固定せずに穴に入れるだけです。

IMG_9039

もともとついていた10倍のレンズより少しだけ大きく見えます。

IMG_9037

10倍レンズは焦点距離25mmとか30mmくらいなのかと思います。この時点で50倍とか60倍相当かと思います。当然これだけだとまだ倍率は不十分なので、さらに倍率を上げるために12.5mmレンズを取り付けます。

IMG_9041

これも穴に入れただけで固定していませんが、まあとりあえずそこそこ安定して見えるものです。像はというと、

IMG_9029

接続線は大きく見えてきましたが、センサー面はほとんど変化なしです。最後9mmを試します。

IMG_9043

IMG_9061

ここでiPadのLEDで光を当てたこともあり、基板のパターンが見えてきました。しかもピントを調整してセンサーの端をよく見ると目盛りのようなものが見えます。

IMG_9064

小さな目盛り10個につき大きな目盛りがあり、大きな目盛りを数えると長辺で14個、短辺で10個程度あります。センサーサイズが4.8×3.6mmなので、大きな目盛り2個で1mmはないくらいということがわかります。上2枚の写真のセンサーの枠の太さは同じなので、遡っていくと全体サイズまで直接比較することができると思います。

これで倍率は手持ちの1インチアイピースでは限界です。最終倍率は120倍程度かと思われますが、それでもセンサー面の構造は全く見えてきません。やはりもっと倍率の高い生物顕微鏡が必要なようです。


生物顕微鏡なら見えるか?

IMG_9094


さて、生物顕微鏡に移ったのですが、ここで問題が発生しました。ASI224MCでも奥行きがあり過ぎて、ステージを一番下に下げても対物レンズの間に入らないのです。

IMG_9093


最初はセンサーがついている基板を外そうかと思いました。

IMG_9092

ですが、基板の右側についているコネクタをうまく外すことがどうしてもできなくて、泣く泣く諦めることにしました。ちなみに左上についている赤い検品シールは触るとすぐに崩れるタイプで、ネジを緩めるとシールが簡単にとれてしまいます。改造したかどうかのチェックを兼ねている様です。なのでこのカメラはもうメーカーのサポートは受けることができないと思っておいたほうがよさそうです。もし個人で分解する際は気をつけてください。

結局今回は仕方ないので、下の写真の様に顕微鏡のステージを取り外すことにしました。

IMG_9076

ステージに置くことができないので、CMOSカメラを手で持ちながら見ることになります。バランスが悪いのですが、何度か撮影すればいい位置とピントで写ることもあり、何とかなりそうです。

倍率は対物レンズが4倍、10倍、100倍。接眼レンズが10倍と15倍のものがあります。

とりあえず対物4倍と接眼15倍で目で見てみます。明かりがもっと欲しかったので、先日中身を取り替えたパワータンクの強力LEDで照らすことにしました。この状態で目で見てみると、手でカメラを押さえながらですが、何とか見ることができます。

ここで秘密兵器登場。今回の撮影のために、SVBONYの顕微鏡の差込口に挿すことができるアダプターを買っておきました。

IMG_9089

これはT2ネジが切ってあるので直接ZWOのASIカメラに取り付けることができます。

IMG_9084

これを生物顕微鏡の接眼レンズの代わりに取り付け、直焦点撮影をします。

最初はASI294MC Proを撮影用のカメラとして使いました。まずは最低倍率の4倍の対物レンズで撮影します。撮影はMacのASICAPを使いました。

2020-01-12-0626_0-CapObj_0001

すでに先ほどより大きく写り、遥かに精細に写っています。だんだん楽しくなってきました。

対物レンズの倍率を4倍のものから10倍のものに上げます。

2020-01-12-0607_4-CapObj_0000

おお!とうとうセンサー面の構造が見えてきました。

もっと倍率をあげたいのですが、100倍の対物レンズはセンサー面に相当近づけなければならなく、保護カバーを外さなければピントが合わなさそうです。さらに、かなり暗くなることがわかっているのであまりやりたくありません。いろいろ考えて、ASI294MCよりも一素子のサイズが小さくて分解能の高いASI178MCを使ってみることにしました。その結果がこちらです。

もうセンサー面の構造もはっきりと見えます。

2020-01-12-0634_3-CapObj_0000

でも構造は見えますが、RGBフィルターとかの影響がわかりません。目盛りがついているところから少し中に進むと紫のエリアがなくなる境目があるのですが、わかるのはこれくらいです。この頃になるとカメラの固定方法の工夫でかなりピントも合わせやすくなってきました。下はピントや撮影カメラのゲインを相当合わせ込んだ場合です。

2020-01-12-0636_7-CapObj_0000

かなりはっきり見えて、センサー10素子で目盛りが一つ進むこともわかります。なので目盛りはセンサーの数を表していたんですね。でも、これでも全部同じ素子のように見えてしまっています。

どうやっても進展がないので、ここでかなり悩みました。最後にとった方法が、わざとカメラを回転させて素子を45度傾けてみること。理由ははっきりとわかりませんが、これでやっとうまく見ることができました。最終結果です。

2020-01-12-0702_0-CapObj_0000

見事にRGGBフィルターの配列を見ることができます。これを見て改めて思うのですが、これだけの微細構造を作る技術は見事なものです。これが民生レベルで安価に購入できるというのはなんと幸せな世の中なのでしょう。

最後に、その時の撮影風景です。

IMG_9083


考察

とりあえずセンサー面の構造とRGGBフィルターの存在を確認することができました。対物レンズの倍率を上げ、十分な灯りを用意することができれば、もっと微細な構造を見ることができるかもしれません。

RGGBフィルターがかかっている部分と、かかっていない部分の境目もはっきりとわかります。RGGBフィルターは全面にかかっているわけではなく、センサーの端の方はフィルターはないことがわかります。


問題はここから何を引き出すかです。K君と話した時、サッポロポテト現象を解明したというようなことを言っていた気がします。サッポロポテト現象はあぷらなーとさんも困っているようです



サッポロポテト現象は各素子についているマイクロレンズ効果が原因のようですが、はっきりとした解決策はあまりないようです。今回はやっとCMOSセンサーの素子の構造が見えたくらいなので、まだゴールまでは程遠いと思います。

今回の結果をどう活かすのかが今後の課題でしょう。


まとめ

こんなふうに工夫でどんどん見えてくるような実験は超面白くて大好きです。

とりあえず今回分かったことは、
  • 実体顕微鏡ではCMOSセンサーの構造を見るには倍率が低すぎる。
  • 生物顕微鏡を使うことでCMOSセンサー面の構造、RGBフィルターの様子を見ることができる。
  • センサー1素子そのものを十分な解像度で見るには至らなかったが、まだ拡大率を上げる手は残されているので、1素子をもう少しはっきり見ることもできるかもしれない。

課題としては
  • センサーを置く架台をしっかりしたほうがいい。
  • センサー面についている保護ガラスを外して、高倍率で撮影してみる。
  • 動画撮影でスタックするとさらに解像度が上がるかもしれない。
  • ASI294MCのセンサー面を見てみる。
ことくらいでしょうか。あー、今回も面白かった。


K君、遅くなってすみませんでした。やっとなんか見えるくらいにはなってきました。

K君、次は何を見てみたいですか?


一つ気にになっていることがありました。この間購入したPENTRAXのTAKUMAR LENS、言わずとしれたオールドレンズです。このようなオールドレンズにはアトムレンズとかトリウムレンズなどとも呼ばれ、性能の向上を図ったレンズの可能性があります。前回の撮影で思ったよりも収差も少なかったので、もしかしたらアトムレンズなのではと思い調べてみました。

 


アトムレンズとは

アトムレンズとはレンズ基材に微量ながらも放射性物質である酸化トリウムを混ぜ、高屈折かつ低分散を実現させ、現在のフローライトレンズと同じような効果を狙ったものです。屈折率が高いとその分同じ厚さでもより光を曲げることができるため、レンズを薄くすることができその分湾曲を防ぐことなどができるというわけです。

ただ一つ、欠点があって、古いアトムレンズは覗いてみると黄変とか言って、劣化で黄色く見えるなどの特徴があるそうです。この黄変は製作後数年で出てくるそうで、アトムレンズが生きのこらなかった理由の一つが、黄変が短期間で出てきたことがあると言われているようです。黄変は屈折率などには関係ないので、ホワイトバランスが崩れることや、透過率が下がるなどの弊害はありますが、星撮りでは後の画像処理が入るために、それほど大きな問題にはならないと考えられます。


測定対象としたレンズ

今回手に入れたPENTAXの75mm f/4.5と200mm f/4とは別に、NIKONのオールドレンズを50mm/f1.4と35mm/f1.4の2本持っていて、こちらもアトムレンズの可能性があります。実際のところ、どれがアトムレンズに相当するのかよくわからなかったので、今回この4本を市販の簡易放射線カウンターで測定してみることにしました。

IMG_8613
今回手に入れたPENTAXの75mm f/4.5と200mm f/4

IMG_8622
昔手に入れたNIKKOR50mm/f1.4と35mm/f1.4

 
黄変の具合

測定の前に、黄変の具合を見てみます。左上からNIKKOR 35mm f.1.4、右上がNIKKOR50mm/f1.4、左下がPENTAX 75mm f/4.5、右下がPENTAX 200mm f/4になります。
comp_small


上のNIKKOR2本は目で見ると明らかに黄色くなっています。特に35mmの方はかなりはっきりわかる黄変です。50mmのほうは、写真で見るとわかりにくくなってしまっていますが、目で見ると誤差の範囲でなく黄色いです。今回手に入れたPENTAXの75mm f/4.5と200mm f/4の2本は目で見る限り黄変のような兆候は見られませんでした。




実際の放射線量の測定

実際の測定結果は以下のようになります。上がレンズのフロント側、下がレンズのカメラ側になります。左上からNIKKOR 35mm f.1.4、右上がNIKKOR50mm/f1.4、左下がPENTAX 75mm f/4.5、右下がPENTAX 200mm f/4です。出来るだけセンサー位置をレンズ中心になるようにおきました。木の棒が置いてあるのはレンズ面にセンサーが触れるのを防ぐためです。

front
レンズのフロント側。

back
レンズのバック側(カメラ側)

まずは今回購入したPENTAXの2本ですが、レンズの上に乗せて測ってみても表示は0.1μSv/h程度と、あまり普通の場所での値と変わりません。NIKKORの50mmも同様です。ところが、NIKKORの35mmに近づけた途端に0.3とかに跳ね上がりました。レンズの前で測ると最終的に2μSv/h程度、レンズの裏に至っては4μSv/h以上にまでなりました。

日本の年間平均自然被曝量が2mSv程度とのことなので、500時間身につけていて自然被曝量程度になります。通常使用では全く問題のないレベルです。


アトムレンズの写り具合

昔、この35mmのアトムレンズを使って、ASI294MCを取り付けて固定撮影でオリオン座付近を撮ったことがあります。



フォーサーズサイズのセンサーでも星像は4方向に伸びていっているのがわかります。今回手に入れたPENTAXの75mmの方が、フルサイズでも星像がかなりマシなので、アトムレンズが必ずしも絶対的に性能がいいというわけではなく、あくまで相対的には性能のいいレンズが作れたということでしょうか。しゃんすがあれば今一度晴れた時に試して見たいと思います。


まとめ

アトムレンズの実測をしているページは探すとすぐにいくつも見つかります。それでも、NIKKORレンズにはアトムレンズは存在しないのではというページもあったり、今回の35mm f1.4がアトムレンズだという記事はありましたが、実測している記事は私が探した範囲では見つけることができませんでした。

アトムレンズは黄変だけで判断するのも難しそうです。NIKKORの35mmと50mmを比較すると明らかな差はわかりますが、単体で50mmだけを見ても黄色く見えるので、迷うかと思います。

PENAXのTAKUMARも、収差が少ないのでもしかしたらアトムレンズかもと思っていたのですが、完全に気のせいでした。やはりきちんと測定などして確かめることが大事です。今回自分で測定し色々調べてみて、実際にいつの年代のどこのメーカーのレンズがアトムレンズの可能性が高いのか、どれくらいの放射線量なのか、どのくらいの時間使っていると危険なのかの目安など、実感として納得しながらわかることが多かったです。こうやってみるとアトムレンズはかなり限られていて、古いレンズで黄変していても、アトムレンズは意外に少ないのかもしれません。

あ、それでもやはりあぷらなーとさんは持っていて、しかもきちんと実測してました。



最初の方でアトムレンズは星撮りに問題にならないと書きましたが、あぷらなーとさんによると、放射線にセンサーが反応してノイズになるとのことです。さすがあぷらなーとさんの解析です。私はまだまだこの域には程遠いです。


朝からずっと曇りだった昨日、夜中に短時間ですが東側がひらけてオリオン座がものすごくきれいに見えていたので、電視観望関連で少しやってみたかったテストを敢行しました。題して「格安電視観望」です。


目的とセットアップ

今回の目的は、電視観望の裾野を広げるために最低限の機材でどこまで値段を安くできるかというものです。とりあえず試してみて、その後のアップグレードにつなげる最初のステップという意味もあります。

今回、3つの方法でオリオン大星雲を見比べをします。
  1. いつものFS-60CBにASI294MC Pro(常温で駆動)をつけて、光害防止フィルターのQBPは無し 、AZ-GTiにのせて。
  2. Celestronの格安持ち運び望遠鏡トラベルスコープ 70に ASI294MCをつけて、光害防止フィルターのQBPは無し 、AZ-GTiにのせて。
  3. CanonのカメラレンズEF 55-200/4.5-5.6 II USMにアダプターを介してASI224MCをつけてたものを、AZ-GTiもしくは普通の三脚に載せて。
です。 


1. いつものタカハシFS-60CB

IMG_4972

まずはいつものセットアップで見てみます。焦点距離は355mmに旧フラットナーをつけて合成焦点距離374mm。比較しやすいようにQBPは外しています。露光時間は1.6秒、LiveStackで10フレーム程度なので、総露光時間は15秒程度です。画像はいつもやっているように見栄えがするようにあぶり出します。 これを比較の基準とします。

IMG_8567

露光時間は1.6秒、ゲインは最大の570。スタック回数が少ないので少しノイズが残っていますが、さすがに明るいM42だけあって、綺麗に見えています。フラットナーが旧タイプなので周辺は少し放射状に広がっています。中心の星像はかなりシャープですが、カメラのゲインが大きいため明るい恒星はサチってしまっています。

2. トラベルスコープ70

IMG_2392


 次は入門用の鏡筒です。鏡筒としての性能は求めず、焦点距離が400mmと短いこと、現行機種で安価で入手しやすいことが今回選択肢に選んだ理由です。アマゾンで収納カバン付きで実売1万円を切っています。カメラはASI294MCとしましたが、次との比較のためにASI224MCにしたほうがよかったかもしれません。ASI224を使うとまだ焦点距離が長すぎることが多いので、安価なレデューサがあったほうがいいのですが、今回はそこまで気が回らなくて294を使ってしまいました。

実際にはアイピース口にカメラを取り付けると、接眼部を伸ばし切ってもまだ短くてピントが合いません。私は31.7mm用の延長筒をつけましたが、なければ付属の45度正立プリズムを使ってもいいかもしれません。

IMG_8568

1と比べたら実売で10分の1程度の安価な鏡筒ですが、これをみる限り十分に見えています。電視観望では鏡筒の性能の差が出にくいと考えて良さそうです。ただし、よく見てみると恒星の周りにハロが出ていることと、星像が1の時ほどシャープでなく、ボテっとしています。また、そのせいかサチっているのが目立ちやすくなっています。昔、トラベルスコープ にASI224MCをつけてM57で試したことがあります。技術的にはまだ稚拙だったところもありますが、その時にも色は出ていたので、評価は特に変わらず、電視観望なら十分に使うことができるというものです。


キットレンズクラスでの電視観望

IMG_8583


今回の一番の目的です。このEF 55-200/4.5-5.6 II USMというレンズは入門用のレンズで、以前EOS Kiss Digital Nのキットレンズとして付属していたものらしいです。あまり記憶がないのですが、多分キタムラで数千円で購入しました。

かなりの数が出ているはずの一眼レフカメラ用のキットレンズクラスでどこまで電視観望ができるかを試します。最長で200mmの焦点距離なのですが、今回200mmにするとASIカメラにCanonレンズを接続するアダプターを最長まで伸ばしても焦点を合わせることができませんでした。なので、焦点距離は150mm程度で試しています。ASI224MCはASI294MCに比べるとセンサーが一辺で4分の1、面積だと16分の1になるので、150mmの焦点距離である程度近いくらいの画角になります。露光時間は同じ1.6秒、10枚スタックですが、ゲイン最大だとノイズが目立ったので、224の最大ゲインの600から2段階ほど落として500にしてあります。

結果はというと、以下のようになります。

IMG_8574

どうでしょうか?まず、カメラが1、2で使ったASI294とは違うため解像度が落ちていて、PCの画面の解像度に負けています。そのためノイジーに見えてしまっています。またF値が少し低いので、多少暗く、それもノイズ増加につながっているのかと思います。でもそれはLiveStackでもう少し待っていればいいだけの話で、それほど問題にはならないはずです。それよりも、やはり星像がより大きく出てしまっていて、サチっているのがよくわかります。これはレンズのせいともあるかと思います、実際にはカメラのせいもあるのかと思います。ASI224MCは12bitでダイナミックレンジがASI294と比べて小さく、飽和容量も4分の1とサチりに対して耐性が低いです。でも今回は、安価なということと、キットレンズで手に入る焦点距離で試すために、あえてこちらを使いました。

でも、そういったことを知らなくて、これはこれで単体で見れば、M42などの明るい星雲ならキットレンズクラスで十分見栄えのする電視観望になるのかと思います。

最後に試したのが、架台をAZ-GTiでなくて、普通のカメラ三脚に載せて追尾なしで電視観望をした時です。条件は同じ露光時間1.6秒、10枚スタックです。結果は以下のようになります。

IMG_8576

自動追尾はできないのですが、SharpCapのLiveStackでのAlignment機能が秀逸で、星の位置を認識して縦横、回転だけでなく、画面を歪ませてスタック画像を重ね合わせてくれます。なので星だけ見るとずれは全然ありません。その代わりに、ちょっとわかりにくいですが撮影画面の右側に黒い帯が見えることと、ノイズが筋のように流れて見えます。これが追尾しなかったせいでずれていった跡です。15秒でこれくらいなので、5分程度なら追尾なしでも十分に持たせられることがわかります。

このことは通常のカメラ三脚だけでも電視観望は十分可能だということを示しています。ただし、導入は慣れないと結構苦労します。

AZ-GTiは安価で眼視や電視観望では十分な性能の自動導入経緯台ですが、電視観望にはイチオシです。自動導入がついている普通の赤道儀でもいいですが、自動導入はなくても自動追尾だけでも電視観望は可能です。でもここで示したのはAZ-GTiや、赤道儀などを持っていなくても、まずはカメラ三脚でもいいので試してみることも十分できるということです。その際は、とりあえずは星が流れていってもいいので少し時間をかけてSharpCapの機能を試すことと、暗いものをあぶり出すテクニックを練習してから実際の星雲などを入れるのがいいのかと思います。

もう少し試そうとしたのですが、ここで雲がかかってきてしまい断念。今度はもう少し小さい天体をデジタル上でトリミングズームしてみて比較してみたいと思います。


まとめ

今回はどこまで安価に電視観望を試すことかを目的として試してみました。CMOSカメラASI224MCが税込で3万数千円、カメラレンズとの接続アダプターが6千円ちょっと、一眼レフカメラを持っていれば手持ちの200mm程度のレンズを使ってみる、架台はカメラ三脚、PCもあれば手持ちのもの。それでも三脚にどう固定するかとかいう問題があります。私はカメラ背面についている1/4インチネジ穴を使って適当なL字金具を固定して三脚の自由雲台に取り付けています。

電視観望をまずは試して見たい方は、上記のセットアップを参考に各自で工夫してみて、面白ければ次の便利な自動導入だとか、センサー面積の広いカメラだとかに手を出すというのも一つのアップグレードの道だと思います。

今月号(2019年10月号)の天文ガイドに天の川沿いの赤い星雲ガイドがありました。こうやって実写とともに、位置情報まで含めて一覧で見どころを示してくれているのは今まであまりなかったのでありがたいです。これに沿ってどれくらい見えるのか電視観望でいくつかみてみました。条件は前回の記事と同じ機器で、QBPをはめてです。


QBPでの電視観望でここまで見える

まずは、前回の記事のテストでも試した天文ガイドのページに沿って、北アメリカ星雲です。何枚か撮ったうちの一つです。

IMG_8061

位置はサドルより下流でも、さすがに天文ガイドの記事のトップに来るくらいメジャーで明るい星雲です。電視観望でも十分見栄えがします。

次は白鳥座のガンマ星、二等星のサドルがある付近です。

IMG_8075

天文ガイドでは星3つで「とにかく明るい」と書いてある場所で、電視観望でもその場で結構楽に見ることができてます。

調子に乗って、サドルから少しデネブ方向に移動してみました。天文ガイドには「3つの連なった青い星雲」とありますが、写真の右の少し下くらいのところです。残念ながら、それらしい青いものは見えません。もしかしたらQBPは青を出すのが苦手なので、そのせいかもしれません。

IMG_8076

ここらへんで、やはりかなり明るいものでないと厳しいといことがわかってきました。

次は天文ガイドには書かれていませんでしたが、やはり白鳥座にある三日月星雲です。

IMG_8083

こちらも形はきちんとでているようです。少し拡大してあります。

同様に網状星雲です。網状星雲が電視観望でこんなに綺麗に見えたことは私は初めてです。QBPの効果絶大かと思います。周辺減光がひどいので、フラット補正をしたほうがより見栄えするのかもしれません。

IMG_8095


ずーっと飛んで胎児星雲です。こちらは天文ガイドで星二つ。それでも明るいので星三つでもいいのではと書いてありました。電視観望だとこれでやっとかろうじて見えるくらいです。

IMG_8079

網状星雲もそうなのですが、意外に画角が広いので、もしかしたらレデューサを入れたほうがいいかもしれません。ただしレデューサーの効果で、もともと小さくしか見えないM57とかは流石に小さくなりすぎると思うので、分解能的に厳しいかもしれません。M57は輝度が高く電視観望の目玉の一つなので考えものです。

ちなみに、胎児星雲までずーっと飛んだわけは、ここまで星二つとか星一つのSh2がほとんどだったからです。でもケフェウス座のIC1396はきちんとトライしてみてもよかったかもしれません。ただ、富山は北のほうがかなり明るいのであまり北寄りだとやはり厳しいいかもです。もう少し時間が経つとカリフォルニア星雲とか勾玉星雲とかが見えたかもしれませんが、昨晩はここらで時間切れでした。


逆にQBPが電視観望に向かないケース

ここからは失敗例です。

意外だったのがM31アンドロメダ銀河です。先日の演奏会とのコラボの時もそうだったのですが、意外に綺麗にでません。もう天頂付近に来ていたので、雲とかのせいではないです。もしかしたらQBPのせいなのかもしれません。

IMG_8087

一度QBPを外したものと比較してみたいです。

あと、M45すばるもダメ。悲しいくらいの苦労の跡が見えますが、どうやっても青が出ませんでした。これもやはりQBPのせいでしょうか。

IMG_8090

ちょっと気になって調べてみました。まず、中川光学研究室ブログにQBPでM45を撮影した例が出ています。綺麗に反射光の青が出ています。ではこの青の波長はというと、ここを見ると430nmらしいのですが、これだと下のグラフからもわかるようにQBPを透過することができません。

qbpf_g

M45の波長データが違うのか?QBPの透過周波数特性が違うのか?今度自分できちんと撮影して確かめてみることにします。



最後は二重星団です。SynScan Proのリストでパッと目に入ったので導入してみました。

IMG_8089

失敗と言ってしまうのもあれなんですが、QBPに関係なく、やはり恒星はシャープさがなかったり、偽色が出たりで、電視観望で見るのはイマイチです。こちらは絶対にアイピースで見たほうがいいでしょう。電視観望だとみんなで一緒に見えるというくらいのメリットしか見い出せません。球状星団なら電視観望で淡いところも出せるので、まだマシかもしれません。

今回のテストはこれくらいです。実は時間的な順序では網状が最後でしたが、この時点でバッテリー切れと、気力切れでした。


改善点

今回のテストは一般の観望会を想定しています。安全のため、それほど暗い場所でなく、たくさんのお客さんがいるために装備はトラブルレスを第一に、とことんまでシンプルにというような方針です。

これ以上の改善をするなら、
  • CMOSカメラを冷却してノイズを減らす
  • ダークフレームを撮影してリアルタイムで補正し、輝点ノイズなどを減らす
  • フラットフレームを撮影してリアルタイムで補正し、周辺減光を減らす
  • 暗い場所に行く
  • 月のない日を選ぶ

などでしょうか。確かにこうやってみると改善の余地はまだありそうですが、時間の限られている観望会でこれをするかどうか?お客さんを待たせないようにとか、少し考えなくてはいけないかもしれません。


まとめと結論

秋も電視観望で色々な天体を楽しむことができることがわかったかと思います。ただ、北アメリカ星雲とかはいいのですが、サドル付近とかを観望会で見せて果たして一般の人は喜んでくれるのかどうか。胎児星雲ももう少し画角が必要です。網状星雲はインパクトがありますが、三日月星雲を一般の人に見せてどんな反応を示すのかとかはちょっと興味があります。

天文好きな人は反応がめちゃくちゃいいのはいうまでもなく、以前の福島の星まつりで三日月星雲が見えて大騒ぎした覚えがあります。福島の時も確か月が明るかったです、その時から比べてもASI294MC ProとQBPが投入されたことで電視観望の技術もずいぶん進歩したことがわかります。

あと、QBPが苦手そうな天体があることがわかったのも儲けものでした。こちらはQBPを外す手段を考えるとか、2台体制でいくなどを考えたほうがいいのかもしれません。アンドロメダ銀河なんかはもう少し見えるかと思っていました。

あ、ちなみにこのテストはちょうど満月の日に行われました。星雲を見るのには最も適していない日です。煌々と輝くまん丸のお月様の下でこれだけ見えるなら、多少の光害地でも、観望会で見せるくらいのネタはなんとかなることがよくわかりました。


QBPがあれば、もうこの電視観望、場所と日を選ばずに星雲見えそうで超強力な観望会ツールになりそうです。あ、もちろん雨とか雲はダメですよ。
 

このページのトップヘ