ほしぞloveログ

天体観測始めました。

カテゴリ: カメラ

SWAgTiのセッティングが楽なので、短い時間でも撮影する気が起きます。まだテスト撮影なので、お気楽にM20です。今年は本当に天気が良くなくて、たまに晴れてもそれが長い時間続きません。結局今回撮影できたのは、3分露光で16枚の合計わずか48分です。月が出るまで2時間くらいはあったのですが、途中で曇ってしまいました。まあ南の低空なので、雲も出やすく仕方ないですね。

IMG_9916


夏場の非冷却のテスト?

今回のテーマは「冷却はなくてもいいのか?」です!

前回のSWAgTiの記事で、ケーブルの数を減らしたいと書きました。夏の暑い日に冷却がないとどうなるかを試してみました...とか言いたいのですが、実はこれ全く嘘で、単に冷却するのを忘れただけです。NINAだと冷却されてないと警告が出るのですが、SharpCapはそういった親切設計にはなっていません。

NINAってできるだけ撮影を失敗しない設計になっています。冷却設定も親切で、まだ冷えている途中だと完全に冷えるまでは警告を出してくれます。例えばファイル形式はデフォルトfitsで、形式を変えるときは結構奥の方で「あえて」変更してやる必要があります。SWAgTiだと必要ないですが、例えばガイドソフトがつながっていないと警告を出してくれます。SharpCapは撮影「も」できる汎用ソフトですが、撮影「専用」ではないので、色々「設定できる余地」が残っていて、ミスもあり得てしまうというわけです。

でも今回はさらにしょぼいです。もっと言い訳するんですが、最初はSharpCap上でちゃんと冷却したんですよ。でも、一度SynScan Proとの接続がトラブって、一旦「あえて」SharpCapを落としたんですよね。後から考えたらわざわざ落とさなくてよかったんです。でも落とした後の復帰で他に気を取られていて、冷却をオンにするのを忘れて撮影を開始してしまったというわけです。そういえばライブスタック画像を見た時に「なんかノイジーだなー」とか思ってたんですよ。でも気づいたのは撮影も終了して、次の日に画像処理を始めてからでした。なんかおかしいと思ってfitsのヘッダ情報を見たら、センサー温度が32度とかになっていました...。


プレートソルブをなんとか使う

冷却は忘れてしまいましたが、その分トラブルに対して色々試したおかげで、SWAgTiでの撮影までのコツが少しわかりました。

前回報告した通り、やはりプレートソルブをすると、しばらくして接続がおかしくなるのはもう間違いないようです。今回もそうだったので、再現性があります。今回試して、接続がダメになった後にSharpCapを立ちあえげる必要がないのはわかりました。SynScan Proのみ一旦落として再起動すると、うまく再接続されるときもあるし、再接続されずにエラーが再度出るときもあります。うまくいかないときは更に、SynScan Proの「アラインメント」の「リセット」を押すと、再起動でエラーが出ることがなくなるようです。たとえリセットしたとしても、実際のアラインメント情報はAZ-GTiの方に残っているため、再度SharpCapから接続すると今向いている方向の情報がきちんと出てきます。

というわけで、こんな順序がいいのかと思います。
  1. SharpCapからSynScan Proに接続する。
  2. SynScan Proで、ワンスターアラインメントを実行する。
  3. SharpCapからプレートソルブを実行して、初期アラインメントの天体が画面中央に入るのを確認する。
  4. (この時点で落ちることは多分まだないので)SynScan Proで、撮影対象天体を導入する。
  5. SharpCapからプレートソルブを実行して、撮影対象天体が画面中央に入るのを確認する。
  6. 必要なら、SynScan Proの矢印ボタン、もしくはSharpCapの矢印ボタンで画角を調整する。
  7. (プレートソルブを何度かしたり、しばらく時間が経ったりして)接続が切れたり、接続エラーが出たら、一旦SynScan Proを落とし、SynScan Proを再起動して、アラインメントの「リセット」を押す。
  8. すでに対象天体はプレートソルブされていい位置にいるはずなので、自動追尾をSWATに切り替える。
  9. ライブスタックを始める。同時にAZ-GTiの自動追尾が強制的にオンになるので、すかさずAZ-GTiの方の自動追尾をオフにする。
  10. ライブスタックの撮影時間を希望の長時間に設定する。
  11. ライブスタックのクリアを押して、長時間露光を開始する。
くらいでしょうか。とにかくポイントは、SharpCapとAZ-GTiの接続が切れたら、一旦SynScan Proを再起動、アラインメントの「リセット」を押すことです。

あ、前回までSharpCapがそこそこ古いバージョンだったのですが、今回最新にしても基本的に接続の安定度が大きく変わることはありませんでした。プレートソルブはやはり何か問題を引き起こすようです。ただ、最近AZ-GTiの方が大幅アップデートされて、AZ-GTi単独でプレートソルブ機能が実現されたようです。これがうまく動くなら、今の不安定な原因のSharpCapからのプレートソルブをしなくていいかもしれないので、期待できそうです。


撮影開始

と、こんなテストを色々していたら、いつのまにか天文薄明終了時間になったので、撮影を開始しました。上の通り、最低限のプレートソルブは使えた(一旦SynScan Proでのアラインメントからのリセットは必要でしたが)ので、かなり楽でした。その後は、SWAgTiならではの、ガイド無し、SWATの精度の良さに頼った、AZ-GTiを利用しての簡単ディザー撮影でした。

実用上は前回からかなり進歩していて、前回は一旦AZ-GTiをホームポジションまで戻して、ワンスターアラインメントもさらには目標天体の自動導入も、プレートソルブ無しで頑張って導入していました。


非冷却ではやはり...

さて、冷却忘れの結果ですが、なかなか悲惨なことになりました。処理は前回と同じ、ダーク補正も、フラット補正も、バイアス補正も、何も無しのライトフレーム単体でのスタックです。下の画像が、スタック直後の画像をオートストレッチしたものです。
masterLight_BIN-1_3856x2180_EXPOSURE-180.00s_FILTER-NoFilter_RGB

拡大するとわかりやすいでしょうか。
180.00s_FILTER-NoFilter_RGB_cut

ディザーは効いているので、縞ノイズのようにはなっていませんが、ホットピクセルが出まくりです。今回はこれでもSharpCapで簡易ホット/クールピクセル除去をオンにしています。でも全くダメだったので、WBPP時にCosmeticCorrectionでホットピクセルをソフト的に緩和しようとしましたが、焼け石に水でした。上の画像はそのCosmeticCorrectionも効かせた状態です。

この状態から、なんとか頑張って画像処理を進めましたが、やっぱりどうやってもダメでした。ホットピクセル起因のノイズが多すぎて、M20本体を炙り出すこともままならないです。


仕方ないのでダーク補正

仕方ないので、ダークファイルを別途撮影しました。一手間増えますが、これで非冷却のホットピクセルが補正できるなら、かなりマシです。
masterLight_BIN-1_3856x2180_EXPOSURE-180.00s_FILTER-NoFilter_RGB

180.00s_FILTER-NoFilter_RGB_cut


やっと画像処理

このまま画像処理を進めても、十分耐えるようです。低空で少し下にカブリがあるみたいなので、ABEの4次だけかけて、SPCC、BXT、iHDR、GHSと進めて、最後StarNetで星と背景を分離してPhotoshopに渡します。まあ、通常やっている処理をもう少し簡単にした程度でしょうか。結果はというと、かなりマシになりました。
180_00s_ABE4_SPCC_BXT_iHDR_GHS2

M20のあたりだけ切り出してみます。

180_00s_ABE4_SPCC_BXT_iHDR_GHS2_cut

トータル露光時間が48分と、1時間にも満たないので青いところはまだ全然不十分です。今回DBPを使っていますが、比較的青がでにくい強いフィルターにしては、かろうじて青い所も出たのかと思います。


SWAgTiの利点

今回は焦点距離250mmの3分露光ですが、BXT前でも流れるようなことは全くなく、曇る前の画像は、何かで揺れてしまった1枚を除いたので、採用率94.4%でした。この追尾の安定度はSWATならではで、AZ-GTiが途中にあっても撮影中にモーターに信号さえ行かなければ全然揺れないことがわかります。

今回は、予期せず非冷却になってしまい、SWAgTiでどこまで手を抜けるか試したことになるのですが、結論としては夏場は少なくとも冷却するか、ダークファイルを別途撮影してダーク補正すれば、ホットピクセルに関しては許容範囲になるということでしょうか。

冬場ならなんとかなるか... ?


画像からのノイズ解析の一環でいろいろ考えているのですが、ビニングについて考えていたら1回分くらいの記事の分量になってしまいました。番外編として独立記事とします。

一般的にCMOSカメラでの撮影でbin1以外を選択すると、通常はソフトウェアビニングとなり、本来のハードウェアビニングに比べて不利であると言われています。でもこのことについて真面目に議論している記述をあまりみたことがないので、少し考えてみます。

ちなみに、ハードウェアビニングは以前主流だったCCDカメラには搭載されていた機能ですが、最近主流のCMOSカメラではハードウェアビニング は原理的に搭載するのが難しく、ソフトウェアビニングとなります。それでも例えばASI294MM Proなどは、4つのピクセルを合わせて1ピクセルとしたものが標準で、オプションで1ピクセルごとの画素のデータも読み取ることができ、実施的にハードウェアビニングと同じような機能を搭載しているものもあります。




ビニングでのS/N向上

そもそも、ビニングとはどんなものなのでしょうか?撮影ソフトの機能だけでみたら、bin2は縦横2つで計4つのピクセルを1つのピクセルとして扱い、4倍の明るさを得る手法です。明るさが4倍なのでショットノイズは√4=2倍になり、そのため、ショットノイズに対してのS/Nは4/2=2倍よくなります。

これだけのS/N増加をbin1で得ようとしたら4倍の時間をかける必要があります。例えば、bin2で1時間撮影することとbin1で4時間撮影することが同じ、bin2で4時間撮影することとbin1で16時間撮影することが同じ、bin2で10時間撮影することとbin1で40時間撮影することが同じです。10時間撮影は頑張れば可能ですが、40時間撮影はそれこそ長期にわたって安定した天気と、相当な根気が必要になってきます。撮影日数は1週間オーダーになるでしょう。私が住んでいる富山ではこんなに連続で晴れることはほぼあり得ないので、今の私の環境ではトータルで10時間くらいが限界です。例え10時間でも、実際には設置やトラブル回避などにも時間をとられるので、数日にわたります。

bin3なら3x3=9個のピクセルを一つとして扱うので、9倍の明るさ、√9=3倍のショットノイズで、S/Nの向上は9/3=3倍となり、同じS/Nをbin1で得ようとしたら、9倍の時間をかける必要があります。

このように、S/Nの向上という観点からはビニングは効果があることはあきらかです。その代わりに空間分解能(解像度)を犠牲にしています。


ハードウェアビニング

ハードウェアビニングの特徴は、カメラのセンサー部の段階でピクセルを足し合わせてから、情報として読み出すことです。例えばbin2の場合、輝度は4倍になり、読み出しノイズは1倍のままなので、読み出しノイズに関してはS/Nで4倍も得することになります。その代わりに、分解能が一辺あたり半分、面積では4分の1になります。

また、ハードウェアビニングではダイナミックレンジが、例えばbin2では2ビット分減る可能性があぷらなーとさんによって指摘されています。というか、ASI1600ってCMOSカメラなのにハードウェアビニングできるんですね。本家ZWOのページを見ると、確かにできると書いてます。

 

このように、ハードウェアビニングも少なからず不利な点があることに注意する必要があります。

まとめると、ハードウェアビニングでは、例えばbin2はbin1に比べて
  1. 空間分解能が一辺半分になって(不利)
  2. 4倍明るくなり(有利)
  3. ショットノイズに対してS/Nが2倍良くなり(有利)
  4. 読み出しノイズに対してS/Nが4倍良くなり(有利)
  5. ダイナミックレンジが2ビット減る(不利)
ということになります。


ソフトウェアビニング

次に、ソフトウェアビニングについて考えてみます。一般に、ソフトウェアビニングはハードウェアビニングより不利と言われていますが、どうなのでしょうか?

まず、ビニングで輝度が上がることによるショットノイズについてはハードウェアビニングもソフトウェアビニングも効果に違いはありません。

ではソフトウェアビニングの何が不利なのかというと、読み出しノイズの部分です。ハードウェアビニングではセンサー部でピクセルを足し合わせているので、足し合わせた輝度について1回読み出すだけでいいのですが、ソフトウェアビニングでは輝度の値を読み出した後に「ソフト的に」輝度を足し合わせるので、読み出し回数は足し合わせるピクセルの数の分だけ必要となります。読み出しノイズはその回数分増えるので、bin1に比べて不利になります。

ソフトウェビニングをすることで、ハードウェアビニングに対してどれくらい読み出しノイズが増えるか、計算してみましょう。例えばbin2の場合、bin1の一つのピクセルの読み出しノイズをN_rとすると、ノイズは2乗和のルートで効いてくるので、4ピクセル分で4回読み出すとすると

sqrt(N_r^2+N_r^2+N_r^2+N_r^2) = sqrt(4xN_r^2) = 2N_r

となり、2倍の読み出しノイズとなります。このことがハードウェアビニングに対して、ソフトウェアビニングは不利になるという根拠になります。でもこれはあくまでハードウェアビニングに対して2倍不利になるというだけで、bin2のソフトウェアビニングでも輝度は4倍となるので、S/Nをとると4/2 = 2倍有利になるので、読み出しノイズに関して得します。ハードウェアビニングに対して得する度合いが小さいというだけです。

まとめると、ソフトウェアビニングでは、例えばbin2はbin1に比べて
  1. 空間分解能が一辺半分になっていて(不利)
  2. 4倍明るくなり(有利)
  3. ショットノイズに対してS/Nが2倍良くなり(有利)
  4. 読み出しノイズに対してS/Nが2倍良くなり(有利)
  5. ダイナミックレンジも変化無し(同じ)
ということになります。

あ、ダイナミクレンジに関しては、16ビットセンサーだと勿体無いかもしれません。元々16ビットの情報を持っているとすると、ソフトウェアビニングで計算機内部では18ビット相当まで行きますが、ファイルフォーマットが16ビットだとすると、ファイルに保存するときに2ビット分はいずれ捨てられることになります。あくまで勿体無いというだけで、少なくとも16ビットのままで悪くはならないのですが、ファイルフォーマットのダイナミックレンジを撮影ソフトから書き出す時に大きくできれば、さらに2ビット稼げる可能性があります。

ダイナミックレンジに関しては、私自身はきちんと検証しているわけではないので、あくまで理論的な話です。例えば14ビットセンサーのbin2のソフトウェアビニングが、14ビットで保存されるのか、(ファイルのフォーマット的には余裕があるので)16ビットで保存されるのかちょっと興味があります。


本当にソフトウェアビニングは不利なの?

ここまでの記事なら、よくあるハードウェアビニングとソフトウェアビニングの説明になります。よくある記事と言っても、実際には定性的に説明してあるページがほとんどで、実際に数値できちんと書いてあるところは探すのが大変なくらい少ないです。

で、ここからが「ほしぞloveログ」ならではの本番の記事となります。多分どこも議論しているところはないと思います。それは、ソフトウェアビニングはハードウェアビニングに比べて本当に不利かという疑問です。

ここまでの上記の検証で、ソフトウェアビニングがハードウェアビニングに比べて不利な点は、読み出しノイズについてのみです。しかもダイナミックレンジに関しては、むしろソフトウェアビニングの方が有利な可能性が高いです。

読み出しノイズについてもう少し考えてみます。これまでの実画像からのノイズの検証で、撮影画像のノイズ成分についてずっと議論してきました。その結果、開田高原や海外チリなどのかなり暗い環境においてさえも、実際のトータルのノイズはスカイノイズに制限されていることが多く、読み出しノイズがほとんど効いていないことがわかります。特に自宅のような光害地ではその傾向が顕著で、圧倒的にスカイノイズが支配的で、読み出しノイズやダークノイズはほぼ完全に無視できることがわかります。

このように、本格天体撮影のほとんどの場合において、読み出しノイズが支配的な状況になるとはあまり考えられず、その場合は唯一の違いであるハードウェアビニングとソフトウェアビニングでの読み出しノイズでの有利不利はなくなると考えられます。ダイナミックレンジの観点からは、むしろソフトウェアビニングの方が有利になる可能性さえあります。

ただし、
  • 環境のいい暗い空において
  • 暗い鏡筒使っている
  • 一枚あたりの露光時間が短い
  • ナローバンド撮影で明るさを制限して撮影している
などの場合には、読み出しノイズが支配的な状況になることもあるはずです。その場合、ハードウェアビニングのほうがソフトウェアビニングに対して有利になることは当然あり得ますが、これまでの検討からかなり稀な状況であると思われます。

そもそもハードウェアビニングとソフトウェアビニングの違いを気にするような方は、かなり撮影にも凝った方なのかと思います。明るいF値の鏡筒を使うことも多く、長時間露光で、読み出しノイズよりもダークノイズやスカイノイズに支配的な状況になりがちかと思います。もし今回の私の検討が正しいとするならば、ハードウェアビニングとソフトウェアビニングの違いについては気にする必要はなく、(分解能を気にする状況でなければですが)遠慮なく現在のCMOSカメラのソフトウェアビニング使っていいのかと思います。

どうしても心配な方は、自分で撮影した画像で一度ノイズを実測してみるといいかと思います。最近のこのブログの記事を見返すと、ノイズの原理と測定方法など書いておいてあるので、どなたも簡単に測定と評価までできるのかと思います。




特に淡いSh4-240のOIII成分

というわけで、つい最近淡いSh2-240を、上記のような考えの元でソフトウェアビニングのbin2で、明るい自宅の庭で撮影してみました。

光害地であるため、ナローバンド撮影といえどもスカイノイズが完全に支配的です。これまでの議論から、このような状況での撮影ではハードウェアビニングとソフトウェアビニングの読み出しノイズの差なんて完全に無視できます。それよりも淡い天体に対して輝度を高くでき、S/Nを稼ぐことができるほうがはるかに有利になります。例えば、ショットノイズ(=スカイノイズ)に関しては露光時間4倍で撮影することと同等なので圧倒的に有利で、現実的な撮影時間で淡い部分を出すことにかなり貢献してくれます。

masterLight_BIN_2_300_00s_FILTER_O_integration_ABE

結果を見る限り、光害地からの撮影でも、特に淡いOIII成分も情報と十分に残っていることがわかります。今回は6時間半の撮影ですが、これをもしbin1で撮影していたら、(空間分解能は無視するとして)同等のS/Nを得るためには28時間の撮影時間となっていたはずです。


まとめ

今回の記事ではビニングについてまとめてみました。特にハードウェアビニングとソフトウェアビニングの違いついて、少し定量的に議論してみました。ちょうどこの満月期で、しかも天気も悪いので昼間に太陽を見ることもなく、時間をかけてじっくり考えることができました。

読み出しノイズに支配されないような状況下では、ハードウェアビニングとソフトウェアビニングについて大きな差はないので、必要ならば分解能を犠牲にして輝度を上げS/Nを上げることができる、現在のCMOSカメラで使えるソフトウェアビニングを遠慮なく使っていいという結論になります。ただし、自分で考えたことなので大きく勘違いして間違っている可能性もあります。何か気づいた際にはコメントでも残していただけるとありがたいです。


参考記事

この記事をほぼ書き終えて、改めて検証のために、ある程度の理屈と感度向上を数値まで含めてで日本語で記述しているあるページを探してみましたが、ほとんど見つけることができませんでした。これまでビニングに関しては神話的に色々囁かれていたような状況だったことが想像できます。
  • 画像のビニングについて、定性的な説明だけをしているページはたくさんあります。感度が4倍になるとだけ書いているページもある程度見つかります。でもきちんと理由とともに説明していあるページは、調べた限りWikipediaだけでした。

 

  • 実画像で検証してあるページがありました。ひろしさんという方が書いている「ヒロシの天体観測」というブログの中に書いてあり、2011年とかなり古い、CCD時代の記事です。いろんなケースを比較していて、とても好感が持てます。ハードウェアビニングとソフトウェアビニングで結果があまり変わらないとか、レンジもハードビニングのほうが狭いなど、理由がはっきりとせずかなり疑問もあったようです。画像の比較結果は、今回の私の記事での説明と矛盾するようなことはないように思いますし、疑問に対しても今回の記事の内容でかなり程度説明できるように思えます。コメント欄を見ても、当時活発に議論していることがわかります。


  • シベットさんのブログ「浮気なぼくら」でも検証記事があります。bin1からbin4まで4つ比較していて、それぞれで違いはないと結論づけられていますが、ヒストグラムを見てもbinの数が増えるごとに明らかに山の幅が短くなっていること(=ノイズが小さくなっているということ)、画像を見ても背景のノイズが明らかに減っているので、S/Nという観点からは十分な効果が出ていると思われます。



きまぐれ日記

これまで書いてきたノイズ検証の関連で、だいこもんさんとNiwaさんから画像を提供して比較検討してきました。その過程でお二方からDMで質問や議論があり、直接話しますかということになりました。

ちょうど昨晩、星沼会の定例のミーティングといういうことで、そこで話せばいいのではと、私もゲスト参加させていただきました。メンバーはだいこもんさん、Niwaさん、hinokirさん、ぐらすのすちさんでした。

ミーティング自体は21時から始まっていたのですが、私は途中21時から参加して、結局0時近くまで話し込んでいました。ノイズの話で盛り上がること自体がそもそも濃いのですが、さすが星沼会、他に話している内容もとても濃かったです。私自身もかなり楽しい時間を過ごすことができました。ゲスト参加を認めていただき、どうもありがとうございました。

ブログ記事と関係ないのですが、天文関連でちょっとしたことがあったら、こんなふうに記事にに混ぜて日記がてら書いて行けたらと思っています。

本記事は、一連のSWAT+AZ-GTi=SWAgTi (「スワッティ」gは発音せず) の関連記事になります。




目的

今回は、
  1. SharpCapの極軸調整を一眼レフカメラでやれるかどうか?
  2. プレートソルブを一眼レフカメラでできるかどうか?
という2つのことに挑戦したいと思います。

元々の動機は「SWATユーザーには一眼レフカメラを使って撮影している人が多い」という、開発元のユニテックさんからの情報です。せっかくAZ-GTiで自動導入ができるので、一眼レフカメラでもプレートソルブができないかと考えたことが始まりです。ついでにプレートソルブができるなら極軸合わせもできるのではないかと考えました。

本当は、胎内星まつりのSWAgTiの実演でEOS 6Dで試すところを披露したかったのですが、そこまで全く辿り着かず、いつもやっているCMOSカメラでさえ極軸調整がうまくいかなかったので、その後自宅に帰ってからやっと試すことができたというわけです。胎内で期待されていた方がいましたら、申し訳ありませんでした。この記事で代替とさせてください。


セットアップ

実際のセットアップです。鏡筒はFS-60CBにマルチフラットナーで、鏡筒とフラットナーの間にサイトロンのDBP(Dual Band Pass)フィルターを入れています。そのため恒星が多少暗くなり、極軸調整でもプレートソルブでも影響があるかもしれません。それでも簡単のために撮影時の設定を崩したくないので、今回はフィルターを外したりせずにそのまま試すことにしました。一眼レフカメラとしては天体改造済みのEOS 6Dです。これらをSWAT+AZ-GTiのSWAgTiに載せます。SWAgTiはいつものようにGitzo製のバサルトのミニ三脚に載せます。

鏡筒とカメラである程度重くなっているので、ホームセンターで買った12mmのネジが切ってある金属棒をAZ-GTiにつけ、そこにウェイトをつけています。胎内でユニテックさんにデモを見せてもらったように、SWATの回転方向のバランスをきちんと取らないとSWATのギヤに大きな負担がかかることを学んだので、今後はウェイトを使って赤経方向のバランスを取ることを心がけるようになりました。CMOSカメラの時はウェイト側が重過ぎてバランスが取りきれていなかったのですが、一眼レフカメラになってちょどバランスが取れる範囲になりました。

IMG_8504


極軸合わせ

まずはSharpCapで6Dを認識させることからです。今のSharpCapはASCOM経由で一眼レフカメラのかなりの機種を接続することができます。



ポイントは、SharpCapで一眼レフ用のASCOMドライバーを立ち上げる際には、カメラをケーブルで接続をしない状態で行うか、ケーブルで接続をしてもカメラの電源を入れないことです。こうすることで、エラーなど出ずに下の画面のように設定画面でカメラの設定をすることができます。

11_canon

ISOですが、設定画面で設定しものが反映されないことがあるようなので、その場合は一度接続ケーブルを外し、カメラ本体側で操作できるようにしてから設定します。

設定が完了したらカメラを接続して、さらにカメラの電源を入れて、上記設定画面の「OK」ボタンを押します。「カシャーン」とシャッターが上がる音がして動作開始です。おそらく初めて繋ぐときはライブビューモードになっているので、自動的にSharpCapでカメラからの撮影画面が出ますが、これだとシャッターを切り続けてしまい落ち着かないので、すかさず画面右上の「ライブビュー」ボタンを押して以下の画面のようなスティルモードにしてシャッターを切り続けるのを止めます。

10_still

露光時間を設定しますが、今回は16秒で試してみました。シャッター回数が増え過ぎず、一つの動作をあまり待たないくらいの時間という意味です。

ここからはSharpCap上で普通に極軸調整をします。どうやら極軸調整を選ぶと自動的にライブビューモードに切り替わるようです。なので、少なくともここに来るまでに適した露光時間にしておいてください。

12_polar
極軸合わせでは自動的にライブビューモードになるようです。

ここからは単に、一コマ一コマに16秒かかる極軸調整になるだけです。星の認識も問題なくできます。
01_polar

通常通りNextを押して途中SWAT側で赤経つまみを緩めて90度回転し、どれだけずれているか計算してもらいます。下の画面は2度くらいずれてますね。
03_polar

あとは三脚の足の伸び縮みと、三脚をずらしての水平方向の回転で調整します。今回は下のように、30秒角程度まで合わせこむことができました。ここまで合わせると、ずれは4分間かかっても0.3秒程度になるので、今回ターゲットとしている3分間程度の露光では極軸のずれによる星像の流れは完全に無視できるレベルです。おそらく機材のたわみによるズレの方が支配的になってくると思われます。

07_polar

でも露光時間が長いので合わせこむ回数にどうしても制限ができてしまいます。あまり突き詰めなくても、3分角程度まで合わすことができれば十分でしょう。これでも最大で4分間で3秒角程度ずれていく程度なので、SWATの精度と同等くらいになります。


極軸合わせのまとめですが、試してみた結果、露光時間が長いので少し時間はかかりますが、それ以外はCMOSカメラでの極軸合わせと何ら変わりはなく、一眼レフカメラでも十分に極軸を合わせられることがわかりました。

ちなみに、最初はASCOMドライバーでライブビューモードを選び、動画モードで極軸合わせができればと考えていたのですが、感度が全く足りませんでした。そもそも動画レベルなので露光時間が1秒より遥かに短くしか撮れていないことが原因です。1等星クラスの明るい星なら見えるかもしれませんが、ほとんどの星はSharpCapの画面上で見ることができません。

bad
ライブビューモードは使い物になりませんでした。 


プレートソル

極軸合わせでうまくいったので、気を良くして次はAZ-GTiでの初期アラインメントです。ここではちょっと冒険をしてAZ-GTiを使ったプレートソルブを試してみます。

SharpCapからAZ-GTiまでの接続ですが、まずAZ-GTiはSWATの上に乗っかっていて、PC上で立ち上げたSynScan Proから WiFiで接続されています。接続時には赤道儀モードを選んでいます。SharpCapからはASCOMドライバーを介してSynScan Proに繋げます。

この際気を付けることは、SharpCapとSynScan Proがきちんと接続されているか確認することです。きちんと接続されると、SharpCapのコントローラ部に今どちらの方向を向いているかの数字が表示され、その数字が時間とともに動いている様子が見えます。数字が動いていなかったり、0付近になっているとか実際に向いている方向と明らかに違う数字が出ている場合はうまく接続されていません。この場合は、PC上のSynScan Proを一旦閉じて、再度立ち上げてから繋ぐとうまく接続できるかと思います。うまくいかない場合は、PC上のSynScan Proの緯度経度情報を確かめてみてください。スマホやタブレットで繋いだときはGPSがあるので自動的に緯度経度情報は取得できますが、PCは通常GPSがないので緯度経度情報がうまく設定されていないかもしれません。

プレートソルブの設定はSharpCapの設定画面のプレートソルブタブから行います。

14_ps_gauss

私はASTAPとAll Sky Plate Solver(ASPS)を併用していますが、普段はほとんどASTAPです。まれにASTAPでうまく解決できなくてASPSだとうまくいくことがありますが、ASPSのほうが少し余分に時間がかかります。あと注意は、焦点距離をきちんと入れておくことでしょうか。自分の機材にあった焦点距離を大体でいいので入力しておきます。ここが大きくずれているとどうやってもプレートソルブはうまくいかないです。

設定画面には、ズレを計算した後にどうやってAZ-GTiに返すかですが、4つのオプションがあります。以前は2つ目のオプションのきちんと同期するところまでやっていたのですが、最後のAZ-GTiに返すところでうまく動いてくれないことも多くて、最近は4つ目のオプションの「マウント位置をオフセットして、天体を中央に配置する」を選ぶことが多くなりました。

とりあえず実際にプレートソルブをやってみましょう。まずはPC上のSynScan Proから初期アラインメントをします。赤道儀の極軸がかなり合っているので、ワンスターアラインメントで十分でしょう。適当に星を選びます。今回はアルタイルで試しました。一番最初に初期アラインメントで自動導入した後、下のように「マニュアルで中心に」と出ますので、この時にマニュアルで合わせる代わりに上で書いた「4つ目のオプションをえらんで」プレートソルブを使います。

22_PS_ok

うまくいくと、赤道儀が見ていると思っている方向と、実際に今見ている画面から計算した方向のずれが角どで上の緑のバーのところに表示されます。
20_PS_ok

その後、自動的にターゲットの星が真ん中に来ます。
21_PS_ok

このようにターゲット星が真ん中に来て、赤道儀が見ていると思っている方向と、実際に今見ている方向が一致している状態で、SynScan Proの初期アラインメントを完了してください。これで同期が完了し、これ以降は、(SWATの水平出しに依りますが)自動導入でターゲット天体がほぼ正しい位置に来るはずです。


うまくいかない時:
実は今回、初期アラインメントのテストにあたり、一番最初アルタイルでなくベガを選びました。実際初期導入すると、すでにベガが画面の端の方に入ってきました。ところが真ん中に持っていこうとプレートソルブをかけますが、なぜか全然位置を解決できません。ASTAPもASPSも両方ともダメです。一眼レフカメラなので何か弊害があるかと思い、露光時間、ISO、その他各種設定を色々いじっても全くダメです。もしかしたら本当にダメなのか...と、諦めかけていたのですが、ターゲットをベガからアルタイルに変えたら、一発で解決しました。しかも露光時間など多少設定を変えても全部きちんと解決してくれます。もしプレートソルブがうまくいかない場合は、早々に諦めてべつのターゲットにしてみるというのも手なのかと思います。


まとめ

この日は月も明るく、平日だったので、プレートソルブのテストまでで、撮影は敢行しませんでした。極軸調整もプレートソルブも、SharpCapを一眼レフカメラで使う時特有の、ライブビューモードとスティルモードをきちんと意識して使い分けることで、CMOSカメラと比べてもほとんど遜色なく使うことができるとわかりました。この際、露光時間を16秒としたのですが、やはりこのくらいが適当かと思います。短かすぎると操作性はよくなりますが、シャッターを切りまくるのでメカニカルシャッターの寿命が気になりますし、長すぎると操作性が悪くなるかと思います。

次は実際の撮影をどうするかですが、月のない天気の良い日を待ちたいと思います。SharpCapで撮影すべきか、これまで通りBackYardEOSを使うべきか、それともソフトなど使わずにシャッターを切るだけにするか。まだちょっと迷っています。


久しぶりの太陽撮影です。

去年の秋ごろ、太陽の粒状班を出したくてちょくちょく撮影していたのですがなかなかうまくいかず、しかも冬に入ると大気の揺れが激しくて全然だめだったので、太陽撮影からしばらく離れていました。春になって再開しようと思っていたのですが、休日と晴れがなかなか合わず、連休に入ってやっと少し時間をとることができました。

今日は復帰程度なので、簡単に何ショットか撮っただけです。撮影時間は5月3日の昼の12時くらいです。まずはC8+PSTでHα撮影です。最近は太陽活動がかなり活発なようで、今日も特大サイズとかは出てませんでたが、中位の黒点が多数見えました。その中の最も密な所です。

13_15_56_lapl4_ap551_IP

Hαが見えている部分がやはり少ない気がします。もっと縞々な範囲が増えてもいいのかと思うのですが、PSTのエタロンの限界でしょうか。

他にプロミネンスが2枚です。
13_12_14_lapl4_ap530_IP

13_13_08_lapl4_ap530_IP

擬似カラー化したのですが、ちょっと色が濃すぎかもしれません。イマイチ画像処理の勘が取り戻せてない気がします。

次はBaaderのND5フィルターに、Player OneのPhotosphereフィルターを付けたものです。鏡筒はC8、カメラは借り物のPlayer OneのApollo M-MINIを使っています。

13_34_19_lapl4_ap584_IP

粒状斑らしきものがそこそこ出ています。Photosphereフィルターとグローバルシャッターのおかげでしょうか。春なのでシンチレーションがいいことも大きいかと思います。

気を良くしてTeleVueの2倍のPower MATEを入れてみました。位置は上の画像のすぐ下くらいになります。
13_36_09_lapl4_ap737_IP

それでもイマイチ解像度が上がりません。

その後試しに、このセットアップで遠くの家の屋根とかを見てみました。初めは光軸があってないのかなと思って調整してたのですが、そこまで悪くはないようです。調整をしているときに瓦屋根の一部が太陽の光を点状に反射して、星のようになっているところがあったので、その内外像を見てみました。まるで温度順応がされていない時のようにひどく瞬いています。黒い鏡筒なので太陽に当たるとかなり熱くなります。これは流石にダメな気がしてきました。次は鏡筒にアルミ箔を巻いて試してみることにします。


CP+では一昨年昨年、サイトロンさんの枠でトークをさせて頂きました。それでもコロナ禍でのイベントのためオンライン形式になってしまうのは仕方なく、逆に夜の時間に当ててもらうことで2020年はリアルタイムで電視観望の実演ができ「カメラバカにつける薬」で取り上げていただくなど大好評。2021年は収録でしたが同時に一視聴者として参加することによりリアルタイムで質問に答えることができ、こちらも良い試みでした。


きっかけ

2023年のCP+の出だしは、11月の小海の星フェスの時くらい(もしかしたら志賀高原のイベントの時だったかもしれません)に遡ります。現地でサイトロンのスタッフの方からまた今年もCP+に登壇してもらえないかというオファーを頂きました。日程的には平日は仕事で厳しいですが、休日ならOKそうだったので、移動のことも考えて土曜の午後か日曜ということで話が進みました。でも今年のCP+、コロナの判断のせいでしょうか動き出しがずいぶん遅かったようで、具体的なお話がきたのが1月半ば過ぎくらいでした。もちろんお約束通りOKの返事をしたのですが、問題はテーマです。どうやらこの時点でリアル開催は確定のようなので、多くのカメラファンの方が集まるはずです。そこで、2年くらい前から試していた一眼レフカメラを使った電視観望でカメラファンの方に天文に興味を持ってもらえないかというコンセプトで話をしようと、この時に決めてサイトロン側にタイトルと概要を連絡しました。


トークの準備、でも晴れない

この時点でCP+本番までほぼ1ヶ月くらいです。一番の問題は、全然晴れなかったことです。徐々に日にちが近づくにつれて、もう新しい撮影は諦めて過去にブログにアップした画像で誤魔化すしかないかと思い始めました。そんな日を過ごしながらもとうとう待ちに待った快晴の日が!でもなぜかそんな日に限って満月です...。でも貴重な晴れなのでしかたありません。実際の講演の中で話したようにEOS 6Dと古いNIKKORの50mmの明るいレンズ、普通の三脚と自由雲台という、ごく普通のカメラユーザーが持っているくらいの機材で電視観望を試してみますが、さすがにこれだけ月明かりだと本当に淡くしか出てきません。それでも最低限何か見えているのでよしとしました。CBPも使ってみたのですが、撮影していたオリオン座に月がかなり近くにあり、その迷光がすごいゴーストを作り、使うことが不可能でした。

14_DBP

満月で光害カットフィルターなしで撮影したのが、予告時に出した画像だったというわけです。
11_6D_50mm_nofilter_Oprion - コピー
流石に満月はちょと辛いのでどうしようかと悩んでいました。

その後、満月から何日かして2時間ほどだけは月がない日がありましたが、透明度が悪く途中雲が出てしまし、あまり成果が得らません。ちなみに下の画像はその時観た火星とスバルとカリフォルニア星雲ですが、雲が出てきた時のもので「薄雲でも見えますよ」と言いたくて用意していたのですが、結局トークの中では使いませんでした。

08_gulf_6D_50mm_CBP_F2.8

その後、一日だけ新月に近い日に晴れて、そこでやっと今回のトークで使えるくらいの画像を撮ることができました。その後はもうCP+当日までほとんど晴れることがありませんでした。なんとかなりましたが、かなりギリギリな状況でした。そのため満月の映像を先に見せて、そこから改善していくというストーリーにしました。


CP+へ向けて出発!

2月25日の土曜の当日、CP+としては3日目になりますが、自宅から朝イチのバスに乗り富山駅に向かいます。富山からは新幹線に乗り、東京に向かいます。今回CP+に行く前にスターベースに寄るかどうか迷いました。スタベの開店時間が11時なので、朝イチで出ると少し早く着きすぎます。スタベはまた行けますがCP+はもう今日明日だけなので、今回はスターベースを諦めてCP+に直接向かうことにしました。

6341AF5C-4D0A-414A-9DA5-71160138E6EE

新幹線の中で朝ごはんです。新幹線ではほぼ毎回この「ますとぶり」です。富山のますのすしは有名かと思いますが、大抵は桶に入った円形タイプで2−3人前です。これは一人前でちょうどいい量で、しかもブリのすしと半々になっています。ブリのほうは、かぶらとにんじんで押し寿司になっていてい、鱒の寿司よりもむしろさっぱりしています。
F7CF3476-A23E-4800-A74C-F3781DFFEB38

ご飯を食べてから、少しトークの準備をしていたらもう間も無く東京です。富山と東京は2時間ちょいで着いてしまいます。北陸新幹線が通る前は飛行機を使っていましたが、新幹線が来てからは随分と楽になりました。

東京について、そのまま東海道線に乗り換え横浜まで移動します。こちらもわずか25分。東京-横浜間は近いので、この日の宿は東京駅近くに取りました。横浜周りはかなり高い部屋しか残ってなかったのです。
80DA37AB-28C3-4355-85E0-2EC5024545C1

E71EA89C-C4FF-44A1-9CDC-394E5E9DA1EA

横浜からはみらい線に乗り換え、みなとみらい駅まで向かいます。
3E6AF1C9-1E98-4C52-8E03-DDC43A3C7D44

みなとみらい駅についてビックリ!サイトロンで溢れています。例えば階段や柱、
FDB2CA0C-D055-4381-8D64-184CC002F9F9

94F4ED15-CFF2-4EFF-92E4-416BA0CB6D7C

会場のパシフィコ横浜方向はサイトロンの広告が導いてくれます。カメラの祭典のはずなのに、天文ショップのこの存在感!
8857F159-2315-4ECF-8CAD-D615FE5A2C71

みなとみらい駅は地下3階にあり、ここから地上2階まで長いエスカレーターを上ります。
70D50D13-52DF-47FB-A83C-FC6391307CEA
黒い壁に書いてある、これは詩でしょうか、結構インパクトがあります。今調べたら、シラーの詩だそうです。エスカレーターに乗りながらこの詩を読むと(といってもちょっと難解で、私は乗っている間には理解しきれませんでした)CP+に行く前に色々考えさせられました。

その後は建物の中をずっと歩いていき、建物から出るともうCP+会場手前です。
7C2EB9A0-E370-449B-9A50-232C84EE4307

ホールとアウトレットコーナーは会場の手前で分かれ道があります。
59F15E8F-C86A-42A2-86FB-069009303D33


会場の様子

ホール内に入り、早速サイトロンブースに挨拶に行きます。サイトロンブースは入り口すぐの所にあるのですぐにわかります。
4D566273-66DE-4825-958F-71B8417029C0

会場には朝10時半頃に着いたのですが、スタッフの方と次の日のトークのことを少しだけお話しして、すぐに会場内を回ります。多分トークがあるとその日は落ち着いてみて回れないので、この日が勝負です。

よく考えたらCP+会場に来るのは2017年以来です。もう6年も前のことなので忘れていましたが、今回も同じ感想になってしましました。CP+の問題というよりは完全に自分のせいなのですが、結局のところ私はあくまで天文が好きなのでカメラを使っているわけであって、カメラ自身が趣味ではないということです。そもそも明るいところで一眼レフでまともに撮影した枚数はどれくらいでしょうか?多分100枚くらいだと思います。もちろんフラット撮影とかは除きますよ。暗い所では操作できるのに、明るい所だとパラメータもよくわかりませんし、そもそもBやM以外でどう撮ればいいのか?こんな自分なので、カメラメーカーのブースは遠くから眺めるだけです。
4E1FEC68-DAE3-49D8-A223-0968F7D4B72F
Nikonブースです。Nikonカメラを持っていない私は中に入っていっていいのか?
中ではサーカスっぽいことをやっているようでした。

EBD048D1-4144-4937-8BFC-2DAF849C1F08
Canonブースです。Canonのカメラは持っています。
でも天体改造とかしている私にここに入っていく資格はあるのか?
ハーフパイプの自転車を撮影するのですが、速い動きの写し方はよくわかっていません。 

加えて天文関連のブースは数が少なく、サイトロンとVixen、Kenko TokinaにBORGがあるくらいで、やはりこれは星まつりとは違い、カメラのイベントだと実感してしまいます。まあこんな私ですが、既にCP+のレポートは多くの方に書かれているとは思いますので、独断と偏見で印象に残ったものを紹介しようと思います。


島中

むしろ私には今週号の「カメラバカにつける薬」であったように島中にあるブースが面白かったです。一番インパクトがあったのが、Birodというブースの最長11.5mの一脚です。妖艶なお姉さま(?)が鳥の視点まで案内してくれます。
EF5B5069-1950-4435-A2BB-3E431315AFAA
カーボンの多段ロッドで、持ってみたのですが重さも大したことないです。流石に振り回すわけにはいきませんが、360度カメラは真下をあまり写さなくていいはずで、かなり高い視点でまるで浮かんだように見ることができるはずです。イベント会場とかでこれ持ってたら、多分注目度No.1だと思います。

次はインプレスのブースですが、「カメラバカにつける薬」が既に完売していました。
4F75AF89-E19D-4F0B-9F4E-456249718D0A
聞いたら飯田ともき先生、この日は来ていないとのこと。今週号の連載でありましたが、どうやら初日だけの来場だったようです。このマンガが大好きで、カメラファンではない私でも十分に楽しむことができます。上にも書きましたが、一昨年のCP+の電視観望講演をCanonとかNikonと並んで2コマも使って漫画の中に載せてくれたお礼をぜひ言いたかったのです。残念ながら次の日もいらしていないということで、スタッフの方にお礼だけ伝えておきました。いつか直接お会いしてお礼を伝えることができたらと思います。


Vixen

といっても島中もこれくらいで、あとは天文ブースです。まずはVixen。注目はもちろんVSDです。
1B28D56F-3212-4FAD-AD75-F9E321D2D637
でももう他の方に散々レポートされていて、私が新たに加えられるようなことはありません。それよりも話したいのは、この写真にも写っているファインダーです。

対物側は焦点距離200mm、口径50mmのレンズなのですが、接眼側がアメリカンサイズの普通のアイピースを挿せるようになっています。ということはここにCMOSカメラを取り付けることができて、なんと電視観望ができてしまうのです!しかも焦点距離と口径が、2年前に私の電視観望講演で話したEVOGUIDE50EDとかなり近く、昨年の講演で話したNEWTONYと全く同じです。EVOGUIDE50EDがなかなか在庫がないことが多いこと、NEWTONYに取り付けるカメラはCeres-Cのように中に入り込むタイプでないとピントが出ないので、もしかしたらこのファインダーがキラーアイテムになる可能性があります。今回Vixen社の社長と初めてお会いすることができ、結構長い間話をさせていただいたのですが「このファインダーは今後Vixenの全ての望遠鏡につける標準ファインダーになる予定だ」と言います。しかも、このファインダーのアイデアを出したというのが、以前福島の星まつりで話すことができた若手のI君だというのです。社長がI君と私が知り合いだということも認識されていて、そのことを教えて下さいました。I君はもちろん熱心な星マニアでもあるのですが、こういった若手の意見をきちんと取り入れて製品化するというのは素晴らしいことだと思います。なによりこのようなファインダーを標準搭載するということは、今後Vixenを購入した入門者の方に電視観望への強烈な道筋をつけてくれるということになります。国内入門機の圧倒的シェアを誇るVixenさんならではの手法で、これこそ私が長年願っていた方向性です。Vixenさんの英断、私的にはもう大絶賛です。


BORG

続いてはBORGです。ここの目玉は試作のカーボン鏡筒で、私も持たせてもらいましたが125mmでこの軽さならかなり取り回しが良いです。ついでに触らせて頂いたカーボンの円筒だけの素材も、多少押しても全く変形がわからないくらい頑丈なものでした。
B4EF51A4-A940-4737-AF69-F516294216D3

下の写真の六角形の鏡筒もおもしろいのですが、私が注目したのは口径55mmの小さな鏡筒(すみません、写真撮ったと思ったのですが漏れていました。上の写真のカーボン鏡筒の奥と、下の写真の一番下にちらっとだけ写っています。)
7999EB15-2A98-4314-82E3-DAFF67BC0B81

そこにいた女性スタッフの方と話していたら「この小さな鏡筒で電視観望もできますよ」という話が出てきました。「まだ試していないけど、自分でもやってみたい」とのことで、でも「カメラをどうするか迷っている」とのことでした。「ちょうど明日の私のトークで一眼レフカメラで電視観望する話をします!BORGに一眼レフカメラをつけることができるはずなので、すぐに試せますよ!」とお伝えしたところ、本当にトークに足を運んでくださいました。BORGでの電視観望もかなり面白いかと思います。唯一残念だったのが、中川さんにお会いできなかったことです。直前までBORGブースにいたと聞いたのですが、いまだにお会いできたことがないので、一度お話しできたら嬉しいです。あの中川少年の日記はいつも楽しみにしています。


サイトロン

さて、最後は本命サイトロンです。もう欲しいものばかりです。個人的な最注目はCMOSカメラでしょうか。
C31CEB65-26AB-4E16-B5A6-84D5DB4A943C

この中の特に冷却カメラPoseidonはPlayer One初の本格的な冷却カメラになります。冷却カメラに関してはほぼZWO一強なので、どこまで牙城を崩すことができるのか注目しています。マチナカリモート天文台のMさんがサイトロンスタッフとして既に試写画像をTwitterにアップしています。実はMさんとは2017年末の志摩の観望会や、八ヶ岳の天リフイベントでご一緒させていただいて、今回かなり久しぶりにお会いすることができ、色々マニアックな話で盛り上がりました。MさんがアップしたPoseidonの画像を見る限り、かなり期待できそうです。冷却カメラも各社で競える時代になると、お互い切磋琢磨してよりユーザーにとってもいい状況になるのではと期待しています。
DB929CEF-739A-4552-8976-9EF99501E7AA

他にも鏡筒が目白押しですが、これでもまだ展示しきれていない機種がいくつもあるとのことです。
B27CDAAE-41F2-4F94-B6FC-8B884B48A324
この中で個人的な注目は、一番手前に写っているAskarの新製品のFMA180 proでしょうか。スタッフも当日まで現物が展示されるのを知らなかったそうです。手持ちのFMA135は電視観望でフル活躍中ですが視野はAPS-Cまでです。一方FMA180はフルサイズ対応で、一度試してみたかったのですが結局試せずじまいで次バージョンになってしまいました。値段的にもそこそこ気楽に買えるものなので、短焦点撮影鏡筒という意味でも、遠くないうちに手に入れておきたいと思います。

他にも、試作のカーボン三脚が、大中小と3種類も展示されていました。
8A93E76B-B874-476C-BAEA-D78B9590303A
現在実際に販売されているのは1種類だけなのですが、今後どんな三脚が欲しいかという傾向を掴むために3種展示したとのことです。最近仲が良いRamb君がちょうどその場にいて、一緒に好き勝手にリクエストを伝えておきました。かなり無理を言っていたので、果たして実現されることやら??? Ramb君と、サイトロンのスタッフさんを交えて、3人での三脚理想論についての議論ができたのは、いつになく楽しかったです。

去年1年間使い倒してきたSCA260の新しいバージョンのものが出ていました。大きく変わった点が、副鏡のところのセンターの調節ねじがなくなってシンプルになったこと、取っ手がついたこと、フォーカサーの繰り出し長が伸びたこと、カメラ回転機構が手前になって、フォーカサーのつまみの回転位置が固定されただそうです。
AE92C487-6B70-40EF-A857-B852138DCA5E
特にフォーカサー関連は少し羨ましかったですが、光学設計は同じとのことなので、まあよしとします(ホントハチョットクヤシイデス)。

あと、私も以前試させていただいたVesperaですが間も無く販売になるということで展示されていました。アプリの方もとうとう日本語化されたそうです。さらに電視観望が簡単になるかと期待しています。
75F71A5E-75B4-498D-AF4E-0379E36F3C6F
円安と、開発元のフランスでの値上がりが痛かったとのことでした。それでも頑張ってライバルのeVscopeに負けない値段設定にしたとのことです。今後の販売に期待でしょうか。こういった一体型の電視観望機器もどんどん広まっていって欲しいです。

まだまだ書くことはたくさんありますので、今回はとりあえずここまでとします。続きは次の記事で。






今回の記事は、2022年5月28日の飛騨コスモス天文台の観望会の後に撮影したIC1396の画像処理です。




IC1396を選んだ理由

ゴールデンウィークにASI2400MC Proで青い馬星雲を撮影しましたが、5月中は借りていて良いということになり、もうワンショット何か撮影できればと思っていました。



せっかくのフルサイズのカラーカメラなので、飛騨コスモス天文台の利点を生かした北の暗い空で、フィルターなしでどこまで出るのかを、できるだけ広角で大きな天体で試してみたいというのが第一です。いろいろ考えて、IC1396:象の鼻星雲(Elephant's Trunk Nebula)をターゲットとしました。ケフェウス座にあるかなり大きな星雲で、北アメリカ星雲より大きいくらいです。

実はこの前後に、象の鼻の部分をSCA260で拡大して撮影しています。こちらはナローバンドフィルターを使って撮影しているので、比較が楽しそうという理由もあります。

機材はFS-60CBとCGEM IIで、青い馬星雲を撮った時と同じです。カメラもASI2400MC Proなので同じものですが、露光時間とゲインも同じにしました。設定も含めて全く同じにしたのはダークやフラット、フラットダークフレームを使い回しするためです。NINAだとまた撮影時にカメラを認識でトラブりそうなので、今回は最初からSharpCapを使っての撮影です。それでも認識させるまでに何度か接続し直しをしました。青い馬星雲の撮影時と同じように、ディザーをしていないので縞ノイズがでる可能性があります。青い馬ではとりあえず出ていないようだったので大丈夫かともいますが、おそらく今回の方が淡いので少し心配です。

あと、青い馬星雲を撮影した時はバックフォーカスを合わせる手段がなくて、現地でFC76用のマルチフラットナーのリングを使って適当にマルチフラットナーからセンサーまでの距離合わせましたが、今回はZWO製のフルサイズクラスのCanon EFマウント用のアダプターを使い、さらに足りないフィルターホイール分の11mmを別途M54のアダプターを使い、1mm単位でバックフォーカスを合わせることができました。比較すると、青い馬星雲のときの四隅を見ると相当ずれていたのがわかります。

masterLight_ABE_PCC_ASx4_SCNR_bg2_mosaic

今回の四隅は下のようにかなりマシになりました。でもよく見ると、左より右側が流れています。カメラのスケアリング調整が必要なのでしょうか?アダプターをいくつも使っているので、微妙にずれた可能性もあります。

masterLight_ABE_mosaic


撮影は3分露光で全部で45枚、合計2時間15分の撮影時間なので、大して長くはないです。撮影はかなり安定していて、45枚全てを画像処理に回すことができました。気になるのは人工衛星で、45枚中11枚に軌跡が入り込んでいます。ひどいのは3分で3つの線が入っています。そんなのが2枚ありました。

Capture_00033 02_36_58

撮影はもう先々週のことになるのですが、これが一番新しい素材で、他に4月から未処理の画像が大量に溜まっています。それでもカメラを返す必要があるので、こちらを先に処理することにしました。


画像処理

PixInsightが5月18日にアップデートされて1.8.9-1となりました。StarNet V2だけは相変わらず手動インストールが必要でした。

新しいこととしては、WBPPで途中経過を示すスクリーンが出るようになりました。これを見ていると、Local Normarizationに一番時間をかけていることがわかります。馬頭星雲の画像処理の時にLocal Normarizationの有り無しでかなり差が出たので、時間はかかっても今後もオンのままで行こうと思います。

IMG_5688

スタック直後の画像をオートストレッチしたものがこちら。結構淡いですが、まあなんとかなるでしょう。

masterLight_BIN-1_6072x4042_EXPOSURE-180.00s_FILTER-NoFilter_RGB

あと、フラットフレームが室内での壁撮影だったこともあり、1次の傾きがあるかもしれなないため、ABEの1次で補正しました。実際上の画像は右側が暗いです。Deconvolutionは試しましたが、ほとんど効果がなさそうで適用せず。その後ストレッチして、少し星がうるさかったのでEZ StarReductionのみかけました。後はPhotoshopに渡して仕上げです。


結果

「IC1396: ケフェウス座散光星雲」
masterLight_integration_ABE_PCC_ASx5_HT_starreduction_SCNR3a_tw
  • 撮影日: 2022年5月29日0時57分-3時13分
  • 撮影場所: 岐阜県飛騨市
  • 鏡筒: TAKAHASHI FS-60CB+マルチフラットナー(f370mm)
  • フィルター: なし
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI2400MC Pro (-10℃)
  • ガイド:  f50mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイド
  • 撮影: SharpCap、Gain 150、露光時間3分x45枚で総露光時間2時間15分
  • Dark: Gain 150、露光時間3分、64枚
  • Flat, Darkflat: Gain 150、露光時間 0.1秒、64枚
  • 画像処理: PixInsight、Photoshop CC
オレンジ色のガーネットスターが綺麗です。わずか2時間ちょっとの露光としてはかなり淡いところまで出たのかと思います。自宅富山では得られないような暗い北の空なのでそもそも有利なのですが、カメラの性能のおかげというのもかなりあるのかと思います。画像処理に関しては以前同じカメラで撮った三つ子銀河青い馬星雲と同じような感想で、とても素直で、露光時間が短いにも関わらず手間がかかりません。やっぱり素直にASI2400MC Proはかなりいいカメラだと思います。

今回、周りの淡い部分を出すために全体を明るくしているため、右側から伸びる象の鼻のところをうまく出すことができませんでした。ここは結構明るい部分なので、そこにある暗黒体は潰れてしまいがちで、もっと輝度を落とすと出てくるのですが、それだと全体が暗くなってしまいます。この部分はSCA260で撮影したナローでリベンジかと思います。

あと、どうしてもSolverがうまくいかなかったため、今回Annotationは無しです。ストレッチ前の画像ではきちんとできるので、ストレッチの過程で星がうまく検出できない何かが起きているようです。それでも最高で98%まで検出できていると出てくるので、後少し何かが違うだけだと思うのですが...。別画像でSolverをかけてその情報を他の画像に移す用法もある気がするのですが、ちょっとわかってません。


まとめ

それにしてもカラーカメラは楽でいいですね。分解能を求めるような系外銀河とかでなければ、もうカラーで十分な気がします。特に短焦点の広角はそこまで分解能必要ないですし、フルサイズの方がより大きなエリアを見ることができるので、このカメラはベストに近い選択の気がします。もう一つ上にASI6200MC Proがありますが、逆にこちらはピクセルサイズが小さくなり画像サイズが大きくなるので、感度的には2400の方がいいのと、画像サイズ的に使い勝手がいいのかもしれません。でも6200の16bitは少し気になるし、モノクロと合わせてLとRGBの2つで撮るとかの応用も効くので、こういった活用なら6200はかなり魅力です。

とまあ、お借りしたカメラをもとに感想を言っているだけなので気楽なものですが、今回も含めてこれだけ出るのなら、値段さえ許すなら本当に今の6Dを置き換えたいです。でも中古の6Dが4-5台分、どうしても考えてしまいます。

今回を含めて、このASI2400MC Proで「三つ子銀河」「青い馬星雲」「IC1396」と3つの作品を仕上げました。これだけの高性能のカメラを使わせていただく機会を与えていただき、感謝しています。自分としてはどれもこれまでにない仕上がりとなり、心置きなく返却できます。いや、かなり後ろ髪をひかれます...。もうちょっと使いたい...。できれば欲しい...。



このページのトップヘ