ほしぞloveログ

天体観測始めました。

タグ:PHD2

ラッキーイメージの過程で、M87を撮影して見ました。M87といえば...

目的はもちろんジェットを見ることです。

さてさて、うまく見えるのでしょうか?


SharpCapでのディザー

実際の撮影は前回のラッキーイメージNGC4216の後に続けて撮影しています。なので設定は全く同じで、10秒露光を30回LiveStackして、今画像を見たら10枚撮影していたので、合計50分でした。

前回書くのを忘れましたので、今回改めて書いておきます。SharpCapの最新ベータ版を使っていますが、ディザー対応がかなり改善されています。

一番大きいのがLiveStackパネルのguidingタブのところに「Reduce Exposure While Dithering 」とうオプションができたことです。これはPHD2などとの連携でディザーをしている間は露光時間を短くするという意味で、以前はDhitherの間も露光し続けていたので、例えば5分間の露光とすると、ディザーが終わっても最大5分近く待たなければならず、まるまる1枚は必ず無駄になっていました。撮影毎にディザーしていたら、撮影時間の最低半分はディザーに取られてしまっていたので、ほとんど使い物にならなかったのです。

そのため、SharpCapでディザーは実質やる気にならず、結果SharpCapは長時間露光は向いていない、もしくはできないという結論でした。今回のオプションで、SharpCapにも長時間露光での撮影に道が開いたことになります。

今回のLiveStack撮影でも、ディザーは使っています。ディザーを15分毎にするように設定しているために、(10秒x30ライブスタックを)3枚撮影するたびにディザーが適用されます。でもディザー量を試しに減らしたため、揺れ幅が不十分で、縞ノイズが少し出てしいました。


画像処理と結果

今回は鑑賞目的というよりは、少し科学写真に近くなりますので、画像処理はほとんど凝ったことはしてません。ダーク補正はLiveStack中にリアルタイムでしてます。WBPPではフラット補正のみで、バイアス補正もなし、ダーク補正もなしです。あとはストレッチと、一度トーンカーブで暗いところを持ち上げて暗いでしょうか。あ、恒星の色を出すために少しだけ彩度を上げています。


「M87」
masterLight_ABE_ABE_ABE_AS_HT2
  • 撮影日: 2021年4月11日0時49分-4月8日1時45分
  • 撮影場所: 富山県富山市
  • 鏡筒: Vixen VC200L
  • フィルター: なし
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro、-10℃
  • ガイド: f120mmガイド鏡 + ASI120MM mini、PHD2によるマルチスターガイドでディザリング
  • 撮影: SharpCap、gain420、露光時間10秒x30枚のライブスタック x10枚 = 50分、ダークは10秒x64枚をライブスタック中にリアルタイムで補正、フラット128枚(gain420、露光0.78ミリ秒)、フラットダーク128枚(gain420、露光0.78ミリ秒)
  • 画像処理: PixInsight、Photoshop CC


でも困ったことに、JPEGに落とす時点でM87の周りの淡いところの諧調が制限されてしまい、階段上になってしまいます。あと撮影中に少したわみで流れたみたいで、ディザーであまり散らしてなかったので明るくすると縦の縞ノイズが少し出ていました。

さてさて、ジェットは見えてますでしょうか?拡大してみます。

masterLight_ABE_ABE_ABE_AS_HT3_cut

おおー、右上にはっきり見えてますねー!上が北なので、方向から考えてもジェットで間違いなさそうです。不思議なのは、切り出すとJPEGでも諧調が飛ばないことです。そこそこきれいに見えてますね。自分で撮影したものだと、感動もひとしおです。

6000万光年先の銀河で、ジェットの長さは7-8000光年におよぶそうです。ご存知の通り、2019年に超長基線の電波干渉計によりM87の姿が映し出されました。リング形の中心にブラックホールが存在すると考えられています。このリング中の黒いところは直径1000億km程度なのですが、これがそのままブラックホールというわけではなく、事象の地平線は直径400億kmでもっと小さいと考えられているそうです。



ついでにアノテーションです。ここにもそこそこの数の銀河があります。

masterLight_ABE_ABE_ABE_AS_HT2_Annotated

少し斜めになってしまっています。これは前々回の記事の最後に書いた、鏡筒バンドに対してまだ鏡筒の回転方向を合わせ切らずに撮影してしまったからです。実際にはこのM87で回転が残っているのに気付いて、この撮影の直後に直しました。


M87といえば

M87といえば、M87JETさんを真っ先に思い出します。胎内星まつりで初めてお会いしたのですが、当時からほしぞloveログを読んでいてくれて、興奮気味に自分で撮影したM87のジェットを見せて頂きました。ペンネームをそのままM87JETとしようと思っていると、その時聞きました。その後は小海の星と自然のフェスタでも一緒に食事したりしてました。いつも面白い文体のブログ記事を書いていて、最近はISSの追尾でご活躍されています。



M87JETさーん、やっと私もジェットを取ることができましたよ!


 

今回のターゲットはぎょしゃ座とおうし座の間にある、とーっても淡いSh2-240、通称スパゲッティ星雲です。しかも自宅からの挑戦。初の12時間越えの撮影になりました。


自宅から淡い天体を目指す

TSA-120を購入してから1年くらい、一部を除いてほとんどTSA-120ばかりで撮影していましたが、焦点距離900mmで撮れるのもだいぶ尽きてきたので、久しぶりに別鏡筒です。ターゲットは迷ったのですが、自宅からの撮影で淡いのがどこまで出るのかを知りたくて、Sh2-240にしました。前回のM78もそこそこ淡いのですが、今回のは無理ナントと言われるくらい淡いレムナント(超新星残骸)です。

淡くても大きい星雲なので、機材は焦点距離が370mmと短いFS-60CBに、マルチフラットナー + フルサイズのEOS 6Dです。新月期ですが、自宅周りで光害の影響は避けられないので今回はCBPを取り付けます。

淡くてもうまく全景が分かるくらい写るのか、あわよくば青いOIIIまで写るのか?どれくらいの時間をかけるべきなの?いろいろ楽しみです。


撮影


実際の撮影の状況です。撮影は3日に渡るので状況は色々変わります。

  • 1日目、2月6日(日): そこそこ晴れているので21時過ぎから撮影開始、雲が途中少し出たが、続行。西に傾くにつれ明るくなり、午前1時半頃で屋根に遮られおしまい。次の日仕事なのでここでキザを片付け中断。
  • 2日目、2月11日(木): 休日: 機材はそのままの継続撮影なので、すぐに準備もでき、天体薄明終了後すぐの19時過ぎから撮影開始。天気があまり良くなく、時折雲に邪魔されます。西に傾き明るくなってきた午前1時頃に、これまた次の日仕事なのでここで撤収。
  • 2月12日(金) 夜中くらいまで天気が悪そうだったので、この日の自宅での撮影は諦め真脇遺跡へ遠征(このことはまたブログにまとめます)。
  • 3日目、2月13日(土): この日も19時くらいに撮影開始。風が強くなってきた午後1時前に撮影中止。天気はまだ良かったのですが、あまりの風の強さに撮影は無理と思い撤収。

3日目の撮影開始時に、カメラのワイドアダプターのネジが緩んでいてガタガタになっているのに気づきました。カメラを一度外したので、カメラの回転角は合わせ直したのですが、ピントは一見大丈夫そうだったので合わせずじまい。おそらく3日目の分はごくわずかピントがずれています。でも仕上がりを見たらまあ気になるほどではなかったです。でもやはり少なくとも何かずれていたら、きちんと見直すべきかと反省しました。


電源トラブル

 長時間撮影なので、カメラをモバイルバッテリーで駆動させましたが、このバッテリーにAC出力がついていたので、機材簡略化のためにStickPCを試しに同じバッテリーから電源を取って動かしてみました。結果、ASCOMで赤道儀のCOMポートを認識しない(ごくたまに認識するが、すぐにまた認識しなくなってしまう)というトラブルが起き、その後StickPC自体が落ちてしまいました。

COMポートの認識が不安定だったり、まるまる認識できなくなるという事態は初めてでした。最初電源のせいだとは疑わなかったです。でもいつもはできていて、今日は調子が悪い。何か変わったところがあるはずだと考えると、やはり電源が最初に浮かびました。結局StickPC用にいつも使っている別の独立したモバイルバッテリーを用意したところ、ASCOMも安定し、落ちるようなことは無くなりました。

ということはやはり今後も
  1. 赤道儀用にCelestronのPower Tank(のバッテリーを入れ替えたもの
  2. Stick PC用のAC出力付きのバッテリー
  3. カメラ用にUSBが2系統取れるバッテリー
と計3つを使うことになります。


PHD2のマルチスターガイドのテスト

今回新しく試したのは、PHD2の開発者バージョンで実装されたマルチスターガイドです。下の写真は初日の様子です。

IMG_1752

縦軸のスケールは+/-8秒角ですが、ほぼ真ん中に維持されていてrmsで1秒角程度で、非常に調子がいいです。おそらくこれまでで一番きれいにガイドできています。一番右の大きなピークはディザリングです。

一方、下の写真は3日目にかなりの強風時の様子です。

IMG_1773

風のせいで揺れ幅が大きくなっているのが分かると思います。RMSで2秒近くなので、倍くらいの揺れです。右から2つ目の大きなピークはディザーですが、一番右のピークは部屋にいてビューという大きな風の音がした直後の揺れです。これで撮影中止を決めました。

PHD2の新機能のマルチスターですが、相当いい感触です。焦点距離が短いガイド鏡でピクセル以下の位置精度を求めようとしているので、そもそも感度限界に近いところを攻めているわけです。多数の恒星を測定することでそこのエラーが恒星の数のルート分の1で減るはずなので、かなり効くことが期待できます。今回試した限りでも、実際の場合で相当の効果があることが分かります。


画像処理

今回はlightフレームの数が多いので、手持ちのダークフレームの数が足りなくて、冷蔵庫を使って追加でダークを取り直しました。

結果今回は
light frame: 147枚 (ISO800、露光300秒)
dark frame: 100枚 (ISO800、露光300秒)
flat frame: 128枚 (ISO800、露光1/400秒)
flat dark frame: 128枚 (ISO800、露光1/400秒)

になります。flatは最近TSA-120でM87を撮ったときに試した、曇りの日の部屋の中で外光が当たっている壁を写しました。flat dark frameはflat frame直後に鏡筒に蓋をして撮影しました。

上記ファイルを全てPixInsightのWBPPで処理します。WBPP終了後の画像をオートストレッチしたもですが、これを見てちょっと引いてしまいました。

masterLight-BINNING_1-FILTER_NoFilter-EXPTIME_300.3

12時間撮影してこの淡さです。しかもゴミが多すぎ。一度センサーを徹底的に掃除する必要がありそうです。

これ以上撮影時間を増やすのも価値がないと思い、気を取り直して画像処理を始めます。普段の炙り出しが簡単に思えるほど、画像処理には相当苦労しました。PixInsightでストレッチまでした後、さらにPixInsight上で細部出しなどの処理を続けようと思いましたが、これだけ淡いのを出すのはPixInsightでは私はまだ経験不足。今回はStarNetで背景と恒星を分離してから、早々とPhotoshopに移り、背景と恒星を別々の状態で処理を進めました。ただし、恒星との境に不自然沙が生じないよう、背景のみの画像に恒星から作ったL画像をマスクとしてかけながら処理しました。

この淡い天体に対して、Photoshop上でDeNoiseも含め、持ってる技術を注ぎ込んで炙り出しました。そのため多少不自然なところも残ってしまっているのは否めません。かなり炙り出しているのでノイジーなのも否めません。それでも自宅から12時間でここまで出たのは喜ぶことなのかもしれません。

masterLight_cut_ABE_PCC_AS2_SFT_all6_bright
  • 撮影日: 2021年2月6日21時22分-2月7日1時30分、2月11日19時19分-2月12日0時25分、2月13日19時10分-2月14日0時47分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: 鏡筒: Takahashi FS-60CB + マルチフラットナー
  • フィルター: SIGHTRON Comet Band Pass (CBP) filter 
  • 赤道儀: Celestron CGEM II
  • カメラ:  Canon EOS 6D(HKIR改造, ISO800, RAW)
  • ガイド: f120mmガイド鏡 + ASI120MM mini、PHD2によるマルチスターガイドでディザリング
  • 撮影: BackYard EOS、露光時間300秒x147枚 = 12時間15分  
  • 画像処理: PixInsight、StarNet++、Photoshop CC、DeNoise AI

そもそもHαの赤を出すだけでも相当苦労しましたが、OIIIの青は全くと言っていいほど出ませんでした。CBPはある程度青も通すはずですが、それでも全然無理なのか、それとも露光時間が絶対的に足りないのか?そのうちOIIIフィルターを使って単体で撮り増しするかもしれません。


まとめ

今回の撮影も自宅庭撮り祭りの一環で、私にとってはある意味挑戦の一つです。その結果、こんな淡い天体ですが、自宅から出す手段があることはわかりました。あとは青いところをどう出すかが次の課題です。

今回は大きな星雲を久しぶりに短焦点鏡筒で撮影しました。逆方向、長焦点での小さな銀河を分解能取る方向もまた再開したいと思っています。


今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。(2020/4/16 追記: APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。また、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。)
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


2017/3/11、休日の前日で晴れ。今晩は満月直前なので、星雲の撮影などはできそうもありませんが、せっかくの星空が勿体無いので何をしようか考えていました。やりたいこと、やらなければならないことはたくさんあるのですが、あくまで趣味なのでやりたいことをやろうと思い、気になっている星像の流れの原因を突き止めることにしました。

先日のマルカリアン銀河鎖の撮影の際、Advanced VXとPHD2でガイドをしているにもかかわらず星像が一定方向に流れるという問題があったのですが、やっと原因が判明しました。犯人はガイドの焦点距離を伸ばそうとして、ついこの間導入したCanonのZOOM LENS EF 55-200mmです。ガイドとして使っているCCD、ASI224MCにアダプタを介してレンズを取り付けているため、電動系は全く無意味で、当然ピントなどはマニュアル、というか手でレンズの先の筒をひねって伸ばしたりして合わせるのですが、その際すごく軽くて弱そうだなと思っていました。レンズの筒の部分にちょっと触るとCCDでの映像があからさまに揺れるのです。まあガイド中は触らないからいいかと思っていたのですが、これが間違いでした。

よくよくレンズを見てみると、ズームタイプでULTRASONICとか書いています。Webで調べたら、超音波モーターを使っているとのことです。静音でいいらしいのですが、パワーがなさそうなのは容易に想像できます。駆動力がないということは、動かす対象は軽くて、構造的に弱いものにならざるを得ないということでしょうか。四千円程度と安くてよかったのですが、天体用には向かないということがよくわかりました。


検証

今回の検証のためにやったことを書いておきます。まずは前回の再現。できる限り同じ機材、同じ環境で星像が流れるかを確認します。バラ星雲あたりとスピカあたりで試しましたが、見事に流れます。

使っている機材は撮影条件によらず共通のものが
  • 鏡筒: FS-60Q (f=600mm)
  • 赤道儀: Advanced VX
  • カメラ: EOS 60D
  • ガイド用CCD: ASI224MC
  • ガイドソフト: PHD2

変えている撮影条件は
となります。

1. 最初はバラ星雲あたりを、CanonのZOOM LENS EF 55-200mmを使いPHD2でAVXの2軸に返しました。5分露光で5枚、22時39分29秒から23時05分8秒まで25分39秒かけて撮った画像を比較明合成します。比較明合成はstarstax (紹介記事本家) というソフトを使いました。5分 x 5枚の25分より長くなっている理由は毎撮影時にBackyardEOSでPC側にダウンロードしているために、その間は撮影できないからです。

rosse_canon_2axis

左右が赤経方向、上下が赤緯方向に相当するので、どうも赤径方向に大きく流れているようです。

流れた距離をPhotoshopの定規ツール(スポイトツールに隠れています)で測定すると19.06pixelありました。

IMG_1270


EOS 60Dはセンサーサイズが22.7mm x 15.1mmなので、600mmの焦点距離だと画角は2.167 x 1.441度になります。これが5184 x 3456pixelの画像になるので、1pixelあたり0.0004181度になります。秒角に直すと1.505秒/pixelとなります。なので星像が流れた距離を角度で表すと

19.06pixel x 1.505秒/pixel = 28.69秒

となります。これを25分39秒、すなわち1539秒かけて撮影しているので、移動速度は

28.69秒角 / 1539秒 = 0.01864秒角/秒 = 1.119秒角/分 = 67.11秒角/時

となります。1分で1秒以上もずれたら、数分で流れが見えるようになるのも当たり前です。


2. 同じくバラ星雲あたりを、CanonのZOOM LENS EF 55-200mmを使いPHD2で今度は赤緯のフィードバックをなくし、赤経の1軸のみに返しました。

rosse_canon_1axis

同じく5分露光が5枚で、23時6分14秒から23時31分56秒の25分41秒です。先ほどの赤経方向の動きに、さらに赤緯の方向にずれが加わっているように見えます。これは極軸の精度が悪かったために加わったと考えられます。

移動距離は22.94pixelなので、速度は1.347秒角/分となり、少し速度が増しています。これは赤緯方向のずれが加わったからでしょうか。


3. もう少し時間が経って、バラ星雲がかなり西の低い高度に移動した時の速的です。2軸に返しているだけで上と条件は同じです。5分露光3枚で、0時6分13秒から0時21分36秒の15分23秒です。

rosse_canon_2axis_West

同様に測定すると、58.82pixelとなり、約15分でこの距離なので速度は相当速くなり、5.75秒角/分となりました。やはり方向は赤経方向が主です。CCDに付いているレンズがほぼ水平になり、赤経方向に重力がかかり非常にたわみやすい状況でした。


4.  ここでバラ星雲が沈んでいったので、次はスピカ近辺で試して見ました。レンズは同等で、2軸制御です。1時38分29秒から1時59分45秒の21分16秒です。

spica_canon_2axis

測定すると、距離は27.93pixelとなり、1.976秒角/分となりました。ちょっと速いですが、場所を移動しても再現性はありそうです。


いずれにせよ2軸制御をしているときは基本的にほぼ赤経の方向のみの流れです。ガイドのCCDの像とカメラで撮影している像が、なんらかの理由で赤経方向に相対的にずれることにより、星像が赤経方向に流れているということです。


5. ここでレンズが怪しいと睨み、以前使っていたCマウントの50mm、f=1.4の軽くて短いレンズに交換しました。実はレンズを交換する前に赤系も止めてフィードバックなしで撮影してしまおうとしたのですが、Advanced VXはピリオディックモーションが+/-15秒程度あることが実測で分かっているので、ちょうど今のずれとコンパラなオーダーなので混乱してしまうと思い、先にレンズを代えることにしました。この読みは正解で、星像の流れがぴったりと止まりました

2軸制御で、2時6分50秒から2時32分35秒の25分45秒です。

spica_50mm_2axis


流れる距離が短すぎるので誤差も大きいですが、とりあえず2.14pixelと計測しました。速度はなんと0.125秒角/分となり、星像が流れる量は10分の1位になったということです。

しかも、明るいレンズのせいなのかと思いますが、PHD2のカメラのゲイン設定をデフォルトの95%から60%くらいまで下げと、カメラからのノイズが減って背景がすごく安定し、位置を読み取る時のピークの山の形がほとんど変形せずきれいになるので、位置精度が上がるためでしょう、ピクセルあたりの精度が余裕でRMSで0.2ピクセルを切っています。200mmの時の精度が適当なときは0.35-0.4ピクセル、すごく頑張って0.25ピクセル程度なので平均だとピクセルあたりで倍近くいいです。角度で表すと、2.5秒くらいまでいく(200mmの場合は1秒ちょっとくらい)ので、レンズの焦点距離の4倍の違い程の差は出ずに、実質2倍くらいの差しかありません。星像の流れは比べるまでもなく50mmのほうがいいので、しばらくは50mmでもう少しパラメータを詰めていくことにします。


さて、ここで一つ疑問が湧きました。なぜ星像の流れは赤経方向ばっかり出たのかということです。

1. まずレンズ自身が弱くてたわんだと仮定します。レンズは円筒形なので、円柱の軸に対しては円対称で、たわみは円柱軸の回転方向に依らないはずなので、星像の流れの方向は鏡筒の向きが変われば変わるはずです。なので赤緯方向に出てもおかしくありません。

2. 一方、これまではレンズが大きくて重いから、レンズやCCDを支えている根元の機械的な構造の強度が十分でなくたわんだと仮定します。構造的に赤経方向の固定方法が何かしら弱いとすれば、赤経方向のみに流れが出たというのは納得できます。

実際には赤経方向のみに流れが出ているので、一見2が正しいように思えます。ですがもし2が正しいとすると、50mmのレンズに変えた場合にずれの量は2つのレンズのモーメント比くらいでしか改善されないはずです。200mmのレンズは図体は大きいけれど密度が低いので、重さは50mmのレンズと大して変わりません。長さは200mmの方が倍くらいあるので、モーメント比はたかだか2倍です。ということは50mmのレンズに変えたとしてもずれの量は半分くらいにしかならないはずですが、実測では10分の1と圧倒的にずれは小さくなっています。

しばらく悩んだのですが、色々考えてやっと分かったのは、実は赤道儀に載せて南の空に鏡筒を向けると、いつも鏡筒が長手軸方向を中心に90度傾いた状態になるということです。これは実際にやってみるとすぐにわかるのですが、鏡筒が極軸方向を向いているホームポジションでは、長手軸方向の回転で考えた時に水平になりますが、南方向では地面の下を見ない限り、水平にはなりません。ベテランの方には当たり前のことなのかもしれませんが、少なくとも私は今回初めて気づきました。そのために重力は常に赤経方向に働き、レンズはいつも赤経方向にたわむというわけで、1のレンズ自身がたわんだと考えて矛盾しないのです。


もう一つ気になったのはPHD2のカメラのゲインがどうも自動で変わっているようなのです。これはスピカを画角に入れた時に気付いたのですが、明らかに背景が真っ暗になります。どこにもオートゲインの切り替えの設定場所はないので、というかゲインは任意に変えることができるので固定のはずなのですが、これはバグなのでしょうか?


いろいろ進んだり後退したりして回り道をしていますが、PHD2の理解がだいぶん進んできたのはもうけものです。なんとなくですがSWATでの撮影も見込みが出そうな気がしてきました。

 

このページのトップヘ