ほしぞloveログ

天体観測始めました。

タグ:バラ星雲

StellaVitaの続きの記事になります。前回は撮影前にしておくべき準備についてでしたが、今回は実際に撮影に撮影までしてみます。



前回記事の終了時の、赤道儀とカメラとガイドカメラが使えるようになった状態から始めることにします。カメラとガイドカメラのピントも取れているとします。

赤道儀は電源がオンになっていて、初期アラインメントはすんでいて、赤経が追尾を始めていると仮定します。鏡筒の向きはホームポジション付近になっていても構いません。その場合、赤道儀によるかと思いますが、極軸方向付近か、真東付近を向いているものかと思います。


テスト撮影とプレートソルブによる赤道儀の同期

まずは、カメラで撮影できるかどうか、試してみましょう。StellaVitaアプリの画面の左にある撮影用カメラのアイコンをクリックします。さらにもう一度同じボタンを押して、撮影モード選択の画面を出し、「シングルフレーム」を選びます。
IMG_0123

もし星が見えている方向に鏡筒が向いていないなら、自動導入やコントローラーで向きを変えて、星がある方向に鏡筒を向けてください。

右の真ん中の撮影開始ボタンを押して、まずは1枚撮影してみます。カメラの露光時間は短くしておいた方がいいでしょう。数秒でいいかと思います。右の撮影アイコン周りに円形のバーがぐるっと進む様子がわかると思います。最後までたどり着いたら撮影終了で、撮影した画面が映し出されます。

実際に星は見えていますでしょうか?もしここで星が見えていなければ、鏡筒にカバーが付いたままになっている、鏡筒のピントが大幅にずれているなどの原因がありますので、今一度チェックしてみてください。うまく撮影できると、下のように画面内に星が見えるはずです。
IMG_0109

撮影画面が見えたら、早速プレートソルブを試して、取得画像からいま鏡筒がどの方向を見ているかを特定してみましょう。画面の右アイコンの撮影ボタンの下の「地球のようなマーク」を押し、プレートソルブでの解析を開始します。試した限り、StellaVitaではかなり安定にプレートソルブができるようです。

解析が始まるので、10秒ほど待ちます。結果には今見ている方向が赤径と赤緯で表示されます。

ここで、赤道儀と「同期」するかどうかの選択肢がでてくるので、一旦赤道儀と同期しておくのがいいでしょう。これで近傍の天体導入なら、そこそこの精度でできるはずです。ただし、遠くの天体の導入と、撮影時の追尾はまだ精度がありません。これまでにまだ極軸調整をしていないからです。

IMG_0110


極軸調整

StellaVitaにはカメラを使った極軸合わせがサポートされているので、是非使ってみましょう。目で見て合わせる極軸望遠鏡に比べて一桁くらい精度が出るはずです。極軸を精度良く合わせることで、撮影時のガイドの負担が減り、星像の歪みが小さくなる可能性が高くなり、成功画像の歩留まりが上がるはずです。

StellaVitaでは極軸調整にメインの撮影カメラを使います。すでに上記のテスト撮影は終わっているとします。極軸調整にはメインカメラで星を写してその画像を解析する必要があるので、まだテスト撮影をしていない場合は、極軸調整の前に実際一度試してみてください。

極軸調整のため、赤経を15度と30度回して撮影するので、赤経が30度進んでも星が入るような方向にあらかじめ鏡筒を向けておきます。この状態で、左の赤道儀アイコンを押して赤道儀の調整画面に入り、下の真ん中らあたりの極軸調整ボタンを押します。

下のような説明が出ますが、1番と2番はすでにできているので薄字になっているはずです。3番も今回は実際にはできているでしょうから、実質4番からになります。この画面内の右真ん中の撮影開始ボタンを押してそのまま進めるだけです。
IMG_0108

1枚撮影した後に、自動的に鏡筒を赤径方向に+15度回転して一旦撮影、更に+30度回転して撮影と、メインの鏡筒のカメラで撮影が進みます。合計3枚撮影して、それらの画像解析から赤道儀の極軸がどの方向を向いているのかを計算します。うまく解析が完了すると、下の画像のように極軸がどれだけずれていうるかが円になって出てきます。赤道儀の極軸の向いている方向が、真の北極からどれくらいずれているかが、円の中の青い点で表されます。

IMG_0127

もしこの青い点が中央から上にずれているとしたら、赤道儀の下部についている物理的な上下方向の調整ネジを回して、赤道儀の極軸が下方向に進むようにします。その際、画面の縁の横の「更新」をオンにしておくと、リアルタイムに近い状態で常に今の方向を見ているかがわかります。横方向にずれている場合も、赤道儀下部についているネジを回して水平方向に調整してください。

青い点が中心に近くなってくると、円が拡大され、よりいい精度で見ることができるようになります。鏡筒の焦点距離にもよりますが、1秒角(下の画面の1'')程度に合わせれば十分過ぎるくらいでしょう。(補足1)
IMG_0129


撮影プラン

撮影に際しては、容量に余裕をもって撮影できるようにSDカードを用意しておくといいでしょう。SDカードは横の穴に差し込みます。

撮影は「プラン」モードを使いますが、その前にプランを立てる必要があります。左上のTodoリストアイコンを押し、「目標管理」の左下の「+」ボタンを押し目標を追加します。検索などして、撮影したい天体を選びます。今回はバラ星雲「NGC2239」をターゲットにしました。「撮影時にガイドを起動」をオンにするのを忘れないでください。ここがオンになっていないと撮影時ガイドが起動されないので、星像が流れてしまいます。
IMG_0136

その後、右下の「タスク管理」ボタンを押してタスクを追加します。「Light」をえらび、撮影枚数などを設定します。

タスク、目標が保存されたことを確認して、左のメインカメラボタンを2度押しして「プラン」撮影を選びます。右の撮影開始ボタンを押せば撮影が開始されます。ガイドはちょっと面倒なことがあるので、次に少し詳しく説明します。


ガイド

ガイドは「目標管理」のところで、あからさまに「オン」にしてやらないとガイドなしで撮影が開始されてしまいます。

ところが、ガイドをオンにしたはずなのに、ガイドが入らないことが2度ありました。判別方法としては、ガイドカメラの画面に切り替えた時に星が何も写っていなくて真っ暗のままの場合はガイドが開始されません。どうもガイドカメラがアプリ上では接続はされているにも関わらず、うまく動いていないことがあるようです。この場合、ガイドカメラをアプリ上で一旦接続をオフにして、もう一度オンにすると画面に星が写って、その後撮影開始後にキャリブレーションが始まりました。

キャリブレーションは思ったより長くかかりました。5分近くかかったでしょうか。途中、「時間がかかりすぎるのでガイドをオフにして撮影を開始しますか?」とかいうメッセージが出たのですが、「いいえ
」を選択して、キャリブレーションを続けました。これでさらに待つと、やっとキャリブレーションを完了させることができました。

ガイドカメラの設定を見ると「キャリブレーションのステップ」という項目があり、デフォルトでは「750」でした。でも単位がわからないので、とりあえずいじっていません。これをもっと大きくすると一度に進む距離が長くなり、時間が短縮されそうな気がしますが、今回は試せていません。(補足2)


撮影開始

キャリブレーションが終わるとガイドが開始されそのまま撮影が開始されます。ところが、キャリブレーション直後はターゲットのガイド星からずれているため、ガイドがターゲット星に合わせようとして方向を変えてしまいます。その過程中も撮影は続いているので、最初の1枚目はどうしても下の画像のように星像がずれていく画像が撮影されてしまうようです。これはソフト的に回避できる問題のはずなので、改善してほしいかと思います。

IMG_0086
撮影が可視視されてからガイドがターゲット星をセンターに移動してしまっています。

IMG_0087
結果として、1枚目だけはどうしても星像が流れた画像になってしまいます。

うまくいくと、ガイドも安定し、星像も丸くなります。その後はずっと安定した画像を撮影することができました。

その際のガイドカメラの画面です。ディザーの設定をしておけば、いつディザーされているかなどもわかります。
IMG_0089

撮影時のメインカメラの画像に、同時にガイド画面とヒストグラムを表示するとができます。ガイド画面では安定度を見ることができ、ヒストグラムでは「自動」にチェックが入っていればオートストレッチされた画像が表示されるので、ある程度の写り具合を見ることができます。
IMG_0141

実際にファイルとして保存されているかどうかは、左アイコンの下から二つ目のフォルダアイコンを押します。保存先は指定した場所になりますが、ファイルの移動などを考えるとSDカードが便利かと思います。撮影中もSDカードにはアクセスできますが、チェックはプレビューのみで、jpgフォーマットでローカルのタブレット端末にダウンロードされます。プレビューの段階ではユーザーはjpgの存在しかわかりませんが、きちんとfitsファイルもSDカード内に保存されています。アプリにフォーマットの指定はなさそうなので、RAWファイルはfits固定で、変更はできないみたいです。

RAW形式のfitsファイルは、ファイル容量が大きいので、撮影後SDカードを抜き出してから、PCなどにファイルを移動するのがいいでしょう。


フラット、フラットダーク画像の撮影

撮影後、StellaVitaを使って昼間にフラット画像とフラットダーク画像を撮影してみます。私は鏡筒を部屋の中の白い壁に向けてフラット画像を撮影しています。光源は太陽ですが、晴れ又は曇りの日の昼間に窓のカーテンを開けて、直射日光が当たらない壁に向かって鏡筒を向けます。鏡筒や鏡筒を置いてある机が影を作る場合があるので、ともに壁から少し離して設置します。

StellaVitaの電源投入後、アプリ接続して、今回はメインカメラのみをオンにします。ライト画像と同じように、左上のTodoリストアイコンを押し、「タスク管理」で作ったNGC2239の「目標管理」にタスクを追加します。ただし、ライト画像のタスクが残ったままだと撮影時にライト画像から再び撮影してしまうので、まずはライトの「Light」のタスクを消して、改めて「Flat」を選択して、ライト画像と同じゲインにして、露光時間を調整します。
IMG_0098

露光時間の調整は、メインカメラボタンを押してメインカメラの画面を出し、さらにもう一度メインカメラボタンを押して、シングルショット撮影を選んびます。ゲインはからなずライト撮影時と同じにしてください。明るさの調整は露光時間で行います。露光時間は右の上から2つ目のアイコンを押して調整します。その後、右真ん中のボタンを押して実際に撮影してみます。左の櫛形のアイコンを押してヒストグラムを出し、山が真ん中か少し左くらいにある状態になるように何度か露光時間を調整と撮影を繰り返します。今回は曇りの時の部屋の中で0.05秒でちょうどいいくらいの明るさになりました。
IMG_0091

再び左上のTodoリストアイコンを押して「タスク管理」->「目標管理」に入って、今調整した露光時間を入力します。これで準備は完了です。

メインカメラのアイコンを二度押して「プラン」モードに入り、右真ん中の撮影ボタンを押して撮影開始です。すぐに撮影が開始され、ダウンロードも始まりますが、ダウンロードができているかどうかに関わらず撮影枚数はどんどん進みます。露光時間の短い明るい撮影なので、全枚数の撮影もすぐに終わるはずです。撮影が完了してもダウンロードは続きますが、撮影ボタンがXマークになっていて、それを押すとダウンロードも途中で終了できます。

IMG_0099
短時間撮影なので、どんどん枚数が進むでしょう。

IMG_0101
撮影終了後は、ダウンロード中でもXボタンを押すことでダウンロードを中断できます。

フラットダークは全く同じ設定で暗くするだけです。まずカーテンを閉め切り部屋を暗くし、鏡筒にキャップを被せます。でも昼間の撮影なのでおそらくそれでは不十分で、鏡筒、フォーかサーブ、カメラ自身に光の漏れがあることが普通です。私はダークやフラットダークの撮影では、念の為に毛布などを全体に被せて光ができる限り入らないようにします。ただし、カメラの通風口を塞いでしまうと熱の逃げ場がなくなってカメラが故障する可能性があるので、そこだけは開けておきます。

アプリでは、タスク管理で作ったフラットのところを再選択して、タブのところで「Dark」に変更します。こうすることで後で画像処理ソフトがどの種類の画像かを分別する手がかりをつけます。こちらも撮影を開始し、完了したらこれで終了です。

他にダーク画像の撮影もありますが、私は手持ちのダーク画像があったので、ここでは撮影は割愛しました。ダーク撮影のポイントは、露光時間とゲインオフセットとカメラの温度をライト画像撮影時と全く同じにすること、フラットダークの撮影時のように毛布をかけるなどしてできる限り漏れ光を少なくすること、ライト画像と同程度の十分な枚数を撮影することでしょうか。ダーク画像は一度撮影してしまえば、ライト画像の設定を変えない限り使い回しできるので、時間のある時に必要な設定分だけ撮影しておくと楽になります。あと、バイアス画像を撮影する機能もありますが、ダーク画像をライト画像と同じ設定で撮影した場合は、バイアス画像は不要です。

以上が、夜のライト画像撮影後に、別途昼間など時間のある時に追加して撮影する画像になります。今回はライト以外の画像もStellaVitaで撮影しましたが、他のアプリを使って撮影してもそれらを画像処理で使うことはできます。

画像処理

結局、3分露光で48枚のfits画像が得られました。画像の保存フォルダ名に日付が入らないなど、ファイル名の細かな指定のようなことはできませんが、画像処理ソフトで読み出す際に普通に読み込めるので、贅沢を言わなければ特に問題ではないかと思います。

ダークファイルは以前NINAで撮ったものの使い回し、フラット画像とフラットダーク画像は今回StellaVitaで64枚づつ撮ったものを使って、画像を最後まで仕上げてみました。画像処理はPixInsightとPhotoshopを使いましたが、StellaVitaで撮影したfitsファイルは特に問題なくPixInsightで読み込んで処理することができました。

画像処理自体はStellaVitaとは独立なので、詳細は割愛しますが、結果だけ載せておきます。自宅でガイドを含めて2時間の安定な撮影程度は問題なくでき、天体画像として最後まで処理できたので、実用という点から考えた時、StellaVitaは十分な撮影プラットフォームとして使えると言えるでしょう。

180.00s_FILTER-NoFilter_RGB_drizzle_2x_BXTC_SPCC_BXT_MSA_NXT6_s3
  • 撮影日: 2025年12月29日2時13分-4時43分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: William Optics RedCat51(f250mm、F4.9)
  • フィルター: サイトロン CBP
  • 赤道儀: Celestrn Advanced VX
  • カメラ: Player One Uranus-C Pro (-10℃)
  • ガイド:   f50mmガイド鏡 + ASI290MM、StellaVitaでガイド
  • 撮影: StellaVita、Gain 220、露光時間3分 x 48枚 = 144分 = 2時間24分
  • Dark: Gain 100,  露光時間180秒x30枚、Flat, Flatdark: Gain 220,  露光時間0.05秒x64枚
  • 画像処理: PixInsight、Photoshop CC


まとめ

今回はStellaVitaを使って、実際の星雲を撮影してみました。多少戸惑うところもありましたが、システムとしては必要十分な機能があり、無事にライト画像、フラット画像、フラットダーク画像を撮影でき、それらの画像を使っての処理も滞りなく進むことができました。

まだ日本での販売はあまり時間が経っていないこと、アップデートも毎週のように更新されているなど、今現在も非常にアクティブに進化している最中なのかと思います。まだこなれていないところもあるは事実ですが、今後のシェアの広がりとサポートに期待したいと思います。

次回の記事では、今回思った改善点などの要望をまとめたいと思います。


(補足1)
私は普段はSharpCapを使って極軸調整をします。SharpCapの場合、ガイドカメラ、メイン鏡筒のどちらでも使えるのですが、基本的には北方向の空を見ていないと使うことができません。StellaVitaは北方向の空が開けていなくても、十分な精度で極軸調整ができます。これはかなりの利点でしょう。その一方、リアルタイム画面の表示と更新速度にはSharpCapの方が一日の長があります。実際の星を写して、その星がどちらに動けばいいか矢印まで出るので、ここら辺はSharpCapの方が親切です。でも、StellaVitaは鏡筒を赤道儀の回転も自動でやってくれて、操作性もSharpCapには及ばないものの、十分わかりやすくストレスなくできます。

StellaVitaの極軸調整の「北方向を見なくていい」という圧倒的な利点(たとえ北方向が開けていても、北だけ曇っていることなどよくあることなので)を考えると、極軸調整に関してはStellaVitaに軍配をあげてもいいかと思います。これまでいくつもの極軸調整がありましたが、SharpCapを超えるものはありませんでした。今回、初めてまともに使えると思いました。StellaVitaが赤道儀の操作も自動でできることが前提なのですが、これはかなりすごいことです。


(補足2)
ガイド鏡をRedCat51に取り付ける際、固定リングのネジ穴を利用したのですが、これが斜めに面が切られているので、ガイド鏡も鏡筒の斜め上につけることになり、カメラの水平垂直が崩れました。そのため、キャリブレーション時にガイド星が斜めに動いていきました。これでもきちんとキャリブレーションできるので特に問題はないのですが、カメラだけガイド鏡に対して45度程度回転させて水平、垂直を合わせておけばよかったかもしれません。








少し前に到着したε130、色々準備をしていたり、あまり天気が良くなかったりで延び延びになっていましたが、やっとファーストライトと相成りました。といっても、撮影するにはまだ準備不足なので、まずは試しに電視観望です。


赤道儀への取り付け準備

まずは箱から出して組み立てです。タカハシの純正鏡筒バンドとプレートは一緒に購入したので、適当な位置に鏡筒を固定します。問題はどうやって赤道儀に取り付けるかです。

そもそもタカハシの鏡筒バンドはプレート固定のための二つのネジの幅がかなり広くて、一般的なロスマンディー規格のアリガタの幅よりも広いので、鏡筒バンドとアリガタを直接固定することができません。そのため、まずは同じくタカハシ純正のプレートに鏡筒バンドを固定して、このプレートに空いている穴を介して別のアリガタなどに固定する必要があります。

サイトロンで一緒に購入したAskarのドブテイルバー(ロスマンディー規格のアリガタ)はネジ位置が合わなくて取り付けることができないのはわかっていたので、手持ちのものを探しました。以前スターベースで特価で購入したロスマンディー規格のアリガタに、なんとか取り付けることができそうです。でもアリガタの先端の方のネジを2箇所で止めることができるくらいなので、もしかするとパタパタするかもしれなくちょっと不安定です。タカハシ純正プレートにはあまり加工したくないので、アリガタに穴を新たに空けるか、もしくは後でTSA120などで使ったMOREBLUEの軽量鏡筒バンドに替えるかもしれません。でもまだ予算を他に割り当てる必要があるので、優先度は低いです。

最低限赤道儀に取り付けることができるようになったので、一度実際に取り付けてみて、特にネジの頭とかの干渉などないかチェックします。赤道儀はCGEM IIを使うことを標準としました。Advanced VXでもよかったのですが、ε130の本体自体は5kgと重くはなくても、今後フィルターホイールやカメラ、ガイド鏡などをつけていくとそこそこの重さになるのと、やはり撮影がメインなので少しでも耐荷重が大きくて頑丈な赤道儀の方がいいと思ったからです。


ガイド鏡取り付け位置

ガイド鏡を取り付ける位置は少し迷いました。最初鏡筒上部に手持ちバーを兼ねたアルカスイスプレートを付けようとしたのですが、やはり鏡筒バンドの上部にあるネジ穴の幅が広すぎて直接取り付けることができないことがわかりました。色々考えた末、結局SCA260でやっているように小判鮫状態にしました。アリガタは40cmの長さでじゅうぶんながいので、前方に飛び出ている部分の下面にアルカスイルプレートを取り付けるわけです。

1C429718-3AE4-4C1A-B0C7-D01DB77C44F5
ロスマンディーのアリガタの下に、
アルカスイスプレートが取り付けてあるのがわかりますでしょうか?

この方法の利点は二つあります。
  1. 一つは鏡筒を赤道儀に乗せるときにそのアルカスイスプレートがストッパーになって、鏡筒から片手を離してもずり落ちるようなことがないことです。
  2. さらにこのアルカスイスプレートは前後に長いネジ穴があいているので、前後位置をスライドさせることができます。そのため、一度前後の重量バランスを合わせてしまってアルカスイスプレートをその位置で固定してしまえば、それ以降は鏡筒の前後バランスを取る必要はなく毎回同じ位置に取り付けることができることです。
これらの利点はSCA260で同手法を運用しているうちに気づきました。


光軸チェック

このε130は展示されていたものなので、光軸がずれてしまっている可能性があります。そのため、コリメーションアイピースを使い、光軸をチェックします。あらかじめ副鏡も主鏡にもセンターマークが付いていたので、チェックは簡単でした。とりあえず見ている限り全てのセンターマークが、コリメーションアイピースで見てセンターに来ています。主鏡が作る大きな縁も同心円上になっているようです。気づいたのは、接眼部のアラインメント調整機構がないので、コリメーションアイピースで見た時に副鏡のセンターを指していない時は、副鏡自身を平行移動などしなくてはダメなところでしょうか。でもこれも原理的に自由度が足りないとかではないので、まあ問題ないでしょう。今回は特に問題なさそうなので、とりあえず何もいじらずによしとしました。あとは、実際の撮像を見て評価したいと思います。


電視観望準備

本当は休日前とかのほうがのんびり試せるのでよかったのですが、天気の関係で平日の夜になってしまいました。でもこの日が良かったかというと、黄砂か春霞なのかうっすら雲がかかっているようで、透明度がかなり悪く北極星さえ肉眼で全く見えません。でもこの日を逃すと次はいつになるかわからないので、とりあえず庭に機材を出すことにしました。

カメラはASI294MCで、そのままアイピイース口に取り付けます。でもこのままだとピントが出ませんでした。色々アダプターを付け替えたりして試しましたが、思ったよりフォーカサーの調整範囲が狭くて、結局補正レンズを外してやっとピントが合いました。そのせいなのか四隅の星像が崩れるのは仕方ないにしても、中心部の焦点が合い切らずに星像の鋭さが全く出ません。これは後日補正板をつけて、バックフォーカスもきちんと合わせてから評価し直すことにして、とりあえずこの日はこのまま進めることにしました。


M42: オリオン大星雲

春も半ば過ぎに来ているので、もうオリオン座は早いうちに西の空に沈みます。しかも最近は日も長いので、ますますオリオン座を見る時間が少なくなってきています。とにかくM42オリオン大星雲だけは派手で見やすく、冬季節の電視観望の基準の星雲と言うべきもので、これが沈まないうちに画面に映し出します。

下の画像はgain420で露光時間1.6秒、ライブススタックで22枚、総露光約35秒のもの、フィルターはCBPです。隣の家に沈む寸前(実は一旦屋根に沈んだのですが、今一度赤道儀の位置を変えて家と家の間に見えているところを電視観望したもの)で、しかも透明度が悪い日の西の低空なので、全く見栄えは良くないのですが、まず思ったことが「速い」でした。

01

こんなひどい状況では綺麗に見えるまでにライブスタックを続けてかなり待つ必要があるのですが、さすがFS-60CBの約4倍の明るさです。「速く」星雲が浮かび上がってくるのは、ある程度わかっていたこととはいえインパクトが大きかったです。


バラ星雲

この印象は次のバラ星雲でも全く同じでした。

この日のフィルターはアメリカンサイズのCBPで、カメラにつけたノーズアダプターの先に取り付けています。ただ、この位置に取り付けると周辺減光が顕著になってきます。まずはCBPなしの場合。ゲイン420で3.2秒露光で一回露光だと、バラ星雲とはほぼわかりません。
03

次がCBPありの場合です。30秒露光なので、上の画像と直接比べることはできませんが、朧げながらバラの形がわかります。見て欲しいのは周辺減光で、ストレッチ具合はそう変わらないのに、CBPをカメラ先端につけると明らかに周辺減光が増えています。ε130は明るい鏡筒でセンサーに対する光の入射角が急になるので、フィルターをつけるとしてももっとセンサーに近いところにつけた方がいいことがわかります。
04

上の画像をライブスタックしていくと、わずか2分半で下の画像位になります。空は相当に悪い状況ですが、それでもこの速さはやはりε130の威力といったところでしょうか。
05


三つ子銀河

しし座の三つ子銀河です。天頂に近いので透明度は低いところよりはマシですが、それでもこの日の透明度はかなりイマイチです。

まずは30秒露光です。これだけでも十分に存在はわかります。
08

2分露光です。かなりきれいに見えてきました。
09

10分露光です。周辺減光が目立つので、中心だけ少し拡大しています。画像を拡大してみるとわかりますが、そこそこ分解能も出ていて、銀河一つ一つの構造もよくわかります。
10


M81とM82

M81とM82です。北の空で富山の街明かりで明るいのですが、高度はそこそこあるので先の西の低い空よりははるかにましです。繰り返しますが、肉眼で北極星は見えない状況に変わりはないので、それでここまで見えるなら上等でしょう。

2分露光です。
11

10分露光です。10分露光すると、細部もそこそこ見えてくることがわかります。
13


M51: 子持ち銀河

最後は同じく北の空でM51です。2分露光と
14

10分露光になります。
15

例えば観望会をやったとして、10分でここまで見えるなら、まあ十分ではないでしょうか。


まとめ

かなり状況の悪い日でしたが、やはりε130での電視観望は「速い」です。必要な露光時間は近い焦点距離のFS-60CBの4分の1くらいで、実感としてもこれくらいです。例えば40分待たなければならないのが10分ではっきり出てくるようになったと考えると、やはりかなりの威力でしょう。

ε130にフォーサーズのASI294MCと合わせるとすると、焦点距離としてはM31アンドロメダ銀河が画角一杯、北アメリカ星雲単体はなんとか入りますが、ペリカン星雲と一緒には入らないので、もう少し短焦点でもいいかもしれません。その一方、三つ子銀河がそこそこの解像度で見えるので、電視観望で銀河専門と考えなければ、これ以上長焦点にする必要もないでしょう。短時間の電視観望で次々と天体を入れてくのだと、(焦点距離はもう少し短くてもいいので)分解能的には少しオーバースペックな気がしますが、長時間ライブスタックして天体写真にも仕上げたいという場合には適度な焦点距離かと思います。

いっそのことASI2400MC Proのようなフルサイズのカメラと合わせるなら、ε130は最大限威力を発揮するのかもしれません。さらにこれ以上を求めるなら、あとはRASA8とかになるのでしょうか。


今後

やはりε130君は撮影鏡筒だと思うので、次はきちんと撮影で使ってあげたいと思います。準備状況ですが、
  • 今2インチのフィルターホイールはちょっと前に買ってあります。
  • 2インチフィルターですが、RGBフィルターはZWOのものを買い、
  • ナローバンドフィルターはBaaderのものをHαとOIIIを星まつりで安く買い漁ってあります。SIIはSAO合成よりLRGBやAOOの方がかなり楽しいので、少し優先順位を落としています。
  • カメラはASI6200MM Proでこちらはお借りしているものです。
  • 接続は以前ASI2400MC Proを試したときに、ZWO製のフルサイズクラスのCanon EFマウント用のアダプターを用意したので、ε130側には手持ちのタカハシのDX-WRカメラマウントを取り付けて、EOS EFマウントで接続しようと思っています。理由は、カメラを取り外して再度取り付けた際の回転位置の再現性が欲しいからです。

あとはEAFを用意したいくらいでしょうか。全部揃えると値段が値段なので、なかなか一度にパッとはいきませんが、着々と準備は進んでいます。


多分このシリーズ、長くなります。普段の記事を全然長いと思っていない私が長くなると思っているので、多分本当に長くなります。試したいことがありすぎるので、書けるとこまで書きます。途中で力尽きたらごめんなさい。

今回縞ノイズの一つを、多分特定しました。最初に断っておきますが、限られた条件でのことかもしれません。この記事を読んで試してみても、全然効果がなかったと言う方もいるかもしれません。ですが幾らかの悩んでいる方の解決にはなると思います。私自身、他の方の環境でどうなるか興味があるというのもあります。

comp

この比較写真のように違います。左がこれまでの縞ノイズ、右が無くなった(実際には軽減された)場合です。以下、詳しく説明します。


バラ星雲で出た縞ノイズ

この間のEVOSTAR 72EDでのバラ星雲の撮影で、ディザーをしなかったために縞ノイズが出たという報告をしました。

integration_DBE_PCC_AS_cut


その後、上記の縞ノイズを可視化した記事を書きました。この動画は結構反響が大きかったので、ご覧になった方も多いかと思います。






なぜか突然縞ノイズが消えた!?

この後、もう少し縞ノイズの検証をしてみようとファイルをいじってみました。とりあえずシンプルなところからと思って、rawのlight frameをDebayerしてStarAlignmentだけして縞ノイズを再現しようとしたのです。ところがところが、縞ノイズが綺麗さっぱりなくなっています。

integration

拡大です。
integration_cut

え?
なんで?
全然縞ノイズ出てないじゃん!
せっかく縞ノイズの解析しようと思ってたのに!

さあ、ここからが戦いの始まりです。


PixInsight用語

今回、PixInsight (PI)用語がたくさん出てきます。PIに慣れていない方のために、簡単に解説しておきます。
  • PixInsight: 世界的に有名な天体画像処理ソフト。英語でものすごくとっつきにくいが、高機能。
  • BatchPrepocessing: 撮影したファイル(light, bias, dark, flatなどの各frame)を掘り込んでおけば、スタックまでボタン一発でやってくれる便利な機能。
  • master: bias, dark, flatなど、他数枚の補正ファイルを一度処理すると、スタックされた一枚のmasterというファイルをそれぞれ作ってくれる。以降はそれを使うと処理時間を削減できる。
  • ImageCalibration: BatchPrepocessingのような自動で処理する以外に、マニュアルでもっと細かくオプションを指定しながら処理する方法がある。これはbias, dark, flatなどの補正をマニュアルでする機能のこと。
  • Debayer: 同様にマニュアル処理の一つ。モノクロのBayer配列のRawファイルをカラー化すること。
  • StarAlignment: マニュアル処理の一つ。多数枚数の画像の星位置を合わせること。PIでは平行移動、回転にのみならず、画面を歪ませて星の位置をそれぞれ合わせることができる。
  • ImageInteglation: マニュアル処理の一つ。他数枚の画像をスタックすること。
  • ScreenTransferFunction: 簡易的にストレッチ(明るくすること)をする機能。見かけの表示のみをいじるので、ファイルには何の手も加えない。見かけを適用したい場合はHistgramTransfomationを使う。
  • Auto Stretch: ScreenTransferFunctionの一機能。あぶり出しのすんでいないまだ暗い画像などを、そこそこ見やすいように自動でストレッチする機能のこと。超便利。
  • DynamicBackgroundExtraction (DBE): 背景の被りや周辺減光などをソフト的に除去する機能。任意の補正点を指定できるので、星雲部分の補正を避けるなど細かい補正が可能。超便利。
  • AutomaticBackgroundExtraction (ABE): 背景の被りや周辺減光などをソフト的に除去する機能。細かい補正はできないが、大局的に補正してくれるので簡単で便利。
  • TVGDenoise: PI場で最強と言われているノイズ除去機能。

比較条件

今回検証するRAWファイルは全て同じです。他に共通撮影条件は
  • 鏡筒: SkyWatcher EVOSTAR 72ED + x0.72レデューザー、焦点距離300mm
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • ガイド: ASI178MCと50mmのCマウントレンズをPHD2にて
  • 撮影条件: SharpCapでゲイン220、温度-15℃、露光時間300秒x20枚 = 1時間40分
  • ディザー: なし 
  • ファイル保存形式: RAW16bit、fits形式
  • フィルター: サイトロン QBP(アメリカンサイズ)
となります。

今回の検討を始める前までに、縞ノイズが出た時の処理と、出なかった時の処理の違いを書いておきます。処理は全てPI上でやっています。
  • 縞ノイズあり: BatchPreprocessingでbias補正、dark補正、flat補正を適用し、走らせた。
  • 縞ノイズなし: マニュアルでDebayer、StarAlignment、ImageInteglation。
この中に決定的な違いがあるはずです。以下、各補正ファイルの条件です。全てSharpCap上で撮影していて、最初の処理でmaster fileができるので、以降はそれを利用。
  • bias frame: ゲイン220、露光時間が最小の0.032ミリ秒で、100枚撮影。
  • dark frame: frat frame撮影後、片付けの後すぐに、家の中で撮影。ゲイン220、露光時間300秒、-15℃で、28枚撮影。
  • flat frame: light frame撮影後すぐに、鏡筒に状態でスーパーの白い袋を2重に被せて撮影。ゲイン220、露光時間300秒、-15℃で、7枚撮影。

処理結果に大きな違いが出ていて、検証材料も全て揃っているので、何が違いに影響しているのか順に検証していきます。


検証過程

ここからはほぼ実際にやった手順です。
  1. まず、再度BatchPreprocessingとマニュアル処理で再現性を確認。->きちんとBatchPreprocessingのときには縞ノイズ出て、マニュアル処理では出ないです。再現性はきちんとあります。
  2. 次に、一番怪しくないと思ったflat frameのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「うーん、あんまり関係ないよな。」
  3. 次、一番怪しそうなbias framaのみを適用させBatchPreprocessingで処理 -> 縞ノイズ消えた!「そりゃbias必要でしょ。」
  4. 次、flatとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「あれ?flatあまり関係ないはずなのに。」-> ところが、ここでやっと思い違いに気づきます。今回、何も補正していない方が縞ノイズが出なくて、補正した方が縞ノイズが出たのでした。と言うことは、bias関係なしで、flatで縞ノイズ有無が決まっていることになります。え、本当?
  5. 確認で、darkとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「えー、ホントにdarkもbiasも関係ないよ!?」
  6. 念のため、darkのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「確かにdark関係なし。」
  7. さらに念のため、master flatを使うのではなく、改めて個々のflat frameを使ってBatchPreprocessing処理 -> 縞ノイズ出る。「やっぱりflatが原因だ!」
  8. さらに、BatchPreprocessingが何か悪さをしている可能性も考えて、マニュアルのImageCalibrationを使ってflat処理だけしてみます->縞ノイズあり。「少なくともPIで処理する限りflatが悪さをしているのは確定でよさそう」


Flat補正をしない場合、本当に改善されているのか

確かに上の画像で見た通り、flat補正をしないと縞ノイズは無くなって見えているのですが、本当でしょうか?それぞれSTFでオートストレッチをしているのですが、本当に正確な比較をしているのか疑問になってきました。オートストレッチは星雲を含む背景の最大の輝度と最小の輝度から適用範囲が決まります。例えば、flat補正をしていない周辺減光のある画像ではあぶり出しも中途半端で、周辺減光のない平坦に近い画像では極限まで炙り出すことをするので、細かい差(この場合縞ノイズも含めて)をより浮き出させてくれます。

ここでは公平に比較するために、それぞれの画像にAutomaticBackgroundExtraction (ABE)を適用し、周辺減光の影響をできるだけ少なくして比較してみます。flat補正をしたものでもまだ明暗のばらつきは無視できないほど存在していて、ABEを適用することで多少の変化があります。それぞれABEをしてから、STFでオートストレッチをしています。

まず、flat補正ありの画像。

light_BINNING_1_integration_ABE

light_BINNING_1_integration_ABE_cut
これまで通り、縞ノイズは盛大に見えています。

次にflat補正しない場合。
integration_ABE

integration_ABE_cut

結局、周辺減光がABEで補正できる範囲を超えてしまっているので全然補正できていません。そのためオートストレッチ後、少し補正して目で見て、拡大部分の明るさをそこそこ合わせています。多少公平性は欠けてしまいましたが、それでも不公平になる程の違いは無いくらいにはなっているでしょう。結果はというと、flat補正なしであからさまに縞ノイズは改善されていますが、よく見るとやはり完全に無くなりきってはいないです。「相当軽減する」くらいは言っていいでしょうか。

この比較から、flat補正は縞ノイズの影響を悪化させていることは確からしいですが、完全には撮りきれないことから、それだけが原因というわけでもなさそうです。

実際の画像処理では背景はもう少し暗くなるので、flat補正なしにして、この程度の縞ノイズになるのなら個人的には許容範囲でしょうか。


Flat frameについて

でもここでふと我に返ります。でも今回使ったflatってそんなに変なの?

確認してみる限りごくごく普通のflatだと思います。master flatをAuto Stretchしたものです。(blogに載せるためのファイルサイズ制限で、bayer配列を無理にjpegにしているので、偽色が出てしまってノイジーに見えてしまっています。)
flat-BINNING_1

拡大です。pngなので、偽色とかは出ていないはずです。(画像サイズが小さいのでpngでもファイルサイズが大きくなり過ぎず、blogでもアップロードできます。)
flat-BINNING_1_cut

見ている限り、極々ノーマルで、ノイズが特別多いようにも思えません。

でも、master flatをdebayerしてAuto Stretchしてみると少し正体が見えてきます。
flat_BINNING_1_integration_RGB_VNG

拡大です。
flat_BINNING_1_integration_RGB_VNG_cut

カラー化すると結構ノイジーなのがわかります。なんだかカラーノイズと言われているものに似ています。これが固定ノイズとなって、星像を止めたときには逆に、この固定ノイズが流れるのでしょう。

でも本当にこれくらいのことであんなに盛大に縞ノイズが出てくるまで画像を悪化させるのでしょうか?だって直接処理しているのはlight frameの1枚1枚で、それに対してflat frameは枚数少ないとは言え7枚です。それが流れて見えるので、スタックした20枚:7枚でなく、1枚:7枚の比で比較してもいいような気がします。ここは少し疑問が残ります。


flat frameのノイズを改善してみたら?

本当にflatが効いているのか確認するためにもう少し試します。master flatにPI上でTVGDenoiseでノイズを減らしたflat frameを適用して処理してみました。その結果がこれです。
integration

拡大です。
integration_cut

わかりますでしょうか?多分拡大していない方がわかりやすいと思いますが、細かい縞ノイズが消えて、大きな構造の縞ノイズが出てきています。

この結果から考えられることは、flat frame自身でのノイズ除去があまりうまくいっていなくて、細かいカラーノイズが大きな構造のノイズになってしまったからです。

少なくとも、これらの結果からflat frameが縞ノイズに影響を与えているのは間違いないでしょう。ただし、あくまでこれも限られた環境、限られた条件下での話の可能性もあります。ここら辺は次回以降に検討してきます。


とりあえずのまとめ

どうも聞いていると、縞ノイズに困っている人と困っていない人がいるみたいです。なので、一概に今回の結果が正しいとは言えないと思いますが、flat補正の影響は私と同じような状況の人には朗報となるかもしれません。でもflatが原因の全てだなんていうことを言う気は全くありません。あくまで原因の一つであるのではないかということです。

いろいろ検索してみましたが、flat補正が縞ノイズの原因だとバッチリ書いてあるところは見つかりませんでした。むしろこれまで思っていた通り、flat補正をきちんとすると縞ノイズが解決できるはずだと書いてある記述はたくさん見つかりました。普通だとこちらのセンスの方が正しといと思ってしまうのは、ある意味ごくごく普通でしょう。そもそもなんでflat補正が縞ノイズに対してダメなのか、まだよくわかっていません。これからいろいろ検証していきたいところです。

今回、縞ノイズに対する根本的な解決策を示したわけではありませんが、状況によってはflat補正を外して画像処理することで、縞ノイズを軽減できる可能性があることがわかります。その上で、PIのABEやDBE、FlatAidProなどを使ってカブリや周辺減光を減らすことで対応する必要もあるでしょうか。この場合、ゴミやアンプグローなどは除去できません。

もう一つ重要なことはは、きちんとディザーをして散らすことでしょうか。多分縞ノイズって複合原因なんです。1方向に流さないようにすること。これが重要なのは変わりません。ディザーはおそらく根本解決の方法の一つです。


この記事まだまだ続きそうです。今回はバラ星雲での撮影のみ取り上げましたが、次回は過去に出た縞ノイズの場合なども検討してみたいと思います。

 


縞ノイズを時間的に見てみる

もしかしたら興味がある人もいるかと思い、縞ノイズを時間的に可視化してみました。先のバラ星雲の1日目のディザーなしで撮影した失敗画像約2時間ぶんの24枚を使っています。中心あたりの一部を拡大して見ています。といってもやったことは簡単で、ディザーなしで撮影した画像を、PixInsightで動画にしただけです。

Blink

これはガイドをしていても、たわみなどでガイド鏡と撮影鏡筒の相対的な視野が一方向にずれてしまうために起きます。それでももしノイズが完全にランダムなら、このように流れるようには見えないはずです。ノイズが流れて見えるということは、ノイズに時間的なコヒーレンスがあるということです。うーん、結構ありますね。あれだけの縞ノイズになるのもわかる気がします。

integration_DBE_PCC_AS_cut



縞ノイズ動画の作り方

さて、この動画の作り方です。今回縞ノイズを時間的にみる目的でしたが、このやり方覚えておくと色々応用が効きそうです。基本的に、PixInsightを使います。
  1. 普通にBatchPreprocessing 処理などで進めます。
  2. master以下のregsteredフォルダに入っている、位置合わせまで終わって、Integrationする寸前のファイルを使います。ここまでは普通にDebayerしてStarAlignmentでも構いません。
  3. Blinkでそれらのファイルを開きます。
  4. とりあえずは、デフォルト機能の再生ボタン(右三角)を押すと確認できますが、順に動画のようになるように見せるだけです。オートストレッチもできるのでみやすくなります。カラーバランスが悪い場合は、RGBのリンクをオン/オフする「鎖マーク」のアイコンを押してください。
  5. Previewで一部を切り取るとその部分だけ拡大して見えます。
  6. それをBlink画面の右下の一番右端の撮影開始マークアイコンで動画にします。
  7. ffmpegがない場合は別途インストールしてください。
  8. ffmpegがインストールされていても、実行ファイルをフルパスで入れないとダメでした。/usr/local/bin/ffmpegとかいうことです。
  9. オプションは秒20コマのgifファイルにしたかったので、 -y -r 20 -i Blink%05d.png Blink.gifとしました。
このように結構簡単に動画を作ることができます。


M42の場合

もう一つ例です。TSA-120でM42を撮影した時のものです。約30分くらいの撮影時間で、枚数は14枚です。これはディザーもそうですが、ガイドさえもしてないので赤道儀の極軸の精度が悪くてずれていってしまっているものです。上のバラ星雲のように画像の一部ではなくて、ほぼ全体像を示しています。解像度はこのブログにアップできるように(一画像当たり5MBが制限)落としてあります。

Blink

縞ノイズの原因となるクールノイズなどに混ざって、おそらくバイアスノイズに相当する縦線のように見えるノイズも流れていることがわかります。基本的にランダムでないノイズは、全て縞ノイズになり得るだろうことがわかります。

これを普通にスタックすると下のように縞ノイズが盛大に出てくるわけです。

integration



バラ星雲のもそうですが、時間的にこれだけ明らかに変化しているのがわかるのなら、なんとか分離してペラっと一枚皮を剥ぐようにこのノイズだけ取れないですかね?

今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。(2020/4/16 追記: APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。また、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。)
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


年末の土曜日、次の日もまだ仕事があったのですが、夜から晴れてきたので撮影開始です。ターゲットはバラ星雲。過去に何度か挑戦していますが、いまだに満足したのは撮れていなくて再チャレンジです。


天気は微妙

この日は天気予報では午後蔵から晴れる予定でした。でもずっと曇り空が続いていて、1時間天気予報も時間と共に曇りの時間が後ろに下がっていって、なかなか晴れません。夕方もダメ、夕食前にいったん晴れてご飯食べてから外に出るとまた一面曇り。のんびりして夜21時頃に出ると星は見えるけど薄曇り。22時過ぎにもう寝ようかと思って最後外に出ると、やっと晴れてました。すぐに準備を始めます。

機材

バラ星雲だと画角的に600mmとフルサイズでぴったりくらいなので、この日はいつものFS-60Qではなく、同じ600mmのFC-76を持ち出すことにしました。あの白濁レンズのFC-76です。

  • 鏡筒: タカハシ FC-76 (口径76mm, 焦点距離600mm、対物レンズが白濁) + FC/FSマルチフラットナー(x1.04)
  • 赤道儀: Celestron CGEMII
  • センサー: Canon EOS 6D HKIR改造
  • フィルター: サイトロン QBP(Quad Band Pass) filter
  • 日時: 2019年12月29日0時52分-44時17分
  • 場所: 富山市下大久保
  • 月齢: 22.1、ほぼ下弦の月
  • 撮影対象: バラ星雲 (The Rosette Nebula 、NGC 2237-9, 2246、Caldwell 49)
  • 露光時間: 300秒 x 32枚 = 2時間40分

いつも通りSharpCapとASI178MCで赤道儀の極軸を合わせて、その後はコンパクトなStickPC上のBack Yard EOSで撮影、その画像をAll Sky Plate Solverで位置特定して、赤道儀の向きとの誤差をCarte du Cielにフィードバックして位置合わせをします。

でもここでトラブル。この状態でプレビューをすると何故か画面が流れています。PHD2で見ていてもターゲット性自身がどんどんずれていく始末。極軸の精度がものすごく悪いのか、赤道儀のトラッキングレートが恒星時以外になっていないか、ケーブルとか変なテンションはかかっていないかなど、いろいろチェックしましたがラチがあきません。諦めて最初からやろうと赤道儀をホームポジションにしようとしたのですが、何故か少しだけ動いてすぐに止まってしまいます。これは先日交換したバッテリーが悪いのかと一瞬疑いましたが、それも大丈夫そう。さらにCarte du Cielで自動導入しようとしても同じ様に少しだけ動いてすぐに止まってしまって、全然目的の天体まで行きません。何かおかしいです。

この時点でやっと、CMOSカメラからのガイドケーブルと、赤道儀のハントコントローラーにPCからつないであるケーブルを引き抜くと、きちんとホームポジションまで動くことが判明しました。どうも機械系のトラブルとかいうよりは、ソフト系のトラブルのようです。そもそもASCOMドライバーにBack Yard EOS、All Sky Plate Solver、Carte du Ciel、PHD2と合計4つのソフトがアクセスしています。一度全部落として、Back Yard EOSは立ち上げてもASCOMに接続させず、All Sky Plate Solver、Carte du CielだけASCOMに接続して位置特定と赤道美の位置合わせ、その後All Sky Plate Solver、Carte du Cielを落としてからPHD2でASCOMにつないでガイドとしたら、無事に動き出しました。やはり全部をASCOMに繋いでしまうと赤道儀の制御の取り合いになってしまう様です。

あ、あと位置合わせで少しトラブルがありました。All Sky Plate Solver、Carte du Cielどうしても位置のズレが出てしまいます。画角の横幅の5分の1くらいでしょうか、今回バラ星雲の中心がどうしてもずれてしまいます。何度やっても同じようになります。こちらは仕方ないので、マニュアルで少し動かして最終位置調整をしました。以前はこんなことはなかった気がしますが、また時間のある時にテストし直してみます。

トラブルで撮影開始個を遅くなってしまいましたが、その後の撮影は順調そのもの。QBPのおかげもあり、自宅でもISO3200で5分まで露光させられます。後は放っておいて寝るだけです。

あさ8時ころに片付けたのですが、赤道儀用のパワータンクは中のバッテリーを交換したこともあり、全く問題なく朝でも稼働していました。その一方、デジカメのバッテリーが朝の5時半頃に切れてしまっていました。でも朝方少し雲が出たようで、実際に使えたのは4時半頃の画像まで。2時間半以上撮影できたので十分な時間です。


画像処理

まずはJPG撮って出し一枚画像です。苦労した魔女の横顔と違い、一枚だけでも十分に見えています。

ROSE_LIGHT_6D_300s_3200_+5cc_20191229-02h10m36s201ms

今回は期待できそうなので、最初からフラットもダークも撮影しました。フラットはiPadのColor Screenというアプリで白色最大輝度にして、ISO100、露光時間100mm秒で100枚ほど撮っています。周辺減光とセンサーのゴミはほとんど回避できました。当然空から来る緩やかな被りは少し残るので、PixInsightのDBEで大まかに取り除きます。

ダークも温度をできるだけ合わせる様にしました。昼までのダーク撮影で、いつもは冷蔵庫や冷凍庫に入れたりするのですが、あまり冷えなかったり冷えすぎたりするので、今回はクーラーボックスに冷凍した補正剤を入れてカメラとStick PCごと突っ込みました。機材が濡れない様に注意が必要ですが、温度はそこそこ安定していたのでこれはいい方法ではないかと思いました。保冷剤の位置を調整することで温度もある程度調整することができます。Stick PCごと入れる理由は、BackYardEOSを走らせることができて、センサーの温度をファイル名に書き込むことができて、後から温度管理が楽になるからです。温度がばらつくこともあるので、今回5分のダークファイルを100枚以上撮影し、その中で適した温度のものを37枚選びました。

画像処理も順調そのもの。QBPのせいもあり、青色が出にくいのですが、バラ星雲の中心は青色が綺麗です。少し青色を強めに強調していますが、おそらくこれまででは最も満足のいくバラ星雲になったかと思います。魔女の横顔で苦労したときのテクニックも随所に生きています。


綺麗に出た!

結果を見てください。自宅撮影でこれです。バラの細かい構造も結構出ています。私的にはかなり満足です。やはり光害地だとQBPの効果絶大です。

masterLight_integration_DBE1_PCC_AS_all2c

あえて不満を言うと、QBPのせいか恒星のオレンジ色が出にくいこと。もう少し恒星をうまく際出させることが次の課題でしょうか。

ちなみに、かなり昔に同じ6Dで自宅撮影で撮ったのがこれです。

light_BINNING_1_integration_DBE_PCC_AS1acut

2018年の3月なので1年半以上前です。違いはQBPだけのはずなのですが、本当に雲泥の差です。6Dもまだ使い始め、PixInsightも使い始めなので、もちろん慣れや画像処理の腕も違うと思いますが、こうやってみるとなんとか進化していますね。


まとめ

QBPって得意不得意があると思います。Hα領域は自然な色に近くなるので威力が発揮できるのかと思います。反面、青やオレンジは苦手な様で、自然な色に見せるためには画像処理でうまく補填してやる必要がありそうです。

魔女の横顔に引き続き、自宅で色々撮影ができる目処がついてきました。これくらい写るのなら、私的には今のところ満足です。もちろんうまく写るのは限定された天体だとは思いますが、できれば系外銀河まで自宅でうまく撮影できるようになればというのを目標にしたいと思います。


このページのトップヘ