ほしぞloveログ

天体観測始めました。

2024年02月

CP+2024参加記です。機材についてはすでに多くの方のレポートがあるので、今回は「私のCP+」として私的なことを中心に書きたいと思います。機材レポートもしますが数はあまり多くはなく、そこで何か経験したこととか、そこでどう思ったかを中心に書きます。


CP+前の準備

CP+までにセミナーの準備をしておく必要があったのですが、CP+が始まる2月19日の週は月曜から仕事がものすごく忙しくて、ほとんど時間が取れませんでした。セミナーのための撮影は以前のブログ記事にあるように、前週までにほとんど終わっていて、ある程度の画像処理の方針までは立てていました。火曜日にこれも既にほとんど書いてあった最後のブログ記事はアップしましたが、肝心の画像処理に費やす時間が全然取れませんでした。

やっとまともな準備に入ったのが出発前日の木曜の夜のことです。パワーポイントでスライドの最後の仕上げと、あとははとにかく画像処理の練習です。スライドの方は方針は決まっていたのと、ある程度は事前に書いておいたので、ほとんど問題ありませんでした。問題は画像処理の方です。本番当日は持ち時間40分、その中に4通りか5通りの画像処理を詰め込もうと画策していたので、相当スムーズに進める必要があります。繰り返しの練習が必要です。


CP+会場へ向けて出発

移動日の金曜朝、富山からの新幹線がかなり席が埋まっていたので、朝早くの移動は諦め、ちょっとのんびりで午後の途中で会場に到着するくらいにしました。朝自宅で少し時間があったのと、新幹線の中でも時間があったので、練習を繰り返していました。

IMG_9022

IMG_9024

去年も同じことを書いてますが、北陸新幹線の東京方面行きはほとんど「ますとぶりのこばこ」を買って車内で食べています。ちょうど一人分で美味しいです。どちらかというとます(サケ)の方が好きなのですが、ますだけだと飽きてしまうので、2種類入っているのがちょうどいいです。
IMG_9026

移動はスムーズで、13時半頃にはみなとみらい駅に到着。駅は今年もサイトロンの広告で溢れていました。
IMG_9030

IMG_9034

14時前にはパシフィコ横浜に到着。去年は快晴だった覚えがありますが、今年はあいにくの小雨です。でもほとんど屋根のあるところを通ってくるので、土砂降りでなければ傘がなくても特に問題ないです。
IMG_9038


飯田ともき先生と会えた!

会場内に入るとすごい人です。去年より格段に人が多い印象でした。
IMG_9040

会場に到着して早速、昨年お会いすることができなかった漫画家の飯田ともき先生のブースへ。スタッフの方に聞いてみると「15時頃にはいらっしゃる」とのこと。3年前のコロナ禍のCP+の電視観望のオンラインセミナーの様子を「カメラバカにつける薬」に載せていただいた経緯を説明し、ぜひお礼を言いたい旨をスタッフの方にお伝えしたところ「15時少し前に来てもらえれば時間を取れるかもしれない」とのことです。とりあえず、その場にあった「カメラバカにつける薬」の1巻と2巻を買って、特典の2冊セットで買った人用のシールと患者さんシールをもらって、15時までは別のところを回ることに。あ、実は1巻持っていることを忘れていて2冊とも買ってしまいました。なので今1巻は自宅に2冊あります(笑)。

その後、しばらく会場を回って15時ちょっと前に再びブースを訪れると、スタッフの方が案内してくれて、念願の飯田ともき先生にお会いすることができました。掲載された当時の「カメラバカにつける薬」をiPhoneに出しておいてお見せすると、ちょうどCP+でのことなので、「あー、あの時の」という感じですぐに思い出してくれたようです。私はカメラはあまり詳しくはないのですが、カメラバカにつける薬が連載開始した当時からのファンで、そんなマンガのコマの中に自分の電視観望機器が描かれていて、しかも掲載されたものを見て初めて知ったので、それはもう大喜びだったのです。今回、やっとそのことのお礼を、直接お伝えすることができました。サインの整理券を持っていなかったのですが、なんと「サインしましょうか?」と言ってくださり、単行本の第2巻にサインまでしていただきました。

IMG_9063

しかもこの一連の出来事をXに投稿したら、先生からいいねをいただき、しかもフォローまでしていただきました。

今回のCP+でやっと3年越しの夢と、先生にお礼を言うという課題が達成できました。


サイロトンブース

天文関連ブースで一番元気なのは、やはりサイトロンブースでしょうか。新製品や試作品など、見るものが目白押しです。また、CP+の天文民の居場所にもなっていた感があります。ここにいれば、誰かに会えるというやつです。実際知り合いにも、初めての方にも、何人も会うことができ、機材をネタにいろいろ盛り上がりました。

IMG_9061
IMG_9062
本当に点のスポットダイアグラム。

今回のサイトロンブースでの一番の注目は、胎内工場で作るという国内生産の屈折鏡筒でしょうか。(次の日の土曜日に)開発者の方と少しお話しさせていただきましたが、元々物理出身で太陽関連の研究をされていたとか。P社、V社と研鑽を積まれ、ある意味集大作のような鏡筒と言えるのかもしれません。とにかくスポットダイアグラムがすごいです。MTF曲線と合わせて、もうやりすぎかと思うくらいです。土曜日に新製品紹介で開発者の方のセミナーがあったのですが、
後に出てきたAskarの185mm APO屈折のスポットダイアグラムが、本来これ自身は決して悪くはないのに、比べてしまうと実際よりも大きい印象で見えてしまいます(笑)。

IMG_9044
天文でないと思われるカメラ女子がこれをみながら
「これで星とか撮るんだよね!?」とかキャーキャー言ってました。

もちろん今の試作のスポットダイアグラムなどは全て設計値のはずです。実測でどれくらいになるのか期待していますとお伝えしました。あと、セミナーの中で「暗すぎず、明るすぎず」としてf5としたとのことですが、少し突っ込んでお聞きしてみました。S/Nの観点から、明るい方が有利なのはいうまでもなく、個人的には手持ちのε130とかの明るい鏡筒が好きなのですが、やはり明るくする方向は技術的に途端に難しくなるとのことです。いずれにせよ期待大で、あとは値段でしょうか。やはり試作品のVixenの70mmの小型VSDと性能、値段でどう住み分けができるのか、興味深いです。

と、こんな話を開発者の方としていると、(再びすみません、土曜のことです)たまたま大西さんがやってきて、今回のもう一つの目玉のステラグラスの話になりました。

IMG_9049

天リフさんの投稿でSNS上ですごい注目を集めているようですが、一部少し誤解をされているような記事も見られます。これはコーティングで光をどうこうするとかの、既存のクリアグラスの類のものとは全くコンセプトが違い、軽い補正レンズを、それもメガネの上からかけられるようにしたものです。暗い夜に星を見る場合、少しピントがずれるそうです。そのずれたピントを補正するのが目的で、結果星が見えやすくやすくなるというものです。メガネの上からかけることができるのもポイントで、観測中に付け替えの手間がないのがいいです。詳しいメカニズムは、日曜に行われた大西さんのセミナーを見るといいかと思います。


私は試作品を小海の星フェスで手に入れたのですが、コンセプトを聞いた時天才かと思いました。私の場合、そもそも今使っているメガネの度がだいぶ合わなくなってきているので、普段空を見上げてもあまり星が見えていないのですが、かといって度の強いレンズにすると普段の生活で目が疲れてしまいます。星を見るときだけ度を上げたいのですが、メガネを付け替えるのも結構面倒です。なので観望会の時などだけ、最初からメガネの上にかけられるこのグラスは、ものすごく便利なのです。実際に小海で見た時に、あからさまに星が見えるようになったのに驚き即買いでした。その後星を見る時は必ず使うようにしています。

さらに、実は車の座席のところにいつも置いてあり、運転中もこれを使っています。ちょっと遠くの見えにくかった看板などの文字も読めるようになるので、もう普段使いで役に立っています。
IMG_9122

値段はまだわかりませんが、眼鏡業界関連の方の情報によるとかなりいいレンズを使っているとのことで、眼鏡屋さんが作るよりも廉価な値段設定になりそうと言う話をCP+会場で聞きました。実際に商品化されるとのことで、星を見る人の必須アイテムになりそうです。

ここで、最初の方の大西さんが入ってきた時の議論に戻るのですが、大西さんによると「このグラスでは星は見えるようになるが、天の川が見えにくくなる」と言うのです。理由は「そもそも人間の目は暗いものに対しては分解能が落ち、その落ちた分解能で度のオーダーの粗い面積を積分することで天の川として見える」と言うのです。確かにこれは、星座ビノでもよく似たことがあると思っていました。星座ビノを使うと星の数はあからさまに増えるのに、天の川は実はそれほど良く見えるようにならないのです。そんなことを大西さんと話しながら、なぜ人間の目は暗いところでは分解のが落ちるか、なぜ暗いところではピントがズレるか、色々話を聞くことができました。セミナーでも同様の話がされているので、興味のある方はぜひ配信動画を見てみるといいでしょう。

なのでこのステラグラス、星が見えるようになるのにはきちんとした根拠があり、どこかの意見であったような紛い物の類ではないかという根拠のない推測は、全く間違っています。


Vixenブース

Vixenさんは今回とても元気です。定番の90mmのVSDに加えて、70mm版のVSDの試作品や、ガイド用カメラをVixenブランドで出しています。
IMG_9068

IMG_9071

Vixenブースでいろいろ説明してくれたのは、2020年の福島のスターライトフェスティバルでわざわざ私を探して会いにきてくれたIさんです。当時はVixenに入ったばかりの新入社員さんに近くて、ずいぶん若い印象でした。もちろん今でも十分に若いのですが、今回お会いしたら、なんか自信に溢れているというか、貫禄が出てきていた気がしました。試作品を含めて、ここ最近の新製品にほとんど関わっているそうです。VSDの70mm版の説明に加えて、VSDよりもう少し安価な65mmの撮影用鏡筒も紹介してくれました。これが面白いのは、焦点合わせに2種類の鏡筒を作っていて、一つは普通の接岸側のフォーカサー、もう一つは鏡筒の中の対物レンズが前後するタイプです。
IMG_9069

IMG_9070
対物部分の写真を撮るのを忘れてしまいました。
本当に筒の中の対物レンズ部分が前後します。

他にも、以前60mmでクラウドファンディングで60mmの鏡筒を販売していましたが、それの後継にあたる72mmのものも紹介してくれました。
IMG_9073

どうやらIさん、60mmの方のプロジェクトの成果で、新規開発の方にいろいろ関わるようになったとのことです。こうやって若い人をピックアップしてどんどん新製品に関わらせるというのは、Vixenなかなかやりますねという感じです。今年Vixenが元気な理由は、どうやらIさんが頑張っているからなのかもしれません。応援しいてるので、ぜひ今後もIさんには頑張ってもらって、Vixenを盛り上げていってほしいです。


電視観望

電視観望という観点からいくと、例えば同じVixenブースでCelestronのRASA6に相当する電視観望機器が展示されていました。本家RASAは8インチまでしかないのですが、6インチはこの電視観望セットのみにあります。まだ数日前にやっと日本に届いたということで早速の展示品でしたが。Celestronと、Celestronブランドを扱うVixenが電視観望に対してどういった方向性を見せていくのか、注目です。
IMG_9074
IMG_9076

そういった意味ではBORGは今年はあからさまに電視観望と謳ってきていました。
IMG_9080
去年までは「この鏡筒で電視観望もできますよ」という、口頭での説明くらいでした。実は今回説明してくれた女性のスタッフさんは去年と同じ方で、昨年は「これから私の電視観望のセミナーがあるので、もし興味があったらぜひ」と声をかけた方でした。私のことも覚えていてくれて、昨年のセミナーも聞いてくれて、さらには過去のCP+の動画も全部見てくれたとのこと。「今回もまたセミナーやりますよ。画像処理についてですよ。よかったらぜひ!」とお伝えし、セミナーの時間を知らせておきました。BORGが電視観望を推すようになっているのも、もしかしたら私のセミナーの影響が少しはあるのかもしれません。そうだとしたらとても嬉しいです。あ、せっかくのBORGブースなので、去年も「いまだに中川さんと会ったことないんです」という話をしたのですが、昨年一年間もまだ会えていなくて、今年もまた「まだ中川さんと会えてないんです」という話をしました。今回はちょうど前日に来ていらしたらしいのですが、またすれ違ってしまいました。いつかお会いしたいです。

電視観望といえば、ZWOはSeeStarが盛況で、2台展示してありました。社長のSam氏とも少しだけ話すことができました。
IMG_9058
でもここで注目したのは中判サイズのCMOSカメラです。すでに以前から販売はされていますが、実物を見たのは初めてです。やはりかなり大きいセンサーです。値段もまあそれなりにというか、なかなか個人では買えないような値段なのですが、いつか使ってみたいです。でも性能を引き出すためには鏡筒を選ぶはずなので、カメラだけではダメでトータルで考えなければダメですね。 
IMG_9057


David Shen氏のセミナー

土曜日のメインイベントは、サイトロンブースでのSkyWatcherのオーナーのDavid Shen氏のセミナーでしょうか。氏が若い頃から苦労して光学機器を作り続け、現在は観望会や教育などにも力を入れているという内容でした。光学機器製作の技術を積み上げ、SkyWatcherという自社ブランドを立ち上げ、高価だった天文機器を廉価に販売し、天文という文化を世界中に広めたいという思いを、実際に実現しているというのは並大抵の努力ではないはずです。もし自分が天文機材を作る立場になったらと想像すると、とてつもなく大変で、到底できないことだと思ってしまいます。

SkyWatcherは廉価な機器が中心と言いながらも、AZ-GTiや今回の重量級積載重量を誇るシンプルな構造の赤道儀、太陽望遠鏡など、非常に面白い機器を提案してくれる会社です。今後も我々天文マニアが泣いて喜ぶような面白いアイデアと機器をどんどん出してほしいと期待します。
IMG_9065

以前2年前のCP+で紹介したNEWTONYが今回金ピカになって展示されていました。
IMG_9047
NEWTONYは元々教育用鏡筒で、筒の中を見ることができます。残念ながら金ピカモデルは中を見ることはできないようでしたが、DIYモデルがあるように、Shen氏の教育にも力を入れたいという思いが実現したのかと思います。


明日はどうなる?

他にもいくつかのブースは回りましたし、上の記事には次の日の土曜日に回ったブースの話も一部入っています。残りのいくつかのブースの話は次の記事で、そして土曜日のセミナー本番の様子も次の記事で書きたいと思います。

この日のCP+は18時で終了です。帰り道で横浜の夜景を撮りました。富山の田舎から見ると横浜の都会っぷりが目に沁みます。この日は素直にホテルに帰って、もう少し次の日のセミナーの練習です。

IMG_9082


CP+のセミナー、いかがでしたでしょうか?細かい操作も多かったので、その場では少し見にくいところなどもあったかもしれません。すでに動画配信が用意されているので、わかりにくかったところは繰り返しチェックしてみてください。

 

今回の記事は、動画配信を元に、わかりにくかったところの補足をしようと思います。


処理画像の準備

セミナーの中で話した、撮影までの状況と、SharpCapでの再ライブスタックは、これまでの記事で書かれています。







今回の記事は、セミナーで示した中でも、特に画像処理の部分について補足していきたいと思います。「なぜ」この操作をするべきなのかという意味を伝えることができればと思います。

セミナーは
  1. (23:50) 入門用にMacの「プレビュー」を使って、その場で処理
  2. (27:05) 初心者用にPhotoshopを使って、その場で処理
  3. (32:40) 中級者用に「GraXpert」とPhotoshopを使って、その場で処理
  4. (41:50) 上級者用に「PixInsight」をあらかじめ使った処理の結果を流れだけ
という内容 (括弧内の時間は配信動画での位置) でした。

使用した画像は、SharpCapで1分露光で撮影したオリオン大星雲を60枚したものです。これを、上の1と2はオートストレッチしたものをPNGフォーマットで8ビットで保存されてもの、3と4はRAW画像のfitsフォーマットで16ビットで保存されたものです。

オートストレッチで保存できるのは2種類あって
  1. 「Save with Adjustments」を選ぶ、LiveStackでのオートストレッチのみかかったもの
  2. 「Save exactlly as seen」を選ぶ、LiveStackでのオートストレッチに、さらに右パネルのオートストレッチが重ねてかけられてもの
です。今回は後者の2の保存画像を元に画像処理を始めます。いかが、SharpCapで保存されたライブスタック済み、オートストレッチ済みの初期画像です。

ここでオートストレッチについては少し注意が必要で、何度か試したのですが、ホワイトバランスや輝度が必ずしも一定にならないことがわかりました。全く同じRAWファイルをスタックした場合は同じ結果になるのですが、スタック枚数が変わったり、別のファイルをスタックしたりすると、見た目に色や明るさが変わることがあります。どうも比較的暗いファイルでこれが起こるようで、ノイズの入り具合で左右されるようです。明るさはまだ自分でヒストグラムの黄色の点線を移動することで調整できるのですが、RGBのバランスは大まかにはできますが、極端に暗い画像をストレッチするときの微妙な調整はSharpCap上ではできないようです。Photoshopでは背景と星雲本体を個別に色合わせできるのでいいのですが、WindowsのフォトやMacのプレビューでは背景も星雲本体も同じように色バランスを変えてしまいます。このことを念頭においてください。


Windowsのフォトでの簡易画像処理

まず、入門用のOSに付いている簡易なアプリを使っての画像処理です。

セミナー当日はMacとWindowsの接続が不調で、SharpCapのライブスタックとWindowsのフォトでの加工をお見せすることができませんでした。手持ちの携帯Wi-FiルーターでMacからWindowsにリモートデスクトップで接続しようとしたのですが、2.4GHzの信号が飛び交い過ぎていたようで、遅すぎで使い物になりませんでした。あらかじめテストはしていたのですが、本番でこんなに変わるとは思ってませんでした。

お詫びではないですが、Windowsのフォトについては、配信動画の代わりに、ここでパラメータと結果画面を追加しておきます。画像処理前の、SharpCapのオートストレッチで保存された画像は以下のものとします。

Stack_60frames_3600s_20_34_59_WithDisplayStretch

これをWindowsのフォトで処理します。
  1. WindowsではPNGファイルをダブルクリックすると、フォトが立ち上がります。画像処理をするには、上部真ん中にあるアイコン群のうち、左端の「画像の編集」アイコンをクリックします。
  2. 上部に出てくるメニューの「調整」を押します。
  3. フォトの弱点は、背景を暗くするのがしにくいことでしょうか。今回は「コントラスト」を右に寄せることで背景を暗くします。
  4. 星雲中心部が明るくなりすぎてます。トラペジウムを残したいので「強調表示」を左にして明るい部分を暗くします。
  5. 色バランスは「暖かさ」と「濃淡」で整えます。「暖かさ」左に寄せて青を出し。「濃淡」を右に移動しバランスを整えます。
  6. 「彩度」をあげて、鮮やかにします。
setting

画面が暗い場合は「露出」を少し上げるといいかもしれません。「明るさ」は変化が大きすぎるので使いにくいです。

上のパラメータを適用すると、結果は以下のようになります。
photo

たったこれだけの画像処理でも、見栄えは大きく変わることがわかると思います。


Macのプレビューでの簡易画像処理

Macのプレビューでの画像処理過程はセミナー中に見せることができました。でも今動画を見直していたら、どうも本来処理すべき初期画像を間違えていたようです。

Windowsとの接続がうまくいかなくて、内心かなり焦っていたようで、本来は上のフォトで示した初期画像にすべきだったのですが、間違えて出してしまったのがすでに加工済みの下の画像で、これを元に画像処理を進めてしまいました。焦っていたとはいえ、これは完全に私のミスです。本当に申し訳ありませんでした。
Stack_60frames_3600s_20_34_59_WithDisplayStretch 2

ここでは、改めて本来加工するはずの下の画像で進めようと思います。フォトで使ったものと同じものです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch

最終的なパラメータはこれくらいでしょうか。一つづつ説明してきます。
setting
  1. オートストレッチで星雲本体を炙り出た状態だと、星雲中心部が明るくなりすぎます。トラペジウムを残したいので「ハイライト」を下げます。
  2. 背景が明るすぎるので、上のヒストグラムの左のマークを右に動かします。星雲本体を炙り出すために、真ん中のマークを左に少し寄せます。これは後のPhotoshopの「レベル補正」に相当します。
  3. 色バランスは「色温度」と「色合い」で揃えるしかないようです。「色濃度」は左に動かすと青っぽくなります。「色合い」は右に動かすとバランスが整います。最後は画面を見ながら微調整します。
  4. 「シャープネス」を右に寄せると、細部を少し出すことができますが、今回はノイズがより目立ってしまうので、ほとんどいじっていません。

結果は以下のようになりました。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
これをみると、セミナー本番中にプレビューで処理を開始したものとよく似ているかと思います。要するに、練習でプレビューで処理をしたものを間違えて開いてしまったと言うわけです。こんなことも気づかないとは、やはりその時はかなり焦っていたんですね。それでも次のPhotoshopの処理はそれに気づいて、SharpCapから直接保存されたものを処理に使っています。


Windowsのフォトも、Macのプレビューも、いじることができるパラメータはそう多くはないので、解はある程度一意に決まります。むしろパラメータは画像処理を始めるときの初期のホワイトバランスと、初期の背景の明るさに依りますでしょうか?これはSharpCapの保存時に決まるのですが、保存時に細かい調整ができないのが問題です。それでも、方針さえしっかりしていれば、パラメータに関してはここら辺しかありえないというのがわかるかと思います。繰り返して試してみるといいかと思います。


Photoshopを使った画像処理

次はPhotoshopです。こちらはできることが一気に増えるので、パラメータ決定の際に迷うかもしれません。それでも方針をしっかり立てることで、かなり絞り込むことができるはずです。

初期画像は上と同じもので、SharpCapでストレッチされたPNGファイルです。
Stack_60frames_3600s_20_34_59_WithDisplayStretch
  1. (27:10) まず、背景の色バランスの調整です。これはPhotoshopのメニューから「イメージ」「色調補正」「レベル補正」を使うと楽でしょう。RGBの各色をそれぞれ個別に調整して、まずは各色の山のピーク位置と、各色の山の幅を調整します。調整の様子は動画で確認してみてください。山の位置が揃うと、背景の色バランスがとれたことになります。
  2. (27:40) 次に動画では、同じ「レベル補正」を使って背景を暗くしています。左の三角を少し右に移動します。暗くしすぎると、後から分子雲が出にくくなるので、これはもしかしたら必要無かったかもしれません。
  3. (27:55) 次に、青を少し強調します。一般的に星雲本体の青は出にくかったりします。特に今回は光害防止フィルターでQBP IIIを使っているので、そのまま処理すると、赤でのっぺりした星雲になりがちです。「イメージ」「色調補正」「トーンカーブ」と行って、「ブルー」を選び、ここは慎重に真ん中ら辺を少しだけ上げます。トーンカーブは左の方が暗い背景に相当し、真ん中ら辺が星雲の淡いところ、右が星雲の明るいところや、恒星に相当します。
  4. ただし真ん中を上げると、せっかくバランスをとった背景も青くなってしまうので、トーンカーブの線上の左の方をクリックしてアンカーを打ち、暗い背景部分があまり変わらないようにします。アンカーの部分だけが動かなくなるので、アンカーの右の方の線を動かすと、アンカーの左側も変わってしまって背景のバランスが崩れることがあります。そんな時は、左の方にアンカーを複数打って、背景バランスが崩れないようにしてください。
  5. (28:20) 少し地味なので、彩度を上げて各色の諧調が豊かな、見栄えがする画像にします。「イメージ」「色調補正」「自然な彩度」と選びます。その中に2つ触れるパラメータがありますが、「彩度」の方はかなり大きく変わってしまうので、私は「自然な彩度」の方を触ることが多いです。
  6. 補足ですが、色を出そうとしてよくあることなのですが、彩度を単体であげるとくすんだような俗にいう「眠い」画像になります。そんな時はまずは輝度を上げるようにしてください。輝度に関しては、画面に集中してしまうと、暗い状態でもいいと思ってしまうことがよくあります。一度ネットなどで自分が一番いいと思う画像をブラウザ上で見て、そのすぐ横に今編集している画像を並べてみてください。思ったより明るさも色も出ていないことに気づくかもしれません。客観的になるのは難しいですよね。並べて比べながら、まずは一番いいと思う画像くらいになるように明るさや彩度を出してみるのがいいのかと思います。
  7. (28:40) Photoshopで便利な機能が、「フィルター」の中の「CameraRawフィルター」です。まずは「ライト」の中の「ハイライト」を下げることでトラペジウムを守ってやります。
  8. (29:10) 次に、背景に含まれる分子雲を引き出すために「ブラック」を右に振り、「シャドウ」を左に振ります。ブラックとシャドウはよく似ていますが、逆にブラックを左にシャドウを右に振ってやると、似て非なるものだとわかるでしょう。この分子雲の炙り出しは、「効果」の「明瞭度」も効き目があります。セミナーでは説明しませんでしたが、「コントラスト」も同じような効果がありますが、こちらは強すぎる感があるので、使うとしても微妙に調整します。
  9. セミナーでは説明しませんでしたが、細部は「効果」の「テクスチャ」である程度出すことができます。同時に背景のノイズや不自然な大きな構造も出すことになるので、かけすぎには注意が必要です。
  10. (29:35) ここまで分子雲をかなりあぶり出してきたことになるので、かなりノイズが目立っていると思います。Photoshopでも簡単なノイズ処理ができます。その一つが「CameraRawフィルター」の「ディテール」の「ノイズ軽減」です。ノイズの具合に応じて、50とか、最大の100とかに振ってやります。同時に「カラーノイズ」も除去してしまいましょう。カラーノイズは画像を拡大すると、RGBの細かい色違いのノイズがあるのがわかると思います。拡大しながらカラーノイズが除去されるのを確認してみるといいかと思います。
  11. (30:45) ノイズを除去すると、どうしても細部が鈍ってしまいます。これは同じところの「シャープ」を上げてある程度回避できますが、完全に戻すことはPhotoshop単体ではできないかと思います。ノイズ処理に関してはここら辺がPhotoshopの限界でしょうか。
  12. (31:15) 最後に仕上げで再びトーンカーブをいじっています。ここら辺は好みでいいと思いますが、今回はまだ青が足りないのでBのを少し上げました。派手さは赤色で決まるので、Rも少し上げます。緑は自然さを調整します。赤とか青が強くて、全体に紫っぽくて人工的な気がする場合は、Gをトーンカーブで気持ち上げると自然に見えたりします。セミナーでは説明しませんでしたが、必要ならばトーンカーブの右側にも適時アンカーを打って、明るい部分が明るすぎにならないようにします。特にせっかく撮影時に残ったトラペジウムを、明るくしすぎて消さないようにします。
Photoshop

こんなところで完成としましたが、いずれにせよここでは、背景と星雲本体を個別に色バランスをとりつつ、背景を炙り出し、コントラストを上げることが重要です。背景はそもそも暗いためにノイズが多く、分子雲を炙り出すとどうしてもノイズが目立つようになるので、何らかのノイズ処理が必要になってきます。

WindowsのフォトやMacのプレビューだけで処理したものと比べると、背景と本体のバランスがとれていて、それらしい画像になってきたのかと思います。


GraXpert

ただし、Photoshopでの処理だけだと、背景の分子雲はまだあまり見えていないですね。この淡いところを出すにはどうしたらいいでしょうか?基本は、星雲本体と背景の輝度差をなくすことです。特に、画面全体に広がるような大きな構造(「空間周波数が低い」などと言います)での輝度差をなくすことが重要です。ここでは「GraXpert」という無料のアプリを使います。WindowsにもMacにも対応しています。

GraXpertは操作がそれほど多くないので複雑ではないのですが、少しクセがあります。

1. (32:35) GraXpertにストレッチ機能があるので、今回はすでにストレッチされたPNGではなく、暗いままのRAWフォーマットのFITSファイルを使いましょう。ストレッチされてない画像なので。最初にGraXpertの「1」の「Load Image」で開くとこんなふうに真っ暗に見えるかと思います。
Stack_16bits_60frames_3600s_20_21_42_fits_nostretch

2. (33:05) GraXpertの「2」の「Stretch Options」で何か選ぶと、明るい画像になるかと思います。ここでは見やすくするために「30% Bg」を選びます。

3. (33:15) 画像の周りに黒いスジなどある場合はフラット化がうまくいきません。ライブスタックの時にディザリングなどで少しづつ画像がずれていくと、黒い筋になったりするので、まずはそれを左メニュー一番上の「Crop」の横の「+」を押して、出てきた「Crop mode on/off」を押します。黒い筋を省くように選択して、クロップして取り除きます。クロップ機能がGraXpertにあるのは、画像周辺の情報の欠落に敏感だからなのでしょうね。実際の取り除きの様子は配信動画を参考にしてください。

4. 「Saturation」は彩度のことなので、少し上げておくと後から彩度を出すのが楽になるかもしれません。今回は1.5を選びました。

5. (33:48) 「3」の「Points per row」と「Grid Tolerance」は画像によって適時調整してください。「Create Grid」を押します。目安は星雲本体が黄色の枠で選択されないくらいです。ここであまり神経質にならなくてもいいのがGraXpertのいいところでしょうか。

6. (34:00) 「Interporation Method」ですが、これは4種類ありますが、各自試してみてください。場合によって適不適があります。私はKriging>RBF>AI>Splineくらいの印象でしょうか?セミナーでは時間のかからないRBFを選びました。Methodによっては差が出る場合もありますが、ほとんど差が出ない場合もあります。

7. (34:25) しばらく待って結果が出たら、画面真ん中上の「Processed」と「Original」で比較してみるといいでしょう。その差が「Background」で見ることができます。
bg
こうやってみると、左が緑に寄っていて、右が赤に寄っていたことがわかります。

8. (35:28)できた画像をこのまま保存すると、ストレッチがかかりすぎているので、「Stretch Options」で「10% Bg」程度を再度選びます。その後「5」の「Saving」で「16bit TIFF」を選択し、「Save Stretched & Processed」を押して、ファイルを保存します。

TIFFファイルはサイズが大きくなるので、ここではTIFFファイルをjpgに変換したものを表示しておきます。
Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert

9. (36:14) 保存されたTIFFファイルをPhotoshopで開き、あとは上でPhotoshopで処理したものとほぼ同様に進めます。

10. (36:20) 今回の場合、ヒストグラムで全ての山がそろっています。GraXpertで背景のホワイトバランスも合わせてくれています。

11. (36:28) 背景が暗いのですが、中心部は明るいので、Camera RAWフィルターで、ハイライトを下げ、黒レベルを上げ、さらに露光を少し上げると、背景の分子雲がPhotoshop単体で出したものよりも、すでに黙々しているのがわかります。これがGraXpertのフラット化の効果です。

12. (37:17) あとは同様にトーンカーブで青を少し出します。

13. (37:35) GraXpertのフラット化の弊害として、色が出にくいというのがあります。彩度を少し強調するといいでしょう。

14. (38:15) Camera RAWフィルターの「ディテール」の「ノイズ軽減」でノイズが目立ちにくくなります。ここまでの完成画像を示します。

Stack_16bits_60frames_3600s_20_34_59_stretched_GraXpert_final

明らかにPhotoshop単体より、GraXpertでフラット化することにより、背景の分子雲が出たのかと思います。

よりあぶり出せたのはいいのですが、その分ノイズが目立つと思います。そのため、動画では (40:13)あたりで DeNoise AIを紹介しています。これはAIを利用したノイズ除去ツールで、非常に強力なのですが、恒星の処理が苦手で、星が崩れたりしてしまいます。今回は中心が抜けたような星になってしまいました。

これは次に話すように、星と背景を分離するなどして、背景のみに実行することでうまく使うことができますが、ここまで来ると今回の範囲を超えてくるので、参考までにノイズツールはこのようなものもあるということだけ認識しておいてください。


PixInsight

セミナーでは最後にPixInsightでの処理を紹介しましたが、これは今回の目的の範囲を超えていると思いますので、参考程度に処理したものを順に示すだけにしました。なのでここでも詳細な解説は控えておきます。というか、これを解説し出すとこの一記事では到底収まりきりません。

ポイントは
  1. (42:40) BlurXTerminatorで収差を改善し星を小さくシャープにすること
  2. (44:47) 星と背景を分離すること
でしょうか。これらはPhotoshopでの処理とは全く異なり、天体画像処理専用ソフトの強いところです。最初からここまで手を出す必要は全くないと思いますが、いつか自分の処理が不満になった時に、こんな手法もあるということくらいを頭の片隅に入れておけばいいでしょう。


比較

最後に、今回それぞれで画像処理をした
  1. Macのプレビュー
  2. Photoshotp
  3. Graxpert
  4. PixInsight
の4枚を並べて比べてみます。左上からZの字を書くように、上の1、2、3、4と配置しています。

all

Macのプレビューだと、背景と星雲本体を別々に色合わせできなかったことがよくわかります。Photoshopになると、色がある程度バランスよくなっています。分子雲のモクモクはGraXpertが一番出ているでしょうか?

セミナー当日見せるのを忘れてしまいましたが、同じ4枚を拡大したものも比較してみます。
all_magnified

Macのプレビューはノイズ処理がないので、やはりノイジーです。拡大すると、PhotoshopのみとGraXpertが入った時の違いもよくわかります。モクモクのあぶり出しと同時に、細部もでています。それでも細部はPixInsightがBXTのおかげで圧倒的でしょうか。

セミナーの最後でも言いましたが、4枚目でも情報を引き出し切ったかというと、かなりいいところまで入っていると思いますが、まだ少し余地が残っていると思います。マスクを使ったりすることで、ノイズ処理やあぶり出しをもう少し改善することはできるかと思います。


まとめ

さて、今回のセミナーと合わせての一連のブログ記事いかがだったでしょうか?電視観望から始まり、撮影に発展し、画像処理までを解説してきました。セミナー本番は少し詰め込みすぎたかもしれませんが、後の配信を前提に動作を示すことを中心としたので、よろしければ動画を繰り返し見ながら確認して頂ければと思います。皆さんの画像処理の何かのヒントになるのなら、今回のセミナーを引き受けた甲斐が十分にあるというものです。

画像処理はとても奥深いところがあり、今回示したBlurXterminatorもそうですが、まだまだ今後ソフトや技術も進化していくはずです。大切なことは、ここまで説明したことの繰り返しになるかもしれませんが、闇雲に処理を進めるのではなく、何が問題で、どうすれば解決するかの方針を立てて、手持ちの技術で実際に進めていくことかと思います。画像処理といっても、いわゆる普通の問題解決プロセスと同じですね。

今回色々な手法を示しましたが、これが唯一の方法だなんてことは口が裂けても言えませんし、正しい方法かどうかもわかりません。あくまで一例で、他の方法もそれぞれ皆さんで、試行錯誤もあるかと思いますが、いろいろ編み出して頂ければと思います。











CP+連動企画、「電視観望技術を利用して天体写真を撮影してみよう」ですが、前回は撮影方法についていくつか検討しました。


結論としては、
  • 電視観望利用で画像処理が楽になるとしても、やはり撮影時に解決できることは、撮影時にやってしまおう
ということです。
  • 経緯台でも赤道儀でもディザーはあった方がいい、
  • 露光時間を伸ばしたいならオートガイドも必須
といったところでしょうか。

今回は、実際に長時間撮影撮影した画像について議論します。具体的な処理方法はCP+で説明するとして、その直前くらいのところまでです。


その前に一つ、SharpCapのちょっと便利な、多分あまり知られていない機能の説明をします。


「フォルダーモニターカメラ」で撮影した画像の救いだし

これまで撮影中に突然車のヘッドライトが当たるとか、ものすごい明るい人工衛星が通ってせっかく貯めたライブスタック画像がダメになり、最初からライブスタックをやり直したとかいうことはないでしょうか?

そんなときに、もし下部のライブスタック画面の「Controls」の「Raw Frames」で「SAVE all」を選んであると、保存されたRAWファイルから、ライブスタック画像を復元させることができます。
  1. まず、メニューの「カメラ」から「フォルダーモニターカメラ」を選びます。
  2. 次にフォルダを選択しますが、これは復活させたいRAWファイルが保存された場所を選んでください。以前すでにフォルダを選択しているときは、撮影画像が表示された状態になっているかもしれませんが、右パネルの「カメラコントロール」からフォルダを選択し直すことなどもできます。
  3. フォルダの中にあるファイルをどれか1枚選びます。例えば1枚「.fits」ファイルを選びます。
  4. fits形式を選んだ場合は、次に下部に出てくる「All .fits Files」ボタンを選ぶと、フォルダが選択できます。
  5. フォルダにある最初のファイルが画像としてSharpCap上で表示されます。ストレッチなども後掛けすることができます。
  6. 右パネルの「カメラコントロール」をさわることで、ファイルの連続表示を進めたり、途中でスタックが進んでいくのを止めたいとか、進行をコントロールすることができます。
  7. この状態でライブスタックをオンにして、カメラコントロールの三角マークの再生ボタンを押すと、自動的にフォルダ内のファイルを連続して読み込み、ライブ(?)スタックされていきます。ディザー時に保存された短時間露光のファイルは条件が違うせいか、(ラッキーなことに)うまくスタックできないことが多く、たいていはまともに露光したものだけがスタックされていきます。
  8. ここでこれまでほとんど役に立たなかった「フレームレート」が役に立ちます。適当に1秒とか、2秒とかすると、その時間間隔でファイルを更新してくれます。
  9. この時のライブ(?)スタック結果などは、通常のライブスタックのように、実行した時の日付や時間ごとのフォルダが改めて作成され、設定してある形式でファイルが改めて保存されます。

これを応用することで、
  • これまで溜め込んだファイルを全部あるフォルダにコピーして、超長時間で再スタックするなども可能になります。
  • 途中で車のライトや人工衛星の軌跡など、失敗したファイルを除いて再スタックすることも可能です。
  • SharpCapで撮影した画像に限らず読み込めるので、PI、SI、Siril、DSSなどに代わって、簡易スタックアプリとして使うのもいいかもしれません。
いろんな応用方法を考えることができると思うので、各自いろいろ試してみるといいでしょう。


ライブスタックでの長時間撮影

今回のCP+のセミナーに使うために、何度か長時間撮影を試しました。まとめがてら、少し検討してみます。

撮影時の共通項目としては
  • 赤道儀がSA-GTi
  • 三脚はSA-GTiに付属のもの、但しハーフピラーは外しました
  • 鏡筒はEVOLUX 62EDに専用レデューサーをつけて、焦点距離360mm
  • カメラがUranus-C Pro
  • 撮影はSharpCapでライブスタックを使用。
くらいでしょうか。

いくつか変えた撮影条件ですが、
  1. 1分露光、ゲイン220+CBP
  2. 1分露光、ゲイン220+CBP+UV/IRカットフィルター
  3. 1分露光、ゲイン0+QBP III
となります。順に見ていきます。


撮影1日目

まず最初にテストしたのは、ここまでの記事で示していた
  • 1分露光、ゲイン220+CBP
です。下はスタックなしの1枚のみの画像です。

frame_00001_60s

トータルで1分露光の短時間画像となりますが、この時点で構成周りの青ハロが見えています。CBPは青の波長域をかなり通すのですが、
  • 鏡筒が持つ青ハロをCBPではカットしきれない
ということになります。そこで、少し青側をカットしてやる目的で、UV/IRカットフィルターを入れることにしました。UV/IRフィルターは1.25インチのものを使い、下の写真のようにカメラのT2ねじのところに、薄型のT2->Cマウントのアダプターで固定しました。
IMG_8994

固定といっても、ネジをはめ込みすぎるとセンサー側に落ちてしまうので、教頭に固定するまではカタカタ揺れています。またネジの途中で止めるので、教頭にはめるときのねじ込みが浅くなり、落下の危険性も出るので、あくまで自己責任でお願いします。

注) : 「電視撮影 (その1): 機材の準備」編の時に初出で紹介したフィルター取り付け方法ですが、おそらくこのレデューサーと鏡筒の間に48mmのものを取り付ける方が正式だと思います。ただ、訂正記事で書いたように、ネジが緩んで鏡筒側から外れて、その際にレデューサ側にはまりこんでしまうと、取り外すのにかなりの苦労をします。なので、今回の上の写真のように1.25インチサイズを使用する方法を取りましたが、これはきちんとした固定法ではないはずです。48mmで外せなくなった時の大変さと、1.25インチで落下などの危険性を認識した上で、どちらか取り付け方法を選ぶ必要があると思います。もしくは、私が勘違いをしていて、もっと正しい方法がある可能性もあるので、他にいい方法があればコメントなどで教えていただけるとありがたいです。


さて、1日目の撮影は雲が出てきてしまったので、短時間撮影でおしまいです。


撮影2日目

とうわけで、撮影2日目、長時間露光は
  • 1分露光、ゲイン220+CBP+UV/IRフィルター
という構成で開始しました。この状態で60フレーム、合計1時間ライブスタックで撮影したものが以下になります。強目のストレッチにしています。

Stack_60frames_3600s_19_43_27_WithDisplayStretch

撮影は一通り終えて、その後に画像を仕上げる過程で、5つ問題点が見つかりました。
  1. 青ハロが全然改善していないこと
  2. UV/IRカットフィルターによる、緑色の大きなハロが右の明るい恒星周りに、新たに出てしまっている
  3. 明るすぎることによる極度に飽和した恒星周りに白いハロが出ている
  4. 明るすぎることによる一部の恒星中心部の飽和
  5. 明るすぎることによる星雲中心部の飽和

背景の淡いところはそこそこ出ているのですが、恒星部が明るすぎます。恒星の多少の飽和は許容しても、画像処理である程度はなんとかなるのですが、これは許容範囲を超えていました。

Uranus-CでHCGがオンになるの220としたのですが、これだと感度が高すぎるようです。かといって、中途半端にゲインを下げると、ダイナミックレンジで損をします。露光時間を短くしてもいいのですが、読み出しノイズの観点からは、トータル撮影時間が同じならば、1枚あたりの露光時間を伸ばした方が得をしますし、あまり撮影枚数が多くなっても、ディスク容量を食いますし、再処理の時とかに負担になるかもしれません。

これらのことから、次の撮影は以下のようすることにしました。
  • 露光時間は60秒のまま、アナログゲインを220から0とする
  • CBPでは一部青ハロが残ったので、青領域をもう少し制限したQBP IIIとする
  • 余分なハロを防ぐために、UV/IRフィルターも外す

QBP IIIフィルターは1.25インチのものを、上で示したようにカメラ側に取り付けます。

実はこの撮影2日目は珍しく晴れたと思って結構焦っていて、上記のような検討がまだ十分にできていない状態で長時間撮影に臨みました。この設定で実際2時間以上の撮影をしたのですが、上記問題により結局お蔵入りです。2時間は結構長いので、今後は画像処理においては1時間撮影画像をデフォルトとします。


撮影3日目

撮影3日目は、前回の記事に使った、色々な設定での撮影方法を試しました。ブログに載せたのは6+1で7通りですが、実際には17通りの設定を試して、記事として意味のある7通りを選んでいます。

記述しなかったことの一つはシグマクリッピング機能についてですが、先に説明した「フォルダーモニターカメラ」で再ライブスタックすることができるなら、撮影時にオンにしてもオフにしても後からどうとでもなります。実際には長時間撮影で枚数を重ねるので、1枚のみに載った人工衛星の軌跡などは、シグマクリッピング機能がオフでもほとんど目立たなくなります。それでもオンとオフで少し差は出るので、オンにしておいた方が無難でしょう。

もう一つは「Hot and Cold Pixel Remove」機能のオンオフでどう違うかです。このカメラでは結局「Hot and Cold Pixel Remove」も「Hot Pixel Remove」も「なし」もほとんど違いがわかりませんでした。ただしカメラによっては、特にホットピクセルを多く持つカメラを使う場合にはこの機能が効くと思われます。別途RAWファイルを一からスタックするなど、その際にダーク補正をする場合はこの機能はオフの方がいいのですが、ライブスタックで簡単にスタックする場合はこの機能はオンにしておいた方が楽な場合が多いかと思われます。


撮影4日目

天気が悪くて少し間を置いたのですが、運よく晴れた撮影4日目、前述の通り
  • 1分露光、ゲイン0+QBP III
という設定で、60枚ぶん1時間の撮影をします。撮影後のSharpCapのオートストレッチした画像です。ここでのオートストレッチは具体的には以下のようになります。
  1. ライブスタック画面の「Histgram」タブの右下にある「Stretch Mode」を「6」にして
  2. ライブスタック画面のカラーバー下の雷マークのホワイトバランスアイコンを押し
  3. さらに右側パネルのヒストグラムでオートストレッチをして
  4. ライブスタック画面の左側の「Action」の「Save」ボタンで、4つ目の「Save exactly as seen」で画面で見たままの状態を保存しています。
Stack_60frames_3600s_21_00_44_WithDisplayStretch

2日目の撮影時に比べて、1枚当たりの露光時間は同じですが、ゲインが220から0になっているので、220[0.1dB] = 22 [dB] = 20 +2 [dB] = 10x1.26 = 12.6倍と、明るさが1/12.6 ~ 0.08で約8%程と、2日目の画像に比べて結構暗くなっています。

2日目のところで挙げた5つの問題点がどうなったかを見てみます。
  1. 青ハロはほとんど目立たなくなりました。CBPからQBPへの変更が効いているようです。
  2. 緑色の大きなハロも無くなりました。UV/IRカットフィルターを外したことが効いていると思われます。
  3. 恒星の飽和による白ハロはなくなりました。
  4. 恒星の飽和は一見なくなっているかに見えますが、実は明るい星の極中心はまだ飽和しています。ゲインは0なのでもう下げられないです。露光時間を下げることはできますが、後述するように、読み出しノイズが見えてきてしまっているので、これ以上露光時間を短くするのは危険です。
  5. 見た目をかなり明るくしているのでわかりにくいですが、ストレッチした状態でも星雲中心のトラペジウムも十分生き残っています。
trapegium

と、恒星の中心部のわずかな飽和以外はほとんど改善されていることがわかります。


淡い分子雲部分の検討

心配なのは、ゲインを0にして暗くしたことで背景の分子雲がどこまで読み出しノイズに埋もれるかです。最淡の部分を見るために、別途RAWファイルから別ソフト(PixInsight)でさらに強あぶり出しをした画像です。
more_Stack_16bits_60frames_3600s_21_00_44
3日目撮影のアナログゲイン0の画像。

この画像と、2日目に撮ったアナログゲインが220の場合の画像(下)と比べます。
more_Stack_16bits_60frames_3600s_19_43_27
2日目撮影のアナログゲイン220の画像。

2枚の淡い部分を注意して比べてみると、アナログゲインが0の時は読み出しノイズの横縞っぽい模様が見えているのがわかります。最淡の部分は、明らかにアナログゲイン220の時の方がよく出ていることがわかります。画像処理の最後の最後の淡いところのあぶり出しの時に、この差2枚のは効いてくるかもしれません。

ただし、飽和に関してはゲイン220の時だと(実際に画像処理をしてみた後の感想ですが)画像処理に困るくらいのレベルなので、やはり明るすぎです。こう考えると、アナログゲインを220にして、30秒とか、20秒という露光時間が最適解なのかもしれません。もしくは、今回撮影したアナログゲインが220と0の場合で、HDR合成というのが一つの解なのかもしれません。いずれにせよ、オリオン大星雲は明るい中心部からから暗い分子雲まで、広いダイナミックレンジが必要な対象で、初心者からベテランまで広範囲にわたって楽しめる、天体写真撮影にとって冬の代表的な「大」星雲といえるでしょう。


まとめとセミナー当日に向けて

ブログ記事としての今回のCP+のためのテスト撮影はこんなところです。撮影に際して露光時間とゲインの十分な吟味が必要なことが伝わってくれたのなら、私としてはとても嬉しいです。

実際の画像処理まで進めると、撮影時のパラメータ次第で困難な状況にぶち当たり、次回はこんなパラメータで撮影してみようなどと実感するはずです。最初から最適パラメータを選ぶことができればいいのですが、やってみないとわからないことも多いのでなかなか難しい現実もあり、このような試行錯誤は仕上がり具合にかなり効いてくるはずです。

もう新月期もすぎてしまい、これ以上の撮影も難しくなってきました。今日までにすでになん度も試していますが、あとは画像処理を繰り返し試すのみです。40分という時間内にいかにうまく実演ができるか、まだかなり練習が必要そうです。その結果はセミナー当日の2月24日(土)の13時20分から、実際の画像処理の様子でお見せできればと思います。



後日オンラインでも配信される予定ですので、後から拝見されてもいいのですが、お近くの方はよろしければ当日横浜アリーナまでお越しいただければと思います。その際は、CP+2024の事前登録(無料)をお忘れなく。

会場ではぜひ直接お話などできればと思います。私は金曜午後くらいには会場入りし、土曜は夕方くらいまでいる予定です。サイトロンブース周りでうろうろしていると思います。一応「Sam」と書いたネームプレートを首から下げるようにしますので、もし顔を見たらお気軽にお声かけしていただければと思います。


CP+セミナー事前打ち合わせ

最後にですが、なんでこんなことをしようと思ったのかについて書いておこうと思います。

今回CP+のセミナーを引き受けるにあたって、内容を決める際にサイトロンのスタッフさんとまず話したことは「入門者や初心者で画像処理に困っている人は思った以上に多いのではないか」ということです。

以前小海で開催された「星と自然のフェスタ」サイトロンさんブースでお手伝いしたときの経験が元なのですが、電視観望で撮影して、その場でできるくらいの画像処理をした時のことです。一番最初の本当に簡単な炙り出し(オートストレッチ)の段階で「オォー!」という声があがりました。これは私にとって結構意外なことでした。だって、まだ最初の最初のあぶり出し段階です。もっと後から細かいところが見えてきたりするのが待っているのに、最初からこんなに声が上がったら、あとはどうなるのか??? でもその後は、もっと複雑な画像処理プロセスでも、最初のときほど声が上がることはなかったのです...。

星まつりなので、天体画像の処理なんてことを見たこともない一般の方もいらっしゃったと思います。電視観望に興味がある入門者が多かったこともあるでしょう。ブワッと星雲が出てくる様子は、かなりインパクトがあったのかと思います。それで考えたのが、
  • もしかしたら初心者で画像処理のことを知りたい人はかなり多いのではないか?
  • 電視観望から初めて撮影に手を伸ばしたとしても、撮影した画像処理の敷居もまた高いのではないか?
  • 例としてある程度の画像処理の一連の方向性を示すのは、初心者にとっては指標になるのではないか?
などです。

望遠鏡で星を見始めると、誰もが見たものを記録しておきたいと思うはずです。リストを作るのも、手でスケッチするのもいいでしょうし、本格的に写真撮影でもいいでしょう。せっかく記録するのなら、後から綺麗に見えたほうがいいと思うのも、ごく自然な流れでしょう。これは眼視でも、電視観望でも、本格撮影でも、ごく自然な欲求なのかと思います。それならば、天体写真の敷居を下げるべく、電視観望の技術をうまく使い、天体写真を残す方向を探ってみようと思ったのが、今回のセミナーを引き受ける際に考えたことです。

でもセミナー時間は高々40分です。撮影技術を全部話すことは難しいので、今回は画像処理をメインにしてみようと思います。画像処理は実際のやり取りを動きで見てもらったほうがいいと思ったからです。その代わり、撮影の細かい技術は事前に試して、ブログに書いておこうと。

ブログには今回を含めて5回の記事で、天体写真に興味を持った人が始めるところから、実際に撮影が終わるくらいまでをまとめることができました。あとはセミナー本番、うまくいくといいのですが...。

セミナー終了後、画像処理についてまとめました。










CP+連動企画、「電視観望技術を利用して天体写真を撮影してみよう」ですが、前回でやっとオリオン大星雲の撮影を開始することができました。


機材の設置からソフトの設定まで、やはり工程が多いですよね。天体写真撮影が敷居が高いと言われるはずです。それでも電視観望でオートストレッチまで済んでいるので、画像処理は楽になるはずです。そこら辺をCP+でお見せできたらと思っています。


オートストレッチ

前回の記事で重要なことを一つ書き忘れていました。画像保存時におけるホワイトバランスの重要性です。

ライブスタック中に普段画面を見る時からでいいので、3つのことをしておくといいです。
  • ライブスタック画面の「Histogram」タブを開き、左のカラーバーの下にある雷マークアイコンを押し、ホワイトバランスを整えます。
ホワイトバランスはすごく重要で、これができてないとオートストレッチがうまくいかないことがあります。オートストレッチに関しては前回も説明していますが、
  • 次に同じくライブスタック画面の「Histogram」の左の上のもう一つの雷マークアイコンを押し、オートストレッチします。
  • 新たに右パネル「ヒストグラムストレッチ」の方の雷マークを押し、さらに炙り出します。もし画像が明るすぎる場合は、右側パネルのヒストグラムの、山を挟んでいる左と真ん中の2本の線を少し動かしてみるといいでしょう。

今回の記事もこのような状態で画像を保存したものを使っています。


検証項目

撮影までに赤道儀の設置や、オートガイドを使った長時間撮影など、それなりに準備だけでも大変でした。電視観望の技術を使い、ここからの画像処理は楽になるとしても、ここまでの準備をもう少し簡単にできないものなのでしょうか?今回はいろいろ設定を変えてみることで、簡単になるのかどうか議論してみます。

今回比較したいものを準備が簡単な順に並べてみます。矢印の右側は、予想される問題点です。
  1. 経緯台AZ-GTiでの10秒露光 → 露光時間に制限がある(10秒程度)、視野回転、縞ノイズが問題になる
  2. 経緯台AZ-GTiでの10秒露光+ディザー → 露光時間に制限がある(10秒程度)、視野回転
  3. 赤道儀SA-GTiでの20秒露光 → ピリオディックモーションのために縞ノイズが問題になる
  4. 赤道儀SA-GTiでの20秒露光+ディザー → 露光時間に制限がある(20秒程度)
  5. 赤道儀SA-GTiでの60秒露光+ディザー+ガイド 
  6. 赤道儀SA-GTiでの3秒露光でゲインを0に下げる+ディザー+ガイド → 読み出しノイズが顕著になる
順に詳しく見ていきます。


1. 経緯台AZ-GTiでの10秒露光 (ガイドなし、ディザーなし)

まず対極で、できる限り簡単な撮影というものをしてみましょう。

ここでは赤道儀の代わりに、自動導入機能がある経緯台AZ-GTiを使ってみます。鏡筒を軽いもの、例えばFMA135やFMA180とかなら、もっと手軽にトラバースでも構いません。特にトラバースは超小型で自動導入も自動追尾もできるので、対極という意味ではこちらの方がいいのかもしれません。トラバースについては以前撮影例を記事にしているので、よかったらご覧ください。

これらの経緯台は赤道儀と違って、極軸調整などを省くことができます。最初はオートガイドやディザー撮影も無しとします。経緯台なのですが、自動追尾はできます。それでも経緯台は縦と横とでしか動かせないので、長時間で回転していく星を追尾しようとすると、視野の回転が問題となるはずです。視野の回転はそこそこ激しいので、星像が天になるためには露光時間に制限ができます。鏡筒やカメラにもよりますが、今回の機材だと現実的には10秒程度でしょう。また視野が流れてしまうことによる「縞ノイズ」が問題になってきます。

今回使うAZ-GTiの写真です。SA-GTiの元になった機器だと思いますが、経緯台だけあってAZ-GTiもかなり小さいです。

D81DD62F-BDC9-42B4-8948-B36F477D5BA9
左がトラバース、右がAZ-GTiです。どちらもコンパクトです。

実際に撮影した結果を示します。問題を見やすくするために、かなり明るくしています。1枚当たり10秒露光で、30フレームなので高々5分程度の撮影ですが、

Stack_30frames_300s_22_40_26_WithDisplayStretch_HT

まず視野回転しているのがわかります。右下の方にずれていっている様子がわかります。ずれが三角型になっているのが、視野が回転している証拠です。多少ならば最終的にトリミングすればいいのですが、長時間撮影ではカットする部分が大きくなってしまいます。

PlayerOneのCMOSカメラにはDPS (Dead Pixel Supression)という機能があり、輝度が飽和してしまうようなホットピクセルは、輝度が0近くになってしまうコールドピクセルという、センサーにどうしても存在してしまうわずかの欠損を目立たなくしています。さらに今回、SharpCapの設定でホットピクセル/コールドピクセルの簡易除去をしていしてます。それでもホットピ/コールドピクセルのようなものが存在しているようで、高々5分の撮影でもスクラッチ状のノイズを残してしまいます。拡大するとよくわかります。

Stack_30frames_300s_22_40_26_WithDisplayStretch_HT_HT_cut

このように経緯台での簡単撮影では、回転とスクラッチ上のノイズが問題になってしまいます。でも逆に言うと、対極的に簡単な撮影でも問題点は高々これくらいです。セットアップが簡単になるなら、十分ペイするくらいのささいな問題点かもしれません。

この後に画像処理をすることで、たった5分の撮影でも、大迫力のオリオン大星雲の魅力は十分に出てきます。撮影時間が長くなるほど、縞ノイズの問題が深刻になってくることが予測されるでしょうか。許容範囲は人にも求める仕上がり具合にもよると思いますが、後の画像処理次第で十分天体写真として通用するものになるかと思います。


2. 経緯台AZ-GTiでの10秒露光 + ディザー (ガイドなし)ここに文章を入力

経緯台での簡単撮影ですが、どうせ撮影するなら一手間だけかけてみましょう。ここではオートガイドなしのディザーを提案してみます。天体写真に経験のある方だと、ガイドなしでディザーなんかできるのか?と思われる方もいるかもしれませんが、SharpCapのLiveStack撮影ではそれが可能になります。

設定方法です。
  1. SharpCapメニューの「ファイル」の「SharpCapの設定」の中の「ガイディング」タブを開きます。
  2. 下の画面のように「ガイディングアプリケーション」を3つ目の「ASCOMマウントパルス...」を選びます。
  3. 「ディザリング」の「最大ディザステップ」は、AZ-GTi単体で上の「1. 経緯台AZ-GTiでの10秒露光 (ガイドなし、ディザーなし)」で見たホットピクセルやクールピクセルをできるだけ散らしたいため、かなり大きな値にします。ここでは40としました。
  4. その代わり、AZ-GTiが十分に落ち着くように、「ディザリング」の「最大整定時間」を大きくとります。ここでは60秒としました。
  5. 最後に下の「OK」を押します。
07_guide_setting

上記設定でディザー有り、ガイドなしで撮影した結果です。先の1と同じく、10秒露光で5分間の撮影です。
Stack_30frames_300s_22_47_52_WithDisplayStretch_brighter

ホットピクセルやクールピクセルが散らされて、かなり目立たなくなっています。拡大してみます。これくらいなら十分許容範囲ではないでしょうか?
Stack_30frames_300s_22_47_52_WithDisplayStretch_brighter_cut

このように、自動導入経緯台にディザーをかけての撮影というのは、一つのシンプル撮影の到達点かと思います。それでももちろん問題はあって、
  • 視野回転は避けられないこと
  • 露光時間を長く取れない
ということです。今回は10秒程度の撮影なので星像がまともでしたが、AZ-GTiでの経緯台撮影だと20秒程度で星が流れ始めてしまいます。

この星像のずれは、視野回転影響も大きいです。経緯台でオートガイドをすることも不可能ではありませんが、思ったより大変なのと、オートガイドをしたとしても原理的に視野回転は防ぐことはできません。これ以上露光時間を伸ばしたいとすると、赤道儀に移行した方が無難と思われます。


3. 赤道儀SA-GTiでの20秒露光 (ガイドなし、ディザーなし)

というわけで、ここから再び赤道儀のSA-GTiに戻ります。

下の画像はSA-GTiで、オートガイドもディざーも無しで、露光時間を20秒として「1枚だけ」撮影した画像です。
01_single_frame_00001_20_0s_RGB_VNG

中心部付近を拡大してみますが、赤道儀ということもあり視野回転もないし、20秒程度の露光なら星像も全然流れていないことがわかります。
01_single_frame_00001_20_0s_RGB_VNG_cut

「1枚だけ」の撮影なら問題ないのですが、その一方これを例えば20秒露光で「30枚、合計10分」撮影すると何が起こるかというと、以下のようになります。
Stack_30frames_600s_20_28_37_WithDisplayStretch

気づきにくいかもしれないので、拡大します。
Stack_30frames_600s_20_28_37_WithDisplayStretch_cut
星はライブスタックで位置を確認して重ねあわているので、依然流れていません。問題はホットピクセルやクールピクセルが流れて、背景にいくつか縦方向の紫色に見えるスクラッチができているのです。

これは赤道儀のギヤの精度に起因して起こる、「ピリオディックモーション」などと呼ばれる現象が原因です。赤道儀にもよりますが8分程度の周期で、赤経方向にsin波的に揺れてしまう動きが存在します。どれくらい揺れるかは、ギヤの精度に依存します。

ライブスタック技術で、星を位置合わせして重ねるために、星自身は流れなくなっています。その代わりに、1枚1枚に存在する固定位置のホットピクセルやクールピクセルは逆に重なることはなくて、30枚の撮影で軌跡として流れるように残ってしまうというわけです。

ちなみに、今回のこの軌跡は測定してみると22ピクセル程度の長さです。鏡筒の焦点距離360mmとカメラセンサーの大きさ11.2mm x 6.3mm から、このサイトなどで画角を計算すると1.78度 x 1.00度と出ます。センサーの画素数が3856×2180なので、1.78度 x 60 x 60 = 6408秒角、これを3856で割ると、1ピクセルあたり1.79秒角となります。これが22ピクセルあるので、39.3秒角、プラスマイナスで考えると、+/-19.7秒角のピリオディックエラーということになります。この値はオリオン大星雲で測定しましたが、天の赤道付近なので、この値から大きく変わることはないでしょう(実際には赤緯-5度付近にあるので、5%程度小さく測定されています。それを補正しても+/-21秒角程度でしょう。)。以前測定したAZ-GTiを赤道儀モードで測定した値が+/-75秒角程度でした(今思うとかなり大きな値なので、再計算しましたが間違ってませんでした)から、随分と改善されていることになります。

少し脱線しましたが、このように赤道儀を使ってもピリオディックモーションからくる制限があります。これを解決するために、次はディザーを考えます。


4. 赤道儀SA-GTiでの20秒露光+ディザー  (ガイドなし)

3で見た、ピリオディックモーションでのホット/クールピクセルの軌跡をなくすために、赤道儀でディザーをしたら、どうなるでしょうか?ただし、オートガイドはなしです。露光時間20秒、総露光時間5分間です。
Stack_15frames_300s_20_57_18_WithDisplayStretch

拡大します。
Stack_15frames_300s_20_57_18_WithDisplayStretch_cut

3の時よりかなりマシになっていますが、まだ少し軌跡が残っています。これは少し設定ミスがあって、記録を見たらディザー設定の「最大ディザステップ」が10と少し小さく設定し過ぎたようです。AZ-GTiの時は40だったので、もう少し散らせばもっとまともになるかもしれません。

さて、ディザーで軌跡が少しマシになることは分かりましたが、まだ根本的な問題があります。1枚当たりの最大露光時間がピリオディックモーションで制限されているということです。例えば下の画像は、これまで通りオートガイドなしで60秒露光したものです。
Stack_1frames_60s_20_24_55_WithDisplayStretch

中心付近を拡大するとわかりますが、既に星が流れてしまっています。これは1枚撮影する間にピリオディックモーションによって星が動いてしまい、1枚の画像の中にその動きが記録されてしまうことが原因です。
Stack_1frames_60s_20_24_55_WithDisplayStretch_cut

これを避けるためには、1枚撮影している間に、星の位置を保つようにオートガイドをする必要が出てきます。


5. 赤道儀SA-GTiでの60秒露光+ディザー+ガイド

まず、20秒露光でトータル5分、ディザーあり、それにPHD2によるオートガイドを加えます。ディザーはPHD2の支配下に置かれるので、PHD2でのディザー幅の設定となり、4の時より大きな幅で動かしています。
Stack_15frames_300s_21_09_53_WithDisplayStretch

変な軌跡も完全に消えていますし、星像も流れていません

さらに条件を厳しくして、露光時間を60秒露光と伸ばして、トータルで少し長く16分、ディザーあり、それにPHD2によるオートガイドを加えたものです。
Stack_8frames_480s_21_00_44_WithDisplayStretch

このようにガイドのおかげで、長時間露光してもピリオディックモーションが出てこなくて、星流れていないのがわかります。

赤道儀を使って1枚当たりの露光時間を伸ばそうとすると、やはりガイドとディザーを使った方がいいという結果になります。


一旦まとめ

ここまでをまとめます。
  • 経緯台だろうと、赤道儀だろうと、ディザーはあった方がいい。
  • 経緯台でディザーをするならば、かなりシンプルな撮影体制を構築することができる。ただし、画角回転は避けられない。同時に、1枚当たりの露光時間も10秒程度とかなり制限される。
  • 赤道儀を使うことで画角回転は避けられるが、オートガイドを使わない場合は、ピリオディックモーションのために1枚当たりの露光時間を伸ばすことはできない。
  • 赤道儀でも露光時間を伸ばしたい場合は、オートガイドは必須。
といったところでしょうか。

ここまでで大体の検証は終わりですが、露光時間を伸ばすための努力だったと言ってもいいかもしれません。その反証として最後にもう一つ、1枚当たりの露光時間が短い場合の弊害を見てみましょう。


6. 赤道儀SA-GTiでの3秒露光でゲインを0に下げる+ディザー+ガイド

ここではこれまでのSA-GTiの赤道儀で、露光時間を3秒に下げ、さらにカメラのアナログゲインも220から0にするという、極端な場合を示します。上の5が60秒露光だったので20分の1、さらにアナログゲインが220変わっているので、220 [0.1dB] = 22 [dB] = 20 + 2 [dB] = 10 x 1.26 [倍] = 12.6 [倍]小さくなります。露光時間と合わせると、1/(20 x 12.6) = 1/252  ~ 0.004と0.4%ほどの明るさになったということです。これで100フレーム、合計300秒=5分撮影した結果です。
Stack_100frames_300s_21_28_38_WithDisplayStretch_enhanced

たくさんの縦線と、淡いですが横線も見えています。これは俗に言う「読み出しノイズ (リードノイズ)」が見えてきてしまっているということです。露光時間が短かったり、ゲインが低かったりした場合にこのような状態になります。要するに暗すぎるということです。

同じ露光時間3秒でも、アナログゲインが220の場合はかなりマシになります。1枚当たりの露光時間は上と同じ3秒、100フレームで5分間の撮影は同じです。オートガイドをしていないので、ホット/クールピクセルの軌跡は残ってしまっています。かなり炙り出しているので、縦縞はまだ見えますが、横縞に関してはほとんど無視できます。
Stack_100frames_300s_21_17_26_enhanced

背景はまだひどいですが、面白いのはオリオン大星雲の中心のトラペジウムはよく見えているということです。どうも前回までに撮影したゲイン220で1分露光は少し明るすぎるのかもしれません。中心を取るか背景を取るか、ここら辺が難しくまた面白いところです。

いずれにせよ、露光時間が短いとか、ゲインが小さいとかで、写している天体からの信号が小さい場合、読み出しノイズが支配的になって、縦横の縞ノイズが現れてきます。ホットピクセルやクールピクセルが流れる縞ノイズは斜めに流れることが多いので、このように垂直、水平にノイズが出るようならば、自分の撮影時の設定が暗すぎはしないか、一度疑ってみるといいと思います。


まとめ

いろいろ検証しましたが、結局のところ、電視観望を利用した撮影と言っても、撮影の段階で解決できることはできる限り解決しておいた方がいいということです。

今回の結果から、電視観望技術を利用した撮影方法は、主に下の2つの方法に収束すると思います。
  • 経緯台で、短時間で、ガイドなしで、ディザーを使って縞ノイズを散らす方法は、シンプルという観点から十分使う価値がある。
  • 赤道儀で長時間露光を目指すならば、オートガイドとディザーを使う方がいい。ガイドなしだとピリオディックモーションで1枚当たりの撮影時間が制限される。
といったところでしょうか。

次回は、長時間露光のパラメータを探ってみます。










CP+連動企画、「電視観望技術を利用して天体写真を撮影してみよう」ですが、前回までにオリオン大星雲の導入が済んだところまで進みました。今回は、実際に撮影してみます。いくつかコツがあるので、順次説明していきます。


撮影はとりあえずフルオプションで、やれることはやるという方針で進めます。今回はフルオプションで撮影が完了するところまで、次回の記事で簡略化した撮影方法を示しどんな影響があるかを検証したいと思います。

それでは、前回記事の終了時の、SharpCapの画面にオリオン大星雲が入っているところからスタートです。


カメラの回転角

まず、鏡筒に対してカメラをどのような角度で取り付けるかの、カメラの回転角を決めます。これはレデューサと鏡筒の間にある3つのネジがついたアダプターの、ネジを一つか、せいぜい二つ少し緩めるだけで、カメラを回転させられるようになります。カメラの回転角は適当でもいいのですが、一旦カメラを外して設定を変えた時とか、画角が回転方向に大きくずれる可能性があるので、できるなら毎回同じ向きにしておいたほうが無難です。

方法はこのブログの昔の記事に詳しく書いてありますが、

簡単におさらいしていきましょう。
  1. SharpCapで、右上アイコン群の中から、「ズーム」の一つ左にある、赤線のクロスのようなアイコンを何度か押し、同心円のレチクルを画面上に出しておきます。
  2. SynScan Proの方向矢印か、ASCOMで赤道儀とつながっているSharpCapの右パネルの「望遠鏡制御」の矢印で、見ている方向を少し変え、目立つ星を中心に入れる。
  3. 矢印の一方向をしばらく押し続け、星がレチクルの十字線に沿って垂直、もしくは水平方向に真っ直ぐ動くかどうか確認する。
  4. もし水平、垂直にピッタリ動かないなら、レデューサのところのネジを緩めてカメラを回転させ中心にあった星が、垂直線か水平線の上に来るように合わせる。その際、ネジをきちんと締めなおしてから位置を確認する。
  5. 再び矢印ボタンを押し続けて、星がレチクルの十字線に沿って垂直、もしくは水平方向に真っ直ぐ動くかどうか確認する。
  6. きちんと星が垂直、もしくは水平方向に真っ直ぐ動くまで4-5を繰り返す。

こうやって回転角をあわせます。参照記事にも書いていますが、この回転角調整は夜を待たなくても、昼間でもできます。目立つ星の代わりに、遠くの何か目印になる点を使えばいいだけです。例えば遠くにある鉄塔のてっぺんとかでもいいでしょう。もし余裕があるなら、昼間のうちに済ませておくといいでしょう。

この回転角調整で、ピントがズレる可能性があります。レデューサのところの回転固定ネジを締める時にきちんと締めていなかった場合です。ネジを閉めるときは毎回少し手で持ち上げて、下に落ち込まない状態で毎回きちんと最後までネジを締めると、安定してピントずれなどはなくなります。


位置決め

回転角調整で位置がずれてしまったので、再びオリオン大星雲を中心位置に入れます。SynScan ProでM42を再自動導入してもいいですし、SynScan Proか、SharpCapの「望遠鏡制御」の矢印ボタンで、自分がいいと思う位置に入れてもいいでしょう。私は以下のような位置にしました。

05_intro

これだと、右上方向に向かうオリオン大星雲の広がりが十分に入り、左のランニングマンもいい位置に来るはずです。


オートガイド

位置が決まったら、次はオートガイドです。ここではガイド鏡とガイドカメラ、ソフトはPHD2を使います。

繰り返しになりますが、PHD2で PlayerOneのカメラを使うときは、PlayerOneカメラのドライバーだけではだめです。前回のソフトの説明のところで書いたように、ASCOMプラットフォームとASCOMカメラドライバーをインストールしてください。ASCOMプラットフォームはここまででSharpCapと赤道儀がつながっていれば、すでにインストールされきちんと動いているはずです。詳しくは

を参照してください。

PHD2の使い方はマニュアルなどを読んでいただければいいのですが、接続方法などごく簡単に書いておきます。
  1. Windows PC上で、ソフトの準備の時にインストールしておいたPHD2を立ち上げます。
  2. 初めてPHD2を立ち上げる場合は、ウィザードが出てきて、カメラなどの設定が始まるはずです。ほとんどは指示通り進めればいいのですが、カメラの選択は迷う可能性があります。特に同じメーカーのカメラが複数台接続されていると、Player One Camera (ASCOM)の1から3のどちらを繋いでいるかわかりにくい場合があります。もしどうしても分かりにくい場合は、メインカメラを一度ケーブルを抜いて切断してからPHD2のセットアップを開始して、Player One Camera 1(ASCOM)を選ぶのが確実です。もしここでPlayer One Camera 1(ASCOM)が出てこない場合は、Player One Camera用のASCOMドライバーがインストールされていない可能性があるので、上の説明を見て今一度確認してみてください。
  3. カメラを選択する際、ガイド鏡の焦点距離は手持ちのものをきちんと入れるようにしてください。ピクセルサイズはカメラがきちんと繋がれていれば、選択時に自動的に入力されるはずです。
  4. 赤道儀の接続はすでにすんでいるので、そのまま進んでしまえば自動的に適したパラメータが選択されるはずです。
  5. カメラや赤道儀の設定ごとにプロファイル名をつけることができます。後から認識できる適当な名前をつけておきましょう。
  6. ウィザードが終了すると、ダーク撮影に入ります。ガイド鏡にキャップを被せるなどして、光が入らないようにして、ダーク撮影を開始します。結構時間がかかるので、しばらく待ちます。慣れてくれば、必要な時間のみ選択すればいいでしょう。私は0.5秒から2秒くらいまでだけ撮影しています。
これで準備は完了です。2度目以降の立ち上げからはウィザードは自動で起動しません。カメラを変えた場合など、必要な場合はメイン画面の左下にあるUSB端子の絵が描いてあるアイコンをクリックすると、接続設定になるので、そこで再びウィザードを開始することができます。ウィーザードが終わった直後は下の2から始まるはずです。
  1. メイン画面の左下にあるUSB端子の絵が描いてあるアイコン「接続ボタン」をクリックします。
  2. カメラとマウント(赤道儀)を選択します。この際、カメラが複数台接続されていて、どのカメラが接続されるかわかない場合は矢印が二つに分かれるマークが書いてあるボタンを押すと、どちらのカメラか確認できます。カメラと赤道儀それぞれ「接続」ボタンを押します。赤道儀は接続されるまでに10秒くらいかかる可能性がありますので、少し待ちます。全て接続されたら下の「クローズ」ボタンを押します。
  3. メイン画面左下の左から二つ目の矢印が回転しているようなアイコン「露光開始ボタン」をクリックします。ここで画面にカメラからの映像がメイン画面上に表示されます。ガイド鏡のピントが合っていなかったら、ここで合わせてください。
  4. メイン画面左下の左から三つ目の星形のマークのアイコン「ガイド星選択ボタン」が黄色の星になっていることを確認してクリックします。黄色の星にならずに灰色のままの場合は、上記までのカメラの露光が開始されていないということです。いまいちどカメラの接続などを確認して、左から二つ目の矢印が回転しているようなアイコンをクリックしてください。うまくいくと、ガイドに必要な星が緑色の四角で選択されているのが、撮影画像で確認できます。
  5. メイン画面左下の左から四つ目の十字マークのアイコン「ガイド開始ボタン」が緑色になっていることを確認して、クリックします。緑色になっていない場合は、上のガイド星の選択が完了していないので、今一度確認してみてください。うまくいくとガイドに必要な星が緑色の四角で選択されます。
  6. 初回はここでキャリブレーションが始まります。キャリブレーションとはPHD2が動かそうと思った方向と、実際の画像でどちらの方向に動くかを確認し、方向合わせをするような機能です。
  7. キャリブレーションは数分から10分程度かかることもあります。気長に待ちましょう。その際、緑色の四角が、きちんと動いているか画面を見ているといいでしょう。うまく動かないとエラーが出てキャリブレーションが中断されます。赤道儀とのケーブルが断線しているなど、何らかの理由で赤道儀に送っている信号に対して反応がない場合などです。改めてケーブルの接続など、何かおかしいことがないかチェックしてみましょう。ガイド鏡のカメラに接続されずに、メインの撮影カメラに接続されてしまった場合なども、動かなさすぎたり、動きすぎたりして、エラーになる場合があります。
  8. キャリブレーションに成功すると、そのままガイドが始まります。下のグラフで、赤と青の線が時間と共にだんだんと伸びていくのがわかります。キャリブレーション情報を残すかどうかと言う質問が出ることがあると思いますが、「はい」としておくと、次回以降に赤道儀の向きを変えても初回にとってキャリブレーション情報を使い回してくれるので便利です。キャリブレーションが以前実行された場合は、すぐにガイドが始まりますが、あえてキャリブレーションをしたい場合には、「シフトキーを押しながら」ガイド開始ボタンを押してください。ガイドがうまくいかない場合、キャリブレーション情報が古くなっている可能性があります。そんな場合は今一度キャリブレーションを実行してください。
もしここで、ある程度の数の星が見えているのに、画面所の緑色の四角が一つしか見えなくて、選択されている星が一つの場合は、画面下の脳みそマークのアイコンを押して、「ガイド」タブから「Use multiple stars」を選ぶといいでしょう。複数の星をガイド星としてみなすので、精度が格段に上がります。


SharpCapの設定

あとは撮影に際してのSharpCapの設定を残すのみです。

まず最初にメインカメラの冷却機能をオンにします。
  1. SharpCap右側の「温度制御」パネルを開き、「設定温度」を「-10」程度にします。冬場だともっと冷えますが、ダークノイズの影響を考えるとこの程度で十分でしょう。
  2. さらに「冷却」を「オン」にします。
  3. 「温度」のところが徐々に下がっていって、設定温度に向かっていきます。

細かい設定です
  • 「フォーマット」パネルの「出力形式」は「FITSファイル(*.fits)」を選択。
  • 「フォーマット」パネルの「モード」はRAW16
  • 「カメラコントロール」パネルの「露出時間」はとりあえずテストなのですぐに画面が更新されるように1000msとしましょうか。あとで実際の撮影時には「長秒モード」オプションをオンにして「60s」とかにして長時間露光に変更します。
  • 「カメラコントロール」パネルの「アナログゲイン」はとりあえずUranus-C ProのHCG(High Conversioin Gain)モードがオンになる220とかにしておきましょう。これで、ゲインが高い状態で、「読み出しノイズが小さく」「ダイナミックレンジが大きく取れる」ようになります。明るすぎる場合はアナログゲインは0にします。実際の撮影ではアナログゲインは220か0のほぼ2択のみに限られ、それ以外ではダイナミックレンジの観点から不利になってしまいます。
  • 「カメラコントロール」パネルの「オフセット」は小さな値を入れておきます。0だと暗い部分がうまく表現されずに階調がガタガタになる可能性があります。今回はとりあえず「40」とします
  • 「前処理」パネルの「ダーク補正」のところで「Hot and Cold Pixel Remove」を選んでおきます。これはあくまで簡易処理ですが、今回のように電視観望技術を利用した簡単な撮影では、別途ダーク補正をする手間を省いているので、これを選んでおくと仕上がりに有利になると思われます。ただし、有効かどうかはカメラに依ます。実際試したところ今回のUranus-C Proではそもそもカメラに搭載されているDPS (Dead Pixes Suppression)機能が優秀なせいか、このオプション有無でほとんど差は見られませんでした。
  • 「前処理」パネルの「背景減算」は電視観望の時にはよく使うのですが、撮影に際しては1枚1枚で効果が違ってしまっておかしくなるようなので、オフにしました。今回はカブリが少ない状態で撮影したのですが、カブリが多い場合は試してみてもいいかもしれません。

一旦ここで、どのような画像になるか確認します。「ヒストグラムストレッチ」パネルの右側アイコン群の左列上から2番目の雷マークの「オートストレッチ」ボタンを押します。すると、ヒストグラムの左の山のピークを、3本ある黄色の点線の左と真ん中の2本の線で挟むような形になり、画面にオリオン大星雲がバッと明るく出てくると思います。ただし、このオートストレッチ機能は有料版のみ使うことができます。無料版の場合は、マニュアルで黄色の2本の点線を動かして、山のピークを挟むようにしてください。

もしこの時点でオリオン大星雲の位置がおかしい場合は、ガイドを一旦中断して位置調整をしましょう。
  1. PHD2のメイン画面の左下の「STOP」アイコンを押してください。
  2. その後に、SynScan ProやSharpCapの望遠鏡制御の矢印ボタンで位置合わせをします。
  3. PHD2の「露出開始ボタン」「ガイド星選択ボタン」「ガイド開始ボタン」を順に押して、ガイドを再開します。
このように、ガイドを一旦中止してから位置合わせをしないと、ガイドが元の位置に戻そうとしてしまうので、位置を変えることができないことに注意です。

ガイドとディザーの設定をします。
  1. SharpCapメニューの「ファイル」から設定を選び、「ガイディング」タブを開きます。
  2. 「ガイディングアプリケーション」をPHD2に選びます。ホスト名やポートは特に変更したりしてなければデフォルトのままでいいでしょう。
  3. 最大ステップは大きくしすぎると、画面が大きくずれてしまうので、ここでは最小の2としてありますが、もし縞ノイズが目立つようなら増やしてください。また、ライブスタックするたびに星がずれて伸びて見える場合は、個々の値が大きすぎて揺れが収束しきれない場合です。その場合はこの値を小さくしてください。この揺れは次の最小整定時間とも関係があります。
  4. 「最小整定時間」はSA-GTiが多少暴れることがあるので、少し長めに取っておくといいでしょう。ここでは30秒としました。
  5. 最後に下の「OK」を押します。
12_guide_setting


ライブスタックで撮影開始

いよいよ撮影のための最終設定です。電視観望の技術を利用すると言うことで、今回の撮影はSharpCapのライブスタックを使います。

1. 「カメラコントロール」パネルの「露出時間」の「長秒モード」オプションをオンにして、露出時間を「60s(秒)」くらいにします。
2. アナログゲインは最初220で試しましたが、明るすぎたので、のちに0としました。CP+で見せる最終画像に至るまでにフィルターの種類や、いくつかの設定パラメータについては何種類か試していて、これまでの説明から変わったところもあります。パラメータの変更については、次回以降の記事で詳しく解説します。
3. LiveStackを開始します。SharpCapのメニューの下のアイコン群の「ライブスタック」と書いてあるボタンを押します。
4. 下のライブスタック画面の「Guiding」タブを選び、「Setting」の中のオプションを全部オンにします。「Dither every」のところは、枚数区切りでディザーをかけたいので「Frames」します。枚数は数分から10分おきくらいで十分なので、今回は「6」としました。「Only stack...」をオンにしておくと、雲などが出てPHD2が星を見失った時はライブスタックで画像を重ねることをしなくなるので、不慮の天候悪化時の出来上がり画像の劣化を防ぐことができます。
01_SharpCap_ok_06_guiding_cut

5. 下のライブスタック画面の「Controls」の「Stacking」で「Sigma Clipping」を選んでおくと、人工衛星の軌跡などが目立たなくなります。
6. 同じ「Controls」の「Raw Frames」で「SAVE all」を選んでおくと、LiveStackが途中で失敗した時に、後から救い出せるかもしれません。ただし、ディスク容量をかなり消費することと、さらにディザーの際の短い露出時間のファイルも全て残されるので、もしこれらのRAWファイルを使う際は、ディーザーの際の余分なファイルは後から手で削除する必要があります。
7. 撮影終了時間が決まっているなら、「Save and Reset every...」をオンにしておくといいでしょう。例えば「60」minutes total exposureとしておくと、60分経ったときに、素のままのRAWファイルと画面で見えているままの画像をファイルとして自動的に保存してくれます。ただし、その時点でライブスタックがクリアされてしまうので、できるだけ長い時間撮りたい場合はオフにしておいた方がいいでしょう。

あと撮影ファイルの出力場所を設定しておきましょう。
  1. SharpCapメニューの「ファイル」から設定画面を開きます。
  2. 「ファイル名」タブを開いて、「フォルダー」のところに保存したい場所を指定します。 
  3. 下の「OK」を押します。

これで全部の準備が完了でしょうか。長かったですが、ここまでうまくできていますでしょうか?さあ、撮影開始です。
  1. 下のライブスタック設定画面の、左側の「Actions」の「Clear」ボタンを押してください。画面が一旦クリアされ、これまで溜まっていた画像が一新され、新しくライブスタックが始まり、撮影が開始されます。
  2. 露出時間で設定した「60秒」待つと、画面に撮影した画像が出てきます。
  3. ここで、ライブスタック画面の「Histogram」タブを開き、右の上の雷マークアイコンを押し、オートストレッチします。その際はSharpCapの右パネルの「ヒストグラムストレッチ」はぐるっと回転する矢印の「リセット」アイコンを押して、ストレッチがない状態にすると見えやすくなるでしょう。もしくは、新たに右パネル「ヒストグラムストレッチ」の方の雷マークを押すと、さらに炙り出した画像が出てきます。二つのストレッチの関係ですが、ライブスタックのヒストグラム画像であぶり出した際の状態が、右側パネルのヒストグラムに受け渡されます。右のヒストグラムでは、さらに重ねてあるり出しをすることができます。撮影画面には両方のヒストグラムのあぶり出しが重ね掛けされた結果が表示されます。
  4. 撮影中に、上で指定した保存フォルダーの中身をエクスプローラーで確認してみましょう。フォルダの中の「RAWFILES」フォルダを確認して、60秒ごとにfitsファイルができていくか確認してみてください。
  5. (RAWファイル以外の) ライブスタックの結果画像の保存は、ライブスタック終了時に自動的にされますが、任意の時間にあらわに保存したい場合は、ライブスタック画面の左の「Action」から「SAVE」を押します。いくつか選べるのですが、「Save as 16 Bit Stack」と「Save with Adjustments」と「Save exactlly as seen」の3つをそれぞれ保存しておくのがいいでしょう。「Save as 16 Bit Stack」はRAWフォーマットでfitsファイル形式で保村されます。これが最も情報を持っていますが、ストレッチされていないので最初は扱いにくいと思います。「Save with Adjustments」はライブスタックのヒストグラムでストレッチされた分までがpngフォーマット(8bit)で、「Save exactlly as seen」はさらに右パネルのヒストグラムでストレッチされた分までの画像がpngフォーマット(8bit)保存されます。
保存されたRAWファイルや、スタックされたfitsファイルを見るには、ASIStudioの中にあるASIFitsViewが便利です。ASIStudioはWindowsだけではなく、Mac版やLinux版もあるので、ある意味貴重なアプリです。ここからダウンロードできます。


保存されたfitsファイルはストレッチされていないので、通常開いただけでは真っ暗にしか見えません。ASIFitsViewは自動でオートストレッチもしてくれるので、オリオン大星雲があぶり出された状態で見えるはずです。下にあるアイコン群の中の、「ヒストグラム」マークをクリックして、「リセット」ボタンを押すと、ストレッチされる前の真っ暗な画像を確認することもできます。また、ストレッチ後のファイルを保存することもできます。

撮影がうまくいくと、SharpCapではこんな画面になっているはずです。
01_SharpCap_ok_03

今回はここまでとして、ここからの画像処理についてはCP+当日に実演として公開することにしましょう。

CP+まではまだ少し時間がありますので、撮影方法に関してもう1回か2回ブログ更新する予定です。今回までは主に初心者を対象に、かなり基礎から説明しましたが、次回からは少し突っ込んだ記事になります。









「電視観望技術を利用して天体写真を撮影してみよう」ですが、前回までに機材の準備はある程度整いました。今回は、実際に動作させて、画面に天体を映してみます。




ここで準備するもの

今回必要なものは主に電気関連で、
  • ノート型などのWidows10以上が走るパソコン (PC)
  • PCとメインカメラUranus-C Proを繋ぐUSB3.0以上の、Type-Cケーブル
  • PCとガイドカメラNeptune C-IIを繋ぐUSB3.0以上の、Type-Bケーブル
  • PCと赤道儀を繋ぐ付属のUSB2.0、Type-Bケーブル
  • PCに複数のUSB端子がない場合は、USB増設アダプターなど
  • DC12V出力があるバッテリー
  • バッテリーと赤道儀を繋ぐDC電源用ケーブル(単3電池駆動なら必要ありません)
  • バッテリーとメインの冷却カメラを繋ぐDC電源用ケーブル
  • バッテリーに12V端子が1つしかないなら、二股ケーブルなど
などでしょうか。これだけでも結構大変ですね。

その他、あると便利なものですが、
  • テーブルなど、PCやその他のものを置いたりできる台
  • 椅子
などです。

IMG_8985


テーブルはホームセンターなどで適当なものを見つければいいでしょうか。コンパクトなものをさがせばいいでしょう。

椅子も適当なのでもいいですが、私は座面の高さを変えることができる作業用の椅子を使っています。具体的にはルネセイコウの作業用の椅子です。
 

少し高価ですが、望遠鏡で星を見るときに高さ調整できるのでとても使い勝手が良く、自宅でも玄関にいつも置いてあり、遠征には車に積んで使っています。


ソフトウェア

PCはWindows10以降が動くものなら問題ないでしょう。ソフトウェアは
などが必要になります。それぞれダウンロードしてインストールしておきます。ASCOMプラットフォームはインストール時に、各種ランタイムライブラリーなどのインストールを要求されるかもしれませんので、指示にに違ってください。

SharpCapは無料でも使えますが、有用な機能の多くの部分が制限されています。年間2000円なので、できれば有料版にアップグレーとしておいた方が有利です。しらはいはPayPalが楽でいいです。

カメラのドライバーがないと、SharpCapからカメラが認識されません。忘れないようにインストールしておいてください。同様に、PHD2からPlayerOneのカメラを使うときは、ASCOM経由で使うことになるので、PlayerOneカメラ用のASCOMドライバーをインストールすることも忘れないでください。詳しくはここを参照してください。



機材の設置

機材を夜に外に設置します。空が十分に開けた場所を探しましょう。周りに明るい光があると、撮影時に映り込むこともあるので、できるだけ暗い場所を探しましょう。街の大きさにもよりますが、住宅街程度でも、近くに街灯などがなければおそらく大丈夫でしょう。

まず最初に、すべてのケーブルを接続しましょう。できれば機材の設置も、ケーブルの接続も、できれば暗くなる前の明るいうちに済ませておいた方がいいかと思います。ただ暗くならないと、周りの街頭の明るさなど、わからないこともあるので、事前にロケハンで暗くなる時も合わせて見ておいたほうがいいかもしれません。

今回ケーブルは5本あります。USBが3本で、DC12Vが2本です。PCの電源ケーブルも必要なら6本でしょうか。それぞれ絡んだりしないように接続します。特にカメラに繋ぐUSBケーブルと、冷却カメラに繋ぐ電源ケーブルは、撮影中は時間と共に赤経体が動いていくので、引っ張られたり、噛んだりしないように注意が必要です。ケーブルタイやスパイラルチューブなどを使い、あらかじめまとめておくと良いかもしれません。

赤経体は鏡筒部が上になるような回転方向に、赤緯体は鏡筒先端が一番上になるような「ホームポジション」にして、鏡筒先端が北向きになるような方向で設置します。その際、方角はスマホなどのコンパスアプリを使うのが便利です。アプリによっては「磁北」ではなく「真北」を選べるものがあります。「磁北」は天体観測に必要な「真北」から7度程度ずれているので、もし「真北」が選べるならそちらを選んでください。スマホを赤道儀本体に真っ直ぐになるような面でくっつけて調整するといいでしょう。正確な方向はのちに「極軸合わせ」でするので、ここでは数度の範囲で設置できれば十分です。

三脚は赤道儀がざっくりでいいので水平になるように、足の長さを調整します。足の長さはできるだけ短くしておいた方が、安定になりますので、むやみに伸ばさないようにしましょう。


SharpCapの立ち上げと極軸合わせ

まずはPCとガイドカメラ、PCと撮影用の冷却カメラがUSBケーブルで接続されていることを確認し、PCの電源を入れ、SharpCapを立ち上げます。

SharpCapから最初はガイド用のカメラを接続します。SharpCapの上部のメニューの「カメラ」から今回はガイドカメラとして使っているNeptune II-Cを選択します。
01_SharpCap_Neptune2

画面がカメラ画面に切り替わったことを確認します。明るいライトなどをカメラ前にかざしてみると、画面に何か見えるはずです。何も反応がなく真っ暗な場合は、レンズキャップを外し忘れていないか確認してみてください。

SharpCapの右側のパネルの「カメラコントロール」から、「露出時間」を800ミリ秒とか、1000ミリ秒程度にして、「アナログゲイン」を400程度の高めにして、ガイドレンズのピントを合わせてみます。すでに鏡筒が北の空を向き、北極星の近くを見ていると思うので、うまくピントが合ってくると星が見えてくると思いますが、その星の一つ一つが一番小さくなるようにピントを調節してください。

もし星が暗くてみにくい場合は、アナログゲインをもっと上げるか、右側パネルの「ヒストグラムストレッチ」で雷マークのボタンを押してオートストレッチしてみてください。暗い星も一気に見やすくなると思います。ただし、このオートストレッチ機能はSharpCapの有料版のみで使える機能なので、無料版を使っている場合は、手でこのオートストレッチ相当のことをしてやる必要があります。具体的には、ヒストグラムストレッチ画面に3本の黄色の縦の点線があるのですが、そのうち左側と真ん中の線を移動して、ヒストグラムの山を挟むようにしてやります。

ピントが合ったら、そのままの状態にして、次の極軸合わせに移ります。


極軸合わせ

まず前提条件として、この極軸調整機能も先ほどのオートストレッチと同じで、SharpCapの有料版のみで使える機能です。無料版では使うことができないので、別途SA-GTi付属の極軸望遠鏡などで極軸を合わせる必要があります。でも、極軸望遠鏡で合わせた精度は、SharpCapで合わせることができる精度に遥か及ばないので、SharpCapの有料版を購入することを強くお勧めします。2024年2月現在、年間2000円です。極軸調整だけのためこれだけ払っても十分お釣りが来るくらい、SharpCapはとても強力です。

というより、電視観望で撮影をするためにSharpCapをフルで使うので、あらかじめ有料版にしておく必要があります。そうでないと、便利な機能のかなりの部分が使えなかったり、撮影画像に透かし文字が入ったりすることがあります。

さて、実際の極軸調整を始めましょう。鏡筒はホームポジションに戻してあるので、ある程度北極星の方向をむいているはずです。SharpCapが立ち上がり、ガイドカメラはつながっていますね。この時点ではまだ赤道儀の電源を入れる必要はありません。

まずは準備です。
  • SharpCapのメニューの設定から「極軸合わせ」タブを選んでください。「大気差を補正する」を選択し、インターネットに繋いだ環境で「タイムゾーンから自動的に推測する」を選びます。これがうまくいかない時は「以下の位置情報を使用」を選び、マニュアルで入力する必要があるのですが、経度緯度が何度何分何秒の形式になっていなくて、何点何々度形式なので、正確な値を入れるのに苦労します。まあ、そこそこ合っていれば多少ずれていてもたいしたずれにはならないので、必要なら適当に何点何度くらいまでは入れておきましょう。

実際の曲軸合わせです。

1. 「ツール」「極軸あわせ」から「極軸調整」を選択します。
2. その時のカメラの露光時間は800ミリ秒とか1.6秒くらにしてください。ゲインは高めの400くらいでいいと思います。この時点で、右画面のヒストグラムで雷ボタンを押してオートストレッチをしておくと、星が画面に明るく見えるようになります。
3. 下の「Next」ボタンを押します。
02_polar1

4. 星の位置の認識がうまくいき、位置認識の計算が終わると、下の「Next」ボタンが緑色になるので、押します。
02_polar2

5. 赤経体のネジを緩めて、赤経体が動く状態にして、手で大まかに90度くらい回転させ、鏡筒が赤道儀の横側にくるようにして、ネジを固定します。
IMG_8963

6. 再び星の認識がうまくいき、位置認識の計算が終わると、下の「Next」ボタンが緑色になるので、押します。
02_polar6

7. ある星から長い黄色の線が出ているのでl、赤道儀の上下(ピッチ)方向調節ネジと、横(ヨー方向)方向調整ネジを使って、その線が短くなっていくように、調整します。
02_polar7

8. 線が短くなると同時に、画面右下の「Polar Align Error」の数値が小さくなっていくので、画面を見ながら線の長さが最短近くになるまで合わせ込みます。数値が1分角以下になっていれば十分です。
02_polar8

これ以降は、赤道儀を蹴飛ばしたりしないでください。万が一赤道儀に何か当たって位置がずれてしまったら、この極軸合わせからやり直します。


メインカメラの接続と、ピント出し

いよいよ、メインのカメラの画像を見てみます。SharpCapのメニューの「カメラ」からUranus-C Proを選びます。
01_SharpCap_Uranus

方角的には真北を向いているので、星は入っているはずですが、ピントがずれていて星はほとんど見えていないと思います。

鏡筒のフォーカサーの上についているピント固定ネジが緩んでいることを確認して、フォーカサー左右についているピント調節ネジを、SharpCapの画面を見ながら回してみます。SharpCapの設定は、露光時間は800ミリ秒とか、1000ミリ秒くらいでいいでしょう。アナログゲインは400程度の高めの値にします。

画面が真っ暗のままで全然見えない場合は、鏡筒の先のキャップを撮り忘れていないか確認してみてください。

最初は左側のピント調節ネジで粗動でざっくり合わせてみて、画面に出る星が小さくなってきたら、SharpCapのメニューと同じ段の右の方にある「ズーム」を100%とか200%にして星を拡大してピントを合わせやすくしてから、右側のピント調節ネジの微調整ネジで調節するといいでしょう。

ピントが合ったら、フォーカサーの上部のピント固定ネジを締めておくと、これ以上ピントがずれなくなります。でも次回ピント調整する時は必ずこのネジが緩んでいることを確認してから調整するようにしてください。ネジを締めたまま調整しようとすると、最悪壊してしまいます。

さて、実際にピント合わせをやってみるとわかるのですが、うーん、かなり揺れますね。三脚の頭を手で回転方向に捻ってやると結構動きます。やはり評判通り三脚が少し弱いようです。これだとピント調整する時に鏡筒に触れるだけで揺れ過ぎてしまい、かなり合わせにくいです。少しでも揺れを抑えるために、とりあえず赤道儀と三脚の間に入っているハーフピラーを外すことにしました。

IMG_8984

さらにですが、三脚の足の赤道儀に近い根本のネジを一本につき両側から2箇所、合計6箇所増し締めします。実際、いくつかのネジはかなり緩かったです。

これだけでも多少揺れは収まるので、ピント調整の際も、撮影の際も有利になると思います。


SynScan Proとの接続と初期アラインメント

赤道儀SA-GTiのコントロールパネルの赤いスイッチを入れて、電源をオンにします。

次に、アプリとの接続です。接続は、WiFi、bluetooth、シリアルと3種ありますが、長時間の撮影なので安定性を考えて、USBケーブルを使ったシリアル接続とします。

03_Synscan_net

ちなみにですが、iPhoneのSynScan Proを最新版にしたら、iPhoneからのWiFi接続では、「赤道儀モードか経緯台モードかの判断がつかない」とというエラーが出て、接続できませんでした。旧バージョン(1.19)のSynScan Proだと大丈夫なので、iPhone版の最新版にアップデートする際は注意してください。PCからUSBケーブルで接続した場合は、最新版のSynScan Proでも問題なく接続できました。

接続ができたら、いくつか設定です。
  • 高度制限が入っていると、高いところの天体を導入などできなくなります。「設定」「高度制限」から「Upper Go To Limit」を90度まで上げてください。
  • 緯度経度情報を忘れずに入れてください。PCと接続する場合は、自動的に情報が取れない場合が多いです。私はiPhoneのコンパスアプリを開いて、緯度経度情報を得て、それを手入力しています。

最初にやるべきことはこれくらいでしょうか。これらは最初に一度やればいいことで、大きく撮影場所を移動しなければ、緯度経度情報もいじる必要はありません。逆に、場所を移動して、最初の導入でうまくいかない場倍は、この緯度経度情報が間違っていないか疑ってみてください。


初期アラインメント

最初にやることは、SynScan Proでの初期アラインメントです。初期画面から「アラインメント」で「1スターアラインメント」を選びます。他にも何種類かのアラインメント方法がありますが、赤道儀の極軸がしっかり合わせてあること、次にプレートソルブで導入の補助をするので、1スターアラインメントで十分です。
10_synscanpro_alignment

星はターゲットのオリオン大星雲の近くの「リゲル」を選択しましょうか。
11_synscanpro_alignment_rigel

アラインメントを開始すると、赤道儀がターゲットの方向に向かって動き出します。SharpCapの画面で見ていても、星が動いていく様子が見えると思います。赤道儀が止まったら、SynScan Proは下のような画面になります。
03_Synscan_done


SharpCapの画面を見てみましょう。リゲルは画面の中に入っていますでしょうか?一つだけ明るい星ですので、入っていればすぐにわかるのですが、大抵の場合は画面の中に入ってこないと思います。でもここで落ち込む必要はありません。解決策はきちんとあります。


プレートソルブによる導入補助

次にSharpCapに最近標準で搭載されるようになったプレートソルブ機能を使って、リゲルを自動で画面中央まで持って来ることにしましょう。

まず下準備です。SharpCapのメニューの「ファイル」からSharpCapの設定画面を開き、「プレートソルブ」タブを選びます。

04_SharpCap_setting_platesolve

  1. 「プレート解析エンジン」のところで「SharpSolve(SharpCap's built in plate solver)」を選びます。もしこの選択肢が出てこない場合は、SharpCapのバージョンが古いことが考えられますので、最新版のSharpCapをダウンロードしてインストールしてください。
  2. 焦点距離は自分が使っている望遠鏡の値を正しく入れてください。
  3. 最後に一番下の「適用」もしくは「OK」を押します。

次に、同じくSharpCapのメニューから設定に行き、「ハードウェア」タブのところに行きます。
03_SharpCap_setting_hardware
  1. 「マウント」の「ハードウェアの選択」のところで、接続したい赤道儀を選びます。今回はSA-GTiをSynScan Proで操作するので「SynScan App Driver」を選びます。
  2. 一番下の「OK」を押します。
  3. SharpCap画面の右パネルの「望遠鏡制御」の「接続済み」のところの四角を押します。ASCOMを介して接続するのですが、10秒くらい待ってうまく接続されると数字などが出てきて、赤道儀がどちらを向いているかSharpCapで認識できるようになります。
01_SharpCap_ok_cut

これでだいたい準備は完了です。

実際にプレートソルブを走らせてみましょう。

1. 露光時間を3秒程度にしておくといいでしょう。短すぎると星の数が少なくて、長すぎると星が流れてしまってうまくいかないことがあります。
2. SharpCapメニューの「ツール」から「プレートソルブ後再同期」を選ぶか、右側パネルの「望遠鏡制御」の方向矢印の左下の方角マークのようなアイコンを押します。
04_platesolve

3. 今見ている画面から実際に見ている方向を計算して、赤道儀が認識している方向とどれだけ違うかの差を認識して、その差を赤道儀にフィードバックして、赤道儀が見ていると思っている方向に向きを変えて合わせてくれます。
4. うまく行くと、下の画面のようにリゲルが真ん中に来て、上部の緑色のところにプレートソルブが成功したことが表示されます。今回の場合2.72度ずれていたそうです。
06_platesolve

うまくいったら、PC上で走っているSynScan Proのアラインメント完了の意味で、星マークのボタンを押します。

その後は、SynScan Proを使って、自由に目標の天体を導入してみましょう。例えば今回の目標はオリオン大星雲なので、SynScan Proの初期画面から「ディープスカイ」を選びます。
09_synscanpro

オリオン大星雲はメシエ天体の42番目なので、「メシエ」を選び、「042」と入力し、「導入」を押します。うまく行くと、オリオン大星雲が画面に入ってくるのが見えるでしょう。

05_intro

もし画面内に入らなかったりした場合は、再びプレートソルブを走らせることで画面に入れることもできます。

今回は導入完了のここまでとします。次回は実際に撮影してみます。










このページのトップヘ