ほしぞloveログ

天体観測始めました。

カテゴリ: software


SharpCapの一眼レフの対応にあたって、これまでEOS 6Dで試してきましたが、今回残りの手持ちの機種でもテストしてみました。

 



手持ちの一眼レフカメラの接続テスト

前回電視観望まで試したEOS 6D以外にはEOS kiss X5とEOS kiss X7とEOS 60Dがあります。



X7はノーマルですが、娘のものなのでとりあえず手を出さないようにしておいて、X5と60Dを試すことにします。この2機種は天体改造済みのもの。なので接続テスト後は赤外の星雲とか見てみるのも面白いはずです。

先週末の金曜の夜、時間が少しあったのでその2機種のテストをしました。60Dはそのまま問題なく繋がり、X5の方も最初つながらないと思ったのですが、単なるミスで、手順さえ間違えなければそのまま順調に動きました。ちなみにミスというのは、
  • 最初動画モードでやっていてエラーが出た(でもそのあとさらに動画モードで試したら動いたので、この時点でバッテリーがギリギリだったのかも)。
  • バッテリーが空だった。
  • バッテリーを変えて、1枚だけ撮れたが、また動かなくなった。と思ったら変えたバッテリーも空だった。
  • 接続ケーブルのコネクタがゆるゆるで、いつのまにか抜けていた。
と、簡単なことばかりです。でも古い機種とかいう先入観があるとダメですね。「あー、やっぱり動かないんだな」と思ってしまいます。皆さんはくれぐれも私のような間抜けなミスは避けてください。


安価な電視観望入門セットアップの可能性

60DとX5の両方ともが動いたのと、夜になって天気も良くなってきたので、外でどう映るかのテストをしてみます。どちらにしようか迷いましたが、より安価で使える方をと思い、X5で試すことにしました。

レンズはキタムラかどこかで中古で数千円で手に入れた、キットレンズクラスのEF 28-80mm  F3.5-5.6で、昔一度三脚ごと倒れて壊れたやつです。CANON CAMERA MUSEUMに1991年発売で、定価42000円とあるので、付属レンズではなかったのかもしれません。これを80mm側で使います。なのでF5.6でそこそこ暗いです。

ちなみに、当時のX5のレンズキットにはEF-S18-55 IS IIがついてきたそうです。ダブルズームキットだとEF-S55-250mm F4-5.6 IS IIなので、電視観望には後者の方が焦点距離的にはいいかもしれません。中古だと、本体だけだと1万円台前半から後半、レンズキットで2万円代前半でした。もしこのテストがうまくいくなら、これくらいの値段からなら始めたいという人がいるかもしれません。

全くの初心者、
もしくは一眼レフカメラだけを持っている人が
電視観望に挑戦した場合、どんなことができるのか?

という可能性を示せればと思っています。いかに電視観望に対する敷居を下げるのかというのも目標としたいところなので、できるだけ安価にすむというのは大きなファクターの一つです。

以前も格安電視観望について記事を書いたことがありますが、電視観望をする際、一番高価になるなのがCMOSカメラなのです。安価なCMOSカメラはセンサー面積が小さく導入が難しくなり、その一方、十分な面積のセンサーを持つCMOSカメラはかなり高価で、そのことが初心者に対する敷居を上げてしまっています。

中古市場ではもうかなり安価なX5でもAPS-Cサイズで、電視観望で主流のマイクロフォーサーズサイズのASI294MCより既に大きいのです。でも値段だけで考えたら5分の1から10分の1とかでしょうか。これはうまくいったら相当インパクトがありそうです。


EOS X5による電視観望テスト

とりえずテストの結果を見てみましょう。まずはファーストライト。雲がある時のオリオン座付近です。全景が見えるようにZoomが25%です。20秒露光で4枚スタックなので、80秒ぶんです。

IMG_0710

ノイズも多少ありますが、意外に悪くなさそう。

雲がなくなった時に少しだけ拡大(33%)。同じく20秒露光で4枚スタック、80秒ぶんです。

IMG_0713

馬頭星雲とかも一応出てますね。

さらにM42部分を拡大。20秒が5枚です。

IMG_0715

うーん、ノイズはまだ多いですが、写りはそんなに悪くないですね。高々80mmのレンズで、M42部分をかなり拡大していることになるのですが、恒星がそこまで肥大していないです。レンズ枚数が少ないのか?F5.6で暗いから収差も小さいのか?これなら観望会で見せることも許容範囲かと思います。

X5のセンサーはAPS-Cの22.3×14.9mmで5184×3456ドット。ここから計算すると1ピクセル4.3μmで、ASI294MCのピクセルサイズとほぼ同じサイズです。感度はほぼほぼ1ピクセルのサイズに比例するので、ASI294MCクラスが格安で買えると考えると、かなりお得かもしれません。

一方、馬頭星雲と燃える木をみると、もう少し赤の感度が欲しいかなというところです。

IMG_0717
これで20秒x6枚です。一応天体改造済みでこれなので、センサーの感度そのものはASI294MCに比べるとやはりもう少しといったところなのでしょうか。今回使ったのがF5.6と結構暗いレンズなので、レンズを明るいものに変えることでまだまだ改善はするはずです。さらにQPBとかの光害フィルターもつけていないので、その分も改善するかもしれません。

もう一つ、M31アンドロメダ銀河です。これで20秒x5枚、計100秒です。

IMG_0724

ちょっとノイジーですが、何とか構造も見えかています。ここらへんまで見えるなら、十分楽しめるのではないかと思います。

視野が回転し始めてるがわかるくらいまで、5分くらいまでスタックしたのが下の画像です。ノイズがまだノイズが大きいですね。スタックでのノイズ軽減があまり効果的に見えません。でも今回はダーク補正もしていないので、次の課題はここらへんのノイズの緩和とかでしょう。

IMG_0729


最後はM42すばるの20x13=4分20秒スタック。これも回転が見え始めています。青い分子雲がわずかに見えかています。CBPとか試すと面白いかもしれません。

IMG_0736


この日の環境

ちなみにですが、この日は月齢23日で、下弦からもう少し欠けた位の、まだまだ明るい月夜です。場所も自宅の庭からで、光害フィルターも無しです。普通に考えたら星雲や銀河を見るような状況ではないにもかかわらず、ここまで見えているのは随分と頑張っているのではないでしょうか。環境がいい状態で試すとまだまだ改善しそうです。

今回使ったものは一眼レフカメラの中でも入門クラスで、レンズもキットレンズクラス。それも結構昔のもので中古市場では値段もかなりこなれています。少なくとも、CMOSカメラしか選択肢がなかった状況から、中古の一眼レフカメラまで範疇に入ってくるとなると、はるかに可能性が開けると思います。


電視観望と撮影の境界

実はこのテストをしている時に、結構いろいろ考えさせられました。果たして電視観望と撮影の境界はどこだろうというものです。一眼レフカメラを使って、15秒とか20秒とかの露光で連続してシャッターを切るのは、もう撮影ではないのか?という疑問を持つ方も多いと思います。リアルタイム性として考えると、少なくとも動画のようになるわけではありません。

私自身は、それでもまだはっきりとした境界が存在すると考えています。特に今回のテストを通してよりはっきり自覚できるようになりました。

大枠での定義は、目的の天体がモニターなどを通して「観望しているその場で」十分に見えているなら、それは電視観望と言っていいのでは。もし、その場で十分に見えなくて、「後の画像処理」をして初めて十分に見えるようになるのなら、それは電視観望というよりは撮影という範疇に入るのではということです。

例えば、
  • 今回使ったX5とレンズだけで、赤道儀に載せて10秒の露光をして、カメラ付属のモニターに出してみるだけだと、おそらく「後の画像処理」がなければ十分天体が見えることにならないと思うので、これは電視観望ではないと思います。
  • 一方、HUQさんが最初にやったように、α7Sで1/4秒露光で動画モードでHDMI出力してその場で十分見えるようにしている場合は、十分電視観望と言えるでしょう。
  • 例えば、暗い空でX5で1分くらいと十分露光して、目的とする天体が十分出ていて、それをその場で楽しむというのなら、これはリアルタイム性は薄いけれども電視観望と言ってしまってもいいのかと思います。
どれくらいの露光時間かではなかなか定義はできないので、その場で楽しめるかどうかというところがポイントになるのかと考えるようになってきました。 


電視観望を可能にする重要な技術

電視観望の技術の中で、いくつか非常に重要なものがあります。例えばSharpCapのヒストグラムでのオートストレッチボタンや、ストレッチ関数と呼ばれる中間値と黒レベルを利用した、リアルタイムでの簡易画像処理です。これは「その場で天体を楽しむ」ということに大きく貢献しています。

また、LiveStackも電視観望の重要な技術だと思います。もっと具体的に言うと、単に画像をその場で重ね合わせるだけでなく、また画面の平行移動や回転だけで星を合わせるだけでもなく、LiveStack時に星の位置をきちんと認識して画面を歪ませて星を合わせていく技術です。PixInsightやSequatorなどでは後の処理で同様の画面を歪ませての位置合わせはできます。でもその場で毎回やるわけにはいかないので、電視観望のツールにはなり得ません。こういった高度な処理をリアルタイムで行うことで、星像を肥大させずにスタックし、ノイズを減らしていくことができます。さらに言うと、この技術を用いると赤道儀も必要とせず、たとえ経緯台で視野が回転してもきちんと星の位置が合うということです。もっと言うと、ある程度広角にして、見ている間に天体が画面から逃げていかなければ、経緯台さえも必要とせず、固定の三脚だけで星像の肥大を避けスタックしていくことができます。

このような高度な技術はいまのところ私が知る限り、PC上ではSharpCapとASIStudioのみ。私はまだ使っていないですがASIAIRも同様の機能を持っているはずです。最近ではeVscopeも同等の機能を持っているのかもしれません?他には、電視観望用のハードウェアのRevolution Imagerがありますが、こちらはスタック機能は持っていますが、スタック回数を何回かに制限しているだけで、星像を合わせてスタックするような機能は持っていません。

リアルタイムで画像処理に近いような事をして、その場で天体をあぶり出す事でより楽しめるようになり、そう言った意味ではSharpCapは電視観望という分野を切り開いた秀逸なソフトと言うことができるでしょう。

こういった高度な機能はあればもちろんいいのでしょうが、たとえそんな機能がなくても、その場でモニターとかに写して天体がみんなと共有で楽しめたりするならば、もう電視観望の一種と言ってしまっていいのかと思います。これから先、さらに技術が発達して、その場で楽しむことはより簡単になり、手法もどんどん広がっていくことでしょう。電視観望の概念も柔軟に変化していけばいいのかと思います。


まとめ

今回のEOS X5は、元々中古で安価で手に入れたたものです。SharpCapが一眼レフカメラを扱えるようになったことで、使う機会が少なくなってきた中古のカメラに、また一つ大きな可能性が開かれようとしています。

本来SharpCapと一眼レフカメラを繋ぐというのは、撮影時の取り扱いを便利にするというが元々の目的だと思います。それだけではなく、LiveViewモードを明示的に分けて実装してくれるなど、EAA(電視観望)用途として考えると、今回のアップデートは相当なエポックメーキングなのかと思います。

現在はテスト段階なので、本当に初心者が触るとなるとまだ敷居が高くて不安定なところもあります。でもこれは今度どんどん改良されていくことでしょう。このブログも、興味を持った人たちができるだけスムーズに楽しめるように、説明やサポートなどで貢献できていければと思っています。

手持ちのカメラや、安価な中古の一眼レフカメラを利用するなどで、電視観望の敷居が下がり、天文人口の裾野が広がってくれればと思っています。

昨日のSharpCapの一眼レフ対応の騒動から一夜明けてブログを書いています。まだちょっと興奮気味です。


SharpCapバージョンアップ間近

何日か前からSharpCapのβテストフォーラムで3.3βが間も無くリリースされるというニュースはあがっていました。金曜の夜にも確認し、そろそろかなと思って土曜の昼くらいに見たらすでにリリースされてるではないですか!

バージョン3.2から3.3βへの大きな変更点は、シーケンサー操作と、デジタル一眼レフカメラのサポートです。電視観望にとっては後者が重要です。


これまでの一眼レフへの対応状況

以前にもSharpCapで一眼レフを使う方法は少なからずありました。2018年の夏頃でしょうか、ASCOMの一眼レフカメラのドライバーを使ってSharpCapからアクセするするというものです。

でも実際私も6Dで試したりしたのですが、全く動きませんでした。その当時、幾らかの実際に動いた人がSharpCapでライブスタックを試したりもしていたそうですが、その方法はかなりトリッキーでした。カメラから直接、PC上のあるフォルダに画像ファイル書き込んで、そのフォルダ内のファイルをSharpCapが読み取ってスタックするというのが唯一の方法だったはずです。私の場合は、そもそもそれを試すところまでたどり着けない状態で、非常に不安定でした。

その後ちょくちょく気にしてはいましたが、年単位でなかなか進展がなく、そのため前回の記事のようにSIGMA fpに走って電視観望を試したりしていました。


なぜSharpCapと一眼レフカメラ?

ではそもそも、なぜSharpCapで一眼レフカメラが使えるといいのか?

一般的には撮影です。PCからカメラが制御できれば、ファイルのPCへの取り込みや、設定を変えながらの撮影、リモート操作などにつながります。でもこれらのことはこれまでも、少なくともCanonの場合はEOS UtilityやBackYardEOSを使うことでかなり以前から実現されてます。まだ私は試してませんが最近ではNINAを使ってもできるはずです。

でもSharpCapでしかできないことがあります。一般的にいう天体写真の画像処理を、簡易的にですがリアルタイムでしてしまうことです。オートストレッチやヒストグラムを見ながらのマニュアルストレッチ、LiveStackを使ってのノイズ緩和、ダーク補正やフラット補正もリアルタイムでできてしまいます。

さらにスタック時には、撮影した画面を元に星が重なるように画面を移動して追いかけます。しかもただ追いかけるだけでなく、個々の星の位置を認識し、画面を歪ませて星位置を合わせながらスタックしていきます。

これらの機能は、なかなか他のソフトでは実現できていなくて、今のところ知る限りSharpCapとASIStudioの中のASILiveのみです。これらの機能が電視観望へと繋がっていきます。快適な電視観望はこのような高度な機能の上に初めて成り立つのです。

SharpCapで一般の一眼レフカメラを使うことができると、より大きなセンサーをより安価に利用して電視観望を実現する道が開かれるのです。

そこにきて、昨日におけるSharpCap 3.3βのリリースです。まだβテスト段階に過ぎませんが、今回のバージョンでこれまで滞っていた一眼レフカメラのサポートが一気に進んだ感があります。


現段階での対応状況

さて、これらを動かすためにはASCOM環境がインストールされている必要があります。ASCOM Platformはここからダウンロードしてインストールします。DSLR(一眼レフカメラ)用のASMOMドライバーはいまだ開発段階のような状況で、私はここからダウンロードしました。インストールするとわかるのですが、接続方法は
  • CanonSdk
  • BackyardEOS
  • Nikon
  • Pentax
  • NikonLegacy
とあります。いくつかの説明を見る限り、LiveViewはCanonとNikonのみと書いてありますが、この説明も古い可能性がありますので、ここの機器の対応は現段階では自分で試す必要がありそうです。現状としては、
  • Canonは少なくとも私のところで動きました。
  • Nikonは智さん、あぷらなーとさんが動かしたという報告があります。ASCOMドライバーのカメラ選択のメニューで「ニコン」だと不安定でしたが、「ニコン・レガシー」だと比較的安定だったとのこと。
  • Sony用カメラのドライバーもあるようですが、Sonyカメラを持っていないので試せてはいません。 HUQさんが試したようですが、動かないと言っていました。
ところがです、あぷらなーとさんのところでNikonのD810をSharpCapで動かそうとしたらエラーで本体が壊れたという情報が流れました。幸い「バッテリーを抜いて強制電源OFFした後、電源を再投入してシャッターボタン長押し」で復帰したそうですが、まだ一番最初の一般向けのβテスト段階ですので、何か試す場合も自己責任で、くれぐれもご注意下さい。


SharpCapから実際に一眼レフを動かしてみる

さて、実際のテストの様子です。SharpCap3.3βのインストールはここを見てください。注意書きにもあり、また繰り返しにもなりますが、あくまでβテストです。自己責任で、人柱になるくらいの覚悟を持って、最悪機器が壊れてもいいような環境で試すことを強くお勧めします。撮影に使っている主力機などはまだこの段階では試すべきではないかもしれません。

IMG_0549


ASCOM関連もきちんとインストールしてあれば、あとはカメラとPCを繋ぐだけです。SharpCap3.3βを立ち上げてCameraのところを選ぶと、該当するカメラが出てきているはずです。それを選ぶと「カシャーン」シャッタを開ける音がして接続完了です。

この時点で「Snapshot」を押せば、撮影した画像が出てくるはずです。もし何も出て来なかったらカメラのキャップが外れてるかとか、露光時間が短か過ぎないかとか、ISOが低過ぎないかとかきちんと確かめてみてください。夜にいきなり本番で試す前に、一度昼間明るいところで試してみて、まずはきちんと動くかどうか確かめた方がいいと思います。


LiveViewモード

ここからが新機能です。メニュー下の左端にある新しい「LiveView」を押します。するとシャッターが「カシャーン、カシャーン、カシャーン」と鳴り始め、連続での撮影が始まります。これがこれまでのCMOSカメラでの通常の撮影にあたります。ずっとシャッターを切り続けるので、シャッター回数を気にする人はやはりまだ躊躇すべきかもしれません。もしくは露光時間を長くして対処した方が良いのかと思います。通常、これまでのCMOSカメラはメカニカルシャッターなどは、SharpCapでカメラを接続すると連続でずっと撮影をし続けています。

本当は電視シャッターを持っているか、もしくはミラーアップ撮影ができれば良いのですが、私のところのCanonでも、智さんのところのNikonでもミラーアップにした途端SharpCapが止まってしまいました。私のほうはまだマシで、ミラーアップを解除したらまたSharpCapが動き出したのですが、智さんのところはミラーアップにした途端エラーでSharpCapが落ちてしまったそうです。ここら辺は今後改良されることを期待するしかないと思います。


あと、少し理解しておいた方が良いことは、メニュー下の「Capture」とかは画像データをディスクに「保存する」ということを意味します。カメラを繋いだ段階で、保存はしなくても撮影(PCに画像を送ること)はし続けていて、保存はせずに画像を捨て続けているということです。一眼レフになってもこれは同じ概念のようで、シャッターを切り続けても、PC上のディスクにも、カメラ内の記録カードにも画像は一切保存されません。これがデフォルトの設定のようです。

表示された画像は、ヒストグラムの3本の線で見え方を変えることもできます。簡単なのは真ん中の線で、左右に動かすと明るくなったり暗くなったりするのがわかると思います。画像処理でのあぶり出しの効果を撮影している最中にできるというわけです。SharpCapの有料版のライセンスを持っている方は、オートストレッチもできます。ヒストグラム右の雷のようなボタンを押してください。簡単にある程度の最適化ができます。


とうとう、LiveStackができた! 

ここまでのテストが終わったら、次はLiveStackを立ち上げます。すると、シャッタを毎回切るとともに画像がスタックされていきます。これを見た時、おおっ!!!と感動しました。

とうとう念願だった一眼レフカメラによる電視観望で、リアルタイムに炙り出しまで実現できる道が開かれたことになります。

さらに、Live Stack中にSave Allというオプションを選ぶことができて、こうするとPCに全てのシャッターの画像ファイルが保存されるようです。でも、それでもカメラカード内には何も保存されないみたいです。

この時点で16時過ぎくらいだったでしょうか。Twitterに投げたところ、すごい反響でした。特にあぷらなーとさんは狂喜乱舞。これまでの複雑な解析手法を相当簡略化できるとのことで、早速追試して、上記の通りカメラを壊しそうになったというわけです。

テストは上記の写真の通り、昼間の明るいうちに行いました。できれば夜に実際の空で試したいのですが、天気予報は曇り。果たしでどうなるか?


実際に夜の星を見てみる

夕方過ぎ、暗くなってきたのですが全面に雲が出ています。落ち着かなくてちょくちょく外に出て見てみると、20時半頃でしょうか、ごく一部ですが薄雲越しに星が見えています。雨は大丈夫そうなので、とりあえず機材を出そうと思い、AZ-GTiに6Dを取り付けて外に持っていきます。レンズはNikonの135mm f2.8です。下の写真はちょうど天頂付近をみている様子を上の方から撮影したものです。6Dの文字が誇らしげに見えると思います。
IMG_0556
あとで写真だけ見たら、一瞬背景が星に見えました。実際はアスファルトです。

カメラと接続して外に置いたPCではもちろんSharpCapの3.3βを走らせます。さらにAZ-GTiをコントロールするSynScan Proを走らせて、このPC自体を部屋からリモートデスクトップで接続します。まだ暑いので、クーラの効いた部屋で快適リモート電視観望です。

さて、実際の6Dでの電視観望ファーストショットです。

IMG_0563

ISO6400、10秒露光の一発撮りです。10秒ごとにこんな画像が出てきます。QBPがついているので、ヒストグラムであぶりだしてやると、淡いですがすでに星雲が見えています。上の方が網状星雲、下の方が北アメリカ星雲です。

レンズの焦点距離は 135mm。これまでツースターで使っていたフォーサーズのASI294MCと比べて、フルサイズの6Dの場合1.85倍くらいセンサーの一辺が長くなるので、同じレンズで3.5倍くらいの面積が見えます。ASI294MCで135mm/1.85~75mmくらいのレンズを使うと同じような面積になりますが、恒星の見え具合は直焦点の場合レンズの焦点距離に比例してよくなります。6Dで135mmレンズを使う場合、ASI294MCで75mmのレンズを使う場合に比べて1.85倍くらい暗い星まで見えることになります。1等級以上くらい星まで見えるようになります。

星が画面いっぱいに散りばめられたような電視観望にしたい場合は、長焦点のレンズを使うことが必須になります。これまではセンサー面積が小さいと狭い範囲しか見れないことが、フルサイズのセンサーを使うことで解決されたわけです。 

でもこの画面を撮った直後に雲が出てきて、LiveStackはお預け。しばらく待ちます。


ついにLiveStackで星雲がはっきりと!

その後10分くらい待つとすぐにまた雲がひらけてきて、ついに6DのLive Stackで星雲をはっきり映し出すことに成功しました!!!

IMG_0566

LiveStackなので、待てば待つほど背景のノイズが少なくなってきて、星雲がどんどん見えてきます。上の画像で15秒x8=120秒、ISOは6400です。

しかもアラインメントも普通に成功です。SharpCapのアラインメント機能はものすごく優秀で、撮影した画面の中の個々の星の位置を認識し、画面を歪ませて星位置を合わせながらスタックしていきます。このためある程度広角のレンズなら赤道儀や経緯台の自動追尾なども必要なく、固定三脚でも十分実用な電視観望ができます。

操作性に関していうと、少なくとも6Dの場合は露光時間もゲインもSharpCap上から調整できます。もうCMOSカメラと変わらないくらいの操作性です。ただしカラーバランスを調整できるのはLiveStack中のみでした。CMOSカメラの時にできた取り込み時の赤と青の調整は、そもそもパネル自体が出てこないです。

とりえずうまくいったのですが、この後またモニター上で見ても雲に覆われてしまって、外に出たら空全体が厚い雲で覆われてました。雨が心配だったのでそのまま機材も片付けることにしました。一瞬のテストチャンスだったみたいです。


一眼レフカメラがSharpCapで使えることのメリットのまとめ


今一度一眼レフカメラがSharpCapで使えることのメリットをまとめておきます。
  • まず、センサー面積が大きくなる。
  • 同じ面積を見るのに、焦点距離を伸ばすことができる。
  • より暗い恒星まで見えるので、星いっぱいの電視観望になる。
  • 見える面積が広がるので、特に初心者にとっては導入が楽になる
  • 中古一眼レフカメラは安価なので、大きなセンサーが安く手に入る。フルサイズのCCDやCMOSカメラはものすごく高い。初心者では全く出が出ないほど高い。
  • カメラ用の安いレンズを電視観望に使うことができる。これはこちらのページをご参照ください。
  • 初心者が初めて電視観望を始める時、一番高いのがカメラです。この値段が下がる可能性があるので、電視観望の敷居が一気に下がることが期待できる。
など、メリットだらけです。一方デメリットは
  • まだ操作が少し複雑。最初のうちは丁寧なインストラクションや解説が必要。
  • 安定性に問題がある。これは時間が解決することになると思う。
  • シャッターを切り続けるので、シャッターの寿命が気になる
など、どれもソフト的になんとか解決しそうなものです。


まとめ

とにかく、これまで面積の大きいセンサーを使うことが(ものすごく高価で)大変で、小さい面積で初心者は四苦八苦してたはずなのです。面積が小さいと、最初に天体がセンサーないに入って来なくて、導入がすごく難しいのです。一眼レフカメラが利用できるとなると、今までベストと言われてきたフォーサーズのASI294MCよりも大きな、APS-Cとか、もしかしたらフルサイズまで安価に手に入れられるかもしれません。もしくは手持ちのカメラがあったら簡単に試すこともできるかもしれません。これらが解決するなら、さらに電視観望の敷居が下がり、天文人口の増加につながるかもしれません。 

今回のSharpCapのアップデートは大きなエポックメーキングです。このブログでは電視観望にターゲットを絞って説明しましたが、あぷらなーとさんのように他にもメリットを感じるケースは多々あるかと思います。今回触って感想として、私的には極上の電視観望用のカメラが増えたような、得した気分になれました。

私はSharpCapの開発には全然貢献できていなくて、ただのユーザーにすぎないのですが、開発陣の努力に心から感謝します。今回のようにソフトの改良、特に最近はAZ-GTiのようなハードと柔軟なソフトの組み合わせで状況が劇的に変わり、以前よりはるかに便利になったりしています。プレートソルブなんかも良い例かと思います。私が星を始めてわずか4年の間にも物事は大きく変わってきています。まだまだこれからの将来も楽しみでなりません。 


ちょっと間が空きましたが、N.I.N.A.の試用記の続編です。



前回の記事を書いてからなかなか晴れなくて、やっと日曜の夜に少しだけ星が見えたのでテストしました。本当は撮影までしたかったのですが、結局曇ってしまいNINAのテストだけで終わってしまいました。

第一回の撮影までに加えて、今回は少し応用編。導入など、撮影の準備に相当する部分になります。撮影までのことなので、本当はこちらを先に説明しても良かったのですが、一度赤道儀で導入して撮影まで進めてしまえば見通しが良くなると思ったからです。


スカイアトラス 

最初に左アイコン群の「スカイアトラス」でターゲットを調べるといいでしょう。左上に対象とする天体を入力します。例えばM57と入力すると、その情報が出てきます。

IMG_0155

その際、「オプション」「一般」タブの「スカイアトラス画像ディレクトリ」を設定しておくといいでしょう。ここはスカイアトラスで画像を表示するために使います。サイトのダウンロードページの一番下にある「Misc」のところの「Sky Atlas Image Repository 」をダウンロード、展開して、「スカイアトラス画像ディレクトリ」で設定したディレクトリに置くと、「スカイアトラス」の「詳細」のところにカタログ画像が表示されるようになります(TKさんに教えてもらいました。ありがとうございました。)。

このスカイアトラスのところで「導入」ボタンを押してしまっても導入はできるのですが、次のフレーミングで導入した方がいいでしょう。


フレーミング

撮影時にPCがインターネットに接続されているなら、フレーミング機能が便利です。デフォルトで縦横3度の視野角を見るようになっていますが、画像を落とすのに結構時間がかかります。今どれくらいダウンロードしたか表示があるとよかったかもしれません。

一旦ダウンロードした画像はキャッシュに保管され、キャッシュを表示することを選べばインターネットがない環境でも確認することができます。撮影時にインターネット環境がないなら、事前に対象天体の検索して画像をダウンロードしておくといいでしょう。

ダウンロードした画像があると、撮影時の画角や位置を確認できます。

IMG_0156

M57を囲んで大きな四角い枠が見えます。これが接続されているカメラと、この画面の「画像の読み込み」の「カメラパラーメーター」の「焦点距離」から計算された、撮影した場合の画角になります。

黄色の丸は、現在赤道儀(望遠鏡)が向いている位置になります。上の写真の場合、M57の中心からは少しずれた位置にいることになります。でもこれは実際に向いている位置とは限らなくて、N.I.N.A.が「赤道儀が向いていると思っている」位置です。この数値は接続した赤道儀から得ています。なので、この状態で撮影しても、黄色の場所が中心なるとは限らず、後のプレートソルブを使い誤差を無くします。

さて、画角を示すこの四角は移動することができます。四角の中心が導入したい目的の位置になります。今はM57の中心が四角の中心になっているので、ここで「導入」ボタンを押してみます。すると実際の赤道儀の向きに合わせて、一旦黄色い丸が画面からはみ出し、しばらく待つと

IMG_0160

のように、黄色い丸が画角の中心にきます。

この際、もしガイドをしっぱなしなら、PHD2のオートガイドを外すのを忘れないようにしてください。また、導入が終わったら、撮影前に再びPHD2のオートガイドをオンにするのを忘れないでください。

でもまだ注意です。ここですでに画面中央に目的の天体が導入されたかに見えますが、本当にその向きに向いているかどうかの保証はありません。赤道儀の持っている情報と実際の向きが合っているかは保証がないからです。ここで次のプレートソルブの出番です。


プレートソルブ

プレートソルブは思ったよりはるかに簡単にできました。もともとAPTで「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしていたからというのもあります。この場合は「オプション」「プレートソルブ」のところでパスを通すだけで使えてしまいました。

IMG_0101

具体的には、撮像ページで右上「ツール」アイコン群の左から3つ目「プレートソルブ」を押してプレートソルブパネルを出します。

IMG_0165

パネルの位置がわかりにくいかも知れません。「画像」パネルの下のところに「プレートソルブ」タブが出ていると思いますので、それを選択します。ここで「同期」が「オン」になっていると、プレートソルブが成功した際の位置情報が赤道儀にフィードバックされ、赤道儀上の一情報が書き換わります。その際「ターゲットの再導入」を「オン」にしておくと「エラー」の値よりも誤差が大きい場合に再度自動で導入し直してくれますが、導入は後で自分でもできるので、とりあえずはオフでいいでしょう。「露出時間」と「ゲイン」なども適当に入れます。準備ができたら、真ん中の三角の再生マークのところの「画像素取得してプレーとソルブ処理します。」を押します。

勝手に撮像が一枚始まって、プレートソルブが始まり、うまく位置が特定できると「成功」のところにチェクマークが出ます。

IMG_0164

フレーミングでM57を中央にしたにもかかわらず、やはり実際に撮影するとずれしまっていて、その誤差を赤道儀側にすでにフィードバックしているので、今一度フレーミングを見てみると、

IMG_0166

のように、黄色い丸がずれているのがわかると思います。横にずれたのはカメラが90度回転しているからです。この状態で再度「導入」を押すと黄色い丸がM57のところに行き、実際に撮影してみると

IMG_0168

のように、今度は本当に赤道儀がM57の方向をきちんと向いていることがわかります。


その他

ASI290MMでLRGB撮影をやってみようと思っていて、かなり前に勝手ずっと使っていなかったZWOのフィルターホイールを繋いでみました。ポイントはEFW用のASCMOドライバーをZWOのページから落としてきてインストールしておくことと、NINAを一度再起動することです。これでNINAの「機材」の「フィルターホイール」からZWOのフィルターホイールとして認識され、選択することができるようになります。

IMG_0162


フォーカスに関して
  • オートフォーカス機能はあるようですが、マニュアルでのフォーカスをサポートするような機能は見当たらない。と思っていたら、撮像の右上のツールのところにありました。今度使ってみます。

まとめ

だいたい試したのはこれくらいでしょうか。2度に渡って使用して、その使い勝手をレポートしましたが、2回目は撮影まではしていないので、まだ説明が不十分なところもあるかもしれません。例えば、フォーカサーとかフラットパネルと接続した撮影の機能もあるみたいで、ここら辺は機材を持っていないので試すことができません。

とりあえず十分すぎるくらいの機能があることもわかって、撮影するには何も不便なところはなく、ベータ版でもすごく安定しています。

前回と今回の記事を読めば導入して撮影するまでできるのではないかと思います。わかりにくいところがあったらコメントしてください。私も全部理解しているわけではないですが、質問に答えがてら理解していきたいと思います。


最近話題のNINAを試してみました。すごくいいです。試したのはVISACでM13を撮影したときです。


N.I.N.A.を使ってみた

そもそもAPTをまともに使い始めたばかりなのに、なんでNINAを使ってみたかというと、APTで少し不満があったからです。
  • Live viewの映像がうまくストレッチできない。
  • ピント合わせで拡大できない。
  • 撮影ごとのログが残らない。fitsに特化しているので、各ファイルの中に情報は含まれてますが、いちいちヘッダを見なくてはならないのが少し不満です。
  • 撮影中の設定が結構制限される。例えばカメラのカラーバランスやストレッチの設定など、撮影中も触りたいのにできない。(でも、撮影中に弄れたことも一度だけあるのですが、再現性無しです。不思議です。)
と言っても、上のように細かいことだけで、普通に撮影するだけならAPTは十分な機能を持っています。「今回の撮影は前と同じM13で、余裕があるので失敗してもいいからNINA試してみようか」くらいの気分でした。しかもNINAで上記不満が解決されたかというと、実はそうでもなく、せいぜいLive Viewがマシになったくらいでしょうか。

でもそれ以外にいい所がかなりあり、極めて順調に撮影までできたので、この記事を書いています。


N.I.N.A.のインストール

ダウンロードはここからです。

2020年5月13日現在、最新の安定バージョンは1.9ですが、事前情報から日本語を使うためにはベータバージョンを使う必要があり、Version 1.10 BETA002(5月16日の今日、アクセスしてみたらすでにBETA004になっています)をダウンロードしました。

Windows版のみ存在し、MacやLinux版はないようです。32ビット版と64ビット版がありますので、各自の環境に合わせて選択します。自分のWindowsが32ビットか64ビットか分からない場合はここなどを参考にして確認して下さい。

今回は64ビット版を使ってみましたが、注意事項が書いてあって、もしNINAの64ビット版を使う場合はASCOMも64ビット版を使う必要があるそうです。いくつかのASCOMドライバーは未だ32ビットのままなので、その場合は32ビット版を使うか、64ビット版のドライバーの開発を促してくれとか書いてあります。とりあえず今回の使用(一通りセットアップして、plate solvingして導入、長時間撮影とかするくらいまで)では64ビット版で困ることはありませんでしたが、たくさんの機器を繋いで本格的に稼働させるとかの人は32ビット版の方がいいのかも知れません。

インストールは普通にやれば特に困ることはないでしょう。


最初の設定

インストール後、起動して一番最初にやるべきことは左端アイコン群の一番下「オプション」の「一般」の設定でしょう。そもそも日本語になってないと「Options」の「Genaral」になっています。まずは、そこの「Language」を「Japanese(Japan)」に変えます。変えた瞬間に日本語に切り替わるのが素晴らしいです。でも後から再起動して気づいたのですが、細かいところ、例えば先ほどの「Japanese(Japan)」は再起動して初めて「日本語(日本)」に切り替わるので、全ての項目が瞬時に切り替わるわけではないようです。一応言語を切り替えたら、一旦終了して立ち上げ直した方がいいでしょう。

同じページで「天文測定学」(ちょっと訳が微妙ですが)で緯度、経度を写真のように「137.12」などという形式で「度と分だけを小数点で区切った形」で入れておくといいでしょう。後の「スカイアトラス」のところで正しく表示されるようになり、撮影時間などの目安を立てやすくなります。


IMG_0090

「オプション」「撮像」「画像ファイルパス」で、撮影した画像を保存する場所を指定できます。好みの適当なところにしておくといいでしょう。


機材の接続

最低限の設定がとりあえず終わったら、次は「機材」ページです。この時点で、必要な機器はケーブルなどで実際に接続しておいた方がいいでしょう。今回設定したものはカメラ、望遠鏡(赤道儀のこと)、ガイダーです。これら3つは接続すると縦に並ぶアイコン群の右下に小さな電源マークが出るので、何が接続されているのか一目で分かります。

IMG_0087

それぞれのページの一番上で接続したい機器を選択し、その右の電源マークのアイコンを押して「接続」します。例えばカメラなら、すでにカメラが接続されていれば上の写真のように「ZWO ASI294MC Pro」という選択肢が出てきます。カメラが繋がれていないとASCOMとかN.I.N.A.のシミュレーターカメラとかしか出てこないので注意です。もしきちんとカメラにケーブルをつないでいても、つないだカメラ名が出てこない場合は、接続アイコンの左の矢印が回っている「デバイスの再スキャン」を押すと再認識されて、選択肢として出てくることがあります。

うまくカメラが接続できると温度制御やゲインの設定などができるようになります。冷却は設定温度を決めて、右横の雪の結晶マークのアイコンを押すだけです。撮影終了時の昇温は下の炎マークのアイコンを押します。オフセットはダークファイルのオフセットより大きな値が入っていればいいのかと思います。通常数十とかでしょうか。ゲインは後の「撮像」のところで改めて設定するので、適当でいいです。


適当な天体の導入と、PHD2でオートガイド

とりあえず、赤道儀での自動導入でも、マニュアル導入でもいいので、撮影したい適当な天体を導入します。最初はテスト撮影だと思って下さい。NINA自身の導入機能「フレーミング」については次回の記事で説明します。

一旦撮影したい天体が導入できたら、PHD2を起動してオートガイドを始めます。その際ですが、PHD2で赤道儀に接続した時に出てくる4方向ボタンのの小さな画面が後で導入すうる時に便利になるので、できればボタンを押してきちんと赤道儀が反応するか確かめておくといいでしょう、

きちんとオートガイドされていることが確認できたら、「オプション」「ガイダー」で、PHD2に接続して下さい。もしかしたら自動的に認識されて、すでに接続された状態になっているかも知れません。もし選択肢にPHD2が出てこなかったら、「オプション」「機材」の右下の「ガイダー設定」できちんと「PHD2パス」が設定されているか確認してみて下さい。私は先にPHD2を動かしていて、うまく動いている状態でNINAを立ち上げたので、特に何も設定する必要はなかったですが、うまくいかない場合はここが設定画面になるはずです。

IMG_0096

うまくPH2Dが接続されると、ガイドされているグラフが「機材」「ガイダー」のところに表示されます。PHD2の制御情報がそのままNINAで表示されるのがすごいです。左の方の選択で、y軸、x軸の表示設定とともに、誤差の単位を変えることができます。下の写真ではピクセル単位にしています。概ね0.5ピクセル以内に収まっているでしょうか。

IMG_0089

ついでにここで、NINA上でも赤道儀との接続も済ませておきましょう。PHD2がうまく動いているなら、すでに赤道儀はPCと接続されているはずです。NINAの「オプション」「望遠鏡」で自分の赤道儀のドライバーを選択し、右の「接続ボタン」で接続します。

IMG_0088



撮像

次はNINA画面の左端アイコンの下から二番目「撮像」ページです。ここは盛り沢山で混乱しますが、最初は最低限の機能から試します。

IMG_0094

まずは右上の「撮像」パネルのところのシャッターマークの「露光開始」ボタンを押して一枚テスト撮影して見て下さい。その際、「露出時間」は適当に10秒くらい、「ビニング」は1x1、「ゲイン」は200から400くらいいいでしょう。これらの設定はテスト撮影の時のみ有効で、本撮影では別の設定項目があり、そことは独立に設定ができます。撮影中は左下に「撮像:露出中」とか出て、時間バーが動いていきます。一枚撮影すると画像が出てくるはずです。望遠鏡の蓋がきちんと外れていて、ピントも合っていて、何かターゲットが入っているはずなのに真っ暗な画面しか出てこない場合は、撮影画面の上の右側にあるアイコン群の真ん中の棒のようなマークの「画像の自動オートストレッチをトグルスイッチでオン/オフする(表示のみ)」を押して、ボタンが明るくなるのを確認して下さい。同時にオートストレッチが効いて撮影画面も明るくなり、星などが見えてくると思います。

右上の「撮像」パネルのカメラマークの「ライブビュー」も同様です。「露出時間」を1秒とかにして「オートストレッチ」をうまく使って、リアルタイムで連続してみることができます。ただ、この「ライブビュー」うまくいかないことが何度かありました。「ライブビュー」ボタンを押して「露光開始」を押してうまくいったときもあれば、画面の拡大率を変えてうまく行った時もあります。同様のことをしてエラーが出たこともあります。ライブビューはまだ少し不安定な気がします。

ちなみに、この撮像画面のパネル、入れ替えとかしてぐちゃぐちゃになってしまったら、「オプション」の「撮像」タブにいき、右下の「画面配置のリセット」でデフォルトの設定に戻すことができます。


シーケンス設定

次にNINA画面左のアイコン群の「シーケンス」を押します。撮影計画をここで設定します。最低限
  • トータル#
  • 時間
  • ゲイン
  • オフセット
  • デザリング
だけ設定すればいいでしょう。デザリングはデフォルトでオンになっているようですが(下の写真はオフになっています。この場合ボタンを押して「オン」と表示されるようにしてください。)、PHD2が動いていてサーバーモードになっていれば、これだけでデザリングもできてしまいます。

IMG_0097

ちなみに、ディザー量などは「オプション」「機材」の右下の「ガイダー設定」で設定します。

シーケンス画面の左上の「対象」のところの「ターゲット名称」のところに希望の天体名を打ち込むと候補が出てきます。例えば「M13」と入れると「Herucles Globular Cluster」と出てくるので、それをクリックします。すると何時頃が撮影どきかとかも知らせてくれます。これと関連して、NINA画面左のアイコン群の「スカイアトラス」でも同じようなことができます。

IMG_0098

これらの画面にある「ガイド開始」「対象の導入」「ターゲットをセンタリング」「シーケンスの対象として設定」「導入」などのボタンはまだ試していません。ここら辺を駆使すれば、時間がくれば自動的に導入して撮影を始めるとかができるのかと思います。ドームでの撮影などでは便利なのかも知れません。


いよいよ撮影開始

さて、最低限の撮影準備が整ったと思います。いよいよ本撮影です。

IMG_0094


左端アイコンの下から二番目「撮像」ページに戻り、右側真ん中の「シーケンス」パネルの三角の再生マーク「シーケンスを開始します」を押して下さい。撮影が開始され、順次右下の「画像履歴」パネルに撮影された画像が溜まっていくと思います。Windowsのエクスプローラで実際に保存先フォルダを見て、ファイルがきちんと保存されているか確かめて見ましょう。私は一番最初だけエラーメッセージが出て、ファイルが保存できないと言われました。これは撮影中に保存先を変更してしまったことなどが原因かと思われます。最初の一度きりで、それ以降はこのようなエラーはなく安定して撮影できました。

撮影時の注意事項ですがが、あえてシーケンスの「リセット」ボタンを押さないと、途中枚数からの撮影が続行されてしまいます。テスト撮影で止めてしまった時など、必要枚数に達しなくなる時があるので、本撮影を始める時は必ず「リセット」を忘れないようにします。左端アイコン「シーケンス」に行って、左下のアイコン群の左から三番目の矢印が回っているマークのアイコンを押すとまた0枚に戻ります。

とりあえずここまでで、最低限のディザーの撮影までできるかと思います。


使っての感想など

うーん、NINAかなりいいです。もちろんどのソフトがいいかは機能だけでなく、インターフェースとかの好みはあるでしょうし、安定性なども大きなファクターです。NINAはまだまだ開発がどんどん進んでいる段階で、しかも今回はベータ版にもかかわらず、一度も落ちることはありませんでした。実は立ち上げてから一度も終了することなく撮影までできてしまうくらい分かりやすいインターフェースでした。オープンソースでこれだけのものができるのは、開発者の方々にただただ感謝です。

ベータ版ですが、すでに日本語が選択できるところもありがたいです。日本語訳もおかしなところはほとんどありません。どなたか日本人の貢献者がいらっしゃるのかと思います。感謝いたします。


感想など、細かいところをいくつか。
  • オンオフボタンがわかりにくいです。オンとオフどちらを押してもスイッチが切り替わってしまいます。どうやらボタンのところに「オン」と出ていたら「現在はオンの状態」、「オフ」と出ていたら「現在はオフの状態」という意味のようです。
  • ライブスタックはSharpCapと比べると流石にまだまだですが、APTよりははるかにマシです。多少不安定なところもありましたが、最低限操作の通りには動いてくれます。
  • 結局撮影ごとのログは残せませんでした。全体のログは残せるがトラブル時以外はあまり有用ではなさそうです。
  • 撮影中もほとんどの設定を変更できるところがいい。
  • 非力なStickPCで試さなかったので、重いかどうかがわかりません。でもホームページには2GBで動くと書いてあるので、意外に軽いのかも知れません。

とりあえず今回はここまで。次回はもう少し応用編として、「プレーとソルブ」と「フレーミング」などについて解説します。実はもう試してはいて、プレートソルブは簡単だったのですが、フレーミングに少し手間取りました。お楽しみに。

少し前にリリースされた、ASILiveを試してみました。かなりいいです。

ZWO社がリリースしたASIカメラ用のASI Studioの中の3つのうちの一つで、主に電視観望などのためにライブスタックに特化したキャプチャソフトになります。 


ASI Studioのインストール

ASIStudioのダウンロードはこのページから。 2020年4月29現在、バージョンは1.01となっています。インストールしてASI Studioを立ち上げると、ASICap、ASIImg、ASILiveの3つのアプリがあるのがわかります。ASICapは惑星撮影用、ASIImgはディープスカイの撮影用、ASILiveが電視観望などのライブスタック用です。今回はASILiveを使います。


ASI Liveを使ってみよう

  1. さて3つあるアイコンの一番右を押して、早速ASILiveを立ち上げてみましょう。この時点で、ASIシリーズのカメラを接続していると、右上のところにカメラ名が出ているはずです。そのすぐ右横の三角の再生マークマークを押してみてください。早速カメラの画像が見えると思います。
  2. この時「Hist」のところがAutoになっていれば「オートストレッチ」がオンになっているので、暗い画面もかなり明るく見えていると思います。カメラに望遠鏡などをつけて星を写してみましょう。ピントもこの時に合わせてしまって下さい。
  3. さて、うまく星が見えたら早速ライブスタックをしてみましょう。 「Stack」のところにある再生ボタンが3つ重なっているようなアイコンを押して下さい。これだけです。あとは勝手に画像がスタックされてノイズがどんどん少なくなっていく様子が分かります。
  4. 調整するべきところは多くないです。「Gain」はLow、Middle、Highの3つだけ。最初はHighで始めた方がいいと思います。あ、Gainをいじることができないですか?そんな場合はライブスタックを一度止めて下さい。先ほどの「Stack」のところにある再生ボタンが3つ重なっているようなアイコンをもう一度押すと、ライブスタックが止まって、Gainが調整できるようになるはずです。
  5. 同じく「Exposure」もかえてみましょう。これもライブスタックを一旦止めて調整します。カメラの種類にもよりますが「1」秒から初めて「30」秒くらいまで写り方をみながら段階的に上げていって下さい。写りが十分ならそこまで長くする必要はないと思います。
  6. 設定を調整し終えたら、一度前回まで見えていたライブスタックの画面を消去した方がいいでしょう。「Stack」のところの、3つ目のアイコン、ホウキみたいなのを押して下さい。出てきたダイアログで「Yes」を押すと、前の残っていた画像がクリアされます。クリアした時にライブスタックがオンになっていないと、画面が出ないことがあります。そんな時はホウキボタンの右のライブスタックモードとライブスタックでないモードのとの切り替えボタンを押して下さい。単独の取り込み画面が出てくるはずです。
  7. 見栄えをよくするために「Image Processing」のところの「Brightness(明るさ)」「Contrast(コントラスト)」「Saturation(彩度)」をいじると画面がきれいになると思います。この調整はライブスタックを止める必要はなく、画面を見ながらいいところを探すことができます。
  8. 左上の矢印が2つ並んでいるところを押すと、フルスクリーンにもなります。この時、カーソルを画面の右に持っていくと、画面サイズを調整できるアイコンが現れます。3つ目のアイコンで画面いっぱいに広がるはずです。人に見せる時はフルスクリーンの方が迫力があります。こんなふうに簡単にフルスクリーン化できるのも特筆すべきことだと思います。

ちょっとやるだけで下の画面くらいのものが簡単に映るようになります。
IMG_9952

これはASI294MC Pro(冷却はしていない)に焦点距離105mmのカメラレンズをつけて、サイトロン社のアメリカンサイズのQBP(Quad BandPass)フィルターを中に入れています。ASILiveのゲインがHigh、露光時間が10秒です。他に触るところがないくらい簡単です。

右下にM8干潟星雲、左上にM17オメガ星雲が写っています。天の川の中心部ですね。10秒露光でスタック適当に何回かしたあとです。


同じ画角をSharpCapで出した時の画面です。

IMG_9946

ShaprCapとくらべてもASILiveの画像が全く遜色ないことが分かります。ASILiveに比べるといろんな調整を頑張って、やっとできた画面です。ASILiveの方がはるかに簡単です。

もう一例です。ASILiveの画面です。北アメリカ星雲とペリカン星雲です。

IMG_9954

比較のSharpCap画像です。同じ日ですが、少し早い時間に観た時のものです。

IMG_9940

SharpCapの場合、私は少し青に寄せがちです。夜空のイメージを少し出しています。でもホワイトバランスをとった方が本当は正解なので、ASIAirの方がより正しいと言えます。ここら辺の好みを反映できるかどうかはASILiveとSharpCapで方向性が違うところです。


ASILiveの特徴

少し技術的な話をします。ASILiveの凄いところは、電視観望のキーと言っていい技術
  1. ホワイトバランス
  2. オートストレッチ
  3. ライブスタック
  4. アラインメント
をデフォルトで全て、あまりユーザーに意識させずに使っているところです。これは結構すごいことです。

SharpCapではこれらを基本的に全てマニュアルで、ユーザーが意識しながらやる必要があります。ASILiveのほうがはるかに簡単で、SharpCapに慣れていないなら、ASILiveの方がおそらくきれいな画面を出すことができるでしょう。少なくとも初心者にはSharpCapよりも圧倒的にASILiveの方が楽でいいと思います。

以下、SharpCapとの比較です。
  • ASILiveではオートストレッチが標準なので楽です。ただし、SharpCapのヒストグラムの一番右の調整線に相当するのがありません。でもほとんど使うことがないので問題ないでしょう。
  • ASILiveではホワイトバランスを自動でとってくれます。自分で調整する必要がないのでかなり便利ですが、逆に微調整したいときは出来ないのもどかしい時があります。
  • アラインメント(星の位置を認識し、画面をずらして星を重ねていく機能)を実装したことはすごいです。これがあるのでライブスタックを名乗れるのだと思います。一方計算スピードはSharpCapの方が早く、一日の長があります。同じ時間をかけるなら、ASILiveは計算しきれない取り込んだ画像を捨てているようなので、短時間露光の他数枚スタックの場合はSharpCapの方がきれいな画面になるはずです。
  • ASILiveではゲインの調整、露光時間の調整はあまり細かくできません。簡単でいいのですが、これが少し不満になるかもしれません。SharpCapは相当細かく設定できます。
  • やはりSharpCapの方がはるかに高機能で、他にいろいろなことができます。もしASILiveに慣れて、調整項目や機能に不満が出るようならSharpCapに移るのがいいでしょう。
  • でも、コントラストやブライトネスはASILiveのみにある機能です。


まとめ

ASILive思ったよりはるかにいいです。ものすごくうまく機能を絞っていて、高機能なところはユーザーに意識させないようにかなり気を使っています。とりあえず電視観望を試してみたい方や電視観望初心者の方は、SharpCapよりもASILiveから始める方がはるかに敷居が低いと思います。

うーんソフトウェアの力はすごいですね。DeNoiseの時も思いましたが、初心者とベテランの技術の差が一気に縮まります。電視観望の普及にも一役買ってもらえるレベルの仕上がりです。


ここからはASIに対する要望みたいなものです。
  • RGBを個別に触れるならさらにいいのです。でもこれは逆に初心者には複雑になりすぎるので、今のスタイルで構わないでしょう。
  • できるなら別途、詳細モードとか作って、ホワイトバランスのマニュアル調整とか、できるならトーンカーブがリアルタイムでできると嬉しいです。
  • 特にRGB別のトーンカーブが実現すると、さらに電視観望での表現力が大幅に増し、LiveStackに関してはSharpCapを完全に越すことになるので、本気で欲しかったりするのですが、これは計算量も多そうなので難しいですかね。

いずれにせよ、電視観望で使えるソフトの選択肢が増えることはいいことです。ZWOさん、ありがとうございます。

This page is a supplemental document for the picture of Leo triplet here (sorry, it is written Japanese);




When I retouched the image of Triplet, I noticed something for a new strange noise using DeNoise.

That noise does not show up for the normal picture but it shows up when extreme expansion for dark area like dim nebula on astronomical pictures.

This is an example that the background was extended when DeNoise AI was NOT used.

light_BINNING_1_integration_DBE_ST_PCC_no_DeNoise

Then, this is the second example that the backgroung was extended WITH DeNoise AI.

light_BINNING_1_integration_DBE_ST_PCC_with_DeNoise

Difference is obvious. With DeNoise AI, some strange lattice type noise appeared. It was guessed that some neural calculations were applied at limited area, and the process was repeated next by next.

This kind of noise is very critical for out astronomical photographers. For example, similar AI application which devide stars and nebula using AI, called StarNet++;

https://sourceforge.net/projects/starnet/

does not add any such a strange noise. Probably it calculate all the area at a time. This program was developed by one of the astronomical photographer, so probably he/she was thinking to avoid such area depended noise from the beginning. 


This is a request to Topaz labs:

Probably we, astro photographers are struggling most with such a dark and noisy pictures since out targets are always very dim things. The important thing is that we already know that DeNoise is a very very useful tool to suppress many kinds of noises in astro photographs. Please consider the importance seriously for NOT adding such latice noise. It might be  just a dim background noise for almost of photographers, but it is really big issue for all astro photographers.


2020/4/24 追記: Topaz側と何度かやりとりをしたのですが、原因はGPUにあるそうです。DeNoiseのメニューのPrefefenceから「Advanced Preference」ボタンを押して、GPUのところをオフにするとこのノイズが消えるユーザーもいるとのことです。残念ながら私のところはこのGPUのスイッチ、またすぐ下にあるOpenVINOのスイッチも、手持ちのMac、boot camp、別のMac、別のWindows PCなど全て試しましたが、どれもこの格子状のノイズを消す事はできませんでした。一方、Sharpenの方は、それでもごくわずか同様のノイズを加えるようですが、確認するのも難しいくらい軽度のもので、画像処理に影響を与える範囲ではありませんでした。結局解決には至りませんでしたが、引き続きこの問題は認識していくとのことです。

その際のTopazからのメッセージを最後の結論の一部ですが残しておきます。

After sending files and setting informations,
.
.
.
From Topaz labs.
Go back to that window and change enable discrete GPU to NO. This may affect the speed of your processing but for many users it will resolve this issue.

The grids you are seeing is a result of the graphics card on your computer reassembling the image. We know "how" this happens, but we don't yet know "why" it happens for some users and not others for particular devices.

As a result, I don't have an immediate resolution, but I have forwarded your information on to our development team for further research and review.

Thanks!

To Topaz labs.
I tested on/off for GPU and on/off for Intel OpneVINO, on Mac, Bootcamp on Mac, on another Mac, on another Windows I have. Results were all the same the grid noise were NOT gone.

On the other hand, Sharpen AI did not add so terrible grid. It is not no grid but the grid noise by Sharpen is very dim and almost ignorable.

I can avoid this issue if I apply the DeNoise at very end of process, I mean after enough stretched.
However sometimes I wand to use the DeNoise in the middle of process, before the stretching.

Still I hope this issue will be fixed in the future for all users.
I will continue to find a good PC which does not add the grid noise.

Thanks. 




今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。(2020/4/16 追記: APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。また、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。)
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


今話題のTopaz DeNoise AIをいくつか試してみました。少しクセのあるソフトで、相性の良い画像はものすごいノイズの改善が見られますが、合わないものは逆にノイズを増やしたりするようです。大雑把に言うと、ノイズだらけのものはキャパシティーを超えるようでノイズが残りますが、そこそこ気合を入れて処理をして、最後に残ったノイズを取るといったケースが得意なようです。

今回挙げるのはその中でも比較的成功した方のものです。この中には最初失敗して、その後うまくいったのも含まれてます。


オリオン大星雲

先日のAZ-GTiの経緯台モードで撮影した、初心者の撮影レベルを考えたくらいの画像に適用してみました。

まずは先の記事で出した、PixInsightとPhotoshop CCの通常の画像処理。

integration2_cut

次にTopaz DeNoise AIを適用したもの。

integration2_cut-denoise_DN

ザラザラ感はなくなるのに、ディテールがほとんど失われていません。むしろシャープさが増しているような感じです。DeNoiseすごいです。引き出せていない引き出しを開け切るような感覚です。

もう一つ、同じ元画像からの再処理です。ちょっと飛んでしまっているところもありますが、後でノイズが消せることを前提に、無理して最初から炙り出して、後からノイズを消した例です。

integration_cut2

結構見えにくいレベルの分子雲も出てしまっています。DeNoiseがあることを考慮した画像処理で進めると、まだまだ引き出す余地はあった言うことですかね。


6Dで初めて撮った星雲: 馬頭星雲と燃える木

調子に乗って、過去画像にも適用してみました。昔星マスクのテストで処理したEOS 6Dでほぼ初めて撮影した馬頭星雲です。まず下のが、当時処理した画像です。今見るとたくさんアラがありますが、その時は十分満足していました。

HORSE_7c_20171128-00h09m_x34_kb_masked_PS_photo_ps

スタートは、上の絵になる前の加工途中の元ファイルで、ステライメージでスタックして、デジタル現像でストレッチくらいまで処理し終えたところの画像です。以前はここからPhotoshopで星マスクを作りそのままPhotoshopで画像処理しました。

今回は強力な星マスクとしてStarNet++、ノイズ軽減にTopaz DeNoiseと、ツールが進化しています。あと、まあ、画像処理の腕もそれなりに進展はしているでしょう。と信じて、どんどん進めます。

そもそも、DeNoiseで後からある程度ノイズが軽減できるからと思い、処理途中に多少ノイジーになったとしてもあまり気にせず、むしろ分子雲とかを出す方向で進めます。今思うとカブリが残っている画像(かなりあぶり出せたのでやっと気づくことができた、当時は多分気づきもしなかったと思われます)なので、PixInsightのDBEを掛ければさらに良くなる気もしますが、とりあえず気にせずにそのままで進めます。

途中一旦処理を停止しました。ノイズが大きいためにDeNoiseでも処理しきれなかったのです。ポツポツになってしまいます。そこで、PhotoshopのDfineで一旦ノイズを軽減してみました。するとDeNoiseでもうまく処理できるようになりました。シャープさも十分に復元して、特に燃える木のところなんかは以前処理したものより解像度ははるかに増しています。既存のノイズ除去ツールとの併用もうまく使えばより効果的に処理することができそうです。

と、できた画像がこちら。

HORSE_LIGHT_6D_180s_3200_+7cc_20171128-00h09m41s_x34_SNP_star_ok

うーん、2年くらいたって多少はいろんな技術が上がっているとはいえ、あまりに違いすぎます。本当に同じ素材かと思いたくなるくらいです。ちょっとやりすぎの感もありますが、テストなのでまあよしとします。

これでも2年前はマスク処理が初めてうまくいったと、そこそこ満足していたんですよ。特にStarNet++との組み合わせは相当いいです。恒星をなくした画像を見ると、恒星を抜いたところの跡がいつも結構汚いのですが、それもある程度緩和してくれます。まだまだ元の画像には処理し損ねている余地が残っていたんだということを思い知らされました。


昨年末撮った魔女の横顔

馬頭星雲は2年前のものだったので、流石に技術に差がありすぎました。では、つい最近、年末に撮影し画像処理した魔女の横顔はどうでしょうか?まずは当時の元画像です。

integration_DBE_DBE1_PCC_AS_SNP_mask_all2a_cut

自宅からノーフィルターで撮影したもので、思ったより出るものだと自分なり満足していました。でもスターリンクでしょうか、たくさんの衛星痕と、バンディングノイズに悩まされて背景を少し暗く抑えています。これをDeNoiseで処理することを前提に前に戻って画像処理します。

スタートはPixInsightで処理しStarNet++で星雲部分と恒星部分に分けたところから始めます。DeNoiseはバンディングノイズもかなり軽減してくれます。それでもこの時のノイズは、特に衛星痕が酷かったらしく、完全に除去することはできませんでした。結果はというと、バンディングノイズが軽減できた分だけ背景もよりあぶり出せた感じです。

integration_DBE_DBE1_PCC_AS_SNP_DN-denoise_cut

でもよく見ると、魔女の部分のディテールは失われてしまっています。これはDeNoiseのせいというよりも、かけている時間が10分の1くらいで、ディテールを出す手間を惜しんでしまったからだと思います(というか、どうやって出したかすっかり忘れてしまった...。よく出してたなと思います。)。

それでも背景の分子雲に関しては、十分な成果は出るようです。ノイズが目立ってあえて押さえていたところを、やっと解放できるような感覚がいいです。当然ですが、一つ上の馬頭の改善と比べると2年間分の技術が上がっている分、絞り出せる余地もある程度少なくなっています。馬頭のときほどは差が出ません。

これらのことから、DeNoiseをうまく使ってノイズ除去された仕上がり画像だけ見ると、画像処理の上手い人と下手な人の差が分かりにくくなるということを示唆しています。うまい人は油断できなくなり、初心者は逆にチャンスとなりますね。


先日の太陽のプロミネンスにSharpn AIを適用

さらに、先日3nmのHαフィルターでコントラストが上がった画像

15_45_23_lapl4_ap1555_IP2_color_cut

を、DeNoise AIではなく、今度はTopaz製の別のソフト「Sharpen AI」で再処理してみました。注目したのはプロミネンスとスピキュールのみで、光彩面は無視します。さらに差がわかりやすいようにモノクロにしています。上のカラー画像でも十分に出ていると思っていましたが、処理すると遥かに鮮明になります。

15_45_23_lapl4_ap1555_IP2_SAI_cut

もうスピキュールがトキトキ(すみません、名古屋弁です)ですね。Sharpenも十分なパフォーマンスを示してくれます。ここまで情報が入っていたのかと思えるくらいです。ただしここまで出てくると、擬線もいくつか出ているのではと思います。今回はテストなので見栄えだけ気にしていますので、ご了承ください。

Sharpen AIの方は「Sharpen」「Stabilize」「Focus」の3つのモードがあって、だんだん強くなるようですが、カラー画像で試すと偽色が出ることがあって、取り合えず「Sharpen」のみが使えています。ノイズキャンセルもDeNoiseの方が強力なようです。どうもお互いに、名前を冠していない機能は制限されたようなものを搭載しているような感触です。処理過程でいうと、DeNoiseの方にもシャープ機能はついているし、Sharpenにもノイズキャンセル機能はついています。確かに少しだけ違うかもしれませんが、根本的にはあまり大きな差はないように思えます。


まとめ

一言で言うと、やはりDeNoise AIもSharpen AIもすごい。最後に処理するだけでもいいのですが、あらかじめ後でノイズが消せること前提で画像処理を進めると、途中でかなり思い切った炙り出しができます。StarNet++やDfineなどと組み合わせて使うのも、さらに効果的になるのかと思います。

その一方やりすぎると、ここは違うだろうと言う模様が出てくることもあります。例えばHIROPONさんが以前指摘していたように、縞状のノイズはさらに縞を拡大する場合があります。今回の画像にもそういったものが少し残って(例としてあえて残して)います。例えば馬頭星雲の馬の右側の縞とかです。

こう言った簡易なツールが出てくるのは個人的には歓迎です。特に初心者にとってはノイズの処理は相当敷居が高いはずです。このツールは有料になりますが、かなり初心者の画像処理の負担を軽減してくれると思います。

また、天文マニアにとっても、やはりノイズには常に悩まされるので、このようにディテールを壊さずにノイズを軽減してくれるツールはとても助けになります。これまでもいろいろノイズ除去に関するツールは使ってきましたが、いまのところこのTopazのDenoiseは最強に近いと思います。

ただ、月や、惑星など、正確さを求めて丁寧にやっている方たちには、こう言った処理ツールは心配のタネというのも理解ができます。偽の情報が出てくる可能性は否めません。

私のようなとりあえず綺麗に見えればいいというレベルでは、腕の無さを補完してくれるありがたいツールです。使うべきところと使わない方がいいところを、うまく分けていけばいいのではないかと思います。

これまでの天体画像も様々な画像処理テクニックの恩恵を受けています。これからもっとすごい技術が出てくるかもしれません。新しい技術だからと頑なにならずに、柔軟に受け入れていけばいいのかと思います。


あぷらなーとさんはじめ何人かの方がMatlabを購入し画像処理に活用し始めましたようです。



私もMatlabは学生の頃から使っていて、今調べてみたら一番古いファイルは1998年でした。なので20年以上使っていることになりますが、 これまで画像処理に使ったことはありませんでした。

あぷらなーとさんが指摘しているように、確かにMatlabは行列を容易に扱えるので、2次元が基本の画像処理は向いているはずです。最近過去のコードをpython化したりしてるのですが、pythonは2次元だと必ず繰り返し処理が入るので、コードが冗長になりがちです。私も少し試してみたのですが、どうやら画像処理に関してはMatlabの方がコードがかなりシンプルになり見通しが良くなるので、有利というのは正しそうです。とうわけで、遅ればせながら私もMatlab画像処理に参画します。

Matlabを使ってまず手始めに試したのが、昨年3月依頼謎が解けなくて止まってしまっているASI294MC Proのノイズ解析の続きです。

 


最初にごめんなさいと謝っておきます。今回の記事はかなり細かくてめんどくさい話で、ほとんどの人には役に立たないです。しかもうまくいかなかったという結果なので、ほんとに興味のある方だけ読んでみてください。

Matlabで画像処理を始めてみたいという人がいたら、もしかしたらコードが参考になるかもしれません。


以前のおさらい 

ざっとおさらいしてみます。ZWO社のASIシリーズは性能を示すデータを公開してくれています。例えば広いセンサー面積を利用した電視観望や、撮影にも十分に使うことができるASI294MC Proのページを見ていくと、下の方にいくつかグラフが出てきます。このグラフ、一見分かりそうで分かりにくいところもあるので、以前その読み方を解説しました。



上のページでも解説している通り、SharpCapを使うとZWOのページにあるようなデータを測定することができます。冷却バージョンのProも



で実際に測定した記事を書いています。特にGain[e/ADU]の値はコンバージョンファクターとも呼ばれて、設定gainが0の時のコンバージョンファクターはユニティーゲインなどにも直結するような非常に重要な値になります。少しコツは必要ですが、SharpCapのスクリプトでCMOSカメラの特性を実測すると、ZWOにあるような値に非常に近いものを測定することができます。2つのツールで同様のデータが取れているということはかなり信頼が置けるはずです。さらにもう一歩進めて、このようなツールでのスクリプトでなく、実際に自分でノイズを撮影して解析してみようと試したのが、昨年3月までの一連の記事になります。

ところが、実際に撮影して解析してみるとどうしてもZWOのデータやSharpCapでの解析結果と合いません。

SharpCapで撮影した時の撮影条件は限りなく再現させたと思っています。具体的には撮影対象の明るさ、カメラのゲイン、露光時間です。明るさは同等のものが撮れているので、撮影に関しては問題ないと思います。問題はノイズです。明るさとノイズの関係からコンバージョンファクターを求めるのですが、撮影された画像の明るさのばらつきが、想定していたものよりかなり大きいと出てしまいます。

具体的には標準偏差を用いるとノイズが大きすぎると出てしまい、苦肉の策で(ノイズが小さいとでる)平均偏差を使うと、大体ZWOとSharpCapの測定と一致するという結果でした。

ヒントになるかと思いモノクロのASI290MMで測定したら、標準偏差で計算してもZWOやSharpCapと一致した結果を得ることができました。ということはやはりカラーの場合も平均偏差などを使わずに標準偏差を用いるのが正しいのではと推測することができます。

そんな折、あぷらなーとさんがRGGBを一素子づつ解析したCFA(Color Filtr Array)で評価した場合と、RGBにdebayerした場合では、debayerの方が標準偏差で考えて0.75倍とか0.79倍程度に小さくなることを示してくれました。



それでもdebayerで計算してもまだZWOやSharpCapでのノイズの少なさには辿りつきません。

いろいろやっていて結局行き着いたところはこの画面で、

IMG_6436

小さいと思われるRGBの標準偏差よりも、Lの標準偏差の方がなぜかさらに小さいことがSharpCapの一枚の撮影で出てしまっていることです。いまだにSharpCapが内部でどうやって計算しているのかよくわかりません。このLの標準偏差を仮定するとノイズはかなりZWOもしくはSharpCapのスクリプトで測定した結果に一致します。言い換えると、これくらい小さい標準偏差くらいのばらつきになっていないと結果は一致しないということです。


Matlabでの画像処理の実際

やっと前振りが終わりましたが、今回Matlabで以前のpythonコードを書き直すかたらわら、どうしたら一致した結果を出せるか、なぜSharpCapのLがノイズが小さく出ているかを念頭に置きながらいろいろ試してみました。

Matlabを初めて使う人が一番面食らうのは、配列の表記法かと思います。これが独特なのですが、この独特な表記によりコードがシンプルになるので避けるわけにもいきません。私が書くよりももっといい説明がたくさんあるかと思いますが、今回の画像処理に必要な最低限だけ書いておきます。

まず2次元の配列、Matlabだと行列といっていますが、例えば2行x3列の配列Aを

>> A=[1 2 3;4 5 6;]

A =
     1     2     3
     4     5     6

と作ります。例えば第2行,第1列成分を見たい場合には

>>A(2,1)

と打つだけです。答えは

ans = 4

と出ます。これは至って普通です。独特なのは:(コロン)の使い方で、例えばAの1行目すべてを見たい場合は

>>A(1,:)

と打ちます。答えは 1 2 3となります。:はどこからどこまでを意味し、

>>A(1,1:2)

だと

ans =     1     2

となります。:(コロン)だけだとその次元の最初から最後まで全部という意味です。これがMatlabで絶対理解しておかなければならない表記法の一つです。

今回は画像を扱うのに4次元の配列を使っています。1、2次にy座標とx座標。左上からyは向かって下に、xは右に移動していきます。3次目はRGBやCFAのインデックス。RGBなら3つ、CFAなら4つとっています。 4次目は何枚目の画像かを表しています。今回8枚の画像を使っていますが、その何枚目かを表します。あと成分を表す数字は1から始まることにも注意です。0からではありません。 

例えば、AにRGBで別れた画像が8枚入っているとすると、5枚目のG画像を表す時は

A(:, :, 2, 5)

と表します。:が2つあるのはy、x座標それぞれ全部を表しています。"2"はRGBの2番目と言う意味です。Bなら3ですね。"5"は5枚目と言うことです。

例えばサンプルコードの最初の方にある

 Raw(:, :, i) = fitsread(ファイル名);

はi番目の画像にfitsファイルを読み込んで、1次目にy座標のデータ、2次目にx座標のデータを全部入れていきなさいと言うのをわずか1行で表記したものです。

これらの表式は慣れるしかないのですが、ここらへんを感覚的に理解できるとコードもすらすら読めて、シンプルなコードを書くことができるようになるのかと思います。


モノクロセンサーASI290MMの場合

とりあえずMatlabでやってみた画像処理を説明していきます。まずはモノクロのASI290MMの結果です。

ASI290MM
このグラフを出したMatlabのソースコードをアップロードしておきます。使用した画像も(サイズを切り詰めるために中心部のみ切り取ったものですが)一緒に入れておきましたので、すぐに走らせることができると思います。もしMatlabを持っていて興味があったら走らせてみてください。

ASI290MM.zip 


結果は前述したとおり、平均偏差ではなく一般的な標準偏差を使っています。メーカー値はコンバージョンファクターが3.6程度、ユニティーゲインが110程度ですので、グラフ内の数値と比較してみるとそこそこ一致していることがわかります。なので、カラーでも標準偏差を用いる方向を探りたいと思います。

また、以前pythonで書いたコードと比較して同等の結果を出すことできています。

Conversion_Factor_ASI290MM_std

Maltabでもこれまでと同様のことができることがわかり、かつ遥かにシンプルに書けることがわかりました。


カラー版ASI294MC Proの場合: CFAで解析 

さて、Matlabでの画像処理にも慣れたところで問題のカラーのASI294MC Proの解析です。

結論から言うと、結局今回も謎は解けずじまいでした。

まずはシンプルなCFAの方から。RAW画像からCFAへ分離するところはビルトインの関数とかはないようなので自分で書いてみました。以前は平均偏差(mad)で無理やり答えを合わせましたが、今回ASI290MMの結果なども含めていろいろ考えた末に、結局諦めて標準偏差(std)を使うことにしました。

ASI294MCPro_CFA

各測定点はそのまま解析した結果を表示していますが、フィッティングは無理やり合うように補正してます。考え方としては、謎な部分をunknown factorとしてフィッティングするところで無理やり補正するというやりかたです。今回のCFAの場合、unknown factorはノイズ(標準偏差の2乗)を2分の1とすることでZWO、SharpCapの結果と一致することがわかりました。

ちなみにメーカー値はコンバージョンファクターが3.9程度、ユニティーゲインが117程度です。繰り返しますが、CFAで測定されたノイズを無理やり半分にすることでメーカー値に近くなります。

先に説明したように、SharpCapでLのノイズが小さく出ている理由がわからなかったので、もうこのように無理やり合わせてしまうしかなかったという苦肉の策です。これはあぷらなーとさんが示してくれた、CFAとRGBで標準偏差で0.75倍違うというのを考慮してもまだ少し足りません。

まあ、このやり方に言いたいことはたくさんあるかと思いますが、とりあえず先に進むことにします。


カラー版ASI294MC Proの場合: RGBで解析

次はRGBでの解析です。

最初はMatabビルトインのdemozaicという関数を使ったのですが、これだと中で何か変に処理しているのかノイズが話にならないくらい大きくなりすぎました。仕方ないので自分でRGBに落とすコードを書いています。そこそこまともそうな値は出たのですが、ただしこのコードまだ未完成です。なぜかというと、センサーアレイはRGGBなのでG(グリーン)が二つあるのですが、その応答が少し違うことに起因します。Gを2つ使って求めると強度の山が2つでできてしまい、ばらつきが大きくなりすぎるからです。そのため今回は2つあるG素子のうち1つだけを使うことにしました。

ASI294MCPro_RGB

RGBになりあぷらなーとさんが示してくれた通り、CFAの時よりもばらつきは少なくなることがわかりました。それでもまだノイズが大きすぎるのでCFAの時と同様にunknown factorとしてフィッティングするところに無理やり入れました。RGBの場合、unknown factorはノイズ(標準偏差の2乗)をルート2で割ってやることでZWO、SharpCapの結果とかなり一致することがわかりました。


考察

ASI294MC Proで使ったファイルもアップロードしておきます。よかったら参考にしてください。

ASI294MCPro.zip 

今回はまだ苦肉の策で、無理やり答えを合わせるように測定結果を割っているだけなので、考察と呼べるようなものにはなりません。CFAの場合出てきたノイズを半分に、RGBの場合ルート2でわってやるとSharpCapやZWOの結果とかなり近い結果になりましたが、その理由は全然わかっていません。

前回のpythonコードを使った時はCFAやRGBの変換はPixInsightを使いました。でも今回はRAWファイルから直接計算してCFAもRGBも取り出しています。ここら辺はMatlabに移ったことでやりやすくなったところだと思います。このように今回はかなり噛み砕いてブラックボックスがないように進めてきたつもりです。撮影した画像はSharpCapのスクリプトで撮影したものと同等と仮定していいかと思います。これでも結果が一致しないということは、
  • ZWOもSharpCapも何か特殊なことをやっているか
  • もしくはまだ私が馬鹿なミスを犯しているか
です。とにかく怪しいのがZWOのLのノイズが小さく出過ぎていること。この謎が解けない限り進展がない気がします。


まとめ

週末を結構な時間費やしましたが、コンバージョンファクターに関しては結局昨年から進展がなかったので疲れてしまいました。それでも得られた成果としては、
  • Matlabでの画像解析の手法に慣れることができた。
  • あぷらなーとさんが出してくれた、debayerの方がCFAよりもノイズが0.8倍程度と小さくなることを確かめることができた。
ことくらいでしょうか。でも全然だめですね。これ以上は時間の無駄になりそうなので、一旦ここで打ち切ることにします。

それでもMatlabが使いやすいことは分かったので、今後の画像解析はMatlabで進められそうな目処はついたと思います。

元々この解析はダークノイズ解析につなげたいとか、EOS 6Dのユニティーゲインを測定したいとかで始めたのですが、なかなか進みません。いつ実現できるのかまだまだ未定ですが、諦めることはしたくないのでまたいつか再開する予定です。

つい最近(2019/3/24)、Stellariumが0.19.0にバージョンアップされました。最近Stellariumがかなりすごいです。


星雲星団の実画像表示

星雲星団の実画像の充実に気づいたのは何ヶ月か前、バージョン0.18.2から0.18.3にアップデートされた時(アップデート自身は2018/12/22)です。ちょうどプラネタリウムソフトで星雲や星団がきちんと写真レベルで表示されないかなと思って色々試している時でした。撮影時の実際の星雲の広がり具合とかをあらかじめ比べたかったからです。あれ、0.18.3になってなんか綺麗な画像が増えたなと思って当時ちょっと調べてみました。Mac版の場合、アプリケーションフォルダの中のStellariumのファイルを右クリックして、「パッケージの内容を表示」で、Contents->Resources->nelulae->defaultの中を見ると、実際の星雲星団の画像がたくさん入っているのがわかります。

IMG_6850

上の写真の一番下のファイル数で比べると、0.18.2->0.18.3で248ファイルから439ファイルと倍増近くになっています。0.18.3->0.19.0は439->473と数はそれほど増えたわけではないですが、細かく見ると画像のクオリティが上がってたりするのがわかります。

IMG_6851
左が0.18.3付属のIC1805、右が0.19.0のもの。
サイズは1MB->509kBと小さくなっているのに、
クオリティは明らかに上がっている。

例えばオリオン座のM42です。Stelalrium上でかなりの画質で表示させることができます。

IMG_6842

これを見るとトラベジウムあたりは飛んでいってしまていますが、拡大すると徐々に画像を消すなどしてうまくトラベジウムが見えるようにしているようです。

IMG_6844

それでも星雲の画像を表示させたくないときもあると思います。そんな時は、右の端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで「星雲の背景ボタンを表示」にチェックをしておいて、カーソルを画面下に持っていって出てくる「深宇宙の背景画像」をオフにしてやれば下の画面のように画像を消すことができます。

IMG_6852

まだ一部もやっとした光も残っていますが、これは天の川の一部として低解像度で表示されているものです。これも右端で出てくる「空と表示の設定」から「空」タブで「Milky Way brightness/saturation」をオフにすると完全に消すことができます。


自分の持っている機材で視野角を確認

さて、前項のこういった星雲や星団の実画像があると何が便利なのか?それは撮影時の実際の視野角と簡単に比較することができるからです。

ご存知の方も多いと思いますがStellariumでは自分で持っている機材を登録して、視野を直接画面の中に表示することができます。右上の左から二番目の四角の枠だけのアイコンを押すと、画面の中に赤い枠が出てくると思います。これが現在設定されている視野です。これを自分の持っている機材に変更します。同じく右上の一番右のアイコンを押します。タブに「望遠鏡」、「補正レンズ」、「CCD」、「アイピース」がありますが、それぞれ設定します。「望遠鏡」は鏡筒、「補正レンズ」はバローレンズやレデューサなど、「CCD」はCCDカメラやCMOSカメラ、一眼レフカメラでももちろん構いません。赤道儀の機能は「望遠鏡」のところの「赤道儀」をクリックします。実際の視野の回転は「CCD」のところの「回転角(度)」で調整します。ここは大抵0度か90度ですね。

いくつか鏡筒やカメラを登録すると、右上の左から二番目の四角アイコンを押した時に、登録した機材を画面を見ながら変更することができます。この時、星雲の実際の画面があると、どれくらいの視野で、どのような機材で撮影すればいいのかが一発でわかるのです。


他波長での背景表示

もう一つ面白い機能を紹介します。多波長で空を見た場合、その画像をStellariumの背景として表示させることができます。これはバージョン0.18.0から搭載された機能で、まだテストレベルのようです。

画面右端で出てくる「空と表示の設定」から「Surveys」タブで「Deep Sky」を選び、ズラーっと出てくるリストが衛星や観測装置など研究レベルで撮影されたデータになります。たくさんあるのですが、アマチュア天文で撮影に使用する場合はほとんどがあまり関係なく、この中でお勧めできるのは「DSS colored(2つあるうちの下の方の)」と「DSS2 Red(F+R)」です。

IMG_6846
DSS colored

IMG_6848
DSS2 Red(F+R)

上のように分子雲モクモクの背景を表示させることができます。写真ではカラーの方が見栄えが良くなってしまっていますが、実際のPCの画面ではモノクロの方が見やすいかと思います。特に構図を決める時はかなり狭角で見ることになるので、モノクロの方がより分子雲の度合いがわかります。一方、広角で見る場合はモノクロの場合はつぎはぎになってしまうのでカラーの方がお勧めです。

この画面を表示させるためにはもう一つやることがあります。このやり方が最初どうしてもわからなくてしばらくの間ずっと画像を表示できなくてやきもきしていたのですが、色々調べてやっとわかりました。画面右端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで「Show HiPS button」をオンにして、画面下に出てきた「Toggle Hierarchical Progressive Surveys (experimental)」をオンにすると、やっと上のような画像が出てきます。でもこの機能はとても重いのと、多分データをその都度ダウンロードしているようなので、ある程度早いCPUパワーとネットワークが必要になるかと思います。

IMG_6845

他に面白いのは、「IRAS IRIS HEALPix survey, color」でしょうか。天の川全体を表示させるような場合は、IRAS IRIS HEALPix survey, color上のDSS coloredのように、カラー化されたものの方が見やすそうです。

IMG_6849
IRAS IRIS HEALPix survey, color

Surveysの方のリストはたくさんありすぎて私も全部は見ていません。いくつかのデータは表示してもほとんど何も変化がなかったりもするので、もしかしたら多少加工しなければ見えないようなデータもそのまま表示してしまっているのかもしれません。もしリストの中で他にも撮影の役に立ちそうなものがあったら、コメントなどで情報共有してもらえるとありがたいです。

あと全く別の同様の機能に、「デジタル・スカイ・サーベイ(DSS)ボタン」があります。こちらも画面右端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで設定できます。画面下に出てきた「デジタル・スカイ・サーベイ(TOAST)」ボタンを押すと、分子雲なども多少見ることができる背景が表示されますが、「Survey」で表示されるものの方が見やすいかと思うので、あまりこの機能はお勧めしません。

いずれにせよ、上の両機能ともものすごく重いので、お勧めの表示のさせ方を書いておきます。
  • まずプラネタリウム表示の時間経過を止める。画面下の三角ボタンを押すと止まります。
  • 画面を移動する時には、両機能ともオフに。
というくらい気を使うことになると思います。

また、最近のステライメージも最新版では多波長に対応しているとのこと。おそらく、画像を多少加工してあるのでしょうか、ステライメージの方が見やすくなっているようなので、こちらもお勧めです。

分子雲モクモク画面を見ていると、かなり構図決定の参考になるかと思います。これからもこういったものを撮影に活用していければと思います。

 

このページのトップヘ