ほしぞloveログ

天体観測始めました。

カテゴリ: software

今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


あぷらなーとさんはじめ何人かの方がMatlabを購入し画像処理に活用し始めましたようです。



私もMatlabは学生の頃から使っていて、今調べてみたら一番古いファイルは1998年でした。なので20年以上使っていることになりますが、 これまで画像処理に使ったことはありませんでした。

あぷらなーとさんが指摘しているように、確かにMatlabは行列を容易に扱えるので、2次元が基本の画像処理は向いているはずです。最近過去のコードをpython化したりしてるのですが、pythonは2次元だと必ず繰り返し処理が入るので、コードが冗長になりがちです。私も少し試してみたのですが、どうやら画像処理に関してはMatlabの方がコードがかなりシンプルになり見通しが良くなるので、有利というのは正しそうです。とうわけで、遅ればせながら私もMatlab画像処理に参画します。

Matlabを使ってまず手始めに試したのが、昨年3月依頼謎が解けなくて止まってしまっているASI294MC Proのノイズ解析の続きです。

 


最初にごめんなさいと謝っておきます。今回の記事はかなり細かくてめんどくさい話で、ほとんどの人には役に立たないです。しかもうまくいかなかったという結果なので、ほんとに興味のある方だけ読んでみてください。

Matlabで画像処理を始めてみたいという人がいたら、もしかしたらコードが参考になるかもしれません。


以前のおさらい 

ざっとおさらいしてみます。ZWO社のASIシリーズは性能を示すデータを公開してくれています。例えば広いセンサー面積を利用した電視観望や、撮影にも十分に使うことができるASI294MC Proのページを見ていくと、下の方にいくつかグラフが出てきます。このグラフ、一見分かりそうで分かりにくいところもあるので、以前その読み方を解説しました。



上のページでも解説している通り、SharpCapを使うとZWOのページにあるようなデータを測定することができます。冷却バージョンのProも



で実際に測定した記事を書いています。特にGain[e/ADU]の値はコンバージョンファクターとも呼ばれて、設定gainが0の時のコンバージョンファクターはユニティーゲインなどにも直結するような非常に重要な値になります。少しコツは必要ですが、SharpCapのスクリプトでCMOSカメラの特性を実測すると、ZWOにあるような値に非常に近いものを測定することができます。2つのツールで同様のデータが取れているということはかなり信頼が置けるはずです。さらにもう一歩進めて、このようなツールでのスクリプトでなく、実際に自分でノイズを撮影して解析してみようと試したのが、昨年3月までの一連の記事になります。

ところが、実際に撮影して解析してみるとどうしてもZWOのデータやSharpCapでの解析結果と合いません。

SharpCapで撮影した時の撮影条件は限りなく再現させたと思っています。具体的には撮影対象の明るさ、カメラのゲイン、露光時間です。明るさは同等のものが撮れているので、撮影に関しては問題ないと思います。問題はノイズです。明るさとノイズの関係からコンバージョンファクターを求めるのですが、撮影された画像の明るさのばらつきが、想定していたものよりかなり大きいと出てしまいます。

具体的には標準偏差を用いるとノイズが大きすぎると出てしまい、苦肉の策で(ノイズが小さいとでる)平均偏差を使うと、大体ZWOとSharpCapの測定と一致するという結果でした。

ヒントになるかと思いモノクロのASI290MMで測定したら、標準偏差で計算してもZWOやSharpCapと一致した結果を得ることができました。ということはやはりカラーの場合も平均偏差などを使わずに標準偏差を用いるのが正しいのではと推測することができます。

そんな折、あぷらなーとさんがRGGBを一素子づつ解析したCFA(Color Filtr Array)で評価した場合と、RGBにdebayerした場合では、debayerの方が標準偏差で考えて0.75倍とか0.79倍程度に小さくなることを示してくれました。



それでもdebayerで計算してもまだZWOやSharpCapでのノイズの少なさには辿りつきません。

いろいろやっていて結局行き着いたところはこの画面で、

IMG_6436

小さいと思われるRGBの標準偏差よりも、Lの標準偏差の方がなぜかさらに小さいことがSharpCapの一枚の撮影で出てしまっていることです。いまだにSharpCapが内部でどうやって計算しているのかよくわかりません。このLの標準偏差を仮定するとノイズはかなりZWOもしくはSharpCapのスクリプトで測定した結果に一致します。言い換えると、これくらい小さい標準偏差くらいのばらつきになっていないと結果は一致しないということです。


Matlabでの画像処理の実際

やっと前振りが終わりましたが、今回Matlabで以前のpythonコードを書き直すかたらわら、どうしたら一致した結果を出せるか、なぜSharpCapのLがノイズが小さく出ているかを念頭に置きながらいろいろ試してみました。

Matlabを初めて使う人が一番面食らうのは、配列の表記法かと思います。これが独特なのですが、この独特な表記によりコードがシンプルになるので避けるわけにもいきません。私が書くよりももっといい説明がたくさんあるかと思いますが、今回の画像処理に必要な最低限だけ書いておきます。

まず2次元の配列、Matlabだと行列といっていますが、例えば2行x3列の配列Aを

>> A=[1 2 3;4 5 6;]

A =
     1     2     3
     4     5     6

と作ります。例えば第2行,第1列成分を見たい場合には

>>A(2,1)

と打つだけです。答えは

ans = 4

と出ます。これは至って普通です。独特なのは:(コロン)の使い方で、例えばAの1行目すべてを見たい場合は

>>A(1,:)

と打ちます。答えは 1 2 3となります。:はどこからどこまでを意味し、

>>A(1,1:2)

だと

ans =     1     2

となります。:(コロン)だけだとその次元の最初から最後まで全部という意味です。これがMatlabで絶対理解しておかなければならない表記法の一つです。

今回は画像を扱うのに4次元の配列を使っています。1、2次にy座標とx座標。左上からyは向かって下に、xは右に移動していきます。3次目はRGBやCFAのインデックス。RGBなら3つ、CFAなら4つとっています。 4次目は何枚目の画像かを表しています。今回8枚の画像を使っていますが、その何枚目かを表します。あと成分を表す数字は1から始まることにも注意です。0からではありません。 

例えば、AにRGBで別れた画像が8枚入っているとすると、5枚目のG画像を表す時は

A(:, :, 2, 5)

と表します。:が2つあるのはy、x座標それぞれ全部を表しています。"2"はRGBの2番目と言う意味です。Bなら3ですね。"5"は5枚目と言うことです。

例えばサンプルコードの最初の方にある

 Raw(:, :, i) = fitsread(ファイル名);

はi番目の画像にfitsファイルを読み込んで、1次目にy座標のデータ、2次目にx座標のデータを全部入れていきなさいと言うのをわずか1行で表記したものです。

これらの表式は慣れるしかないのですが、ここらへんを感覚的に理解できるとコードもすらすら読めて、シンプルなコードを書くことができるようになるのかと思います。


モノクロセンサーASI290MMの場合

とりあえずMatlabでやってみた画像処理を説明していきます。まずはモノクロのASI290MMの結果です。

ASI290MM
このグラフを出したMatlabのソースコードをアップロードしておきます。使用した画像も(サイズを切り詰めるために中心部のみ切り取ったものですが)一緒に入れておきましたので、すぐに走らせることができると思います。もしMatlabを持っていて興味があったら走らせてみてください。

ASI290MM.zip 


結果は前述したとおり、平均偏差ではなく一般的な標準偏差を使っています。メーカー値はコンバージョンファクターが3.6程度、ユニティーゲインが110程度ですので、グラフ内の数値と比較してみるとそこそこ一致していることがわかります。なので、カラーでも標準偏差を用いる方向を探りたいと思います。

また、以前pythonで書いたコードと比較して同等の結果を出すことできています。

Conversion_Factor_ASI290MM_std

Maltabでもこれまでと同様のことができることがわかり、かつ遥かにシンプルに書けることがわかりました。


カラー版ASI294MC Proの場合: CFAで解析 

さて、Matlabでの画像処理にも慣れたところで問題のカラーのASI294MC Proの解析です。

結論から言うと、結局今回も謎は解けずじまいでした。

まずはシンプルなCFAの方から。RAW画像からCFAへ分離するところはビルトインの関数とかはないようなので自分で書いてみました。以前は平均偏差(mad)で無理やり答えを合わせましたが、今回ASI290MMの結果なども含めていろいろ考えた末に、結局諦めて標準偏差(std)を使うことにしました。

ASI294MCPro_CFA

各測定点はそのまま解析した結果を表示していますが、フィッティングは無理やり合うように補正してます。考え方としては、謎な部分をunknown factorとしてフィッティングするところで無理やり補正するというやりかたです。今回のCFAの場合、unknown factorはノイズ(標準偏差の2乗)を2分の1とすることでZWO、SharpCapの結果と一致することがわかりました。

ちなみにメーカー値はコンバージョンファクターが3.9程度、ユニティーゲインが117程度です。繰り返しますが、CFAで測定されたノイズを無理やり半分にすることでメーカー値に近くなります。

先に説明したように、SharpCapでLのノイズが小さく出ている理由がわからなかったので、もうこのように無理やり合わせてしまうしかなかったという苦肉の策です。これはあぷらなーとさんが示してくれた、CFAとRGBで標準偏差で0.75倍違うというのを考慮してもまだ少し足りません。

まあ、このやり方に言いたいことはたくさんあるかと思いますが、とりあえず先に進むことにします。


カラー版ASI294MC Proの場合: RGBで解析

次はRGBでの解析です。

最初はMatabビルトインのdemozaicという関数を使ったのですが、これだと中で何か変に処理しているのかノイズが話にならないくらい大きくなりすぎました。仕方ないので自分でRGBに落とすコードを書いています。そこそこまともそうな値は出たのですが、ただしこのコードまだ未完成です。なぜかというと、センサーアレイはRGGBなのでG(グリーン)が二つあるのですが、その応答が少し違うことに起因します。Gを2つ使って求めると強度の山が2つでできてしまい、ばらつきが大きくなりすぎるからです。そのため今回は2つあるG素子のうち1つだけを使うことにしました。

ASI294MCPro_RGB

RGBになりあぷらなーとさんが示してくれた通り、CFAの時よりもばらつきは少なくなることがわかりました。それでもまだノイズが大きすぎるのでCFAの時と同様にunknown factorとしてフィッティングするところに無理やり入れました。RGBの場合、unknown factorはノイズ(標準偏差の2乗)をルート2で割ってやることでZWO、SharpCapの結果とかなり一致することがわかりました。


考察

ASI294MC Proで使ったファイルもアップロードしておきます。よかったら参考にしてください。

ASI294MCPro.zip 

今回はまだ苦肉の策で、無理やり答えを合わせるように測定結果を割っているだけなので、考察と呼べるようなものにはなりません。CFAの場合出てきたノイズを半分に、RGBの場合ルート2でわってやるとSharpCapやZWOの結果とかなり近い結果になりましたが、その理由は全然わかっていません。

前回のpythonコードを使った時はCFAやRGBの変換はPixInsightを使いました。でも今回はRAWファイルから直接計算してCFAもRGBも取り出しています。ここら辺はMatlabに移ったことでやりやすくなったところだと思います。このように今回はかなり噛み砕いてブラックボックスがないように進めてきたつもりです。撮影した画像はSharpCapのスクリプトで撮影したものと同等と仮定していいかと思います。これでも結果が一致しないということは、
  • ZWOもSharpCapも何か特殊なことをやっているか
  • もしくはまだ私が馬鹿なミスを犯しているか
です。とにかく怪しいのがZWOのLのノイズが小さく出過ぎていること。この謎が解けない限り進展がない気がします。


まとめ

週末を結構な時間費やしましたが、コンバージョンファクターに関しては結局昨年から進展がなかったので疲れてしまいました。それでも得られた成果としては、
  • Matlabでの画像解析の手法に慣れることができた。
  • あぷらなーとさんが出してくれた、debayerの方がCFAよりもノイズが0.8倍程度と小さくなることを確かめることができた。
ことくらいでしょうか。でも全然だめですね。これ以上は時間の無駄になりそうなので、一旦ここで打ち切ることにします。

それでもMatlabが使いやすいことは分かったので、今後の画像解析はMatlabで進められそうな目処はついたと思います。

元々この解析はダークノイズ解析につなげたいとか、EOS 6Dのユニティーゲインを測定したいとかで始めたのですが、なかなか進みません。いつ実現できるのかまだまだ未定ですが、諦めることはしたくないのでまたいつか再開する予定です。

つい最近(2019/3/24)、Stellariumが0.19.0にバージョンアップされました。最近Stellariumがかなりすごいです。


星雲星団の実画像表示

星雲星団の実画像の充実に気づいたのは何ヶ月か前、バージョン0.18.2から0.18.3にアップデートされた時(アップデート自身は2018/12/22)です。ちょうどプラネタリウムソフトで星雲や星団がきちんと写真レベルで表示されないかなと思って色々試している時でした。撮影時の実際の星雲の広がり具合とかをあらかじめ比べたかったからです。あれ、0.18.3になってなんか綺麗な画像が増えたなと思って当時ちょっと調べてみました。Mac版の場合、アプリケーションフォルダの中のStellariumのファイルを右クリックして、「パッケージの内容を表示」で、Contents->Resources->nelulae->defaultの中を見ると、実際の星雲星団の画像がたくさん入っているのがわかります。

IMG_6850

上の写真の一番下のファイル数で比べると、0.18.2->0.18.3で248ファイルから439ファイルと倍増近くになっています。0.18.3->0.19.0は439->473と数はそれほど増えたわけではないですが、細かく見ると画像のクオリティが上がってたりするのがわかります。

IMG_6851
左が0.18.3付属のIC1805、右が0.19.0のもの。
サイズは1MB->509kBと小さくなっているのに、
クオリティは明らかに上がっている。

例えばオリオン座のM42です。Stelalrium上でかなりの画質で表示させることができます。

IMG_6842

これを見るとトラベジウムあたりは飛んでいってしまていますが、拡大すると徐々に画像を消すなどしてうまくトラベジウムが見えるようにしているようです。

IMG_6844

それでも星雲の画像を表示させたくないときもあると思います。そんな時は、右の端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで「星雲の背景ボタンを表示」にチェックをしておいて、カーソルを画面下に持っていって出てくる「深宇宙の背景画像」をオフにしてやれば下の画面のように画像を消すことができます。

IMG_6852

まだ一部もやっとした光も残っていますが、これは天の川の一部として低解像度で表示されているものです。これも右端で出てくる「空と表示の設定」から「空」タブで「Milky Way brightness/saturation」をオフにすると完全に消すことができます。


自分の持っている機材で視野角を確認

さて、前項のこういった星雲や星団の実画像があると何が便利なのか?それは撮影時の実際の視野角と簡単に比較することができるからです。

ご存知の方も多いと思いますがStellariumでは自分で持っている機材を登録して、視野を直接画面の中に表示することができます。右上の左から二番目の四角の枠だけのアイコンを押すと、画面の中に赤い枠が出てくると思います。これが現在設定されている視野です。これを自分の持っている機材に変更します。同じく右上の一番右のアイコンを押します。タブに「望遠鏡」、「補正レンズ」、「CCD」、「アイピース」がありますが、それぞれ設定します。「望遠鏡」は鏡筒、「補正レンズ」はバローレンズやレデューサなど、「CCD」はCCDカメラやCMOSカメラ、一眼レフカメラでももちろん構いません。赤道儀の機能は「望遠鏡」のところの「赤道儀」をクリックします。実際の視野の回転は「CCD」のところの「回転角(度)」で調整します。ここは大抵0度か90度ですね。

いくつか鏡筒やカメラを登録すると、右上の左から二番目の四角アイコンを押した時に、登録した機材を画面を見ながら変更することができます。この時、星雲の実際の画面があると、どれくらいの視野で、どのような機材で撮影すればいいのかが一発でわかるのです。


他波長での背景表示

もう一つ面白い機能を紹介します。多波長で空を見た場合、その画像をStellariumの背景として表示させることができます。これはバージョン0.18.0から搭載された機能で、まだテストレベルのようです。

画面右端で出てくる「空と表示の設定」から「Surveys」タブで「Deep Sky」を選び、ズラーっと出てくるリストが衛星や観測装置など研究レベルで撮影されたデータになります。たくさんあるのですが、アマチュア天文で撮影に使用する場合はほとんどがあまり関係なく、この中でお勧めできるのは「DSS colored(2つあるうちの下の方の)」と「DSS2 Red(F+R)」です。

IMG_6846
DSS colored

IMG_6848
DSS2 Red(F+R)

上のように分子雲モクモクの背景を表示させることができます。写真ではカラーの方が見栄えが良くなってしまっていますが、実際のPCの画面ではモノクロの方が見やすいかと思います。特に構図を決める時はかなり狭角で見ることになるので、モノクロの方がより分子雲の度合いがわかります。一方、広角で見る場合はモノクロの場合はつぎはぎになってしまうのでカラーの方がお勧めです。

この画面を表示させるためにはもう一つやることがあります。このやり方が最初どうしてもわからなくてしばらくの間ずっと画像を表示できなくてやきもきしていたのですが、色々調べてやっとわかりました。画面右端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで「Show HiPS button」をオンにして、画面下に出てきた「Toggle Hierarchical Progressive Surveys (experimental)」をオンにすると、やっと上のような画像が出てきます。でもこの機能はとても重いのと、多分データをその都度ダウンロードしているようなので、ある程度早いCPUパワーとネットワークが必要になるかと思います。

IMG_6845

他に面白いのは、「IRAS IRIS HEALPix survey, color」でしょうか。天の川全体を表示させるような場合は、IRAS IRIS HEALPix survey, color上のDSS coloredのように、カラー化されたものの方が見やすそうです。

IMG_6849
IRAS IRIS HEALPix survey, color

Surveysの方のリストはたくさんありすぎて私も全部は見ていません。いくつかのデータは表示してもほとんど何も変化がなかったりもするので、もしかしたら多少加工しなければ見えないようなデータもそのまま表示してしまっているのかもしれません。もしリストの中で他にも撮影の役に立ちそうなものがあったら、コメントなどで情報共有してもらえるとありがたいです。

あと全く別の同様の機能に、「デジタル・スカイ・サーベイ(DSS)ボタン」があります。こちらも画面右端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで設定できます。画面下に出てきた「デジタル・スカイ・サーベイ(TOAST)」ボタンを押すと、分子雲なども多少見ることができる背景が表示されますが、「Survey」で表示されるものの方が見やすいかと思うので、あまりこの機能はお勧めしません。

いずれにせよ、上の両機能ともものすごく重いので、お勧めの表示のさせ方を書いておきます。
  • まずプラネタリウム表示の時間経過を止める。画面下の三角ボタンを押すと止まります。
  • 画面を移動する時には、両機能ともオフに。
というくらい気を使うことになると思います。

また、最近のステライメージも最新版では多波長に対応しているとのこと。おそらく、画像を多少加工してあるのでしょうか、ステライメージの方が見やすくなっているようなので、こちらもお勧めです。

分子雲モクモク画面を見ていると、かなり構図決定の参考になるかと思います。これからもこういったものを撮影に活用していければと思います。

 

前回の記事で、シュミカセの補正板の導出がわからないというところまで書きました。

結局のところ、日本語で詳しく解説してあるところはほとんど見当たらなかったので、海外のページを検索し始めました。するとすぐに相当数の解説を見つけることができました。中でもtelescope-optics.netというところの解説が詳しくてわかりやすかったです。

リンク先のページは、まずはシュミットカメラについての解説です。ここの最後の方に載っているExampleで計算結果が正しいかどうか確かめながら、まずは200mm, f/2のシュミットカメラの各係数 "A1, A2" などをExcelなどを計算していきます。Exampleに示されている値と同じ値が出れば計算過程は正しいでしょう。その後、500mm, f/2.5の値を自分で計算します。すると4次のオーダーの係数が-4.79E-10程度、6次のオーダーの係数が-7.26E-16程度になるはずです。

IMG_5882


このパラメータは、LensCalにサンプルとして入っているシュミットカメラ(シュミットカセグレンでは無いことに注意)

Sm20f2.ldt

というファイルのパラメータと同じです。ファイルの解説には(アイコンの「Memo」を押すと出てきます)シュミットカメラ 20cm F2.5と書かれているのですが、ファイル名だけだと間違えてしまいます。ファイルを開いて焦点距離を見てみると501.895mmと出るので、焦点距離500mm, 口径200mm, F2.5で間違い無いでしょう。このNo.2(2行目)のAirの側の係数を見ると、-4.769E-10と7.12E-16程度なので、自分で計算した値とほぼ一致します。

迷ったのは長さの単位でしょうか。基本的にミリメートル [mm] をどこも使っているようです。メートルとミリメートルで3桁違うので、2次とか4次とかだと、6桁とか12桁変わってくる可能性があるので検証がちょっと面倒でしたが、解説記事もLensCalもミリメートルで大丈夫と言うことがわかりました。

あと一つ疑問があります。LensCalで出ている補正板の出射側のAirの曲率の求め方です。単純に途中の計算で求めた曲率半径かなと思ったのですが、自分の計算では約-103m、LensCalでは約-68mと、1.5倍くらい違います。

まだ疑問が残るところはありますが、ある程度シュミットカメラまでの補正板の係数を求める過程を追うことができました。次の収差の解説ページにある球面収差の図もほぼLensCalで再現できているのも素晴らしいです。

IMG_5879


さらにtelescope-optics.netにはシュミカセの解説記事がまだまだ続いています。もう少し計算を続けてみます。
 

突然レンズ設計に目覚めてしまいました。ここ最近のマイブームで、四六時中ずっとレンズ設計のことを考えています。そもそもの動機が、シュミカセでコマ収差が盛大に出ていたのを、コマコレクターである程度軽減できることがわかったのですが、じゃあそもそもコマコレクター ってなんですか?というところから来ています。

IMG_5869

上の写真は手持ちのコマコレクター、バーダープラネタリウムのMPCC MarkIIIです。結構歪んで見えるので非球面レンズなのでしょうか?でも値段からいったら単純なレンズの組み合わせな気がします。説明書にはF4からF6まで対応すると書いてあるのですが、実際にコマ補正したい鏡筒はMEADEのLX-200の口径25cm、焦点距離1600mm、F6.3のものなので、少しだけ範囲から外れてしまいます。以前一度試しにつけてみたのですが、そこそこ効果があることはわかっています。

でもこのコマコレクターでこと足りるのか?最適な位置やバックフォーカスはどこなのか?もっといいコマコレクター はできないのか?と疑問は尽きず、気づいたらじゃあそもそもシュミカセってどんなものなの?という疑問に行き着きました。これを確かめるにはある程度シュミカセの設計自体を理解しなくてはダメです。


と言うわけで、前置きが長くなりましたがレンズ設計の挑戦の始まりです。どこまで続くことやら。

レンズ設計に関しては先人の理論、設計、ソフトウェアや検証など、多くの蓄積があります。まずはシュミカセに行く前に、レンズ設計ソフトを触ってみることにしました。あぷらなーとさんHIROPONさんがブログの中で試していらっしゃるので、それを捕捉する形で書いて行きたいと思います。ソフトはその中でオススメの「LensCal」です。製作者は京都の「星を求めて」でお会いすることができたラッキーイメージを得意とするYamashitaさんとのことです。Yamashitaさん、こんな素晴らしいソフトをフリーで提供していただいて、ありがとうございます。

とすぐにでもソフトに手を出したいのですが、ここではあぷらなーとさんが試したように、基準となる拠り所が欲しくて、まずはハルチング(今はハーティングと言うべきなのでしょうか)の公式に手を出してみました。


ハルチングの解とは、フランフォーフェル型と言う凸レンズと凹レンズの組み合わせにおいて、C線(656.27nmのHα)の焦点とF線(486.13nmのHβ)の焦点を一致させ、d線(587.56nmの黄)に対して球面収差とコマが最小になるような設計とのことです。2枚の設計したいレンズの上の3つの波長での屈折率を与えてやって、16個の連立方程式を解くと目的のレンズの曲率半径が求められるものです。

ネットを漁るとこのページにたどり着いて、ここから辿っていくとエクセルの表を手に入れることができます。ただ、これだけだと何をやっているかわからないので、式が書いてある掲示板を参照してみてください。私は吉田正太郎著「天文アマチュアのための望遠鏡光学〈屈折編〉」という本で式と概念をフォローしましたが、他の書籍でも同様の記述は見つかると思います。本の方では多少詳しい説明がありますが、連立方程式の導出から書いてあるわけではないので、結局は天下り的にこの連立方程式を解くだけです。リンク先で手に入るエクセルの表のパラメータも解も、上記書籍のパラメータ及び解と全く同じだったので、少なくとも表に特に変な間違がないことがわかるので安心できます。


この時のパラメータが最初のレンズをBK7、2枚目をF2で作るとして

BK7:
nC = 1.51385
nd = 1.516330
nF = 1.521900

F2:
nC = 1.615020
nd = 1.620041
nF = 1.632120

となっていて、最初のレンズの厚さが0.65mm、レンズ間距離が0.02mm、2枚目のレンズの厚さが0.45mmとするとします。

その時のハルチング公式からのそれぞれの曲率半径の解が

r1 = +60.572mm
r2 = -35.620mm
r3 = -36.041mm
r4 = -147.961mm

となるのは、上記書籍も、表計算の値も同じです。


さて、ハルチング解がある程度理解できたところで、やっとLensCalに移ります。ダウンロードインストールなどはマニュアルの通りです。Example of glass dataは必須ですし、Data.zipも落としておいた方がいいでしょう。ヘルプファイルは絶対あったほうがいいです。

一つ注意点は、ものすごく重要なヘルプファイルがWindow10だと中身を見ることができません。ヘルプファイル自身はダウンロードしてファイルをダブルクリックするだけでいいのですが、LensCalの掲示板にあるように

1.LensCal.chmを右クリックしてプロパティを開き、
2.いちばん下の「ブロックの解除」のボタン又はチェックボックスに印を入れてOKを押す
と読めるようになるようです。

とあるので、これに従うと無事にWindow10でもヘルプファイルの中身がきちんと見えるようになります。

基本的にはこのヘルプファイルの「簡単な使い方」のその1からその3までを丁寧に試していけばあるていどのことは学べてしまいます。ここで注意することは、ヘルプファイルの説明が少し添付データと違っていることです。2枚目のレンズのF2が「Sumita」から選ぶように書いてあるのですが、実際には「Schott」の方に入っています。しかもSchottのデーターも、Example of glass dataでダウンロードしたGlassData.zipを解凍して、出てきたファイルをLensCal.exeと同じフォルダに入れておかなければ、ガラスデータとして選択することができません(マニュアルにこのことは書かれています)。私が迷ったのは上記2点くらいで、他は全て問題なく、非常にわかりやすく扱いやすいソフトでした。

ヘルプに沿っていけば、「ベンディング」というらしいのですが、ある2つのパラメータを自由にして、収差を最小にするようなチューニングのようなこともできてしまいます。最適解を数値計算的に求めることもできるようです。ただ、最適解の場合は条件出しに少し癖があるようで、例えば波長の効き具合とかに、あまり効かせたくないと思って0を入れたりするとエラーが表示されて、立ち上げ直すまで2度と計算できなくなってしまったりします。そんなときは0.01とか小さな数を入れてやることで回避しています。

IMG_5867


上記写真は最適解とベンディングを駆使して求めた曲率ですが(距離は固定)、ガラスの屈折率にごくわずか違いがあることや、最適化の条件の調整が難しいこと、ベンディングの調整の誤差もあることなどから、ハルチングの解析解と少し違った値になっています。それでもまあ、かなりいいところまで最適化できていると言っていいでしょう。ここで気付いたのは、ハルチング公式の条件の一つの「C線(656.27nmのHα)の焦点とF線(486.13nmのHβ)の焦点を一致させ」というのは、シミュレーションでは球面収差を見ながら「有効径の外の方で合わせる」というのが解に近いみたいです。最初中心で焦点を合わせていたら、どうしても解析解とずれてしまいました。でも外側で合わせるというので本当に正しいのでしょうか?ここは謎が残ったままです。


さて、LensCalには20cm F10のシュミカセのサンプルファイルも添付されています。でもこのサンプルファイルにあるシュミット補正板の係数の値が本当に正しいかどうか、いまいち確信が持てません。シュミット補正板については同じ吉田正太郎著「天文アマチュアのための望遠鏡光学・反射編」にある程度書いてあるのですが、これも式の導出までは記述がないので、出ている式を天下り的に使うしかないのですが、どうもサンプルファイルの補正板の曲線の係数と全然一致しません。

もう一本Opt-Design 2000というソフトでも試していて、こちらもLensCalとある程度似たようなことができ、さらにこちらにも20cm F10のシュミカセのサンプルファイルが添付されています。でもこの補正板の係数の値もまた全然違います。

球面収差図を見ていると、原理から言って補正板の中性帯(曲率の正負が逆転する中間地点で、ここを入射する光は補正板の影響を受けない)を通るところで収差がなくなるはずで、LensCalの方はそれを再現しているようにも見えるので、LensCalの値が正しいように思えます。でもじゃあどうやってこの補正板の値を出したのかなど、まだ謎だらけです。

とりあえず、今やっとここら辺です。
 





 

週末土曜日に飛騨コスモス天文台に行って、M57とM27を撮影しました。それぞれの撮影枚数は、露光時間が20秒と短いこともあり、かなりの枚数になります。具体的にはM57が282枚、M27が244枚をなり、処理の前に簡単に閲覧するだけでも大変になります。しかもSharpCapで撮影したRAWファイルなので、拡張子が.fitsファイルとなり、開けるソフトも限られています。

最初の頃はfitsファイルもステライメージで確認していたのですが、これだけ数が多いと大変になります。PixInsightでも開くことができますが、一枚一枚が結構重いので、全部を気楽に開くわけにいかなくて、選別するのが結構大変です。

そんなときはPixInsightの「ImageInspection」->「Blink」が便利です。

IMG_5690

  1. 下のフォルダマーク「Add Image Files」から複数ファイルを選択して読み込みます。
  2. 読み込みは数百枚だど数分かかるので、50枚くらいずつにしたほうがいいと思います。
  3. RAW画像でも、Debayerした画像などでも読み込むことができます。
  4. 画像が暗くて見にくい場合でもSTFがかけられた状態で表示されるので、見やすくなっているはずです。これは真ん中に3つ縦に並んでいるアイコンの、真ん中を押すと確認することができます。
  5. 読み込んだ後は、左右の矢印を押すか、画像のファイル名を一つ選択してあとはカーソルの上下で、すごい勢いで画像を連続で切り替えることができます。
  6. 左の三角ボタンを押せばアニメーション表示することもできます。
  7. ただし、ソート順はファイル名のみのようなのがちょっと残念なところです。
  8. 弾きたい画像は、マウスでファイル名を選択(複数も可能)してから、下のアイコン群の左から5つ目の小さい矢印がついているアイコンを押すと、移動したいフォルダが選択できるので、そこに移動されます。
  9. 終わった後は、下の左から3番目のアイコンを押して、すべてのファイルを閉じます。
  10. これを次の50枚とか繰り返すと、かなり効率よく見た目で明らかに悪い画像ファイルを弾くことができます。


もう一つ便利なのが、「Script」->「Batch Processing」->「SubframeSelector」になります。各画像の星像のFWHM(半値全幅)やEccentricity(偏心度)を測定してくれます。自動でだめな画像を別ディレクトリに移動することなどもできます。

詳しいことはマニュアルを読むといいのですが、英語で結構大変なので簡単な説明を書いておきます。

IMG_5688

  1. いつものようにAdd Filesで解析したいファイルを複数選択します。
  2. 最低限解析するだけなら、そのまま一番下の「Measure」を押します。
  3. CPUや解像度にも依りますが、一枚解析するのに7-8秒程度なので、数百枚でもなんとか耐えられる時間の範囲です。結構かかりますが、それでも一枚一枚やるよりははるかに楽です。最初は少数枚でテストするといいでしょう。
  4. 「Plots」を開くと結果が出ています。「FWHM」や「Eccentricity」で飛び抜けている画像を判断することができます。
  5. 飛び抜けているところをクリックするとx印がつくので、Outputで弾きたいファイルをMoveなどする設定をすると、移動してくれます。
  6. 式で評価して、自動で弾くこともできますが、そのためには下に示すようなパラメータを入れたほうがいいですし、式の入力にはいろいろやり方があるようなので、詳しくはマニュアルなどを参照してください。「星見庵日記」さんのこのページが日本語で比較的詳しく説明しています。
IMG_5689


もう少しきちんとしようとすると、最低限入力する値は、「System Parameters」の中の「Subframe scale」になります。ざっくりした見積もりの「1ピクセルあたりの画角は焦点距離600mm、ピクセルサイズ4umで約1.5秒」とかから考えてもいいですし、こんなサイトから焦点距離と自分の持っているセンサーのサイズを選択して、センサーのピクセル数で割ってやっても簡単に求めることができます。

「Camera gain」も入れるべきでしょう。でもこれは結構難しいです。メーカーのページに行ってもいいですが、例えばASI294MC場合ここの「GAIN」というグラフの横軸「Gain」の実際に撮影した時の値のところを見ればいいのですが、グラフから読み取ろうと思っても0近くになり正確な値は読み取れません。SharpCapがあれば自分で測定することもできます。結果の表からある程度の値は読み取ることができます。それでも誤差があるので、ある程度の値でかまわないでしょう。

ここまで入れると、結果もある程度(絶対値に近いという意味で)正しい値になってくるので、センサーやカメラが変わっても比較することができるようになりますし、式を使った評価でも正確性が出てきます。が、とりあえず面倒なら何も考えずに「Measure」ボタンを押してしまったほうが幸せかもしれません。


前回の記事の続きになりますが、同日牛岳でEOS 6DとSAMYANG 14mmで多数枚撮った天の川写真をタイムラプス映像にしてみます。

今回タイムラプス映像をを作るにあたり、レンズ補正のプロファイル以外でLightroomを初めてまともに使ってみました。タイムラプス映像はこれまでは簡単のためにほとんどJPEGフォーマットから作っていたのですが、事前にRAWファイルから多数枚に同じ加工を施して、各コマを作りたかっのがLightoroomを使った理由です。Photoshopでも多数枚の加工はできるのですが、LightRoomの方がはるかに簡単だったことと、SAMYANGのレンズプロファイルがLightroomにはあるのに、Photoshopにはないのが決定的でした。

そもそもLightroomの概念も存在意義も全くわかっていなかったのですが、これは思ったより便利ですね。
  • Photoshopが写真を含む画像一般のためのものに対して、Lightroomは写真に特化しています。
  • また、現像というメニューがあることからもわかりまが、多数枚の処理を前提にしています。なので処理が全然軽いです。
  • あと、全ての処理が可逆なのがすごいです。元のファイルをいじりたくないというのはすごく共感できます。
  • カタログという概念が便利です。処理の過程をすべて記録しているファイルと思っていいのでしょうか。RAWファイルから独立なので、RAWファイルとカタログファイルがあればやったことをすべて再現できるというわけです。

逆にそれによって制限されることもあります。
  • Photoshopのようなものすごい細かい操作を繰り返すと履歴がたまりすぎてこんがらがって来ます。処理が重くなるとかいうわけではなく、忘れることができないという意味です。
  • 多分ですが、Photoshopよりはできることは限られています。例えばトーンカーブをRGB別にさわれないみたいとかです。トーンカーブの曲げ方もPhotoshopほど細かくできるわけではなく、記録するためか触れるポイントとかに制限があるようです。2018/8/19 追記: トーンカーブ右下のアイコンを押すことで、RGB個別に、ポイントも任意に取れることがわかりました。PhotoShopとほぼ同じですが、繰り返しトーンカーブを適用するというようなことはできないようです。

前回の記事では、一枚を仕上げるのには途中PixInsightのDBEをつかって周辺減光やかぶりの補正をしているのですが、タイムラプス用にはそんな高度な処理を全枚数にかけるのは大変です。それでもLightroomでもかなりのことはできますし、下仕上げとして使うだけなら十分すぎる機能を持っています。タイムラプス用にどう処理をするのは

  1. Lightroomを立ち上げて、新規カタログを作成し、タイムラプスように処理したい枚数分のファイルを全て読み込む。
  2. 「現像」メニューに行き、その中の一枚に、レンズプロファイルを含む適当な画像処理を施す。
  3. 「ライブラリ」メニューに戻り、上で処理した一枚を含み複数枚のファイルを下部のサムネイルからシフトキーを押しながら選択する。
  4. その時出てくる「同期」ボタンを押す。
  5. 出て来た画面で適用したい処理を選択して、OKを押すと全てのファイルに最初ファイルに施した処理が適用される。
  6. 「ファイル」メニューの「全てを書き出す」からJPEGがファイルなど必要なフォーマットに変換して保存する。
  7. 待っていると全てのファイルが順に生成される。

このように、複数枚の処理がいたって簡単にできてしまいます。

LightRoomでJPEGに出力したあと、Sirius Compでタイムラプス映像にしています。

ただし出来上がったファイルは1GBクラスと相当大きいので、アップロードのために圧縮します。Youtubeにアップすることを前提に、今回はWindowsの64ビット版のHandbreakを使いました。以前のホタル映像ではiMovieを使って編集などをすることも考えて、QuickTimeを使って一旦.movファイルにしましたが、これだと圧縮されすぎてしまい、アップロードした際にあまり綺麗に再生されないことに気づきました。そのためHandbreakを使って、Youtube推奨の設定にします。今回使ったのはHandbreakの英語版の1.1.1です。最初日本語版の0.9.4を最初使ったのですが、コマンドプロンプトが一瞬出てすぐに消えてしまい、変換できないというトラブルがありました。英語版の最新にしたら素直に解決しました。

Youtubeの推奨に合わせていじった設定は、「Video」タブの「Framerate」を選択肢の一番上の「Same as source」にしたことと、「Quality」を「Avg Bitrate」にして10000kbpsにしたことだけです。あとはデフォルトの設定で、Youtubeの推奨のH.246コーデックのmp4ファイルが生成せれ、ファイルサイズが1.06GBから17.2MBまで圧縮されました。もちろん画質は落ちますが、見た目ではそれほどひどくはなっていません。

ということでできたタイムラプス映像です。


マスク処理はしていないので、雲のところが明るくなってしまっています。あと、錯覚かもしれませんが、左よりも右のほうが引き伸ばされて見えます。レンズプロファイルで補正してもこれなので、元はもっと差があるのかもしれません。何れにしてもファーストテストで撮影した時より、ひずみが大きい気がします。もう少し例を増やしてきちんと検証した方がいいかもしれません。

でもまあ、やっとタイムラプス映像の手法も確立してきました。マスク処理とかもLightroomで多少はできそうなのですがちょっと大変そうなので、これは今後の課題にしたいと思います。

APT(Astro Photography Tool)を試してみました。動機はCMOSカメラで長時間撮影をすると縞ノイズが発生してしまうので、それを防ぐためにデザリングをしたかったからです。

まずAPTのインストールでカメラを認識するまでにものすごく戸惑いました。いくつかのページで説明はされているのですが、とにかくはまった点を書いておきます。

今回使うカメラはZWO社のASIシリーズです。まず、ZWOのサイト

https://astronomy-imaging-camera.com/software-drivers

に行ってカメラ自身のドライバーをダウンロードしてインストールします。Native Driversと書いてあるものがそうです。これまでほかのソフトなどですでにCMOSカメラを使ってきたならば、ドライバーは既にインストールされているのでここのところはスキップできます。

ここから少し意識しておかなければならないことは、すべてのCCDカメラやCMOSカメラはAPT上ではASCOMのカメラとして認識されます。このことを意識せずにSharpCapやFireCaptureの感覚でカメラのドライバーだけインストールしてもダメです。そのためASCOMのサイトに行ってASCOM Platformをダウンロードしてインストールします。新しいカメラを持っている場合、例えばASI294MCは最新の6.4ではうまく動きましたが、一つ前の6.3では認識できませんでした。

これだけでもダメで、さらに再び上記のZWOのダウンロードサイトに行って「ASCOM Drivers (optional)」の中の「ASI Cameras」をダウンロードしてインストールします。これがASIカメラとASCOMを実質的につなぐドライバーに相当します。

これで準備はできましたが、カメラがASCOMでうまく認識されるかどうかは、ASCOM Platformをインストールすると出てくる「ASCOM Diagnostics」を使うといいでしょう。ASCOM Diagnosticsを立ち上げてメニューの「Choose Device」を選び「Choose and Connect to CDevice」で出てきた画面で「Select Device Type」で「Camera」を選んですぐ横の「Choose」を選びます。出てきた「ASCOM Camera Chooser」で少し文句を言われていますがとりあえず無視をして、ちょっと押しにくいですがカメラ選択の下矢印を押して「ASI Camera(1)」を選択します。

IMG_4827

次にすぐ横の「Properties」を押して、ZWOのロゴが入っている設定画面が出てくれば認識と接続はうまくいっています。出てこなければ何かがうまくいっていないということです。

IMG_4828


さて、ようやくAPTの出番です。APTをサイトからダウンロード、インストールします。インストール完了後早速立ち上げますが、カメラの接続でまたもや困りました。右の上の「Camera」タブを押して、そこで出てくる「Connect」を最初はShift+Controlキーを押しながらクリックしますが、そこで「CCD:ASCOM Camera」を選んでOKを押すと、APTの反応がなくなってしまいます。しかもAPTのどこかをクリックすると落ちてしまいます。てっきりバグか何か足りないのかと、ここでものすごく悩みました。答えは、先ほどの「ASCOM Camera Chooser」がAPTの画面の下に隠れて出てきていて、これが設定されるのを待っているのです。これはさすがにわかりにくいです。

IMG_4829


Alt+Tabキーなどで画面を切り替えて、先ほどと同じように「ASCOM Camera Chooser」で「ASI Camera(1)」を選択すればOKです。上記トラブルが絡み合い、実際ここまで来るのに数時間を要しました。


あとは普通に使うことができると思います。というか、雨でまだ実践では試せていないので今日はここまでで終わりです。

実は大昔にもAPTを使おうとして、同じところであきらめたことが2度ほどあります。今回やっと解決できました。知っていればどうってことないことなのですが、知らないと結構戸惑ってハマるとすごい時間を費やすことになります。

雨で何もできない時間があるのはこういったことが解決するのでいいですね。


少し前のことになりますが、2018/3/13の平日、天気も良かったので久しぶりに撮影をしました。今回のターゲットはバラ星雲。

撮影機材はFS-60Qと6D。6Dは馬頭星雲に引き続き2例目になります。場所は平日なので自宅の庭です。撮影時は結構風が吹いていて、42枚撮影して使えたのは25枚でした。使えるか使えないかのセレクションはPixInsightの「SubframeSelector」を使いました。今まではデジカメの場合は一緒に撮ったjpgファイルを目で見て判別していましたが、CMOSカメラで撮ったものはfitsファイルしか出力されなくて、読み込みに時間がかかるなど判断するのが大変だったので、この機能は非常に便利です。後日別記事で使い方を書こうと思います。


とりあえず結果を示します。

light_BINNING_1_integration_DBE_PCC_AS1acut
富山県富山市, 2018年3月13日20時53分-23時55分
FS-60Q + Advanced VX赤道儀
EOS 6D(HKIR改造, ISO3200, RAW), 露出3分x25枚 総露出1時間15分
f50mm+ASI178MC +PHD2による自動ガイド
PixInsight、Photoshop CCで画像処理


実はバラ星雲は昨年1月と、3月に撮影しています。3月のものはさらに再加工したりもしましたが、その当時でも結構ボロボロと思っていたので、是非ともリベンジしたいものの一つでした。今回はカメラが6Dになったこと、PixInsightgをやっとある程度一通り通しで使ってみたこともあり、かなりマシになったと思います。それでも今改めてみるとまだ少し暗いでしょうか。


今回のバラ星雲の画像処理で新しい機能も試してみたので、メモがわりに書いておきます。以前の記事でPixinsightでかなり苦労したこと(その1その2)を書いたのですが、あれからだいぶん慣れたのと、やはり最初のころに書いた記事に間違いが見つかっているので、訂正しておきました。

実際のPixInsightでの作業ですが、今回はBatchPreProcessingの後、Linearステージの処理と、一部のNon Linearステージを試しました。方法については蒼月城さんのImage Processing Tipsを参考にさせていただきました。特に、Post Processingの動画の前編、星マスクについては後編がすごく参考になりました。

GOOD_LIGHT_6D_180s_1600_+17cc_20180313-21h15m37s174ms
撮って出しの画像です。ほとんど全く何も写っていません。


BatchPreProcessingの後に今回やったことは
  • 最初に「BackgraoundNeutralization」を使っての背景のカラーバランス。今回は初めてbiasフレームを使いました。PixInsightでは必須とのことです。
  • 次に「DynamicBackgroundExtraction」を使ってカブリ補正。
  • 「PhotometricColorCalibration」を使ってのカラーバランスを合わせます。
ここまでは前回の記事で書きました。今回新たに試したのは
  • 「ArcsinhStretch」を使ってのStretch。 (ステライメージやPhotoshopでいうレベル補正に相当)
  • 星マスクの作成として「MaskGeneration」→「RangeSelection」を使います。星マスクは星雲を含むバックグラウンドマスクと、微光星用と輝星用を合わせた星マスクの2種類です。星マスクを星の大きさ別に作って合わせるのはPhotoShopでやった時と同じですが、PixInsightだともっと楽に作ることができる印象でした。
  • 今回はここまでやって、後はPhotoShopに引き継ぎました。ストレッチまで終わった画像と、星マスクをPhotoShopに引き継いで、後は仕上げに入ります。星マスクはPhotoShopのアルファチャンネルに登録して使いますが、詳しくは以前星マスクを作ったページに書いています。

light_BINNING_1_integration_DBE_PCC_AS
PixInsightからPhotoshopに引き渡す時の画像です。


こうやってみると、PixInsightの凄いのは個々の機能が秀逸なのと、それらが互いに有機的につながって仕上げに向けた画像を作り出せるところでしょうか。(これが一番大変なのですが)やり方さえ理解して、丁寧に作業すれば客観的にポテンシャルを引き出した画像ができるのかと思います。また、(方法さえ分かって入れば)星マスクを作ることが簡単なので、それを使うと仕上げも楽になることです。また、それぞれのオプションがすごく細かいので、きちんと色々試したい人にはものすごくいいのかもしれませんが、逆にこのことがとっつきにく印象を与えていることも否めません。

今回も自宅での撮影ですが、さすがに淡い天体になればなるほど光害が無視できず、無理があることもわかってきました。そろそろ暖かくもなってきましたので、また遠征撮影も再開したいと思います。



PixInsight Tips

最後はPixInsightで気づいたことなどです。
  • Canon 6Dを使っているのですが、デフォルトだと拡張子.cr2のRAWファイルを開いた時点でモノクロでなくカラーになってしまうようです。勝手にDebayerされているようでした。BatchPreprocessingのbiasファイルを処理するところでエラーが出てやっと気付きました。Pixinsightの画面の左のピンクの丸の「Format Explorler」か、メニューの「View」「Explorler」の「Format Explorler」で出てきた「DSLR_RAW」というアイコンをダブルクリック(これもわかりにくかったです)して出てきた画面で一番下の「Pure RAW」を押すと、RAWファイルを開いた時にBayer状態で開きます。BatchPreprocessingもうまく行くはずです。
  • Pixinsightではbiasフレームは必須。biasフレームはカメラにキャップなどをして暗い状態にして、最小露出時間で、lightフレームを取った時と同じゲインもしくはisoで、多数枚(50枚ほどは)撮影する。
  • バッチ処理のBatchPreprocessingですが、処理画面を開いてからCosmetic Correctionを忘れていると、再度一からやり直しになると思っていたのですが、左下の三角を枠外にドラッグ&ドロップしてインスタンスを作って置けば後から再度開くことができることがわかりました。ただ、開く時にインスタンスを右クリックして「Execute in the global context」を選ぶと物と画面に戻ることができて編集を再開できます。
  • BatchPreprocessingのためのCosmetic Correctionにはファイルなどを登録する必要はないようです。ファイルのところは空欄のまま、やりたいこと例えばホットやクールピクセル処理だけをどうするかを選んでインスタンスを作り、それをBatchPreprocessinsgの時に選べばいいです。
  • HistgramTransferFunctioでヒストグラムがほとんど真っ平らに表示されてしまってよく見えない。→ サチってしまっているピクセルを表示するとこうなります。HistgramTransferFunctioパネルの下から3分の1くらいのところの右に5つ並んでいるアイコンの、一番左のボタンを押して「サチっているピクセルを除去する」をオンにします。
  • CurveTransformationでヒストグラムの線が出ない場合 → 一番下の右の4つのアイコンの右から2番目のチェックマークをオンにする。
以前の記事もこれに合わせて幾つか訂正してあります。


天リフオフ会でのMさんからのリクエストにお応えして、SharpCapを使った電視観望でのトラブル解決集を作りました。うまく見えない時に参考にしてください。

電視観望の基本的な説明は
  1. 電視観望を始めてみたい方へ
  2. 電視観望実践編
  3. 電視の楽しさ
をお読み下さい。一度試してみてうまくいかないときに、今回のトラブル解決集が役に立つかもしれません。



以下FAQ集です。他にも気づいたら随時追加していきます。

・バージョンはどれを使ったらいいの?
2018年3月現在の最新版の3.1は、電視観望に使える最適化ボタンがついているのでオススメです。有料ですが大部分の電視観望に必要な機能は無料で使うことができます。バージョン3.0台もしくは2.9台でも電視観望でもちろん使えますが、調整に少しテクニックが必要になります。

・星雲の色が薄い 
まずは比較的見やすい天体から始めましょう。冬ならオリオン大星雲M42、夏なら惑星状星雲のM57が明るくてオススメです。

IMG_3334



・それでもまだ暗い。
露光時間とゲインを調整しましょう。露光時間は1秒くらいから始めましょう。ゲインはとりあえず最大(カメラによって違います)か、ゲイン最大であまりにノイズが多いならそれから50(5dB=1.7倍)とか100(10dB=~3倍)下げたくらい。

・明るさはこれくらいでいいの?
右パネルの中にある、ヒストグラム(Display Histogram Streatch)を見て下さい。ピークが左すぎたりしていませんか?ピークの位置を左側3分の1くらいになるような明るさを目安に、露光時間とゲインを合わせてください。

・画面は十分明るいんだけど、星雲が全く見えません、導入はうまくいっているはずなのに、なんで?
ヒストグラムのところにある、雷のようなマークのボタンを押してください。かなり見栄えが良くなると思います。

・あ、なんか見えた、でもちょっと見えにくいです。
カラーバランスはあっていますか?ヒストグラムの赤、青、緑のピークの位置が同じところになるくらいに、White Bal(R)とWhite Bal(B)を調整してください。その後、もう一度雷ボタンを押してください。


・でもなんか、色が赤っぽかったり、逆に緑ぽかったりしてます。
カラーバランスはかなり微妙です。White Bal(R)とWhite Bal(B)の値を5とかかえると相当印象が変わります。1とか、2くらいでかえて、好みの色になるよう微調整してみてください。その後、雷ボタンを押すのをお忘れなく。

・さっきまで見えていたのに、どこか触ったら突然見えにくくなった。
ゲインとか、露光時間とか、何か変えたりしませんでしたか?そんな時は雷ボタンを必ず再度押してください。

・結構見えるようになったけど、まだ見栄えがイマイチ
雷ボタンも完璧ではありません。試しにヒストグラムにある3本ある黄色い縦の点線のうち、左2本を動かしてみてください。左2本の間の隙間が小さいほど、淡い部分をあぶり出します。一番左の線を動かすと真ん中の線も合わせて動きますが、これで全体の明るさ(バックグラウンド)を調整できます。2本の線の隙間でピークを挟むようにするくらいがいいでしょう。

・結構見えるようになったけど画面がザラザラしている。
ゲインが高すぎるなど、ノイズが多いからです。SharpCapの目玉機能のライブスタックを試してみましょう。上の方にある「Live Stack」ボタンを押してください。下にパネルが出てきます。同時に画面がスタックされてノイズがどんどん少なくなっていくのがわかると思います。

・ライブスタックがうまくいかない 。
「Alignment」機能がうまくいっていない可能性が高いです。画素数が多くて細かすぎるカメラの場合少し調整が必要です。「Alignment」タブの「Minimum star width」と「Maximum star width」の値を増やしてみてください。「Highlight Detected Stars」にチェックを入れると画面上で検出された星にマークがつきます。マークがつかなかったらうまく検出できてない証拠です。

・Alignmentがどうしてもうまくいかない。
とりあえずAlignment機能を切ってしまうのも一つの手です。星が少し流れていきますが、自動追尾のついている赤道儀や経緯台なら多少の時間はだいじょうぶなはずです。

・ライブスタックをしたら突然画面が暗くなったり明るすぎたり。
ライブスタックのヒストグラムで雷ボタンを押していませんか?その場合は右のパネルにある小さいヒストグラムの雷ボタンをの下のリセットボタンを押してください。少し解説すると、①まずはライブスタックにあるヒストグラムでの調整した結果が、②次に右パネルにあるヒストグラムに反映されます。さらに③右パネルでの効果と重ね合わせたものが結果として④メイン画面に表示されます。2箇所のヒストグラムで操作すると混乱してややこしいので、ライブスタックにあるヒストグラムを触るときは、右パネルのヒストグラムは(雷ボタンの下のリセットボタンで)リセットして何の効果もない状態するなどしてわかりやすい状態で試すのがいいと思います。

・いろいろやったけど、それでもまだ星雲が見えない。
暗い星雲に挑戦していませんか?その場合は露光時間を増やして、ゲインを下げてみてください。読み出しノイズが小さくなるので、より淡い星雲まで見えるようになります。15秒くらいまで増やしてみてもいいです。

・それでもどうしても見えない場合は?
都会で明るすぎるとか、満月で明るすぎるとか、環境が悪すぎる場合は見えにくいです。また、カメラの感度が低い、望遠鏡の口径が小さすぎて暗すぎるなどの機器の問題も。薄雲が出ていて見えにくい場合もあります。諦めが肝心な時もあります。時間を置いて冷静に考えるとおかしい部分を思いつくこともあります。トラブル解決も楽しみの一つと思うくらいの気持ちで、余裕を持ってやるのがいいのかなと思います。


皆さんどうでしょうか?役に立ちましたか?
どうしても解決しない場合はこのブログにコメントしてください。相談に乗ります。







 

このページのトップヘ