ほしぞloveログ

天体観測始めました。

カテゴリ: software

つい最近(2019/3/24)、Stellariumが0.19.0にバージョンアップされました。最近Stellariumがかなりすごいです。


星雲星団の実画像表示

星雲星団の実画像の充実に気づいたのは何ヶ月か前、バージョン0.18.2から0.18.3にアップデートされた時(アップデート自身は2018/12/22)です。ちょうどプラネタリウムソフトで星雲や星団がきちんと写真レベルで表示されないかなと思って色々試している時でした。撮影時の実際の星雲の広がり具合とかをあらかじめ比べたかったからです。あれ、0.18.3になってなんか綺麗な画像が増えたなと思って当時ちょっと調べてみました。Mac版の場合、アプリケーションフォルダの中のStellariumのファイルを右クリックして、「パッケージの内容を表示」で、Contents->Resources->nelulae->defaultの中を見ると、実際の星雲星団の画像がたくさん入っているのがわかります。

IMG_6850

上の写真の一番下のファイル数で比べると、0.18.2->0.18.3で248ファイルから439ファイルと倍増近くになっています。0.18.3->0.19.0は439->473と数はそれほど増えたわけではないですが、細かく見ると画像のクオリティが上がってたりするのがわかります。

IMG_6851
左が0.18.3付属のIC1805、右が0.19.0のもの。
サイズは1MB->509kBと小さくなっているのに、
クオリティは明らかに上がっている。

例えばオリオン座のM42です。Stelalrium上でかなりの画質で表示させることができます。

IMG_6842

これを見るとトラベジウムあたりは飛んでいってしまていますが、拡大すると徐々に画像を消すなどしてうまくトラベジウムが見えるようにしているようです。

IMG_6844

それでも星雲の画像を表示させたくないときもあると思います。そんな時は、右の端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで「星雲の背景ボタンを表示」にチェックをしておいて、カーソルを画面下に持っていって出てくる「深宇宙の背景画像」をオフにしてやれば下の画面のように画像を消すことができます。

IMG_6852

まだ一部もやっとした光も残っていますが、これは天の川の一部として低解像度で表示されているものです。これも右端で出てくる「空と表示の設定」から「空」タブで「Milky Way brightness/saturation」をオフにすると完全に消すことができます。


自分の持っている機材で視野角を確認

さて、前項のこういった星雲や星団の実画像があると何が便利なのか?それは撮影時の実際の視野角と簡単に比較することができるからです。

ご存知の方も多いと思いますがStellariumでは自分で持っている機材を登録して、視野を直接画面の中に表示することができます。右上の左から二番目の四角の枠だけのアイコンを押すと、画面の中に赤い枠が出てくると思います。これが現在設定されている視野です。これを自分の持っている機材に変更します。同じく右上の一番右のアイコンを押します。タブに「望遠鏡」、「補正レンズ」、「CCD」、「アイピース」がありますが、それぞれ設定します。「望遠鏡」は鏡筒、「補正レンズ」はバローレンズやレデューサなど、「CCD」はCCDカメラやCMOSカメラ、一眼レフカメラでももちろん構いません。赤道儀の機能は「望遠鏡」のところの「赤道儀」をクリックします。実際の視野の回転は「CCD」のところの「回転角(度)」で調整します。ここは大抵0度か90度ですね。

いくつか鏡筒やカメラを登録すると、右上の左から二番目の四角アイコンを押した時に、登録した機材を画面を見ながら変更することができます。この時、星雲の実際の画面があると、どれくらいの視野で、どのような機材で撮影すればいいのかが一発でわかるのです。


他波長での背景表示

もう一つ面白い機能を紹介します。多波長で空を見た場合、その画像をStellariumの背景として表示させることができます。これはバージョン0.18.0から搭載された機能で、まだテストレベルのようです。

画面右端で出てくる「空と表示の設定」から「Surveys」タブで「Deep Sky」を選び、ズラーっと出てくるリストが衛星や観測装置など研究レベルで撮影されたデータになります。たくさんあるのですが、アマチュア天文で撮影に使用する場合はほとんどがあまり関係なく、この中でお勧めできるのは「DSS colored(2つあるうちの下の方の)」と「DSS2 Red(F+R)」です。

IMG_6846
DSS colored

IMG_6848
DSS2 Red(F+R)

上のように分子雲モクモクの背景を表示させることができます。写真ではカラーの方が見栄えが良くなってしまっていますが、実際のPCの画面ではモノクロの方が見やすいかと思います。特に構図を決める時はかなり狭角で見ることになるので、モノクロの方がより分子雲の度合いがわかります。一方、広角で見る場合はモノクロの場合はつぎはぎになってしまうのでカラーの方がお勧めです。

この画面を表示させるためにはもう一つやることがあります。このやり方が最初どうしてもわからなくてしばらくの間ずっと画像を表示できなくてやきもきしていたのですが、色々調べてやっとわかりました。画面右端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで「Show HiPS button」をオンにして、画面下に出てきた「Toggle Hierarchical Progressive Surveys (experimental)」をオンにすると、やっと上のような画像が出てきます。でもこの機能はとても重いのと、多分データをその都度ダウンロードしているようなので、ある程度早いCPUパワーとネットワークが必要になるかと思います。

IMG_6845

他に面白いのは、「IRAS IRIS HEALPix survey, color」でしょうか。天の川全体を表示させるような場合は、IRAS IRIS HEALPix survey, color上のDSS coloredのように、カラー化されたものの方が見やすそうです。

IMG_6849
IRAS IRIS HEALPix survey, color

Surveysの方のリストはたくさんありすぎて私も全部は見ていません。いくつかのデータは表示してもほとんど何も変化がなかったりもするので、もしかしたら多少加工しなければ見えないようなデータもそのまま表示してしまっているのかもしれません。もしリストの中で他にも撮影の役に立ちそうなものがあったら、コメントなどで情報共有してもらえるとありがたいです。

あと全く別の同様の機能に、「デジタル・スカイ・サーベイ(DSS)ボタン」があります。こちらも画面右端にカーソルを持っていくと出てくる「設定画面」から「Extras」タブで設定できます。画面下に出てきた「デジタル・スカイ・サーベイ(TOAST)」ボタンを押すと、分子雲なども多少見ることができる背景が表示されますが、「Survey」で表示されるものの方が見やすいかと思うので、あまりこの機能はお勧めしません。

いずれにせよ、上の両機能ともものすごく重いので、お勧めの表示のさせ方を書いておきます。
  • まずプラネタリウム表示の時間経過を止める。画面下の三角ボタンを押すと止まります。
  • 画面を移動する時には、両機能ともオフに。
というくらい気を使うことになると思います。

また、最近のステライメージも最新版では多波長に対応しているとのこと。おそらく、画像を多少加工してあるのでしょうか、ステライメージの方が見やすくなっているようなので、こちらもお勧めです。

分子雲モクモク画面を見ていると、かなり構図決定の参考になるかと思います。これからもこういったものを撮影に活用していければと思います。

 

突然レンズ設計に目覚めてしまいました。ここ最近のマイブームで、四六時中ずっとレンズ設計のことを考えています。そもそもの動機が、シュミカセでコマ収差が盛大に出ていたのを、コマコレクターである程度軽減できることがわかったのですが、じゃあそもそもコマコレクター ってなんですか?というところから来ています。

IMG_5869

上の写真は手持ちのコマコレクター、バーダープラネタリウムのMPCC MarkIIIです。結構歪んで見えるので非球面レンズなのでしょうか?でも値段からいったら単純なレンズの組み合わせな気がします。説明書にはF4からF6まで対応すると書いてあるのですが、実際にコマ補正したい鏡筒はMEADEのLX-200の口径25cm、焦点距離1600mm、F6.3のものなので、少しだけ範囲から外れてしまいます。以前一度試しにつけてみたのですが、そこそこ効果があることはわかっています。

でもこのコマコレクターでこと足りるのか?最適な位置やバックフォーカスはどこなのか?もっといいコマコレクター はできないのか?と疑問は尽きず、気づいたらじゃあそもそもシュミカセってどんなものなの?という疑問に行き着きました。これを確かめるにはある程度シュミカセの設計自体を理解しなくてはダメです。


と言うわけで、前置きが長くなりましたがレンズ設計の挑戦の始まりです。どこまで続くことやら。

レンズ設計に関しては先人の理論、設計、ソフトウェアや検証など、多くの蓄積があります。まずはシュミカセに行く前に、レンズ設計ソフトを触ってみることにしました。あぷらなーとさんHIROPONさんがブログの中で試していらっしゃるので、それを捕捉する形で書いて行きたいと思います。ソフトはその中でオススメの「LensCal」です。製作者は京都の「星を求めて」でお会いすることができたラッキーイメージを得意とするYamashitaさんとのことです。Yamashitaさん、こんな素晴らしいソフトをフリーで提供していただいて、ありがとうございます。

とすぐにでもソフトに手を出したいのですが、ここではあぷらなーとさんが試したように、基準となる拠り所が欲しくて、まずはハルチング(今はハーティングと言うべきなのでしょうか)の公式に手を出してみました。


ハルチングの解とは、フランフォーフェル型と言う凸レンズと凹レンズの組み合わせにおいて、C線(656.27nmのHα)の焦点とF線(486.13nmのHβ)の焦点を一致させ、d線(587.56nmの黄)に対して球面収差とコマが最小になるような設計とのことです。2枚の設計したいレンズの上の3つの波長での屈折率を与えてやって、16個の連立方程式を解くと目的のレンズの曲率半径が求められるものです。

ネットを漁るとこのページにたどり着いて、ここから辿っていくとエクセルの表を手に入れることができます。ただ、これだけだと何をやっているかわからないので、式が書いてある掲示板を参照してみてください。私は吉田正太郎著「天文アマチュアのための望遠鏡光学〈屈折編〉」という本で式と概念をフォローしましたが、他の書籍でも同様の記述は見つかると思います。本の方では多少詳しい説明がありますが、連立方程式の導出から書いてあるわけではないので、結局は天下り的にこの連立方程式を解くだけです。リンク先で手に入るエクセルの表のパラメータも解も、上記書籍のパラメータ及び解と全く同じだったので、少なくとも表に特に変な間違がないことがわかるので安心できます。


この時のパラメータが最初のレンズをBK7、2枚目をF2で作るとして

BK7:
nC = 1.51385
nd = 1.516330
nF = 1.521900

F2:
nC = 1.615020
nd = 1.620041
nF = 1.632120

となっていて、最初のレンズの厚さが0.65mm、レンズ間距離が0.02mm、2枚目のレンズの厚さが0.45mmとするとします。

その時のハルチング公式からのそれぞれの曲率半径の解が

r1 = +60.572mm
r2 = -35.620mm
r3 = -36.041mm
r4 = -147.961mm

となるのは、上記書籍も、表計算の値も同じです。


さて、ハルチング解がある程度理解できたところで、やっとLensCalに移ります。ダウンロードインストールなどはマニュアルの通りです。Example of glass dataは必須ですし、Data.zipも落としておいた方がいいでしょう。ヘルプファイルは絶対あったほうがいいです。

一つ注意点は、ものすごく重要なヘルプファイルがWindow10だと中身を見ることができません。ヘルプファイル自身はダウンロードしてファイルをダブルクリックするだけでいいのですが、LensCalの掲示板にあるように

1.LensCal.chmを右クリックしてプロパティを開き、
2.いちばん下の「ブロックの解除」のボタン又はチェックボックスに印を入れてOKを押す
と読めるようになるようです。

とあるので、これに従うと無事にWindow10でもヘルプファイルの中身がきちんと見えるようになります。

基本的にはこのヘルプファイルの「簡単な使い方」のその1からその3までを丁寧に試していけばあるていどのことは学べてしまいます。ここで注意することは、ヘルプファイルの説明が少し添付データと違っていることです。2枚目のレンズのF2が「Sumita」から選ぶように書いてあるのですが、実際には「Schott」の方に入っています。しかもSchottのデーターも、Example of glass dataでダウンロードしたGlassData.zipを解凍して、出てきたファイルをLensCal.exeと同じフォルダに入れておかなければ、ガラスデータとして選択することができません(マニュアルにこのことは書かれています)。私が迷ったのは上記2点くらいで、他は全て問題なく、非常にわかりやすく扱いやすいソフトでした。

ヘルプに沿っていけば、「ベンディング」というらしいのですが、ある2つのパラメータを自由にして、収差を最小にするようなチューニングのようなこともできてしまいます。最適解を数値計算的に求めることもできるようです。ただ、最適解の場合は条件出しに少し癖があるようで、例えば波長の効き具合とかに、あまり効かせたくないと思って0を入れたりするとエラーが表示されて、立ち上げ直すまで2度と計算できなくなってしまったりします。そんなときは0.01とか小さな数を入れてやることで回避しています。

IMG_5867


上記写真は最適解とベンディングを駆使して求めた曲率ですが(距離は固定)、ガラスの屈折率にごくわずか違いがあることや、最適化の条件の調整が難しいこと、ベンディングの調整の誤差もあることなどから、ハルチングの解析解と少し違った値になっています。それでもまあ、かなりいいところまで最適化できていると言っていいでしょう。ここで気付いたのは、ハルチング公式の条件の一つの「C線(656.27nmのHα)の焦点とF線(486.13nmのHβ)の焦点を一致させ」というのは、シミュレーションでは球面収差を見ながら「有効径の外の方で合わせる」というのが解に近いみたいです。最初中心で焦点を合わせていたら、どうしても解析解とずれてしまいました。でも外側で合わせるというので本当に正しいのでしょうか?ここは謎が残ったままです。


さて、LensCalには20cm F10のシュミカセのサンプルファイルも添付されています。でもこのサンプルファイルにあるシュミット補正板の係数の値が本当に正しいかどうか、いまいち確信が持てません。シュミット補正板については同じ吉田正太郎著「天文アマチュアのための望遠鏡光学・反射編」にある程度書いてあるのですが、これも式の導出までは記述がないので、出ている式を天下り的に使うしかないのですが、どうもサンプルファイルの補正板の曲線の係数と全然一致しません。

もう一本Opt-Design 2000というソフトでも試していて、こちらもLensCalとある程度似たようなことができ、さらにこちらにも20cm F10のシュミカセのサンプルファイルが添付されています。でもこの補正板の係数の値もまた全然違います。

球面収差図を見ていると、原理から言って補正板の中性帯(曲率の正負が逆転する中間地点で、ここを入射する光は補正板の影響を受けない)を通るところで収差がなくなるはずで、LensCalの方はそれを再現しているようにも見えるので、LensCalの値が正しいように思えます。でもじゃあどうやってこの補正板の値を出したのかなど、まだ謎だらけです。

とりあえず、今やっとここら辺です。
 





 

週末土曜日に飛騨コスモス天文台に行って、M57とM27を撮影しました。それぞれの撮影枚数は、露光時間が20秒と短いこともあり、かなりの枚数になります。具体的にはM57が282枚、M27が244枚をなり、処理の前に簡単に閲覧するだけでも大変になります。しかもSharpCapで撮影したRAWファイルなので、拡張子が.fitsファイルとなり、開けるソフトも限られています。

最初の頃はfitsファイルもステライメージで確認していたのですが、これだけ数が多いと大変になります。PixInsightでも開くことができますが、一枚一枚が結構重いので、全部を気楽に開くわけにいかなくて、選別するのが結構大変です。

そんなときはPixInsightの「ImageInspection」->「Blink」が便利です。

IMG_5690

  1. 下のフォルダマーク「Add Image Files」から複数ファイルを選択して読み込みます。
  2. 読み込みは数百枚だど数分かかるので、50枚くらいずつにしたほうがいいと思います。
  3. RAW画像でも、Debayerした画像などでも読み込むことができます。
  4. 画像が暗くて見にくい場合でもSTFがかけられた状態で表示されるので、見やすくなっているはずです。これは真ん中に3つ縦に並んでいるアイコンの、真ん中を押すと確認することができます。
  5. 読み込んだ後は、左右の矢印を押すか、画像のファイル名を一つ選択してあとはカーソルの上下で、すごい勢いで画像を連続で切り替えることができます。
  6. 左の三角ボタンを押せばアニメーション表示することもできます。
  7. ただし、ソート順はファイル名のみのようなのがちょっと残念なところです。
  8. 弾きたい画像は、マウスでファイル名を選択(複数も可能)してから、下のアイコン群の左から5つ目の小さい矢印がついているアイコンを押すと、移動したいフォルダが選択できるので、そこに移動されます。
  9. 終わった後は、下の左から3番目のアイコンを押して、すべてのファイルを閉じます。
  10. これを次の50枚とか繰り返すと、かなり効率よく見た目で明らかに悪い画像ファイルを弾くことができます。


もう一つ便利なのが、「Script」->「Batch Processing」->「SubframeSelector」になります。各画像の星像のFWHM(半値全幅)やEccentricity(偏心度)を測定してくれます。自動でだめな画像を別ディレクトリに移動することなどもできます。

詳しいことはマニュアルを読むといいのですが、英語で結構大変なので簡単な説明を書いておきます。

IMG_5688

  1. いつものようにAdd Filesで解析したいファイルを複数選択します。
  2. 最低限解析するだけなら、そのまま一番下の「Measure」を押します。
  3. CPUや解像度にも依りますが、一枚解析するのに7-8秒程度なので、数百枚でもなんとか耐えられる時間の範囲です。結構かかりますが、それでも一枚一枚やるよりははるかに楽です。最初は少数枚でテストするといいでしょう。
  4. 「Plots」を開くと結果が出ています。「FWHM」や「Eccentricity」で飛び抜けている画像を判断することができます。
  5. 飛び抜けているところをクリックするとx印がつくので、Outputで弾きたいファイルをMoveなどする設定をすると、移動してくれます。
  6. 式で評価して、自動で弾くこともできますが、そのためには下に示すようなパラメータを入れたほうがいいですし、式の入力にはいろいろやり方があるようなので、詳しくはマニュアルなどを参照してください。「星見庵日記」さんのこのページが日本語で比較的詳しく説明しています。
IMG_5689


もう少しきちんとしようとすると、最低限入力する値は、「System Parameters」の中の「Subframe scale」になります。ざっくりした見積もりの「1ピクセルあたりの画角は焦点距離600mm、ピクセルサイズ4umで約1.5秒」とかから考えてもいいですし、こんなサイトから焦点距離と自分の持っているセンサーのサイズを選択して、センサーのピクセル数で割ってやっても簡単に求めることができます。

「Camera gain」も入れるべきでしょう。でもこれは結構難しいです。メーカーのページに行ってもいいですが、例えばASI294MC場合ここの「GAIN」というグラフの横軸「Gain」の実際に撮影した時の値のところを見ればいいのですが、グラフから読み取ろうと思っても0近くになり正確な値は読み取れません。SharpCapがあれば自分で測定することもできます。結果の表からある程度の値は読み取ることができます。それでも誤差があるので、ある程度の値でかまわないでしょう。

ここまで入れると、結果もある程度(絶対値に近いという意味で)正しい値になってくるので、センサーやカメラが変わっても比較することができるようになりますし、式を使った評価でも正確性が出てきます。が、とりあえず面倒なら何も考えずに「Measure」ボタンを押してしまったほうが幸せかもしれません。


前回の記事の続きになりますが、同日牛岳でEOS 6DとSAMYANG 14mmで多数枚撮った天の川写真をタイムラプス映像にしてみます。

今回タイムラプス映像をを作るにあたり、レンズ補正のプロファイル以外でLightroomを初めてまともに使ってみました。タイムラプス映像はこれまでは簡単のためにほとんどJPEGフォーマットから作っていたのですが、事前にRAWファイルから多数枚に同じ加工を施して、各コマを作りたかっのがLightoroomを使った理由です。Photoshopでも多数枚の加工はできるのですが、LightRoomの方がはるかに簡単だったことと、SAMYANGのレンズプロファイルがLightroomにはあるのに、Photoshopにはないのが決定的でした。

そもそもLightroomの概念も存在意義も全くわかっていなかったのですが、これは思ったより便利ですね。
  • Photoshopが写真を含む画像一般のためのものに対して、Lightroomは写真に特化しています。
  • また、現像というメニューがあることからもわかりまが、多数枚の処理を前提にしています。なので処理が全然軽いです。
  • あと、全ての処理が可逆なのがすごいです。元のファイルをいじりたくないというのはすごく共感できます。
  • カタログという概念が便利です。処理の過程をすべて記録しているファイルと思っていいのでしょうか。RAWファイルから独立なので、RAWファイルとカタログファイルがあればやったことをすべて再現できるというわけです。

逆にそれによって制限されることもあります。
  • Photoshopのようなものすごい細かい操作を繰り返すと履歴がたまりすぎてこんがらがって来ます。処理が重くなるとかいうわけではなく、忘れることができないという意味です。
  • 多分ですが、Photoshopよりはできることは限られています。例えばトーンカーブをRGB別にさわれないみたいとかです。トーンカーブの曲げ方もPhotoshopほど細かくできるわけではなく、記録するためか触れるポイントとかに制限があるようです。2018/8/19 追記: トーンカーブ右下のアイコンを押すことで、RGB個別に、ポイントも任意に取れることがわかりました。PhotoShopとほぼ同じですが、繰り返しトーンカーブを適用するというようなことはできないようです。

前回の記事では、一枚を仕上げるのには途中PixInsightのDBEをつかって周辺減光やかぶりの補正をしているのですが、タイムラプス用にはそんな高度な処理を全枚数にかけるのは大変です。それでもLightroomでもかなりのことはできますし、下仕上げとして使うだけなら十分すぎる機能を持っています。タイムラプス用にどう処理をするのは

  1. Lightroomを立ち上げて、新規カタログを作成し、タイムラプスように処理したい枚数分のファイルを全て読み込む。
  2. 「現像」メニューに行き、その中の一枚に、レンズプロファイルを含む適当な画像処理を施す。
  3. 「ライブラリ」メニューに戻り、上で処理した一枚を含み複数枚のファイルを下部のサムネイルからシフトキーを押しながら選択する。
  4. その時出てくる「同期」ボタンを押す。
  5. 出て来た画面で適用したい処理を選択して、OKを押すと全てのファイルに最初ファイルに施した処理が適用される。
  6. 「ファイル」メニューの「全てを書き出す」からJPEGがファイルなど必要なフォーマットに変換して保存する。
  7. 待っていると全てのファイルが順に生成される。

このように、複数枚の処理がいたって簡単にできてしまいます。

LightRoomでJPEGに出力したあと、Sirius Compでタイムラプス映像にしています。

ただし出来上がったファイルは1GBクラスと相当大きいので、アップロードのために圧縮します。Youtubeにアップすることを前提に、今回はWindowsの64ビット版のHandbreakを使いました。以前のホタル映像ではiMovieを使って編集などをすることも考えて、QuickTimeを使って一旦.movファイルにしましたが、これだと圧縮されすぎてしまい、アップロードした際にあまり綺麗に再生されないことに気づきました。そのためHandbreakを使って、Youtube推奨の設定にします。今回使ったのはHandbreakの英語版の1.1.1です。最初日本語版の0.9.4を最初使ったのですが、コマンドプロンプトが一瞬出てすぐに消えてしまい、変換できないというトラブルがありました。英語版の最新にしたら素直に解決しました。

Youtubeの推奨に合わせていじった設定は、「Video」タブの「Framerate」を選択肢の一番上の「Same as source」にしたことと、「Quality」を「Avg Bitrate」にして10000kbpsにしたことだけです。あとはデフォルトの設定で、Youtubeの推奨のH.246コーデックのmp4ファイルが生成せれ、ファイルサイズが1.06GBから17.2MBまで圧縮されました。もちろん画質は落ちますが、見た目ではそれほどひどくはなっていません。

ということでできたタイムラプス映像です。


マスク処理はしていないので、雲のところが明るくなってしまっています。あと、錯覚かもしれませんが、左よりも右のほうが引き伸ばされて見えます。レンズプロファイルで補正してもこれなので、元はもっと差があるのかもしれません。何れにしてもファーストテストで撮影した時より、ひずみが大きい気がします。もう少し例を増やしてきちんと検証した方がいいかもしれません。

でもまあ、やっとタイムラプス映像の手法も確立してきました。マスク処理とかもLightroomで多少はできそうなのですがちょっと大変そうなので、これは今後の課題にしたいと思います。

APT(Astro Photography Tool)を試してみました。動機はCMOSカメラで長時間撮影をすると縞ノイズが発生してしまうので、それを防ぐためにデザリングをしたかったからです。

まずAPTのインストールでカメラを認識するまでにものすごく戸惑いました。いくつかのページで説明はされているのですが、とにかくはまった点を書いておきます。

今回使うカメラはZWO社のASIシリーズです。まず、ZWOのサイト

https://astronomy-imaging-camera.com/software-drivers

に行ってカメラ自身のドライバーをダウンロードしてインストールします。Native Driversと書いてあるものがそうです。これまでほかのソフトなどですでにCMOSカメラを使ってきたならば、ドライバーは既にインストールされているのでここのところはスキップできます。

ここから少し意識しておかなければならないことは、すべてのCCDカメラやCMOSカメラはAPT上ではASCOMのカメラとして認識されます。このことを意識せずにSharpCapやFireCaptureの感覚でカメラのドライバーだけインストールしてもダメです。そのためASCOMのサイトに行ってASCOM Platformをダウンロードしてインストールします。新しいカメラを持っている場合、例えばASI294MCは最新の6.4ではうまく動きましたが、一つ前の6.3では認識できませんでした。

これだけでもダメで、さらに再び上記のZWOのダウンロードサイトに行って「ASCOM Drivers (optional)」の中の「ASI Cameras」をダウンロードしてインストールします。これがASIカメラとASCOMを実質的につなぐドライバーに相当します。

これで準備はできましたが、カメラがASCOMでうまく認識されるかどうかは、ASCOM Platformをインストールすると出てくる「ASCOM Diagnostics」を使うといいでしょう。ASCOM Diagnosticsを立ち上げてメニューの「Choose Device」を選び「Choose and Connect to CDevice」で出てきた画面で「Select Device Type」で「Camera」を選んですぐ横の「Choose」を選びます。出てきた「ASCOM Camera Chooser」で少し文句を言われていますがとりあえず無視をして、ちょっと押しにくいですがカメラ選択の下矢印を押して「ASI Camera(1)」を選択します。

IMG_4827

次にすぐ横の「Properties」を押して、ZWOのロゴが入っている設定画面が出てくれば認識と接続はうまくいっています。出てこなければ何かがうまくいっていないということです。

IMG_4828


さて、ようやくAPTの出番です。APTをサイトからダウンロード、インストールします。インストール完了後早速立ち上げますが、カメラの接続でまたもや困りました。右の上の「Camera」タブを押して、そこで出てくる「Connect」を最初はShift+Controlキーを押しながらクリックしますが、そこで「CCD:ASCOM Camera」を選んでOKを押すと、APTの反応がなくなってしまいます。しかもAPTのどこかをクリックすると落ちてしまいます。てっきりバグか何か足りないのかと、ここでものすごく悩みました。答えは、先ほどの「ASCOM Camera Chooser」がAPTの画面の下に隠れて出てきていて、これが設定されるのを待っているのです。これはさすがにわかりにくいです。

IMG_4829


Alt+Tabキーなどで画面を切り替えて、先ほどと同じように「ASCOM Camera Chooser」で「ASI Camera(1)」を選択すればOKです。上記トラブルが絡み合い、実際ここまで来るのに数時間を要しました。


あとは普通に使うことができると思います。というか、雨でまだ実践では試せていないので今日はここまでで終わりです。

実は大昔にもAPTを使おうとして、同じところであきらめたことが2度ほどあります。今回やっと解決できました。知っていればどうってことないことなのですが、知らないと結構戸惑ってハマるとすごい時間を費やすことになります。

雨で何もできない時間があるのはこういったことが解決するのでいいですね。


少し前のことになりますが、2018/3/13の平日、天気も良かったので久しぶりに撮影をしました。今回のターゲットはバラ星雲。

撮影機材はFS-60Qと6D。6Dは馬頭星雲に引き続き2例目になります。場所は平日なので自宅の庭です。撮影時は結構風が吹いていて、42枚撮影して使えたのは25枚でした。使えるか使えないかのセレクションはPixInsightの「SubframeSelector」を使いました。今まではデジカメの場合は一緒に撮ったjpgファイルを目で見て判別していましたが、CMOSカメラで撮ったものはfitsファイルしか出力されなくて、読み込みに時間がかかるなど判断するのが大変だったので、この機能は非常に便利です。後日別記事で使い方を書こうと思います。


とりあえず結果を示します。

light_BINNING_1_integration_DBE_PCC_AS1acut
富山県富山市, 2018年3月13日20時53分-23時55分
FS-60Q + Advanced VX赤道儀
EOS 6D(HKIR改造, ISO3200, RAW), 露出3分x25枚 総露出1時間15分
f50mm+ASI178MC +PHD2による自動ガイド
PixInsight、Photoshop CCで画像処理


実はバラ星雲は昨年1月と、3月に撮影しています。3月のものはさらに再加工したりもしましたが、その当時でも結構ボロボロと思っていたので、是非ともリベンジしたいものの一つでした。今回はカメラが6Dになったこと、PixInsightgをやっとある程度一通り通しで使ってみたこともあり、かなりマシになったと思います。それでも今改めてみるとまだ少し暗いでしょうか。


今回のバラ星雲の画像処理で新しい機能も試してみたので、メモがわりに書いておきます。以前の記事でPixinsightでかなり苦労したこと(その1その2)を書いたのですが、あれからだいぶん慣れたのと、やはり最初のころに書いた記事に間違いが見つかっているので、訂正しておきました。

実際のPixInsightでの作業ですが、今回はBatchPreProcessingの後、Linearステージの処理と、一部のNon Linearステージを試しました。方法については蒼月城さんのImage Processing Tipsを参考にさせていただきました。特に、Post Processingの動画の前編、星マスクについては後編がすごく参考になりました。

GOOD_LIGHT_6D_180s_1600_+17cc_20180313-21h15m37s174ms
撮って出しの画像です。ほとんど全く何も写っていません。


BatchPreProcessingの後に今回やったことは
  • 最初に「BackgraoundNeutralization」を使っての背景のカラーバランス。今回は初めてbiasフレームを使いました。PixInsightでは必須とのことです。
  • 次に「DynamicBackgroundExtraction」を使ってカブリ補正。
  • 「PhotometricColorCalibration」を使ってのカラーバランスを合わせます。
ここまでは前回の記事で書きました。今回新たに試したのは
  • 「ArcsinhStretch」を使ってのStretch。 (ステライメージやPhotoshopでいうレベル補正に相当)
  • 星マスクの作成として「MaskGeneration」→「RangeSelection」を使います。星マスクは星雲を含むバックグラウンドマスクと、微光星用と輝星用を合わせた星マスクの2種類です。星マスクを星の大きさ別に作って合わせるのはPhotoShopでやった時と同じですが、PixInsightだともっと楽に作ることができる印象でした。
  • 今回はここまでやって、後はPhotoShopに引き継ぎました。ストレッチまで終わった画像と、星マスクをPhotoShopに引き継いで、後は仕上げに入ります。星マスクはPhotoShopのアルファチャンネルに登録して使いますが、詳しくは以前星マスクを作ったページに書いています。

light_BINNING_1_integration_DBE_PCC_AS
PixInsightからPhotoshopに引き渡す時の画像です。


こうやってみると、PixInsightの凄いのは個々の機能が秀逸なのと、それらが互いに有機的につながって仕上げに向けた画像を作り出せるところでしょうか。(これが一番大変なのですが)やり方さえ理解して、丁寧に作業すれば客観的にポテンシャルを引き出した画像ができるのかと思います。また、(方法さえ分かって入れば)星マスクを作ることが簡単なので、それを使うと仕上げも楽になることです。また、それぞれのオプションがすごく細かいので、きちんと色々試したい人にはものすごくいいのかもしれませんが、逆にこのことがとっつきにく印象を与えていることも否めません。

今回も自宅での撮影ですが、さすがに淡い天体になればなるほど光害が無視できず、無理があることもわかってきました。そろそろ暖かくもなってきましたので、また遠征撮影も再開したいと思います。



PixInsight Tips

最後はPixInsightで気づいたことなどです。
  • Canon 6Dを使っているのですが、デフォルトだと拡張子.cr2のRAWファイルを開いた時点でモノクロでなくカラーになってしまうようです。勝手にDebayerされているようでした。BatchPreprocessingのbiasファイルを処理するところでエラーが出てやっと気付きました。Pixinsightの画面の左のピンクの丸の「Format Explorler」か、メニューの「View」「Explorler」の「Format Explorler」で出てきた「DSLR_RAW」というアイコンをダブルクリック(これもわかりにくかったです)して出てきた画面で一番下の「Pure RAW」を押すと、RAWファイルを開いた時にBayer状態で開きます。BatchPreprocessingもうまく行くはずです。
  • Pixinsightではbiasフレームは必須。biasフレームはカメラにキャップなどをして暗い状態にして、最小露出時間で、lightフレームを取った時と同じゲインもしくはisoで、多数枚(50枚ほどは)撮影する。
  • バッチ処理のBatchPreprocessingですが、処理画面を開いてからCosmetic Correctionを忘れていると、再度一からやり直しになると思っていたのですが、左下の三角を枠外にドラッグ&ドロップしてインスタンスを作って置けば後から再度開くことができることがわかりました。ただ、開く時にインスタンスを右クリックして「Execute in the global context」を選ぶと物と画面に戻ることができて編集を再開できます。
  • BatchPreprocessingのためのCosmetic Correctionにはファイルなどを登録する必要はないようです。ファイルのところは空欄のまま、やりたいこと例えばホットやクールピクセル処理だけをどうするかを選んでインスタンスを作り、それをBatchPreprocessinsgの時に選べばいいです。
  • HistgramTransferFunctioでヒストグラムがほとんど真っ平らに表示されてしまってよく見えない。→ サチってしまっているピクセルを表示するとこうなります。HistgramTransferFunctioパネルの下から3分の1くらいのところの右に5つ並んでいるアイコンの、一番左のボタンを押して「サチっているピクセルを除去する」をオンにします。
  • CurveTransformationでヒストグラムの線が出ない場合 → 一番下の右の4つのアイコンの右から2番目のチェックマークをオンにする。
以前の記事もこれに合わせて幾つか訂正してあります。


天リフオフ会でのMさんからのリクエストにお応えして、SharpCapを使った電視観望でのトラブル解決集を作りました。うまく見えない時に参考にしてください。

電視観望の基本的な説明は
  1. 電視観望を始めてみたい方へ
  2. 電視観望実践編
  3. 電視の楽しさ
をお読み下さい。一度試してみてうまくいかないときに、今回のトラブル解決集が役に立つかもしれません。



以下FAQ集です。他にも気づいたら随時追加していきます。

・バージョンはどれを使ったらいいの?
2018年3月現在の最新版の3.1は、電視観望に使える最適化ボタンがついているのでオススメです。有料ですが大部分の電視観望に必要な機能は無料で使うことができます。バージョン3.0台もしくは2.9台でも電視観望でもちろん使えますが、調整に少しテクニックが必要になります。

・星雲の色が薄い 
まずは比較的見やすい天体から始めましょう。冬ならオリオン大星雲M42、夏なら惑星状星雲のM57が明るくてオススメです。

IMG_3334



・それでもまだ暗い。
露光時間とゲインを調整しましょう。露光時間は1秒くらいから始めましょう。ゲインはとりあえず最大(カメラによって違います)か、ゲイン最大であまりにノイズが多いならそれから50(5dB=1.7倍)とか100(10dB=~3倍)下げたくらい。

・明るさはこれくらいでいいの?
右パネルの中にある、ヒストグラム(Display Histogram Streatch)を見て下さい。ピークが左すぎたりしていませんか?ピークの位置を左側3分の1くらいになるような明るさを目安に、露光時間とゲインを合わせてください。

・画面は十分明るいんだけど、星雲が全く見えません、導入はうまくいっているはずなのに、なんで?
ヒストグラムのところにある、雷のようなマークのボタンを押してください。かなり見栄えが良くなると思います。

・あ、なんか見えた、でもちょっと見えにくいです。
カラーバランスはあっていますか?ヒストグラムの赤、青、緑のピークの位置が同じところになるくらいに、White Bal(R)とWhite Bal(B)を調整してください。その後、もう一度雷ボタンを押してください。


・でもなんか、色が赤っぽかったり、逆に緑ぽかったりしてます。
カラーバランスはかなり微妙です。White Bal(R)とWhite Bal(B)の値を5とかかえると相当印象が変わります。1とか、2くらいでかえて、好みの色になるよう微調整してみてください。その後、雷ボタンを押すのをお忘れなく。

・さっきまで見えていたのに、どこか触ったら突然見えにくくなった。
ゲインとか、露光時間とか、何か変えたりしませんでしたか?そんな時は雷ボタンを必ず再度押してください。

・結構見えるようになったけど、まだ見栄えがイマイチ
雷ボタンも完璧ではありません。試しにヒストグラムにある3本ある黄色い縦の点線のうち、左2本を動かしてみてください。左2本の間の隙間が小さいほど、淡い部分をあぶり出します。一番左の線を動かすと真ん中の線も合わせて動きますが、これで全体の明るさ(バックグラウンド)を調整できます。2本の線の隙間でピークを挟むようにするくらいがいいでしょう。

・結構見えるようになったけど画面がザラザラしている。
ゲインが高すぎるなど、ノイズが多いからです。SharpCapの目玉機能のライブスタックを試してみましょう。上の方にある「Live Stack」ボタンを押してください。下にパネルが出てきます。同時に画面がスタックされてノイズがどんどん少なくなっていくのがわかると思います。

・ライブスタックがうまくいかない 。
「Alignment」機能がうまくいっていない可能性が高いです。画素数が多くて細かすぎるカメラの場合少し調整が必要です。「Alignment」タブの「Minimum star width」と「Maximum star width」の値を増やしてみてください。「Highlight Detected Stars」にチェックを入れると画面上で検出された星にマークがつきます。マークがつかなかったらうまく検出できてない証拠です。

・Alignmentがどうしてもうまくいかない。
とりあえずAlignment機能を切ってしまうのも一つの手です。星が少し流れていきますが、自動追尾のついている赤道儀や経緯台なら多少の時間はだいじょうぶなはずです。

・ライブスタックをしたら突然画面が暗くなったり明るすぎたり。
ライブスタックのヒストグラムで雷ボタンを押していませんか?その場合は右のパネルにある小さいヒストグラムの雷ボタンをの下のリセットボタンを押してください。少し解説すると、①まずはライブスタックにあるヒストグラムでの調整した結果が、②次に右パネルにあるヒストグラムに反映されます。さらに③右パネルでの効果と重ね合わせたものが結果として④メイン画面に表示されます。2箇所のヒストグラムで操作すると混乱してややこしいので、ライブスタックにあるヒストグラムを触るときは、右パネルのヒストグラムは(雷ボタンの下のリセットボタンで)リセットして何の効果もない状態するなどしてわかりやすい状態で試すのがいいと思います。

・いろいろやったけど、それでもまだ星雲が見えない。
暗い星雲に挑戦していませんか?その場合は露光時間を増やして、ゲインを下げてみてください。読み出しノイズが小さくなるので、より淡い星雲まで見えるようになります。15秒くらいまで増やしてみてもいいです。

・それでもどうしても見えない場合は?
都会で明るすぎるとか、満月で明るすぎるとか、環境が悪すぎる場合は見えにくいです。また、カメラの感度が低い、望遠鏡の口径が小さすぎて暗すぎるなどの機器の問題も。薄雲が出ていて見えにくい場合もあります。諦めが肝心な時もあります。時間を置いて冷静に考えるとおかしい部分を思いつくこともあります。トラブル解決も楽しみの一つと思うくらいの気持ちで、余裕を持ってやるのがいいのかなと思います。


皆さんどうでしょうか?役に立ちましたか?
どうしても解決しない場合はこのブログにコメントしてください。相談に乗ります。







 

縞ノイズの考察の続きです。と言ってもほとんど成果なしです。

せっかくのASI294MCを撮影にも使えるのかどうかを判断するためには、縞ノイズ問題を解消しなければどうしようもありません。解決する手段さえあれば、気軽な撮影にも使えると目論んでいます。何れにせよ電視観望には十分(その1その2)なのですでに当初の ASI294MCの目的は十分に達していて、さらにあわよくば撮影もという贅沢な目標です。

具体的には、せっかく長時間撮影をしたしし座の三つ子銀河の画像を有効活用するために「縞ノイズ(斜めノイズ、縮緬ノイズ)」をなくすことですが、今回は少し絞って、
ということを探ることにしたいと思います。

試したことは、
  1. ホットピクセルのみの除去とクールピクセルのみの除去の比較。
  2. ダークフレームの効果。
  3. フラットフレームの効果。
  4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。
  5. Maximum、Minimum、Medianの違いの確認。
などです。他にも色々試していますが、かろうじて意味があることがあることだけ挙げておきます。


1. ホットピクセルのみの除去とクールピクセルのみの除去の比較

1枚のRAW画像を、オートでホットピクセルのみ、もしくはクールピクセルのみ除去して、どちらが効いているかを試しました。結果は前回のあぷらなーとさんのコメントでの推測どおり、ホットピクセルの方が圧倒的に多くて、かなりの部分が除去されているのが確認できたので、一応除去ルーチンはそこそこうまく働いていることがわかりました。一方クールで除去が確認できたのはごく僅かでした。

問題はホットピクセル除去でもクールピクセル除去でも、いずれも除去できないものがまだ結構あることです。これが前回みたMaximumで残った起点に相当するものかと思われます。まずはこの除去を目指します。


2. ダークフレームの効果

1のPixInsightでオートでホット/クールピクセル除去に加えて、ダークフレームのみを使ってホット/クールピクセルがどれくらい変わるか見てみました。結果はほとんど効果なしです。理由はリアルタイム処理をしてみるとわかりました。オートで取れる数の方が多いからで、ダークフレームを使っても除去できる数はそれほど増えないからです。これはパラメータをいじって調整すればうまく残りのダメージピクセルも除去できるのではということを示唆しています。


3. フラットフレームの効果

2の処理に加えて、フラットフレームとフラットバイアスの処理を加えました。意外なことに残ってしまう起点の除去には、このフラットフレームの補正の効果が大でした。フラットバイアスの効果はほとんど関係ないです。残っていた色から判断して恐らくホットピクセルと思われているものですが、ほとんど除去できました。この状態で、もともとバッチ処理でやっていた処理とほぼ近いものになるはずです。ここでやっと最初の疑問の、フラットも含めた前回のバッチ処理で最後だけMaximumでintegrateした時に、輝点が出てこない理由がわかりました。


4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。

それでもまだ少し輝点が残っています。もう少しだけなんとかできないかと思い、2でやったダーク補正のパラメータをいじることにしました。

IMG_3565

下の白丸を押してリアルタイム表示で、オートで幾つ補正されるかを見ながら、それ以上に(今回やったのは3倍の数くらいで、ホットで0.1、クールで0.04くらいにしました)パラメータ調整で補正できる数を増やすことで、残っていた輝点もほぼ除去されることがわかりました。


5. Maximum、Minimum、Medianの違いの確認

上記の3、4ですでに一枚の画像で輝点をほぼほぼ除くことはできるようになったので、これで残った輝点が原因なのかどうかがやっと切り分けられそうです。この状態で撮影した枚数全てで重ね合わせてみました。その際、Integrationのパラメータをデフォルトの「Average」から「Maximum」「Minimum」「Median」にそれぞれ変えてみました。

Average: 最初にバッチ処理でやったものと基本的には同等です。

01_Average

ただ、バッチ処理の時と違い、撮影失敗に近い星像が崩れたものや、人工衛星が通った画像を省かずに全て処理したので、その影響で星像がとりあえず丸いのですがちょっと大きいのと、人工衛星の線が出てしまっています。縞ノイズはやはり盛大に現れます。この状態で画像処理を進めても背景の縞が残ってしまい、不自然に背景を暗くするしかなくなってしまうので、許容範囲を超えています。

でもこのことは意外でした。輝点が十分無くなれば、この状態でも縞ノイズは消えると思っていたのですが、見ている限り元の輝点がある状態とほとんど変わりません。これの示唆するとことは輝点そのものよりも、「輝点を処理する時に出た影響」が各画像にコヒーレントに残ってしまうということでしょうか。

ここで少し考えて、前回フラット補正なしの時に試したのですが、ホットもクールも全く処理をせずに輝点を全て残してIntegrateしたものを見てみました。

nocosmetic_calibration_integration

よくみると明るさの違うRGBの点がいっぱいあります。完全な輝点でなくても、コヒーレントに残る色々な明るさのノイズがあるということです。これらを処理した時の残りがコヒーレントに現れて縞ノイズとして残るということでしょうか。というと、これはホットピクセル除去に関係なく、明るさが違うというころからも、むしろDebayer処理のところに問題があるのではと考えられます。ここら辺もすでにあぷらなーとさんが指摘してくれています。さすがにこれは処理しきれなさそうなので、ここで今回の検証は成果なしという結論に至りました。


Maximum: これまでの検証と同じく、Averageよりも明らかに縞ノイズは少ないです。

02_Maximum_DBE

最大の明るさが出るので、星像がAverageの時よりもブレるのと、人工衛星の線が一本濃く走ってしまっています。残った輝点もはっきり出てしまっています。一つ疑問なのは、右側のアンプノイズがなぜかAverageよりも小さいことです。これはなぜだかよくわかりません。少しだけ残っている輝点は出ているのでMaximum自体の処理はされていると思うのですが。


Minimum: 今回これが一番良かったです。

03_Minimum_DBE

縞ノイズはMaximumと同程度に除去されていて、画像処理をしてもそこそこ耐えうるレベルです。変な星像の乱れもありませんし、星も変に大きくなったりしていません。。ただ一点気になったことが、不必要に暗い(おそらくクールピクセルの残り)があると、そこだけガイドのズレのぶんだけ別の縞ノイズのように目立ってしまいます。でもまあ許容範囲でしょうか。


Median: 最初Mediumと勘違いしていて、Averageと似ているけど何か違いが出るかと期待したのですが、実はMedianでした。

04_Median_DBE

Medianはより飛び抜けたところを省いて重ね合わせるものということなので、人工衛星の軌跡などは取り除かれました。その代わりにノイズを少し犠牲にするそうですが、見た目ではよくわかりませんでした。いずれにせよ、縞ノイズに関してはAverageとほとんど同じで、効果はありません。



うーん、厳しいです。このままMinimumでいっても、今回に限っては画像処理に影響ないくらいにはなっているのでもうこれでも十分な気もします。それでも次はFlatAide Proでカラーカメラでうまく縞ノイズが除去できるかもう少しだけ試してみたいと思います。(2018/2/17追記: 試しましたが、やはりほとんど効果はありませんでした。モノクロでいつか試すことにしたいと思います。)


それにしてもPixInsightの操作方法にもだいぶん慣れて来ました。今回はフラットの補正がステライメージに比べて操作できる箇所が何もないのが少し気になりました。そのためか、まだ右側上部の大きなアンプノイズがフラット補正で取りきれなくて残ってしまっています。それでも他に色々いじれるパラメータがあるのはさすがです。昨日からまた雪が降り続いています。しばらくは天気は期待できなさそうなのでまた画像処理と機器の整備くらいになりそうです。


長時間露光で問題になる縞ノイズの考察です。

  • ガイドのズレと同じ方向に縞が出る。
  • RGBと黒の4色。
  • 太さは一枚のコンポジットされた画像の中ではだいたい一定。でも画像によって細かったり太かったりします。太さは、ずれの長手方向に垂直な方向のずれの大きさに一致している?
  • クールピクセル説が強い。でも本当にこんなに前面にクールピクセルが広がっているのか?
  • カラーセンサーでクールピクセルが一つあると、上下左右のみでなく、斜め方向にも影響が出るので、ある程度の太さになる。
  • 不思議なのは、ガイドでずれたのを比較明合成した星像のずれの長さよりも、縞一本の長さの方が全然長く見えるのです。ずれの長さの3倍くらいは長く見えます。でもRGBと黒の4色しかないので、たまたま同じ色の線が繋がっているのが目立っているだけに見えなくもないです。ある色があった時2色繋がるのが4分の1で、3色繋がるのが16分の1。長いのは目立つのと、短いものも存在するので、長く見えるというのは説明できそうです。
  • 10分単位くらいに分けてコンポジットし、それをさらにコンポジットしてもダメだという報告あり(自分では未確認)。
と、ここら辺まで書いてあぷらなーとさんのコメントとブログを見て、やっとクールピクセルが原因というので納得してほぼ解決したのですが、せっかく自分でも途中まで考えてはいたので、そこまでだけでも書いておきます。


まず試したのは、簡単にするためにクール補正も、フラット補正もダーク補正もせず、三つ子銀河のIntegrationをすることでした。ImageCalibrationがなぜかうまくいかなかったのでStarAlignmentで代用。その結果がこれです。

nocosmetic


赤とか青とか緑とかのかすれた線が無数にあります。全部クールノイズだと思われます。前面に散らばっています。もっとわかりやすくするために、位置合わせをしないただの比較明合成をします。

nocosmetic_nocalibration_integration_a


クールノイズが点になって無数の輝点になって見えます。この時点で、やっとクールノイズの可能性が高そうだと思い始めました。

今度はクール補正をかけたものの比較明合成です。

cosmetic_nocalibration_integration_a


クールピクセルがなくなってかなりましに見えます。これなら変なノイズとかでなさそうなので、これで位置合わせを行います。

cosmetic_calibration_integration_a


でも結果はなぜか縞ノイズが出てしまいます。この理由が最初全くわかりませんでした。ところがIntegrartionの時にAverageを使わずにMaximumを使うと理由がかなりはっきりしました。

cosmetic_calibration_integration_Maximum_a


Maximumなので一番明るいものが残っています。形をよく見ると縞ノイズとかなり一致しているように見えます。Maxmumで見えるということは、このような明るい輝点はまだ存在していて、飛び抜けたもの含んで無理やりIntegrationの時にAverageで平均化したりすれば、さすがにそこにムラができるのは不思議ではありません。ImageIntegrationの時にPixel rejection(1)で「Rejection Algorithm」を「min/max」にすると多少は改善できることもわかりましたが、それでも縞は残ります。

あと、Maximumは星像が歪むという弊害があることもこの時気づきました。昨晩はここで終わって寝てしまいました。


その後、あぷらなーとさんからのコメントに答える形で前々回のページに書いたのですが、今日になってあぷらなーとさんのブログの過去記事を見るとここら辺のようなことがすでに見事に検証されていて、さらに輝点を加算するという解決法まで示してくれています!しかもぴんたんさんがすでにFlat Aide Proにその手法を実装してしまったとは!

カラー画像でもうまく輝点が出ないようにコンポジット前の画面を補正してしまえばいいと思いますが、あぷらなーとさんがやったようなモノクロならまだしも、やはりカラーだとちょっと難しそうです。


HUQさん、あぷらなーとさん、Scopioさんクールノイズにいつまででも納得できなくて色々説明してもらって申し訳ありませんでした。そして、こんな私に付き合っていただいてきちんと説明してくれて本当にありがとうございます。

自分で納得でないないと気が済まないのですが、今回の話は最初からアプラナートさんの2017年の9月くらいの記事を読んでおけば済む話でした。でも自分で試すという方向性はやめたくないので、また変なことを言うかもしれませんが、初心者のたわごとと思って温かい目で見ていただけるとありがたいです。


 


 

PixInsight(以下PI)の続きです。今日はLinear Stageについて書いておきます。

さて今日の材料は、しし座の三つ子銀河、通称トリプレットを3分露光で60枚、計3時間ぶん撮ったものです。FS-60QにASI294MCのセット、Advanced VXにPHD2でガイドなどは前回M33のときと同じです。これらをPIのバッチ処理でインテグレート(コンポジット)までしました。M33と同じく斜めの縞ノイズも、多少はマシですが見えてしまっています。比較合成したものを見ると、やはりガイドがずれていってしまっています。

light-BINNING_1_max

ズレは前回より小さくて、3時間で30秒程度でしょうか。縞ノイズは嫌なので、前回のように「Maximum」、「No normalization」でIntegrateしたものを使用します。

一応縞ノイズを比べます。デフォルトの「Average」、「Aditive with scaling」でIntegrationしたものと
light-BINNING_1_DBE_STF


「Maximum」、「No normalization」でIntegrateしたもの
light_BINNING_1_Maximum_No_normalization_DBE_STF3


です。やはり今回も縞ノイズに関してはあからさまに違いが見えていて、後者の方が圧倒的にいいです。それに加えて前者ではアンプノイズがまだ結構目立つくらいに残っています。このアンプノイズはASI294MC共通の欠点らしくて、どの個体もこの位置にアンプノイズが存在するようです。でもこの前者の画像を見ていると、ダーク補正が本当にうまくできているか疑問に思えてきました。違いはIntegrationのところだけのはずなので、ダークフレームによる補正の違いはないはずなのですが...。いずれにせよ、かなり差があるのでこれ以降は後者の方を使います。


Linear Stageでやるべき主なことは3つ、
  1. バックグラウンドを平らにする、カブリ補正のようなもの。
  2. ホワイトバランスを揃える。
  3. 色のキャリブレーションをする。
です。それぞれについてやりかたは何通りかあるみたいで、
  • 1と2は「Process」->「BackgraoundModelization」->「AutomaticBackgroundExtraction」もしくは「Process」->「BackgraoundModelization」->「DynamicBackgroundExtraction」
  • でまとめてできます。
  • 2として「Process」->「ColorCalibration」->「BackgraoundNeutralization」をする方法もあるみたいなのですが、うまくいく場合とうまくいかない場合があるので、今では使っていません。
  • 3は「Process」->「ColorCalibration」->「ColorCalibration」や「Process」->「ColorCalibration」->「PhotometricColorCalibration」などです。

DynamicBackgroundExtraction(DBE)が結構簡単で優秀みたいなので、今回はこれを使ってホワイトバランスまでを処理します。
  1. まずIntegrationした画像を開きます。次にメニューから「Process」->「BackgraoundModelization」->「DynamicBackgroundExtraction」と選んで、設定画面を出します。
  2. その状態で画像の星や星雲などがない暗い点を10から20個くらい選びます。設定画面の上の左右の矢印で選んだところのプレビューが出るので、あまりにおかしいところは赤いxじるしで選択から外します。
  3. DBEの設定画面の中の「Target Image Correction」で「Subtraction」を選びます。これを選ばないと出来上がった画面が出て来ません。
  4. DBEインスタンスを画像に放り込むか、下のチェックマークをクリックして実行します。
その時の画面が下になります。左がIntegration後すぐの画像、右の上の画面が適用後。右の下が補正分です。もともと青にかなり酔っていたので、青の補正がされているのがわかります。フラット補正はしてあったので被りや周辺減光に相当するのはほとんど目立っていません。出来上がった右上画面のバックグランドがホワイト化されているのもわかります。

IMG_3470


出来上がった画面をHistgramTransformation (HT)で見てやるとホワイトが揃っているのを確かめることができます。必要ならばこの後にBackgraoundNeutralizationをするのもいいみたいなのですが、今回は省きます。


上のDBEをするのに必要だと思われるPixInsightの特殊な操作方法について書いておきます。
  • 処理を実行するのに、下の丸ボタンを押してもいいのですが、Instanceを作る左下の三角じるしをドラッグして適用したい画像に放り込むと、その効果が適用されます。でもうまくいくときとうまくいかない時があります。xが出たり、何も出ないとうまくいかなくて、チェックマークが出るとうまくいきます。どうやったらうまくチェックマークになるのか未だによくわかりません。パッと入れるとうまくいくことが多いのはなぜでしょうか?
  • ScreenTransferFunction(STF)で簡易的にトーンカーブをいじって見やすくしてまずは把握する。この見やすくするというのは、SharpCapのヒストグラムの稲妻ボタンでトーンカーブをいじって電視観望で見やすくするのと同じ概念です。というより多分PixInsightからヒントを得てSharpCapに移植したみたいに思えます。試しに、HistgramTransformation (HT)画面とSTFバー画面を出しておいて、STF画面の放射能マークみたいな「Auto Stretch」ボタンを押してから、左下の三角じるしをドラッグして、インスタンスをHT画面の一番下の三角と四角と丸があるラインらへんにドロップすると(ものすごくわかりにくい操作方法です!)、トーンカーブの形がSharpCapのオートボタンを押してできるトンカーブとほとんど同じ形になることが確認できます。
  • STFは見かけ上の画像処理なので、Auto Stretchをした画像を保存しても、元の画像のままです。
  • ちなみにSTFの効果を効かせた状態で画像を保存するためには、上に書いたようにHistgramTransformation (HT)画面を出して、STFのインスタンスをHT画面の一番下の三角と四角と丸があるラインらへんにドロップして、さらにHTのインスタンスを画像にドロップして初めて実際の処理がなされます。それを保存すればやっとSTFを適用した画像を保存するということができます。
  • 各処理画面の下のところに白丸がある場合、Real-TIme Previewを見ることができます。プレビューで効果を確認して、パラメーターが決まったらプレビューを閉じて、オリジナルの画面にインスタンスを放り込むというやり方が主流のようです。

次が色のキャリブレーションです。今回はPIの最近のバージョンでの目玉機能と言われているPhotometricColorCalibration(PCC)を試してみます。これは複数の恒星をPlate Solvingでマッピングして、登録されている恒星の色情報から正しいと思われる色に合わせてくれるという、とても客観的な色合わせ機能です。早速試して見ましょう。

  1. 「Process」->「ColorCalibration」->「PhotometricColorCalibration」で操作画面を出してから、「Image Parameters」の「Search Coordinates」で写っている天体を探します。ここでは「M65」とかです。
  2. うまく座標が入ったら、「Observation date」に撮影した日にちくらいまで入れます。時間は適当でいいみたいです。あとは「Forcal length」に撮影時の焦点距離を、「Pixel size」に使っているカメラの素子のサイズをマイクロメーター単位で書き込みます。ここもかなり適当でいいみたいですが、5割違うとダメだと書いてありました。
  3. 「Background Neutralizatio」を選択します。「Regeon of interest」にチェックをつけて、Previewエリア(下に説明あり)を選んで、そのPreviewを「From Preview」から選択します。Upper limitはPreviewタブを押してPreview画面を開いてから暗い部分の値を、Readout modeで読んでやり、その付近の値を入れますが、デフォルトのままでも結構うまくいくみたいです。
  4. 三角じるしのインスタンスをDBE処理した画像に放り込むと処理が始まります。
  5. 結構進んだ最後の方で、実行した時に星が見つからないとか言われてうまくいかない時は、「Photometry Parameters」の「Limit magnitude」の「Automatic limit magnitude」のチェックを外し、「Limit magnitude」をデフォルトの12から15くらいまで暗くするとうまくいくことがあります。
IMG_3496


うまくいくと上の画像のように、グラフの表示とともに画像に今回の結果が適用されます。グラフはまだ何を言っているのかよくわかりませんが、検出された星をカタログ値の色にフィットしているのでしょうか?ここでCtrl+zやCommand+zでUndoすると、以前の画像と比較することができます。今回は少し赤みがかっていたのが補正されてよりホワイトになったことがわかりました。

PixInsightのとても特徴ある操作の説明です...。なんでこんな操作になるのか...、この記事が誰かの役に立ってくれると信じて書きます。
  • Previewという概念が特殊です。画像を開いている時に、上のアイコンの中の左から12番目くらいのフォルダのような形の「New Prview Mode」を選ぶと、画面の中の一部を選ぶことができます。プレビューもどの状態で画像の一部を選択すると、「Previwe01」とかいう領域が選ばれるとともに、左横のタグに同じ名前のものができます。この状態になって、初めて画像処理の画像の一部の選択、例えばバックグラウンドの領域選択などでこのプレビューを選ぶことができるようになります。
  • Readout modeは上のアイコン群の左から7番目にあり、デフォルトのモードになります。結構便利で、このReadout modeの時に画像の上で左クリックすると、拡大して画像を表示してくれて、マウスポインタが指している場所の色などを数値で出してくれます。Preview画面でもこのReadout modeは使えるので、Previewで暗い部分を選んで、さらに拡大して暗い部分の値を読み取ることができるわけです。
今回のところまでで、やっとPixInsightの全機能の1割くらいでしょうか。摩訶不思議な操作方法は、いろんな意味でもう「僕は嫌だ」状態です。とりあえずここまでで疲れ果てたので、Photoshopに持っていって簡単に仕上げてみました。

light_BINNING_1_Maximum_No_normalization_DBE_PCC
富山県富山市, 2018年1月20日0時19分
FS-60Q + ASI294MC+ Advanced VX赤道儀
f50mm + ASI178MC +PHD2による自動ガイド, 露出3分x60枚 総露出3時間0分
Pixinsight, Photoshop CCで画像処理


少し飛んでいるところもあったりしてまだ色々PIを使いこなすに至っていません。3秒露光の画像も撮ってあるので、HDR合成とか星マスクとかやって、もう少し時間をかけて仕上げてみたいですが、気合が続くかどうか。

次はNon-Linear Stageに挑戦ですが迷っています。Linear ProcessingまではあからさまにPixInsightは面白い機能が目白押しのはわかりました。Non-Linear Processingを含めて最終仕上げまで全てをPIでやることも可能みたいですが、Non-Linear ProcessingになったらPhotoshopなどに任せてしまってもいい気がします。PIの有利な点はマスクを簡単に作れるところでしょうか。これは結構魅力で、ここで作ったマスクをPhotoshopに持っていくのとかでもいいのかもしれません。

あ、あとPixInsightのライセンスを購入しました。まだ試用期間も残っていて、230ユーロと結構な値段ですが、その価値はありと判断してです。
 

このページのトップヘ