ほしぞloveログ

天体観測始めました。

カテゴリ: 画像処理

週末土曜日に飛騨コスモス天文台に行って、M57とM27を撮影しました。それぞれの撮影枚数は、露光時間が20秒と短いこともあり、かなりの枚数になります。具体的にはM57が282枚、M27が244枚をなり、処理の前に簡単に閲覧するだけでも大変になります。しかもSharpCapで撮影したRAWファイルなので、拡張子が.fitsファイルとなり、開けるソフトも限られています。

最初の頃はfitsファイルもステライメージで確認していたのですが、これだけ数が多いと大変になります。PixInsightでも開くことができますが、一枚一枚が結構重いので、全部を気楽に開くわけにいかなくて、選別するのが結構大変です。

そんなときはPixInsightの「ImageInspection」->「Blink」が便利です。

IMG_5690

  1. 下のフォルダマーク「Add Image Files」から複数ファイルを選択して読み込みます。
  2. 読み込みは数百枚だど数分かかるので、50枚くらいずつにしたほうがいいと思います。
  3. RAW画像でも、Debayerした画像などでも読み込むことができます。
  4. 画像が暗くて見にくい場合でもSTFがかけられた状態で表示されるので、見やすくなっているはずです。これは真ん中に3つ縦に並んでいるアイコンの、真ん中を押すと確認することができます。
  5. 読み込んだ後は、左右の矢印を押すか、画像のファイル名を一つ選択してあとはカーソルの上下で、すごい勢いで画像を連続で切り替えることができます。
  6. 左の三角ボタンを押せばアニメーション表示することもできます。
  7. ただし、ソート順はファイル名のみのようなのがちょっと残念なところです。
  8. 弾きたい画像は、マウスでファイル名を選択(複数も可能)してから、下のアイコン群の左から5つ目の小さい矢印がついているアイコンを押すと、移動したいフォルダが選択できるので、そこに移動されます。
  9. 終わった後は、下の左から3番目のアイコンを押して、すべてのファイルを閉じます。
  10. これを次の50枚とか繰り返すと、かなり効率よく見た目で明らかに悪い画像ファイルを弾くことができます。


もう一つ便利なのが、「Script」->「Batch Processing」->「SubframeSelector」になります。各画像の星像のFWHM(半値全幅)やEccentricity(偏心度)を測定してくれます。自動でだめな画像を別ディレクトリに移動することなどもできます。

詳しいことはマニュアルを読むといいのですが、英語で結構大変なので簡単な説明を書いておきます。

IMG_5688

  1. いつものようにAdd Filesで解析したいファイルを複数選択します。
  2. 最低限解析するだけなら、そのまま一番下の「Measure」を押します。
  3. CPUや解像度にも依りますが、一枚解析するのに7-8秒程度なので、数百枚でもなんとか耐えられる時間の範囲です。結構かかりますが、それでも一枚一枚やるよりははるかに楽です。最初は少数枚でテストするといいでしょう。
  4. 「Plots」を開くと結果が出ています。「FWHM」や「Eccentricity」で飛び抜けている画像を判断することができます。
  5. 飛び抜けているところをクリックするとx印がつくので、Outputで弾きたいファイルをMoveなどする設定をすると、移動してくれます。
  6. 式で評価して、自動で弾くこともできますが、そのためには下に示すようなパラメータを入れたほうがいいですし、式の入力にはいろいろやり方があるようなので、詳しくはマニュアルなどを参照してください。「星見庵日記」さんのこのページが日本語で比較的詳しく説明しています。
IMG_5689


もう少しきちんとしようとすると、最低限入力する値は、「System Parameters」の中の「Subframe scale」になります。ざっくりした見積もりの「1ピクセルあたりの画角は焦点距離600mm、ピクセルサイズ4umで約1.5秒」とかから考えてもいいですし、こんなサイトから焦点距離と自分の持っているセンサーのサイズを選択して、センサーのピクセル数で割ってやっても簡単に求めることができます。

「Camera gain」も入れるべきでしょう。でもこれは結構難しいです。メーカーのページに行ってもいいですが、例えばASI294MC場合ここの「GAIN」というグラフの横軸「Gain」の実際に撮影した時の値のところを見ればいいのですが、グラフから読み取ろうと思っても0近くになり正確な値は読み取れません。SharpCapがあれば自分で測定することもできます。結果の表からある程度の値は読み取ることができます。それでも誤差があるので、ある程度の値でかまわないでしょう。

ここまで入れると、結果もある程度(絶対値に近いという意味で)正しい値になってくるので、センサーやカメラが変わっても比較することができるようになりますし、式を使った評価でも正確性が出てきます。が、とりあえず面倒なら何も考えずに「Measure」ボタンを押してしまったほうが幸せかもしれません。


ここしばらくブログの更新が滞っていました。忙しかったのもあるのですが、一番の原因は天の川の画像処理でずっと悩んでいるからです。

8月初めに撮った木曽シュミットを背景にした天の川。ところが、気合を入れて画像処理を始めたのが、今回の迷走の始まりでした。Lightroomのレンズプロファイルでの補正と、PixInsightのDBEで周辺減光とさらカブリを除きます。星マスクを利用したり、景色部分にマスクを施したり、天の川部分のマスクも苦労して作ったりして色々試しました。多分正しい方向で進めているはずです。でもなぜでしょう、やればやるほどわざとらしくなって自然感が損なわれていく気がします。

IMG_1312_DBE1_ps

多分上の処理でも悪くないのかと思います。でも、ふと元のJPEG撮って出し画像を見直してみると、もちろんホワイトバランスも取れていないし、周辺減光はありまくりだし、天の川も強調されていないのに、なぜかわざとらしさのないこちらの方が好きな自分がいることに気づきます。ここら辺で完全に迷走状態になりました。
  • 周辺減光はきちんと補正するのが善か?天の川を中心に持ってきたらむしろ周辺減光があった方が天の川を目立たせることができるのでは?
  • 背景のホワイトバランスを撮ることは本当に正しいのか?なぜ青い夜空はダメなのか?
  • 星景写真は、科学なのか?芸術なのか?
などなど疑問が尽きません。天体写真は自分の場合あくまで趣味なので、科学写真とは違います。それでも星雲などの天体写真は宇宙の深淵を覗くという意味でまだ科学に近い気がしますが、星景写真はその名の通り景色を入れます。景色と星の組み合わせという意味ではなにか主観を入れたいという意図があることが普通なので、やはり芸術に相当近いような気がしています。こんなことを悩んでいても、正解もなければ答えが出ないこともよくわかっています。

そんな時に、ちょうどプロの星空風景写真家の方の話を聞く機会がありました。その方に上のような疑問をぶつけてみたのですが「一旦補正した周辺減光をあえて加える場合もある」「結局は自分が何を表現したいかではないか」という助言をいただきました。おそらく天体写真として撮っているアマチュアと、生計を立てているプロの写真家というのでは、全然目指している方向は違うのかもしれません。それでも人に見せるという意味では、この写真家の方の言うことは正しいのではないかと思いました。

まだ迷いはとれませが、星景で自分の見せたいものを見せてもいいという道があることがわかっただけでも大きな進歩です。でも個性を出すということは怖いですね。それを凌駕して魅力的な作品を生み続けるのがプロということなのでしょうか。色々悩んでいたことも少し吹っ切れた気がして、今回の星景写真に関しては少し自分が好きなものを目指そうと思いました。

IMG_1312_low

素材がいい場合は、画像処理も最小限で済みます。強度なあぶり出しもしていませんし、周辺減光も必要以上にとったりしていません。ホワイトバランスも多少合わせますが、好みを残しています。カブリもそのままで、この黄色から黄緑を経て青へと変わっていくような色が結構好きです。

くだらない悩みかもしれませんが、ここに至るまでに二週間くらいかかりました。まだ迷走する気はしますが、しばらくは技術にあまりこだわらずに処理をしてみようと思います。

前々回の記事のプロミネンスですが、結構な分解能で撮れていたのでどれくらいのスケールで形が変わっていくかを知りたくて、2018年6月17日午前11時30分からほぼ10分間隔で3時間ちょっと撮影を続けました。合計24ショット撮りそれをGIFアニメーションにしたものが以下の映像です。

pronimence_position_background_color3_cut01

動画にするにしてはコマ数が少なすぎるので、GIFアニメにしてみました。ただ、変化部分が小さいのでトリミングしてサイズを1024x576にしています。途中止まってしまうことがあるようなので、その際はページを再読み込みしてみてください。

細かい写り具合は撮影状況や画像処理によって大きく変わるのですが、大まかな動きを見ると最初小さめの三角型だったのが、少しづつ広がって釣鐘型のように形が変わっていくのがわかると思います。

撮影と画像処理は結構大変で、基本的にエタロンもCMOSカメラの位置もPSTでのピントも変えないようにと思っていたのですが、赤道儀が回転することによる重力のかかりたの変化なのか、それとも温度の変化なのかわかりませんが、何十分かに一回はピントを合わせる必要があるくらい、なぜか焦点がずれ続けました。また、プロミネンスの写り具合が画像処理に大きく依存します。画像処理もできるだけ同じような工程で進めましたが、やはりなかなか同じにはならないようです。

それぞれの動画は500フレームで撮影し、保存した.serファイルからAutoStakkert!3でスタックします。ファイル選択時に、複数本最初に選ぶことで、一回の設定で一度に選んだぶんだけの動画を処理できます。その時にSharpendオプションを選んで、Registaxなどの後処理を簡略化しました。光球面や惑星などに比べて、プロミネンスの場合Registaxの効果は限定的なのでこれでも十分との判断です。

PhotoShopもアクションで擬似色化の処理を自動化しています。その後、PhotoShop上でレイヤーを利用して一枚一枚手合わせで位置とカラーバランスを調整していきますが、これが一番大変でした。最後はPhotoShopのタイムラン機能を使いgifアニメ化しています。

時間も手間もかかりますが、出来上がったものを見るとこれはなかなか面白いです。もう少し安定に写し出せるように経験を積んで、フレアクラスの大きなものが刻一刻と変わっていくのをいつか撮影出来たらと思っています。

先週、今週と2回にわたり撮影したホタル。前回記事にした静止画に引き続き、今回動画をまとめました。ホタルのリアルタイム撮影は超高感CMOSかめらを手に入れてからずっとやって見たいと思っていたことでした。

カメラはこれがあって初めてリアルタイムのホタル撮影が実現したと言ってもいいZWO社のASI294MCで、そこに50mmのオールドNIKORレンズをつけています。F1.4なので、ASI294MCの高感度と相まってかなり明るく撮ることができます。ソフトはいつものSharpCapです。それでも実際のホタルが飛ぶのが映るくらいのリアルタイムでの撮影は相当暗かったので、いくつか工夫をしています。

まず動画と言うためには、最低10FPSほどないとスムーズに見えないことがわかりました。できれば20FPSくらいあるとかなり滑らかになります。露光時間でいうと50msということです。今回の動画は主に20FPSで撮ったもので、一部10FPSです。それ以下のものはホタルの軌跡に飛びができてしまっていて使うことを諦めました。15FPS程度が明るさとスピードの妥協点くらいかもしれません。

FPS数を大きくすると、当然一コマあたりの露光時間が短くなるの、でゲインを上げる必要があります。ゲインを上げすぎるとノイズが大きくなり、ダイナミックレンジが小さくなってくるのであまり上げたくありませんが、それでも明るく取ろうとするとほぼ最大ゲインレベルに近いものが必要となります。

それを回避するためにハードウェアビニングを2としました。これで明るさが4倍になります。解像度は落ちますが、それでももともとASI294MCは高解像度なのでビニングしても2072x1410ピクセルで撮影でき、Full HD(1920x1080)を十分確保できます。実はASI294MCのフル解像度4144x2822で撮影すると転送速度の制限で数FPS程度にまで落ちててしまいます。4Kのリアルタイム撮影は、画素数的には足りていてもかなり厳しいのかと思います。

解像度だけを落として転送速度を上げることもできますが、それだと画面の一部だけ切り取ってしまうので、ASI294MCの特徴の4/3インチ大センサーの恩恵が生きてきません。ビニングだと画角は最大のままで解像度だけ落ちるので、大センサーの恩恵が使え、そのまま広角で撮ることができます。


一つ不思議だったのが、RAW16で撮影すると表示画面が相当暗くなってしまうことです。撮影されたファイルを見てもRAW16の方が見た目暗くなるようです。仕方なく今回はRAW8で撮影しましたが、なぜこうなるのか理由がわかっていません。もしかしたらバグの可能性もあります。


撮影した動画の編集はMac上のiMovieで行いました。SharpCapのRAWファイルは.ser形式なので、まずはSER PlayerでAVIに変換します。それでもiMovieはAVIをそのまま読み込むことはできないので、例えばHandBrakeでMP4形式などに変換するか、QuckTime PlayerでMOV形式に変換します。最初HandBreakでやっていたのですが、どうもQuickTimeの方が階調が豊かに出るようです。もちろんビットレートなどの条件によるので一概には言えませんが、編集環境がMacで閉じるならば標準でついて来るQuckTime Playerの方が最初から強制的にMOVに変換して表示してくれるので楽だと思いました。

iMovie上では多少の画像処理ができます。ホワイトバランス、Brightness、コントラスト、レベル補正に相当するもの(ただしRGBまとめて)、彩度、カラーバランスくらいでしょうか。ないよりは遥かにマシですが、やはり少し物足りません。本当は動画上でトーンカーブがいじれればもう少ししまった仕上がりにできたのかもしれませんが、無料のiMovieにそこまで求めるのは酷かもしれません。Premireクラスだとそういったこともできるのでしょうか?他にも、タイトルとかキャプションももう少し豊富だとありがたいと思いました。

タイトルです。シンプルなものを選びました。

vlcsnap-2018-06-14-09h01m27s072

最初の動画は、歩いて行くと一番初めに見えてくる川べりです。いつもはここはそれほど飛んでいないのですが、今年は大量に飛んでいました。さすがに暗いのである程度ノイジーになってしまいます。

vlcsnap-2018-06-14-09h04m31s508


娘のNatsuの手の中で遊んでいるところです。捕まえると小さい子とが寄ってきます。ここは地区を挙げてホタルを保護しているところです。当然ですが、すぐに逃がしてあげます。持って帰るようなことをする人は見たことがないです。地域の方とおしゃべりすることができるのもこの場所の魅力でしょう。ここまでがASI294MCとNIKKOR50mmでの撮影です。

vlcsnap-2018-06-14-09h05m32s269


水路のところの遠景と近景です。この景色が一番好きかもしれません。この2ショットはASI294MCとNIKKOR35mmで10FPSでの動画です。初日でビニングも思いつかなかった、まだ試行錯誤段階の時です。

vlcsnap-2018-06-14-09h06m26s747


次が前回も出した比較明合成のために撮ったもののタイムラプス映像です。EOS 60DとシグマのF3.5, f10-22mmです。

vlcsnap-2018-06-14-09h07m32s302

再びASI294MCとNIKKOR50mmで動画撮影です。かなり暗くて相当厳しいです。

vlcsnap-2018-06-14-09h07m15s043


最後がASI294MCシグマのF3.5, f10-22mmでの天の川撮影です。天の川はそこそこ出ているのですが、調整不足で周辺がかなり流れてしまっています。

vlcsnap-2018-06-14-09h06m48s740


さて、実際の動画ですが、下がYouTubeにアップしたものになります。まともに動画を編集しようとしたのは今回が初めてで、YouTubeへのアップも初めて少し真面目にやって見ました。推奨のH.264で15Mbpsでアップしましたが、それでもやはりオリジナルのものからは、特に階調と細部描写は多少落ちてしまっているようです。ここら辺はもう少し最適化の余地があるかと思います。




この動画を作るにあたって、ホタルの動画を検索しましたが、ホタルが飛んでいる動画を、リアルタイムかつ明るく、なめらかに撮っているものはそれほど多くは無いようです。いくつかSONYのα7Sで撮影しているものが見つかりましたが、暗いものも多いです。センサー自身はASI294MCよりα7Sの方が高性能のはずなのですが、ASI294MCは計算機を必要とする代わりに、ビニングなどの微調整をPC上でできるのが有利に働いているのかもしれません。それでもいくつかはα7Sで綺麗に撮れているものがありました。レンズなどの機材や撮影技術にももちろん依るのかと思います。あと、NIKONのD800で今回の私と全く同じ場所を撮った素晴らしい動画がありました。この方は動画編集にAdoveのPremireを使っているようです。ものすごく綺麗な画質で出ています。

私も相当昔、まだ学生の頃、動画処理がやっとできるかどうかという時代に秋葉原の当時のTSUKUMOでIEEE1394カードと、SCSI3(!)接続の不思議な格安の10GBの大容量(笑)HDDを買って、そこについてきたPremireを使って動画編集をしていたことがあります。今ではもうほとんどどんな機能だったか忘れてしまいましたが、その当時から飛び抜けて高機能だったので、今もすごいのかと想像してしまいます。高感度カメラもどんどん一般になって来るので、将来はもっと楽に取れるようになるのかと思います。



今回の反省点です
  • いくつかのホットピクセルと思われる輝点が出てしまっています。露光時間も感度も決まっているので、ダーク補正をリアルタイムするべきでした。
  • ASI294MCにZWOのCanonレンズアダプターを付けて、さらにNIKORレンズにCanonアダプターを付けて撮影しています。そのため周辺がボケまくってしまいました。レンズからセンサー面の距離をきちんと調整していないためかと思われます。あと、少しガタがあるので間にテープなどを詰めてガタつかないようにしなくてはいけません。
  • 動画はASI294MCが適していますが、比較明合成するための20秒程度の長時間露光はEOS 60Dの方が楽だと思いました。当たり前ですが計算機など必要無く単体で撮ることができます。露光時間をかけることができ、画像処理もじっくりできるなら、わざわざCMOSカメラで撮る必要はないという意味です。動画の場合は高感度センサーのASI294MCの方が圧倒的に有利です。

反省点は多々ありますが、今回初の本格的な動画編集で、念願のホタル動画が撮れたこともあり、結構満足です。

ちなみに今日は自分の誕生日。いつのまにやらもう46です。家族には先週末に祝ってもらい、物は赤道儀をかなり前に先物買いしてしまったので、この動画は自分自身の誕生日記念になりそうです。


 

最近悩んでいるのが、動画スタックによる画像の分解能の限界です。まだあまりよくわかっていないのですが、とりあえず簡単なことから始めようと思います。今回知りたいことは、そもそも「動画スタックでドーズ限界を超えることができるのかどうか」。印象としてはそんなんとっくに超えてるんじゃない?と勝手に思っていたのですが、実は確かめたことはなかったので、少し検証してみました。

IMG_9336



まずドーズ限界を感覚的に知るために、木星がもしドーズ限界で制限されるとしたらどのような画像になるかを試してみました。元画像はハッブルで最近(2018/4/25)撮影されたのものです。

JupiterOpal_HubbleMasztalerz_1880

検証するには十分な解像度があります(実際の画像は上の画像をクリックして拡大して見てください)。NASAの画像は著作権を主張していないとのことで、このようにブログでも使うことができるのでありがたいです。


これを手持ちのC8の画像と比べてみます。下は去年の惑星シーズン(2017/6/8)に撮影したもの。口径200mmでASI224MCを使いました。C8としてはそれほど悪い方でもなく、ちょっと頑張ればここら辺までは出るくらいかと思います。カメラがASI224MCでカラーなので、モノクロでL画像を撮ればもう少し改善の余地はあると思います。
2017-06-08-1241_5-RGB2


まずはドーズ限界による分解能を計算します。ドーズ限界は

115.8 / D [秒]

で表され、Dは口径をmmで表したものです。C8は口径203mmなので

115.8 / 203 = 0.570秒

となります。木星の視直径は変化しますが、撮影当時の視直径は調べてみると39.6秒だとのことです。なので、木星の直径を39.6/0.570=68.4ドットで表せばいいことになります。

Hubbleの画像の木星の直径(画面全体ではないことに注意)がキリのいい68ドットになるように画像の解像度をPhotoShopで落とし(その際、見かけが近くなるように彩度を落とし、上下逆にしました。)、その後、元のドットになるようにバイキュービック法で再び解像度を上げました。その結果がこちらになります。

JupiterOpal_HubbleMasztalerz_1880_200mm2

自分でC8で撮った上のものと比較してみると、ざっくりいって、ドーズ限界と同じかもう少し悪いくらいの分解能だったことがわかります。うーん、では状況がいいとドーズ限界に近づいていくのか、それでも超えることはないのか?もう少し検証してみます。


次にC14を想定して、355mmの口径の場合で、最近の木星の視直径44.1秒を仮定してドーズ限界での画像を再現してみると

JupiterOpal_HubbleMasztalerz_1880_355mm

くらいになります。これだと木星の直径を136ドットで表すことに相当します。ところが、例えばC14で最近撮影された日本の惑星撮影で代表的な「RB星のブログ」さんの2018/4/21の画像(RB星さんのご好意で掲載許可をいただきました)

j180421s1

と比べると、明らかにドーズ限界を超えて綺麗に見えています。この日はシーイングがベストではなかったとのことですが、C14では最高峰に近い木星画像かと思います。

ちなみにドーズ限界を1.5倍くらいよくしたものが

5

になりますが、これくらいだとだいたい同じくらいか、まだ撮影した方が少しいいくらいでしょうか。高々1.5倍の解像度増ですが、見え味は相当よくなるのがわかります。ちなみに今回の場合、2倍だと明らかに良くなりすぎてしまうので、条件が整えばドーズ限界の1.5倍から、2倍くらまで迫ることが出来そうだということがわかります。

うーん、でも個人的にはドーズ限界なんかはもっとはるかに越えていけるのかと勝手に思っていました。意外に近い結果でしたが、まあ考えてみれば光学的には回折限界から来ているので、当たり前かといえば当たり前ですかね。

ただし、波長によっても分解能は違うはずで、PhotoShopでRGBにチェンネル分解し波長に応じてドーズ限界を求めて再びチャンネル統合して試してみたのですが、Rが解像度が悪くなり、Bが解像度が良くなるので、結果的には相殺しほとんど見た目の影響はありませんでした。なので、上の画像には波長の依存性は入っていません。

こうやってみると、やはり口径の効果は大です。他の素晴らしい成果を出している方々の画像を見比べてみても、C8よりC11、C11よりC14の方がより精細なところまで描写できているので、やはりドーズ限界のような光学的な限界がまだまだ効いていると言えるでしょう。ここにシンチレーションなどの効果が邪魔をしているので、現在の手法はそのシンチレーションの効果を除き、いかに光学的な限界まで迫るのかという状況なのかと思われます。

では他に何が関わってくるかというと、例えばシンチレーションの軽減には
  • 露光時間(転送速度とも関係あり)
  • スタック枚数
などが関わり、ノイズには
  • カメラの感度
が関わってくると言えるでしょうか。カメラをモノクロにしてLを撮影してさらに解像度が上がったりもしているので、感度も解像度に効いてくると思うのですが、まだそのメカニズムがよく理解できていません。また、C14くらいの口径では
  • カメラの解像度
は今回の検証から考えるとまだまだ余裕がありますが、さらに大きい口径だと解像度が効いてくるようになるのかと思います。あと大きな効果は
  • 画像処理
でしょう。特にRegistaxなどのWavelet処理は見た目の解像度に大きく影響します。

さて、モノクロカメラを買うかどうか。まだ結論は出てませんが、まずは今のカラーカメラで口径を250mmで撮影してみて、去年の結果を超えることを目標にして、その結果が出てから考えます。



先週のこととなってしまいますが、太陽撮影のため土、日と天気に期待していたのですが、晴れたのは土曜の夜から。かろうじて日曜朝が晴れていましたが、雲が無かったのは短時間。すぐに薄雲がかかって、昼前には厚い雲で完全に太陽は隠れてしまいました。前々回試したいと言っていたティルトマウントは、土曜朝には届いたのですが、時間切れで試すことはできませんでした。


今回やっと画像処理が少し固まってきましたので、メモがわりに書いておきます。

まず撮影ですが、センサー画素がRGGBでGが2つあるのでそちらを使った方が得だという話があります。そのためRをサチらせるようにして、G(とBも)をサチらせないように撮るということを試しました。ただ、そのせいかどうかまだわかりませんが、画像処理を進めて強調していくと数十ドット角の模様がどうしても出てしまいます。もう少し検討の余地ありですが、これは感度の点からもモノクロカメラを買った方が早い気がしています。

カメラは今回もASI178MCを使っています。SharpCapで16bit RAWモードで.serフォーマットで書き出しています。ソフトはいずれFireCaptureに移行するかもしれませんが、惑星のように激しくぶれることはないので、FireCaptureの1番の魅力の撮影時の自動アラインメントの機能が生きてきません。色などの度合いはSharpCapの方が見やすいので、しばらくはこのままSharpCapでいきます。


太陽表面の画像処理ですが、まずは撮影した動画をAutoStakkert3でスタックします。その後、最初は惑星と同じようにRegistaxに行っていたのですが、どうも全体にギトギトしてうまく出したいところだけ出すということができません。なので、スタックしたtiffファイルをそのままPhotoShopに持って行っています。

2018-03-11-0059_2_lapl6_ap1015


PhotoShop上ではサチっていない色の情報のみを使います。今回はG(Green)のみを使いました。実はモノクロ画像を扱うのは今回がほとんど初の経験になり、操作に少し戸惑いました。ある特定の色のみ使う場合は、普通にPhotoshopでカラーのファイルを開いて、「チャンネル」パネルを選んで、その右上の4本線のアイコンを押して、オプションのところから「チャンネルの分割」を選びます。すると3つの色がそれぞれグレーになった画像ができます。この際、レイヤーが複数あると「チャンネルの分割」が選べないので、その前にレイヤーの統合をしてください。

新たにできた3つの画像から今回はグリーンを使います。なので後の2枚は消してしまっていいでしょう。ここからは主に「庭先天体写真家?」さんのブログの「太陽面の画像処理」を参考にさせていただいています。というか、ここくらいしか画像処理の解説をしているページが見当たらないです。ほとんど同じ説明の繰り返しになってしまいますが
  1. まずは「レベル補正」で左のスライダーで暗い部分をなくしてしまい、右スライダーで明るい部分もギリギリまで削って階調を広げます。
  2. 次に背景をコピーして別のレイヤーに貼り付け、それに「フィルター」「その他」から「ハイパス」を選んで出したい模様が出るくらいのピクセルをセットして適用。そのレイヤーを「オーバーレイ」で重ねます。
  3. ハイパスしたレイヤーをレベル補正でチューニング。左スライダーをあげて適度に強調します。ここと、上のハイパス工程はグリーンだけ引き出してからRegistaxを使うというのでもいいかもしれません。海外のページも当たると、ImPPG(フリー、2018/3/26追記: 後日使ってみました)やAstra Image(有料)がRegistaxよりもいいという記述が各所にあります。
  4. これを「イメージ」メニューの「モード」「RGBカラー」で再びカラー画像に変換します。変換直後はグレーなので、ここから擬似太陽色をつけていきます。
  5. レベル補正で、Rは中央スライダーを左に持って行って強調、Bは中央スライダーを右に持って行って暗くします。これで太陽のような色になります。Gは触る必要はないでしょう。
  6. その後、トーンカーブでBを絞ってやると、P.S.T.の飛び気味なところが目立たなくなって少し模様が見やすくなります。逆に活動領域を白く強調したい場合はBをあげてやるといいそうですが、私はまだ太陽を始めたばかりで活動領域に出会ったことがないので試せていません。
2018-03-11-0059_2_lapl6_green_w
カラーにする手前です。


2018-03-11-0059_2_lapl6_green
カラー化後です。


プロミネンス部分ですが、こちらはエタロンの角度を合わせてプロミネンスが見やすいところを別撮りしています。

  1. まず、暗いプロミネンスが見えるくらいに、露光時間やゲインを上げて太陽表面ではサチルくらいで動画で撮影します。星雲と同じで写っていないものを出すのは難しいみたいです。フォーマットなどは同じです。
  2. あとは惑星と同じで、Autostakkertでスタックして、Registaxを使いWavelet変換で細かいところを出します。
  3. 真ん中を暗くするために、Photoshopで「楕円形選択ツール」で丸く選択して、一旦選択してから「選択範囲の変形」で微調整してリムのキワまで持っていきます。
  4. あとは選択した範囲を「露光量」で暗くするだけです。
2018-03-11-0059_2_lapl6_green


あとは、Photoshopで上の2枚を「比較(明)」で重ねます。

このような工程で3月11日の太陽を処理したのが以下のものになります。前回のような80mmに改造したP.S.T.ではなく、普通の40mmのP.S.T.です。


2018-03-11-0059_2_lapl6_green


プロミネンスもフィラメントもほんの小さなものしかなく、のっぺりしたものです。小さな黒点らしきものも見えているでしょうか。でも解像度、コントラスト不足でまだよくわかりません。


少し方法が見えてきたので、同じようなことを3月4日に80mmで撮っておいたものにも同様な加工をしてみました。ただし撮影時にGreenを最適化しなかったので、Redのみを使っています。

2018-03-04-0559_8_surface


明らかにフィラメントなどが見えてきました。同様に40mmで撮って以前処理したもの(まだ試行錯誤中だったもの)を再掲載しておきます。

2018-03-04-0256_9_surface_lapl4_ap4350_w2_2

少しだけ時間は違いますが、ほぼ同じ太陽です(ちょっと角度がずれてしまっています)。口径の40mm
と80mmの違い、画像処理方法の違いもあって今回かなりマシになったのがわかります。

でもやっていてわかったのですが、
  • フィラメント以外のもじゃもじゃは果たして意味があるのか?他の方の写真とも比べましたが、再現性がなさそうなので、ただランダムなものを撮ったらあのような模様が浮き上がってきたのか、それとも何か確かに写っているのかがまだ判断できません。
  • あと、P.S.T.のエタロンはHアルファを通す場所にかなり偏りがあるので、太陽全景を均等に処理するのはやはり難しそうです。
やはりP.S.T.だと、そもそもこれくらいが限界のようです。P.S.T.のエタロンを使ってもう少し口径を広げて試そうとは思っていますが、コントラストが上がるわけではなさそうです。コントラストを上げるのはダブルスタックがいいらしのですが、手持ちのダブルスタック用の口径40mmを別の大口径の鏡筒に適用するのはなかなか例もないようなので、何か別の手を考える必要がありそうです。90mmダブルスタックの結果はものすごいみたいですが、値段もものすごいです。

さて、明日から香川の天体望遠鏡博物館へ家族4人で大旅行です。今晩夜中に走って、明日の午前は香川観光。午後から博物館入りしてます。夜は観望会があるので、電視観望で参加者に楽しんでもらえればと思っています。


続き P.S.T. (その11): ニュートンリングが消えた
 

週末晴れるかなと思っていたら結局雪みたいなので、諦めています。今週あったこととか、その他諸々を日記がわりに書いておきます。

縞ノイズ続報ですが、FlatAide Proを試させてもらいました。フリー版で制限なしで試せるのでありがたいです。結果としては、残念ながらカラー版COMSカメラではほとんど改善が見られませんでした。そもそもカラーでは難しいはずだと、オリジナルアイデアのあぷらなーとさんも言っているのと、あとASI294MCはクールピクセルよりホットピクセルの方が多いためかと思われます。

結局「縞ノイズ」の結論としては、
  1. ホットピクセルやクールピクセルの数が多いと、除去処理で同じことをする箇所が多くなってしまう。
  2. それが撮影した全枚数に同じ位置に同じ処理をしてしまうものだから、どうしてもコヒーレント(同相)の結果を残してしまう。
  3. それがガイドずれで、画面全体にどうしても残ってしまうコヒーレントな部分をずらしながら重ね合わせて縞や縮緬のようになってしまう
ということです。ならば、「なんとかして処理を枚数の途中で変えてやってコヒーレントにならないようにしてやればいいのでは」と思ったのですが、その具体的な手段を思いつくことができず、ここで断念です。とりあえず今回しし座トリプレットは縞ノイズが目立たないPixInsightのMinimumでIntegrateして、次はditherをかけて結局撮り直すのがリベンジといったところでしょうか。敗北感が拭い去れません。

ZWOのCMOSカメラだと今の手持ちのソフトではditherをするが大変そうなので、ditherをサポートしているというAPTを少し試そうと思っています。CMOSカメラの撮影の場合、ソフトは
  • 惑星: FireCapture
  • 電視: SharpCap
  • 短時間撮影: SharpCap+PHD2
  • 長時間撮影: APT+PHD2でdither
ということになりそうです。CMOSカメラではお気軽撮影を目指しているのに、だんだん複雑になってきてしまうので困りものです。


今週あったもう一つ大きなことは、Macbook Proに入れてあるBootCamp領域が壊れてしまったことです。起動不可になり、0xc0000225というコードを出します。調べていくとどうもSSDが原因のようで、Safe modeで立ち上げようとして失敗するみたいです。そういえばこの直前に、VMwareでWindowsを走らせながらPixInsightでMac側で処理していて、Mac側のSSDがいっぱいになってVMWareが停止するとかいうメッセージが出ているのを思い出しました。色々なページを見て直そうとしたのですが、BootCampでこれが起こると直すのは結構難しいみたいです。普通のWindowsだったら直るなずのことをしても全くダメでした。マスターブートレコードの書き直しとかしている最中に一旦Mac側も立ち上がらなくなって、さすがに焦ってきたので修復は諦めてBootCamp領域を消して、再インストールしました。幸いなことに、Mac側はなんとか立ち上がり、Windows側の領域を見ることはできているので、Windows側のバックアップを取り、無事に戻すことができました。それでもアプリなどはすべてインストールし直しです。


そういえばまた変なものが増殖しました。

IMG_3567


不思議です。増えることはあっても減ることはなかなかありません。

これで昼間も楽しめそうです。ジャンク格安品でしたが、エタロン部分は問題ないらしいので、格好の改造材料です。ファブリーペローキャビティーは比較的経験があるので、そこらへんがエタロンにどれくらい応用できるか楽しみです。でもとりあえず昼間に晴れてくれないとどうしようも無いのですが、残念ながら週末は土曜も日曜も雪の予報です。




 

縞ノイズの考察の続きです。と言ってもほとんど成果なしです。

せっかくのASI294MCを撮影にも使えるのかどうかを判断するためには、縞ノイズ問題を解消しなければどうしようもありません。解決する手段さえあれば、気軽な撮影にも使えると目論んでいます。何れにせよ電視観望には十分(その1その2)なのですでに当初の ASI294MCの目的は十分に達していて、さらにあわよくば撮影もという贅沢な目標です。

具体的には、せっかく長時間撮影をしたしし座の三つ子銀河の画像を有効活用するために「縞ノイズ(斜めノイズ、縮緬ノイズ)」をなくすことですが、今回は少し絞って、
ということを探ることにしたいと思います。

試したことは、
  1. ホットピクセルのみの除去とクールピクセルのみの除去の比較。
  2. ダークフレームの効果。
  3. フラットフレームの効果。
  4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。
  5. Maximum、Minimum、Medianの違いの確認。
などです。他にも色々試していますが、かろうじて意味があることがあることだけ挙げておきます。


1. ホットピクセルのみの除去とクールピクセルのみの除去の比較

1枚のRAW画像を、オートでホットピクセルのみ、もしくはクールピクセルのみ除去して、どちらが効いているかを試しました。結果は前回のあぷらなーとさんのコメントでの推測どおり、ホットピクセルの方が圧倒的に多くて、かなりの部分が除去されているのが確認できたので、一応除去ルーチンはそこそこうまく働いていることがわかりました。一方クールで除去が確認できたのはごく僅かでした。

問題はホットピクセル除去でもクールピクセル除去でも、いずれも除去できないものがまだ結構あることです。これが前回みたMaximumで残った起点に相当するものかと思われます。まずはこの除去を目指します。


2. ダークフレームの効果

1のPixInsightでオートでホット/クールピクセル除去に加えて、ダークフレームのみを使ってホット/クールピクセルがどれくらい変わるか見てみました。結果はほとんど効果なしです。理由はリアルタイム処理をしてみるとわかりました。オートで取れる数の方が多いからで、ダークフレームを使っても除去できる数はそれほど増えないからです。これはパラメータをいじって調整すればうまく残りのダメージピクセルも除去できるのではということを示唆しています。


3. フラットフレームの効果

2の処理に加えて、フラットフレームとフラットバイアスの処理を加えました。意外なことに残ってしまう起点の除去には、このフラットフレームの補正の効果が大でした。フラットバイアスの効果はほとんど関係ないです。残っていた色から判断して恐らくホットピクセルと思われているものですが、ほとんど除去できました。この状態で、もともとバッチ処理でやっていた処理とほぼ近いものになるはずです。ここでやっと最初の疑問の、フラットも含めた前回のバッチ処理で最後だけMaximumでintegrateした時に、輝点が出てこない理由がわかりました。


4. ダークフレームを使っての残っているホットピクセルとクールピクセルのさらなる除去。

それでもまだ少し輝点が残っています。もう少しだけなんとかできないかと思い、2でやったダーク補正のパラメータをいじることにしました。

IMG_3565

下の白丸を押してリアルタイム表示で、オートで幾つ補正されるかを見ながら、それ以上に(今回やったのは3倍の数くらいで、ホットで0.1、クールで0.04くらいにしました)パラメータ調整で補正できる数を増やすことで、残っていた輝点もほぼ除去されることがわかりました。


5. Maximum、Minimum、Medianの違いの確認

上記の3、4ですでに一枚の画像で輝点をほぼほぼ除くことはできるようになったので、これで残った輝点が原因なのかどうかがやっと切り分けられそうです。この状態で撮影した枚数全てで重ね合わせてみました。その際、Integrationのパラメータをデフォルトの「Average」から「Maximum」「Minimum」「Median」にそれぞれ変えてみました。

Average: 最初にバッチ処理でやったものと基本的には同等です。

01_Average

ただ、バッチ処理の時と違い、撮影失敗に近い星像が崩れたものや、人工衛星が通った画像を省かずに全て処理したので、その影響で星像がとりあえず丸いのですがちょっと大きいのと、人工衛星の線が出てしまっています。縞ノイズはやはり盛大に現れます。この状態で画像処理を進めても背景の縞が残ってしまい、不自然に背景を暗くするしかなくなってしまうので、許容範囲を超えています。

でもこのことは意外でした。輝点が十分無くなれば、この状態でも縞ノイズは消えると思っていたのですが、見ている限り元の輝点がある状態とほとんど変わりません。これの示唆するとことは輝点そのものよりも、「輝点を処理する時に出た影響」が各画像にコヒーレントに残ってしまうということでしょうか。

ここで少し考えて、前回フラット補正なしの時に試したのですが、ホットもクールも全く処理をせずに輝点を全て残してIntegrateしたものを見てみました。

nocosmetic_calibration_integration

よくみると明るさの違うRGBの点がいっぱいあります。完全な輝点でなくても、コヒーレントに残る色々な明るさのノイズがあるということです。これらを処理した時の残りがコヒーレントに現れて縞ノイズとして残るということでしょうか。というと、これはホットピクセル除去に関係なく、明るさが違うというころからも、むしろDebayer処理のところに問題があるのではと考えられます。ここら辺もすでにあぷらなーとさんが指摘してくれています。さすがにこれは処理しきれなさそうなので、ここで今回の検証は成果なしという結論に至りました。


Maximum: これまでの検証と同じく、Averageよりも明らかに縞ノイズは少ないです。

02_Maximum_DBE

最大の明るさが出るので、星像がAverageの時よりもブレるのと、人工衛星の線が一本濃く走ってしまっています。残った輝点もはっきり出てしまっています。一つ疑問なのは、右側のアンプノイズがなぜかAverageよりも小さいことです。これはなぜだかよくわかりません。少しだけ残っている輝点は出ているのでMaximum自体の処理はされていると思うのですが。


Minimum: 今回これが一番良かったです。

03_Minimum_DBE

縞ノイズはMaximumと同程度に除去されていて、画像処理をしてもそこそこ耐えうるレベルです。変な星像の乱れもありませんし、星も変に大きくなったりしていません。。ただ一点気になったことが、不必要に暗い(おそらくクールピクセルの残り)があると、そこだけガイドのズレのぶんだけ別の縞ノイズのように目立ってしまいます。でもまあ許容範囲でしょうか。


Median: 最初Mediumと勘違いしていて、Averageと似ているけど何か違いが出るかと期待したのですが、実はMedianでした。

04_Median_DBE

Medianはより飛び抜けたところを省いて重ね合わせるものということなので、人工衛星の軌跡などは取り除かれました。その代わりにノイズを少し犠牲にするそうですが、見た目ではよくわかりませんでした。いずれにせよ、縞ノイズに関してはAverageとほとんど同じで、効果はありません。



うーん、厳しいです。このままMinimumでいっても、今回に限っては画像処理に影響ないくらいにはなっているのでもうこれでも十分な気もします。それでも次はFlatAide Proでカラーカメラでうまく縞ノイズが除去できるかもう少しだけ試してみたいと思います。(2018/2/17追記: 試しましたが、やはりほとんど効果はありませんでした。モノクロでいつか試すことにしたいと思います。)


それにしてもPixInsightの操作方法にもだいぶん慣れて来ました。今回はフラットの補正がステライメージに比べて操作できる箇所が何もないのが少し気になりました。そのためか、まだ右側上部の大きなアンプノイズがフラット補正で取りきれなくて残ってしまっています。それでも他に色々いじれるパラメータがあるのはさすがです。昨日からまた雪が降り続いています。しばらくは天気は期待できなさそうなのでまた画像処理と機器の整備くらいになりそうです。


長時間露光で問題になる縞ノイズの考察です。

  • ガイドのズレと同じ方向に縞が出る。
  • RGBと黒の4色。
  • 太さは一枚のコンポジットされた画像の中ではだいたい一定。でも画像によって細かったり太かったりします。太さは、ずれの長手方向に垂直な方向のずれの大きさに一致している?
  • クールピクセル説が強い。でも本当にこんなに前面にクールピクセルが広がっているのか?
  • カラーセンサーでクールピクセルが一つあると、上下左右のみでなく、斜め方向にも影響が出るので、ある程度の太さになる。
  • 不思議なのは、ガイドでずれたのを比較明合成した星像のずれの長さよりも、縞一本の長さの方が全然長く見えるのです。ずれの長さの3倍くらいは長く見えます。でもRGBと黒の4色しかないので、たまたま同じ色の線が繋がっているのが目立っているだけに見えなくもないです。ある色があった時2色繋がるのが4分の1で、3色繋がるのが16分の1。長いのは目立つのと、短いものも存在するので、長く見えるというのは説明できそうです。
  • 10分単位くらいに分けてコンポジットし、それをさらにコンポジットしてもダメだという報告あり(自分では未確認)。
と、ここら辺まで書いてあぷらなーとさんのコメントとブログを見て、やっとクールピクセルが原因というので納得してほぼ解決したのですが、せっかく自分でも途中まで考えてはいたので、そこまでだけでも書いておきます。


まず試したのは、簡単にするためにクール補正も、フラット補正もダーク補正もせず、三つ子銀河のIntegrationをすることでした。ImageCalibrationがなぜかうまくいかなかったのでStarAlignmentで代用。その結果がこれです。

nocosmetic


赤とか青とか緑とかのかすれた線が無数にあります。全部クールノイズだと思われます。前面に散らばっています。もっとわかりやすくするために、位置合わせをしないただの比較明合成をします。

nocosmetic_nocalibration_integration_a


クールノイズが点になって無数の輝点になって見えます。この時点で、やっとクールノイズの可能性が高そうだと思い始めました。

今度はクール補正をかけたものの比較明合成です。

cosmetic_nocalibration_integration_a


クールピクセルがなくなってかなりましに見えます。これなら変なノイズとかでなさそうなので、これで位置合わせを行います。

cosmetic_calibration_integration_a


でも結果はなぜか縞ノイズが出てしまいます。この理由が最初全くわかりませんでした。ところがIntegrartionの時にAverageを使わずにMaximumを使うと理由がかなりはっきりしました。

cosmetic_calibration_integration_Maximum_a


Maximumなので一番明るいものが残っています。形をよく見ると縞ノイズとかなり一致しているように見えます。Maxmumで見えるということは、このような明るい輝点はまだ存在していて、飛び抜けたもの含んで無理やりIntegrationの時にAverageで平均化したりすれば、さすがにそこにムラができるのは不思議ではありません。ImageIntegrationの時にPixel rejection(1)で「Rejection Algorithm」を「min/max」にすると多少は改善できることもわかりましたが、それでも縞は残ります。

あと、Maximumは星像が歪むという弊害があることもこの時気づきました。昨晩はここで終わって寝てしまいました。


その後、あぷらなーとさんからのコメントに答える形で前々回のページに書いたのですが、今日になってあぷらなーとさんのブログの過去記事を見るとここら辺のようなことがすでに見事に検証されていて、さらに輝点を加算するという解決法まで示してくれています!しかもぴんたんさんがすでにFlat Aide Proにその手法を実装してしまったとは!

カラー画像でもうまく輝点が出ないようにコンポジット前の画面を補正してしまえばいいと思いますが、あぷらなーとさんがやったようなモノクロならまだしも、やはりカラーだとちょっと難しそうです。


HUQさん、あぷらなーとさん、Scopioさんクールノイズにいつまででも納得できなくて色々説明してもらって申し訳ありませんでした。そして、こんな私に付き合っていただいてきちんと説明してくれて本当にありがとうございます。

自分で納得でないないと気が済まないのですが、今回の話は最初からアプラナートさんの2017年の9月くらいの記事を読んでおけば済む話でした。でも自分で試すという方向性はやめたくないので、また変なことを言うかもしれませんが、初心者のたわごとと思って温かい目で見ていただけるとありがたいです。


 


 

ASI294MCでのバーナードループの固定撮影の続きです。

さて、5秒、100枚のスタックですが、三脚にASI294MCを取り付けるだけのお手軽固定撮影のために、時間とともに画面の中で星が動いていきます。歪みが全くないレンズならば問題ないのでしょうが、そんなレンズは存在しません。なのでそのままスタックすると中心と端の方で、どうしても位置にズレが出てきてしまいます。Steller Imageは基本的に並進と回転のみで位置合わせをしているので、このような画面にひずみのようなズレがある画像をうまくスタックすることは苦手なようです。PixInsightはこんなひずみもうまくコンポジットしてくれるとのことなので、今回初めてPixinsightを使ってみました。とりあえずは無料の45日制限のお試し版です。無料といってもフル機能使えるので、試して気に入ったら購入するつもりです。

処理するものはSharpCapでASI294MCを使って5秒露光での撮影で得られた100枚のファイルです。撮影中にダーク補正もフラット補正もしてしまっています。RAW16モードでfits形式で保存したものです。


まず思ったことは、PixInsigtはものすごくとっつきにくいです。ある程度噂では聞いていましたが、これほどとは。とにかくメニューが多すぎて何がどこにあるかわからない。どれがどの機能を指しているのかよくわからないといった状況です。とりあえず迷ったところ全部書いておきます。この方法が正しいかどうかもまだよくわかっていません。かろうじてコンポジットまでできた経緯です。同じように迷えるどなたかの役に立てばという思いです。

  1. まず、ファイルをどうやって開けばいいのかわかりません。「File」メニューから「Open」は意味がありません。「Process」メニューの「Preprocessing」の中のメニューを選択して開くことが大事です。ここまでわかるのに一苦労でした。Preprocessingという言葉はSteller Imageで言うコンポジットまでの一連の処理のことを指すみたいです。
  2. その「Preprocessing」の中からまずは「CosmeticCorrection」を選びます。ホット、クールピクセルの除去などができるようです。「Add Files」ボタンを押して、今回撮影した複数の「.fits」を全て選択して開きます。次に「Output」から保存したいフォルダを指定します。フォルダを指定しないと同じフォルダにファイルが追加されていきます。「Use Auto Detect」にチェックして、「Hot Sigma」も「Cool Sigma」もチェックします。下の左の黒丸を押して実行します。問題があればここでエラーダイアログが出ますが、特に問題がなかければテキストベースのコンソール画面のようなものが出てきて、処理が進んでいくのが見えます。
  3. これまたわかりにくいのですが、それぞれの処理画面の左下の三角をクリックして、クリックしたまま枠の外に出すと「Instance」というものが作成されて、アイコンができます。このアイコンは作業のリンク(ショートカット)のようなものと理解しています。画面を消してしまっても、このアイコンをダブルクリックするとまた同じ画面が出てきます。
  4. 次に再び「Process」メニューの「Preprocessing」にいき、今度は「Debayer」を選びます。白黒の画像をカラー化します。先ほど処理してできた「_cc.xisf」という拡張子がついたファイルを「Add Files」ボタンを押して全て開きます。ここで左下の黒丸ボタンを押してエラーが出て悩みました。この解決方法は一番上の「Bayer/mosaic pattern」を「Auto」から「RGGB」に変更します。どのパターンにするかは事前に調べておいたほうがいいです。SharpCapの方でDebayer方式をかえて、変な色にならないものを見つけました。これで黒丸が押せるようになり実行できます。まだ、黒丸と黒四角の違いはよくわかりません。もし確認したければ、ここでできた「_cc_d.xisf」ファイルを「File」のメニューの「Open」から選んでみると見事カラーになっているのがわかります。ここでも左下の三角を押してInstaceを作っておくといいでしょう。
  5. 再び「Process」メニューの「Preprocessing」にいき、「StarAlignment」を選びます。位置を揃えてコンポジットするための事前計算です。この事前計算は「ImageCalibration」でもできるみたいですが、それぞれの画像で歪んでいるような場合はこちらの「StarAlignment」がいいみたいです。(2018/3/22追記: ImageCalibrationはダーク補正やフラット補正をするプロセスです。本来Debayerの前にする処理です。今回は撮影時にダーク補正もフラット補正もしているので、簡単のため割愛します。)ここも普通に「Add Files」からすぐ上で作ったカラー画像「_cc_d.xisf」ファイルを全て選びます。一つだけ違うのは、さらに基準となるファイルを一番上の「Reference Image」で選ばなければならないことです。「Add Files」で選んだうちの一枚を選びます。すぐ横の「VIew」を押して、「File」を選んで、さらに右の三角を押せば選択できます。色々オプションが選べるみたいですが、よくわからないのでまずはそのままの設定でやってみました。あとは左下の黒丸を押して実行します。
  6. 最後は「Process」メニューの「Preprocessing」の「ImageIntegrartion」でコンポジットです。同じく「Add Files」で最後にできた「_cc_d_r.xisf」ファイルを開きます。ここも色々オプションがありますが、全てデフォルトです。まだ細かいことはよくわかりません。黒丸を押して待つとやっとコンポジットされた画像が出来上がります。画像が2枚出てきて、一枚はコンポジットしたもの、もう一枚は暗い除かれたものみたいです。コンポジットされたものを「File」メニューの「Save As」で適当なファイル形式を選び保存します。同じfits形式でも色々互換性とかの問題があるみたいなので、とりあえずPixinsight標準のxisf形式で保存して、あとは色々な形式で試して目的のソフトで開くことができるか確認するといいかもしれません。Steller Imageでも開くことができるものは限られていました。
  7. ここからPixinsight語で言う「Linear Process」(Steller Imageで言うカブリ補正やレベル補正) に入っていきます。この際Screen Transfer Function (STF)というのを使ってレベル補正に相当することをしていくようなのですが、最初レベルを変えるSTFバーの出る画面がどうしても見つかりませんでした。中途半端に「Image」メニューの「Screen Transfer Function」に色々あるのがわかりにく原因で、バーを出したい場合には「Process」メニューの「IntensityTransformations」のところにある「Screen Transfer Function」を選ばなければいけません。メニューとオプション多すぎです。ここらへんで力尽きました。
ところで、以上の行程はバッチ処理での自動生成もできるみたいですが、今回はダークとかフラットが別のファイルになっていないので、理解する意味も含めて一つ一つ手でやってみました。バッチ処理はかなり便利とのことなので、次にまた試してみようと思います。


さて、比較のためにSteller Image8でも同様にコンポジットしてみました。まずSteller Image バージョン8の売りの「自動処理モード」だと、SharpCapで保存されたfitsファイル(RAW16)が白黒のままコンポジットされてしまい、コンポジットされた画像もカラー化することができませんでした。結局いつものように「詳細編集モード」で100枚を開いて、一枚一枚「ベイヤー・RGB変換」するしかありませんでした。「Altキー+I、Altキー+Y、Enter」で多少早くできますが、それでも100枚を一枚づつ手動で変換しなくてはならないことには変わりありません。この手間だけは冴えないですが、あとはバッチ処理でほぼ自動でできます。

できた画像を比較してみます。まず興味のある中央と四隅を拡大してみます。

cut
Steller Image8(左)                                 Pixinsight (右)


左がSterller Image8、右がPixinsightです。中央はそれほど変わりませんが、四隅を比べるとやはりSteller Image8だと流れたりぼけたりしてしまっています。Pixinsightも少し流れているように見えますが、これはレンズのせいで、一枚一枚の個々の画像ですでに流れてしまっています。f1.4のレンズを一段絞ってf2.0で撮影したのですが、ピクセル等倍で見るとまだ流れが目立つので、もう一段絞ったほうがよさそうです。

つぎに、全体の比較も面白いので見てみます。上がSteller Image8、下がPixInsightです。

Capture 23_35_59_00001-00101_23_36_01

integration

驚異的なのが、Steller Imageの方は、固定撮影のために空が流れていってしまい撮影できていない枚数が少ないところは普通に暗くなっているのに対し、PixInsightの方は撮影できていない部分も枚数で重み付けして明るさを復元していることです。

やはり噂通りPixInsightのコンポジットはかなり強力なようです。


 今回初めてPixinsihgtを使ってみました。確かに高機能で、性能もいいです。でもなぜ日本でSteller Imageがメジャーなのか?やっとわかりました。Steller Imageの方がはるかに簡単だからです。慣れの問題もあるでしょうし、Steller Imageは?なところも多少ありますが、日本語ですし、操作は想像がつきますし、ある程度一本道だし、マニュアルなどもしっかりしています。簡単にできるということは思っていた以上にありがたいことだと実感しました。


今回もコンポジットまではPixinsihgtでやりましたが、それ以降のカブリや周辺減処理、デジタル現像に相当するものはPixinsightでもできるはずですが、まだ手が出ません。PixInsightは疲れたのでしばらくはここからはいつも通りSteller Image8で続けることにします。

integration4

富山県富山市, 2018年1月13日23時36分
NIKKOR NC 35mm f1.4 + ASI294MC 固定撮影
露出5秒x100枚 総露出8分20秒
PixInsight + Steller Image 8、Photoshop CCで画像処理


最後の仕上げにSteller Image8とPhotoshopCCで続きの処理をした画像が上になります。さすがに5秒露光の100枚だとトータル10分もないので厳しいです。画像処理でかなりごまかしています。それでも馬頭星雲あたりは見えていますし、目的のバーナードループも見えています。他にもバラ星雲もなんとか見えますし、うっすらとですがエンゼルフィッシュも少しは出ているみたいです。

自宅の庭で、赤道儀も使わない、ポンと適当に置いた三脚に固定での、わずか10分のお気楽極楽撮影
なら、まあ十分ではないでしょうか。この方法だと部屋の窓際に適当に置くだけでいいので、かなり楽かもしれません。

今の制限は、一回の露光で星が流れないという5秒からきているので、ちょっとめんどくさくなりますが、ポタ赤でも使ってもう少し長い露光時間でやってみるのも面白いと思いました。



このページのトップヘ