ほしぞloveログ

天体観測始めました。

今年もまた県天の星仲間に新年会に誘っていただきました。毎年年明けにはオフィシャルな例会と、仲のいい何人かで集まる飲み会があるようなのですが、1月21日に例会で皆さんとは顔を合わせたばかりで、しかも結局飲み会もかなり同じ顔ぶれです。

駅近くの居酒屋で、刺身がとても美味しいところでした。勝駒というとても美味しいお酒もありました。量もたくさんあり、お腹いっぱいになりました。

IMG_3564
もう食べ終わってほとんどごちそうさま間近の写真です。

料理ももちろんいいのですが、やはり話が盛り上がります。星ネタはもちろん、天文機材ネタ、コンピュータネタなど、趣味が同じ人たちなので、話が尽きることがありません。特に皆既月食は富山では雲が多すぎてみなさんダメだったみたいで、このブログでの写真を見てよくここまで撮れたと驚いた方が多かったようです。嬉しかったのは、ブログを見てくれている方が意外にいてくれていることです。月食の記事もそうですが、星カフェSPICAの記事を見て、行ってみたいという話でも盛り上がりました。電視観望の話も少し出て、県天でも興味を持ってくれている方がいることも嬉しかったです。

今回は遠くの席の方達とあまり話せなかったのが残念でした。2次会に行かれる方も結構いたみたいですが、土日は終バスの時間が早いので、私は1次会だけで退散しました。もう県天の方達とも2年近くの付き合いになり、何度か会うことで顔と人物像が一致するようになって打ち解けるようになってきました。何十年も所属している方も多いので、みなさん古くからの顔見知りにもかかわらず、私のような新参者を受け入れてくれるので、とても嬉しく思っています。


実は昨晩久しぶりに晴れて意気揚々と外に出て撮影の準備をしたのですが、赤道儀の赤経側がクラッチを緩めてもなぜか全く回らなくなってしまいました。回転部分の金属の円筒形の接触面に何かを噛んでしまっていたようで、潤滑剤を染み込ませてやっとの思いで外したのですが、傷がいくつか付いていました。再びはめようとしても、回転するどころか、回転部分を内側の円筒形のところにはめ込むことも困難で、さすがに仕方ないので、傷の部分をヤスリで削って、コンパウンドで仕上げました。その甲斐もあって、なんとかハマるようになって、前回壊れて折れてしまった時に買っておいたグリスをきちんとつけて、無事にスムーズに回転するようになりました。購入してから1年9ヶ月、酷使しすぎかもれません。

結局昨晩は修理のために星もほとんど見えずに不満だったのですが、今日の飲み会で楽しかったので、まあ帳消しでしょうか。

 

天文に興味を持ち始めてから初の皆既日食でした。楽しみにして色々準備はしていたのですが、そこは冬の北陸。天気は厳しいことは予想していましたが、2018年1月31日が平日なことと、雪のため遠くに遠征するわけにも行きません。ましてやこの日は全国的に天気は下り坂。まあ見えればいいかくらいの気持ちで自宅の庭で撮影のセットアップをしました。


whole4_narrow
富山の自宅での撮影。全て雲間の悪条件から苦労して炙り出した画像です。
上から右回りで、19時57分、20時55分、21時22分、
皆既に入って22時04分、22時35分、22時53分、
皆既から出て23時58分、0時07分です。 


夕方空を見ていると晴れ間も少しあり、満月が昇ってくるのも時々見えています。機材は広角の35mm+EOS 6Dで移動と欠け具合をみるためと、アップでFS-60Q(f=600mm)+ASI294MC(フォーサーズ)をAdvaned VXで追っかけ。雲が多かったので広角は意味がないと早々と諦め、アップのみにかけました。 キャプチャーソフトはいつもは月の時はFireCaptureなのですが、ゲイン変動が激しいので使い慣れているSharpCapをRAW16モードで使い、.serファイルで保存しました。


IMG_3527
最初の頃、まだ月が見えていた時分です。
これ以降雲がどんどん多くなっていきました。



この日は雲があまりに多いのでずっと外で待っている気にもならず、StickPCを利用しての自宅の中からのリモートでの撮影になりました。月や惑星の場合できるだけコマ落ちなしで撮りたいために、まともなUSB3.0が使えるノートPC(私の場合Macbook Pro)にするのですが、午後8時から午前1時と5時間にわたる長時間のためバッテリーが持たないことと、雲が多くて適度にコマ落ちした方が雲の影響が平均化されるので、むしろ転送速度の遅いStickPCの方が適していました。StickPCは外部バッテリーを使えるので、3.3V換算で20000mAの大容量バッテリーでこれくらいの時間なら余裕で持たせることができます。

時間変化も大きいのとファイルサイズが大きくなりすぎるてディスクが溢れても困るので100フレームを基本にしました。露光時間とゲインは雲のかかり具合で大きく変わるので、リモートで見ながらSharpCap上でその場合わせです。 


実際の撮影は20時少し前くらいからです。欠け始める前はうっすら雲がかかっていましたが、まだ結構見えます。ところが程なくして雲が厚くなってしまって半分諦めモードに。しばらくして雲間にちらっと見えるとCMOSカメラ越しでは欠けている様子がよくわかります。すかさず雲間の明るく写るところを狙って何ショットか撮影します。下はだいぶんかけてきた時。

2122
21時22分、雲間を狙っての撮影。動画のうちの一枚。
雲間といっても薄雲は常にかかっていてい、
たまたま少しだけ明るくなったような時です。


2018-01-31-1222_1-Capture_lapl8_ap27_w_wh_bg
上の動画をスタックして、画像処理をしたもの。
かなりマシになりますが、やはり雲の影響は大で、
どうしてもシャープさにかけてしまっています。


問題は皆既に入ってからくらいです。雲が相当厚くなってしまって、ほとんど見ることができなくなってしまいました。それでも時折カメラでは輪郭が映るので、その時を狙って何ショットか撮りました。下の撮って出し画像を見てもらってもわかりますが、かなりひどいものです。撮影の合間にちょくちょく外に出て双眼鏡や裸眼で見ようとしたのですが、部分月食は雲で暗いのか月食で暗いのかの見分けがほとんどつきません。暗くなった皆既中は雲越しにほんとにあるかないかくらいの、うっすら赤っぽく見えただけです。ほとんど見るに堪えなく、それでも何とか見えるようにしてしまう高感度カメラがいかに優秀かを改めて思い知らされました。

2204
22時04分の撮って出し画像。動画のうちの一枚です。
一応高感度カメラだと写っていますが、
実際の眼視では赤いぼんやりくらいにしか見えません。


2018-01-31-1304_8-Capture_lapl8_ap104_w_bg_brown
上を画像処理した後の皆既日食。
この日の富山でこれくらいまで出せれば上等でしょうか。
雲の厚さが刻々と変わるので、ゲインも露出時間もバラバラです。
色も基準となる色がよくわからないので、多分に想像が混じっています。 


画像処理ですが、実は今回雲が流れまくっている動画ばかりです。なんとか画像を抽出しようとAutoStakkert3をはじめ、Registax6、AviStack2、どれもうまくいかなくて最後は昔のAutoStakkert2も試しました。もともとダメな動画は、パラメーターをどういじってもどうやってもうまくスタックできず、その一方でうまくいく動画はどれでやってもうまくいきます。あえて言うならAviStack2が一番強力でしょうか。でも時間がかかりすぎます。4144x2816の画像約50枚のスタックで、4コア使って2時間近くかかりました。少し破綻したところは残りますが、AutoStakkertやRegistaxではどうしようもなかった動画もかろうじて見えるくらいまで持っていってくれました。それでもさすがにこの処理速度では実用的ではありません。結局あきらめてAutoStakkert3でがんばってみることにしました。

今回このような悪条件のために、AutoStakkert3をかなり使い込まざるを得ず、色々気づいた有用なことがいくつかあるのでメモしておきます。今回は月で試しましたが、機能を理解すれば惑星にも応用可能かと思われます。特に、私自身これまでなかなか意味が分からなったたパラメータとかも結構あったので、多分他の方にも参考になるかと思います。

  • CPUコアに余裕があるなら、真ん中の「Status」の横にある「Cores」を最大にしておくと処理速度が圧倒的に早くなります。元々の1コアと最大の8コアで5倍くらいは速度が違いました。
  • AutoStakkert3で月をスタックする場合、普通は「Surface」モードにするのですが、雲が常時流れているのと、ゲイン変動が激しくサチッたり暗すぎる部分がかなりあるので、スタックした像がぐちゃぐちゃになってしまいます。最初の方はPlanetモードを主に使いました。ただ、「Planet」モードのアラインメントはどうも明るい部分を追いかけているようで、雲が流れて明るい部分がずれていくようなもののスタックは得意でないようです。
  • 結局「Surface」と「Planet」は散々迷いましたが、最後は決定打が出て一択の方法に落ち着きました。一番良かったのは「Surface」できちんと緑枠の「image stabilization anchor」を(コントロールキーとクリックで)特徴ある点にきちんと置いた時でした。模様がきちんと出ているところや、エッジのところです。これはものすごく重要で、この位置によって出来上がりの画像が全く違ってきます。逆に、アンカーを画面の中の特徴のない適当なところに置いた「Surface」モードはボロボロで、「Planet」モードの方がましです。
  • Reference Frameの「Double Stack Reference」は雲などの悪条件の時はチェックしておいた方がいい結果が得られる場合が何度かありました。
  • 2)Analyseの結果のQualityとは明るさがメインのようです。他にも見ているところはあるかもしれませんが、少なくとも明るさはQualityの一つの指標になっているようです。なのでサチっているところが多いと、そこがクオリティーがいいと判断されることがあるようで困りました。
  • 2)Analyseが終わった時点で、画像が出ている画面の上の方の「Play」ボタンを押したときにターゲットが大きく揺れているようならその時点でダメです。逆に言うと、例えば揺れが後半に出ているなら、揺れていない範囲まではスタックしても大丈夫です。もし前半早いうちから揺れていたら、これ以降どうオプションをいじってもまともな画像になりません。
  • スタック枚数が少ないと、意外に変な凸凹が出て悪い結果になることが多いです。「Play」ボタンを押したときに揺れていさえしなければ、スタック枚数をできるだけ多くした方が滑らかになり明らかにいい結果が得られます。
  • 悪条件の時ほどAPサイズは大きい方がいいです。今回はデフォルトの4つの設定の中では「200」が一番いい結果でした。細かいとブロック状のノイズが出る時があります。また出来上がった画像の解像度を比べると、APサイズを大きくとった方が細部まで出るようです。
  • ブロックノイズを消すもう一つのテクニックが、画像の暗部分やはっきりしない部分にAPを置かないことです。Min Brightの値を大きくしてAPが置かれる面積を小さくしてやると、ブロックノイズが出にくくなります。その代わり、スタックの精度がなくなるので、画像がずれることがあります。
  • それでも消えないブロックノイズに悩まされましたが、最後はAPのサイズを300とか400とかデフォルトよりも大きくして、APの数を10点ほどにしてうまくノイズを消すことができました。

今回は雲が多く、そもそも動画自身のクオリティーが低いので、画像処理が大変で、月食の日からかなり時間がかかってしまいました。結果はこの記事の一番最初に貼った画像になります。改めて見ると、この悪状況の中、一応欠け始めから終わりまで追っていて、よくここまで画像処理で炙り出せたなというところでしょうか。もちろんスタックしているにもかかわらず、天気がいいところの一発どりにもはるかに及びませんが、それでもまあ満足です。眼視の方も、この悪天候の中かろうじて見えたと言っていいくらいのレベルですが、撮影も眼視も含めて初の皆既月食をいろいろ楽しむことができました。

次回今年の7月は条件が今回ほどいいわけではないですが、今一度リベンジしたいと思います。あとは3年後でしょうか。また楽しみです。



 

大阪に行く用事があり、兼ねてから行ってみたかった星カフェSPICAに寄ってきました。前回のCafe TEMOに引き続き、星関係をうたっているカフェ訪問の第2弾です。

場所は地下鉄松屋町駅から歩いて数分。表通りから一本入ったビルの5階にあります。

 
IMG_3532

階段を上がってドアを開けると、室内は壁に投影された星空を見るためか、思ったより暗くて目が慣れないうちは足元を見るのも大変です。店員さんの案内に従って席に着きます。途中VixenのPortaらしき望遠鏡、他に青い鏡筒が見えました。後で聞いたらSCOPETECHのSUBARUバージョンのメローペ 80Aのようです。SCOPETECHは自宅でも子供用に使っているのと、今使っているFS-60Qと同じような青色なので一度見て見たいと思っていました。実物を初めて見ることができたのはよかったのですが、さすがに暗くて、青色がかろうじてわかるくらいであまりよく見えなかったのが残念でした。

今回一人だったので、カウンター席に通されました。メニューはオリジナルカクテルがたくさんあり、きれいな見た目と宇宙にちなんだ名前がワクワク感を演出します。今回まず頼んだのは「アンドロメダ」。

IMG_3533
左の雨の日サービスのコースターをもらって来るの忘れてしまいました。残念。

綺麗な青色とライトの光がアンドロメダ星雲を思い起こさせてくれます。せっかくカウンターに座ったので店長さんと少し話しました。ちょっと驚いたのが、以外に星好きの、特にマニアと呼ばれる人たちはあまり来ないとのことです。割合的にもおそらく1割くらいだとか。世間的に見て星マニアの比率はそれほど高くはないので、まあ1割なら多いかとも思ったのですが、周りを見ると私以外はカップルが2組、残りは全て女性二人組でした。男二人というのはまずないとのことなので、天文マニアが来るのは意外に敷居が高いのかもしれません。でも一人のカウンター席は比較的空いているとのことなので、逆に一人なら気楽に来れそうという印象です。私みたいにわざわざ遠くから来るお客さんも多いみたいで、一組は山口からとのことでした。なんでもユニバーサルスタジオの帰りに寄っていく人も多いとのことです。


IMG_3537
カウンターの上には宇宙にちなんだ小物が。

カクテルが一杯終わって、次に夕食も兼ねて「スピカバーガー」というハンバーガーを頼みました。ハンバーグが凄くジューシーで、家庭で食べる手作りハンバークのような食感でとても美味しかったです。その時一緒に頼んだのが、「ミルキーウェイ」というカクテルです。こちらも名前のごとく天の川をイメージしています。

IMG_3534


19時半からはお待ちかねのプラネタリウムです。時間が近づくと準備のためにオーダーストップに。

IMG_3536


プラネタリウムが始まる直前にお会計で帰ろうとする女性二人組がいらっしゃいましたが、店長が必死に止めていました。これを見なければただの雰囲気のいいバーと同じだというのが持論だとのことです。
 
プラネタリウムですが、壁に映し出された星空を見ながら、店長さんの軽快なトークを楽しむことができます。話は普通のプラネタリウムとは全然違って、かなり個性的で、ちょっとお笑いが入っています。店長さんによると、話は何パターンもあるそうなので、何度かリピートして違うバージョンを聞くのも楽しいかと思います。後で聞いたところによると、一人で40分くらいは星ネタでお笑い芸人のように持たせられるそうです。

IMG_3549


プラネタリウムが終わって、もし天気がいい場合は外に出て実際の星を観測するのですが、あいにくこの日は小雨が降っているため天体観測は中止で、その代わりにプラネタリウムがロングバージョンだったようです。皆既月食の時には60人以上が屋上に上がったとか。

プラネタリウムが終わると、私以外のお客さんは結構続けざまにゾロゾロと帰ってしまい、店内は私だけに。そのため店長さんとじっくり話すことができました。その時頼んだのが、「コメット」というノンアルコールカクテル。女性が多いということで、ノンアルコールのオリジナルメニューも充実しています。

IMG_3551
下に入ったライムが彗星をイメージしています。


この店はすでに7年になるとのことのなのですが、もともと店長さんは公務員で在職中からこういったコンセプトの店を開くことを考えていたそうです。私と同じで、子供の頃から街にいて星が全然見えなかったためか、小さい頃から星が特別好きだったわけではなく、車を手に入れて遠くに星を見に行ってみたら、これまで大阪で見ることのできなかった星が、リアルに存在しているのを見てはまってしまったそうです。大阪に帰って夜空を見てみると、今まで見えなかった、というより見ていなかった星が街中でも存在しているということに気づいて、「街中でも星があるということに気づいて欲しい」という思いでこの店を続けているとのことです。前職を辞めてから2年ほどの準備の間、物件を探しつつ、科学館に多い時は週2ペースで通ったということで、その時の知識がいまのトークのベースになっているとのことです。

星のトークをカフェバーと結びつけたのは店長さんの素晴らしい才能でしょう。普通のプラネタリウムのように教育を目的として話す場はたくさんあるけれども、星を綺麗だとかロマンチックだとか、雰囲気を主に楽しむのもありなのでは?というのがこの店を立ち上げた目的だとのことです。(2018/2/3追記:店長さんがツイッターでコメントしてくれました。『ここちょっと違います(笑)これは「自分が楽しむため」の理由で、お店が伝えたいのは雰囲気でも星の美しさでもなく、「星を楽しむこと」!』とのことです。なるほど、お客さんにも星を楽しんでもらいたいというのが一番なんですね。「自分が楽しめないとお客さんも楽しめない」というようなことも言われてたので納得です。申し訳ありませんでした。)

その中で星を好きになってもられえばいいとのことで、私もすごく共感できました。ごくごく一般の人に星をもっと好きになって欲しいというのが根底にあるようで、これは一つのやり方だなあと感心しました。

天文マニアにとっては、プラネタリウムでの店長の語り口が大いに参考になるかと思います。観望会などで話す機会も多いと思いますが、私も色々アイデアをもらいました。店長さんとの会話が面白いので、もっとずっとしゃべっていたかったのですが、第二ローテーションのお客さんが来はじめて、忙しくなりそうなところで店を後にしました。とても雰囲気のいいカフェで、大阪に来た際はまた是非とも寄りたいと思います。

店長さんから、他にもこんなコンセプトのカフェが最近ちょこちょこでき始めているという話を聞きました。心斎橋、神戸、名古屋だそうです。また探して色々行ってみたいと思っています。(追記: 2018/5/17、出張の折立ち寄って見ました。)

志摩でご一緒したAさんが自宅に遊びに来ました。これまで観望会で星が好きな子供がくることはよくあったのですが、よく考えたら星で知り合った仲間が自宅に遊びにくるのは初めてかもしれません。

写真も好きだという長野のAさんは、撮影旅行で今福井なのですがという連絡が金曜にありました。福井、能登半島と回って、富山に寄ってくれたみたいです。大雪の中心配だったのですが、土曜日夕方に無事に富山に到着しました。 

自宅では機材を見たり、お決まりの星談義で盛り上がって、時間はあっという間に過ぎます。外はまだ雪で道路も厳しそうなので、外食は諦めて夕食は家でキムチ鍋。もともとうちではキムチを食べる習慣はあまりなかったのですが、志摩でAさんにチゲ鍋を作ってもらってからキムチの美味しさに目覚めて、ちょくちょくキムチ鍋を食べるようになりました。特に娘のNatsuはキムチ大好きっ子なのですが、下のSukeは辛くて食べれないため、今回はキムチはお好みで後入れです。でも後半からSukeもちょっと食べれるようになり、キムチを鍋に入れて煮込んで食べることができましたが、意外や意外、後入れの方がキムチが冷たくてシャリシャリして美味しかったりしました。

外は雪は止んでいたのですが、一面曇り空で撮影とかは流石に無理です。なので夜は画像処理で星マスクの練習でもやろうとか喋っていたのですが、Aさんが子供に付き合ってくれてトランプやらオセロやらで、あっという間に時間が過ぎてしまいました。もともと五箇山か白川郷に夜からライトアップが終わった合掌造りの撮影に行こうと考えていたみたいなのですが、結局夜遅くなってしまい泊まって行くことに。ただ、冬場で自宅に布団が余っていないので、結局持参した寝袋で寝てもらってしうことになってしまい申し訳なかったです。 

IMG_3512
かまくら作りに精を出すAさんと子供二人。私はサボってブログ書きに。

昨日の晩のゲームに続き、朝起きても子供二人のかまくら作りに付き合ってもらい、逆にすっかりお世話になってしまいました。今朝は富山にしては珍しく気温がかなり低くて、雪が固まらないのでバケツで水をかけていました。出来上がったかまくらは5人は入れる大きなもの。Aさんお疲れ様でした。

目的の画像処理もできなかったのですが、来月に八ヶ岳でまたお会いする予定なのでまあいいかと。初めての星仲間のお泊まりでしたが、改めて考えると星を始めてから1年半くらいで新しい知り合いが物凄く増えました。この歳になると仕事を変わるでもしない限りなかなか知り合いは増えないのですが、同じ趣味だと盛り上がってすぐに友人になれるので、新しい趣味というのもいいものだと実感しています。


 

長時間露光で問題になる縞ノイズの考察です。

  • ガイドのズレと同じ方向に縞が出る。
  • RGBと黒の4色。
  • 太さは一枚のコンポジットされた画像の中ではだいたい一定。でも画像によって細かったり太かったりします。太さは、ずれの長手方向に垂直な方向のずれの大きさに一致している?
  • クールピクセル説が強い。でも本当にこんなに前面にクールピクセルが広がっているのか?
  • カラーセンサーでクールピクセルが一つあると、上下左右のみでなく、斜め方向にも影響が出るので、ある程度の太さになる。
  • 不思議なのは、ガイドでずれたのを比較明合成した星像のずれの長さよりも、縞一本の長さの方が全然長く見えるのです。ずれの長さの3倍くらいは長く見えます。でもRGBと黒の4色しかないので、たまたま同じ色の線が繋がっているのが目立っているだけに見えなくもないです。ある色があった時2色繋がるのが4分の1で、3色繋がるのが16分の1。長いのは目立つのと、短いものも存在するので、長く見えるというのは説明できそうです。
  • 10分単位くらいに分けてコンポジットし、それをさらにコンポジットしてもダメだという報告あり(自分では未確認)。
と、ここら辺まで書いてあぷらなーとさんのコメントとブログを見て、やっとクールピクセルが原因というので納得してほぼ解決したのですが、せっかく自分でも途中まで考えてはいたので、そこまでだけでも書いておきます。


まず試したのは、簡単にするためにクール補正も、フラット補正もダーク補正もせず、三つ子銀河のIntegrationをすることでした。ImageCalibrationがなぜかうまくいかなかったのでStarAlignmentで代用。その結果がこれです。

nocosmetic


赤とか青とか緑とかのかすれた線が無数にあります。全部クールノイズだと思われます。前面に散らばっています。もっとわかりやすくするために、位置合わせをしないただの比較明合成をします。

nocosmetic_nocalibration_integration_a


クールノイズが点になって無数の輝点になって見えます。この時点で、やっとクールノイズの可能性が高そうだと思い始めました。

今度はクール補正をかけたものの比較明合成です。

cosmetic_nocalibration_integration_a


クールピクセルがなくなってかなりましに見えます。これなら変なノイズとかでなさそうなので、これで位置合わせを行います。

cosmetic_calibration_integration_a


でも結果はなぜか縞ノイズが出てしまいます。この理由が最初全くわかりませんでした。ところがIntegrartionの時にAverageを使わずにMaximumを使うと理由がかなりはっきりしました。

cosmetic_calibration_integration_Maximum_a


Maximumなので一番明るいものが残っています。形をよく見ると縞ノイズとかなり一致しているように見えます。Maxmumで見えるということは、このような明るい輝点はまだ存在していて、飛び抜けたもの含んで無理やりIntegrationの時にAverageで平均化したりすれば、さすがにそこにムラができるのは不思議ではありません。ImageIntegrationの時にPixel rejection(1)で「Rejection Algorithm」を「min/max」にすると多少は改善できることもわかりましたが、それでも縞は残ります。

あと、Maximumは星像が歪むという弊害があることもこの時気づきました。昨晩はここで終わって寝てしまいました。


その後、あぷらなーとさんからのコメントに答える形で前々回のページに書いたのですが、今日になってあぷらなーとさんのブログの過去記事を見るとここら辺のようなことがすでに見事に検証されていて、さらに輝点を加算するという解決法まで示してくれています!しかもぴんたんさんがすでにFlat Aide Proにその手法を実装してしまったとは!

カラー画像でもうまく輝点が出ないようにコンポジット前の画面を補正してしまえばいいと思いますが、あぷらなーとさんがやったようなモノクロならまだしも、やはりカラーだとちょっと難しそうです。


HUQさん、あぷらなーとさん、Scopioさんクールノイズにいつまででも納得できなくて色々説明してもらって申し訳ありませんでした。そして、こんな私に付き合っていただいてきちんと説明してくれて本当にありがとうございます。

自分で納得でないないと気が済まないのですが、今回の話は最初からアプラナートさんの2017年の9月くらいの記事を読んでおけば済む話でした。でも自分で試すという方向性はやめたくないので、また変なことを言うかもしれませんが、初心者のたわごとと思って温かい目で見ていただけるとありがたいです。


 


 

PixInsight(以下PI)の続きです。今日はLinear Stageについて書いておきます。

さて今日の材料は、しし座の三つ子銀河、通称トリプレットを3分露光で60枚、計3時間ぶん撮ったものです。FS-60QにASI294MCのセット、Advanced VXにPHD2でガイドなどは前回M33のときと同じです。これらをPIのバッチ処理でインテグレート(コンポジット)までしました。M33と同じく斜めの縞ノイズも、多少はマシですが見えてしまっています。比較合成したものを見ると、やはりガイドがずれていってしまっています。

light-BINNING_1_max

ズレは前回より小さくて、3時間で30秒程度でしょうか。縞ノイズは嫌なので、前回のように「Maximum」、「No normalization」でIntegrateしたものを使用します。

一応縞ノイズを比べます。デフォルトの「Average」、「Aditive with scaling」でIntegrationしたものと
light-BINNING_1_DBE_STF


「Maximum」、「No normalization」でIntegrateしたもの
light_BINNING_1_Maximum_No_normalization_DBE_STF3


です。やはり今回も縞ノイズに関してはあからさまに違いが見えていて、後者の方が圧倒的にいいです。それに加えて前者ではアンプノイズがまだ結構目立つくらいに残っています。このアンプノイズはASI294MC共通の欠点らしくて、どの個体もこの位置にアンプノイズが存在するようです。でもこの前者の画像を見ていると、ダーク補正が本当にうまくできているか疑問に思えてきました。違いはIntegrationのところだけのはずなので、ダークフレームによる補正の違いはないはずなのですが...。いずれにせよ、かなり差があるのでこれ以降は後者の方を使います。


Linear Stageでやるべき主なことは3つ、
  1. バックグラウンドを平らにする、カブリ補正のようなもの。
  2. ホワイトバランスを揃える。
  3. 色のキャリブレーションをする。
です。それぞれについてやりかたは何通りかあるみたいで、
  • 1と2は「Process」->「BackgraoundModelization」->「AutomaticBackgroundExtraction」もしくは「Process」->「BackgraoundModelization」->「DynamicBackgroundExtraction」
  • でまとめてできます。
  • 2として「Process」->「ColorCalibration」->「BackgraoundNeutralization」をする方法もあるみたいなのですが、うまくいく場合とうまくいかない場合があるので、今では使っていません。
  • 3は「Process」->「ColorCalibration」->「ColorCalibration」や「Process」->「ColorCalibration」->「PhotometricColorCalibration」などです。

DynamicBackgroundExtraction(DBE)が結構簡単で優秀みたいなので、今回はこれを使ってホワイトバランスまでを処理します。
  1. まずIntegrationした画像を開きます。次にメニューから「Process」->「BackgraoundModelization」->「DynamicBackgroundExtraction」と選んで、設定画面を出します。
  2. その状態で画像の星や星雲などがない暗い点を10から20個くらい選びます。設定画面の上の左右の矢印で選んだところのプレビューが出るので、あまりにおかしいところは赤いxじるしで選択から外します。
  3. DBEの設定画面の中の「Target Image Correction」で「Subtraction」を選びます。これを選ばないと出来上がった画面が出て来ません。
  4. DBEインスタンスを画像に放り込むか、下のチェックマークをクリックして実行します。
その時の画面が下になります。左がIntegration後すぐの画像、右の上の画面が適用後。右の下が補正分です。もともと青にかなり酔っていたので、青の補正がされているのがわかります。フラット補正はしてあったので被りや周辺減光に相当するのはほとんど目立っていません。出来上がった右上画面のバックグランドがホワイト化されているのもわかります。

IMG_3470


出来上がった画面をHistgramTransformation (HT)で見てやるとホワイトが揃っているのを確かめることができます。必要ならばこの後にBackgraoundNeutralizationをするのもいいみたいなのですが、今回は省きます。


上のDBEをするのに必要だと思われるPixInsightの特殊な操作方法について書いておきます。
  • 処理を実行するのに、下の丸ボタンを押してもいいのですが、Instanceを作る左下の三角じるしをドラッグして適用したい画像に放り込むと、その効果が適用されます。でもうまくいくときとうまくいかない時があります。xが出たり、何も出ないとうまくいかなくて、チェックマークが出るとうまくいきます。どうやったらうまくチェックマークになるのか未だによくわかりません。パッと入れるとうまくいくことが多いのはなぜでしょうか?
  • ScreenTransferFunction(STF)で簡易的にトーンカーブをいじって見やすくしてまずは把握する。この見やすくするというのは、SharpCapのヒストグラムの稲妻ボタンでトーンカーブをいじって電視観望で見やすくするのと同じ概念です。というより多分PixInsightからヒントを得てSharpCapに移植したみたいに思えます。試しに、HistgramTransformation (HT)画面とSTFバー画面を出しておいて、STF画面の放射能マークみたいな「Auto Stretch」ボタンを押してから、左下の三角じるしをドラッグして、インスタンスをHT画面の一番下の三角と四角と丸があるラインらへんにドロップすると(ものすごくわかりにくい操作方法です!)、トーンカーブの形がSharpCapのオートボタンを押してできるトンカーブとほとんど同じ形になることが確認できます。
  • STFは見かけ上の画像処理なので、Auto Stretchをした画像を保存しても、元の画像のままです。
  • ちなみにSTFの効果を効かせた状態で画像を保存するためには、上に書いたようにHistgramTransformation (HT)画面を出して、STFのインスタンスをHT画面の一番下の三角と四角と丸があるラインらへんにドロップして、さらにHTのインスタンスを画像にドロップして初めて実際の処理がなされます。それを保存すればやっとSTFを適用した画像を保存するということができます。
  • 各処理画面の下のところに白丸がある場合、Real-TIme Previewを見ることができます。プレビューで効果を確認して、パラメーターが決まったらプレビューを閉じて、オリジナルの画面にインスタンスを放り込むというやり方が主流のようです。

次が色のキャリブレーションです。今回はPIの最近のバージョンでの目玉機能と言われているPhotometricColorCalibration(PCC)を試してみます。これは複数の恒星をPlate Solvingでマッピングして、登録されている恒星の色情報から正しいと思われる色に合わせてくれるという、とても客観的な色合わせ機能です。早速試して見ましょう。

  1. 「Process」->「ColorCalibration」->「PhotometricColorCalibration」で操作画面を出してから、「Image Parameters」の「Search Coordinates」で写っている天体を探します。ここでは「M65」とかです。
  2. うまく座標が入ったら、「Observation date」に撮影した日にちくらいまで入れます。時間は適当でいいみたいです。あとは「Forcal length」に撮影時の焦点距離を、「Pixel size」に使っているカメラの素子のサイズをマイクロメーター単位で書き込みます。ここもかなり適当でいいみたいですが、5割違うとダメだと書いてありました。
  3. 「Background Neutralizatio」を選択します。「Regeon of interest」にチェックをつけて、Previewエリア(下に説明あり)を選んで、そのPreviewを「From Preview」から選択します。Upper limitはPreviewタブを押してPreview画面を開いてから暗い部分の値を、Readout modeで読んでやり、その付近の値を入れますが、デフォルトのままでも結構うまくいくみたいです。
  4. 三角じるしのインスタンスをDBE処理した画像に放り込むと処理が始まります。
  5. 結構進んだ最後の方で、実行した時に星が見つからないとか言われてうまくいかない時は、「Photometry Parameters」の「Limit magnitude」の「Automatic limit magnitude」のチェックを外し、「Limit magnitude」をデフォルトの12から15くらいまで暗くするとうまくいくことがあります。
IMG_3496


うまくいくと上の画像のように、グラフの表示とともに画像に今回の結果が適用されます。グラフはまだ何を言っているのかよくわかりませんが、検出された星をカタログ値の色にフィットしているのでしょうか?ここでCtrl+zやCommand+zでUndoすると、以前の画像と比較することができます。今回は少し赤みがかっていたのが補正されてよりホワイトになったことがわかりました。

PixInsightのとても特徴ある操作の説明です...。なんでこんな操作になるのか...、この記事が誰かの役に立ってくれると信じて書きます。
  • Previewという概念が特殊です。画像を開いている時に、上のアイコンの中の左から12番目くらいのフォルダのような形の「New Prview Mode」を選ぶと、画面の中の一部を選ぶことができます。プレビューもどの状態で画像の一部を選択すると、「Previwe01」とかいう領域が選ばれるとともに、左横のタグに同じ名前のものができます。この状態になって、初めて画像処理の画像の一部の選択、例えばバックグラウンドの領域選択などでこのプレビューを選ぶことができるようになります。
  • Readout modeは上のアイコン群の左から7番目にあり、デフォルトのモードになります。結構便利で、このReadout modeの時に画像の上で左クリックすると、拡大して画像を表示してくれて、マウスポインタが指している場所の色などを数値で出してくれます。Preview画面でもこのReadout modeは使えるので、Previewで暗い部分を選んで、さらに拡大して暗い部分の値を読み取ることができるわけです。
今回のところまでで、やっとPixInsightの全機能の1割くらいでしょうか。摩訶不思議な操作方法は、いろんな意味でもう「僕は嫌だ」状態です。とりあえずここまでで疲れ果てたので、Photoshopに持っていって簡単に仕上げてみました。

light_BINNING_1_Maximum_No_normalization_DBE_PCC
富山県富山市, 2018年1月20日0時19分
FS-60Q + ASI294MC+ Advanced VX赤道儀
f50mm + ASI178MC +PHD2による自動ガイド, 露出3分x60枚 総露出3時間0分
Pixinsight, Photoshop CCで画像処理


少し飛んでいるところもあったりしてまだ色々PIを使いこなすに至っていません。3秒露光の画像も撮ってあるので、HDR合成とか星マスクとかやって、もう少し時間をかけて仕上げてみたいですが、気合が続くかどうか。

次はNon-Linear Stageに挑戦ですが迷っています。Linear ProcessingまではあからさまにPixInsightは面白い機能が目白押しのはわかりました。Non-Linear Processingを含めて最終仕上げまで全てをPIでやることも可能みたいですが、Non-Linear ProcessingになったらPhotoshopなどに任せてしまってもいい気がします。PIの有利な点はマスクを簡単に作れるところでしょうか。これは結構魅力で、ここで作ったマスクをPhotoshopに持っていくのとかでもいいのかもしれません。

あ、あとPixInsightのライセンスを購入しました。まだ試用期間も残っていて、230ユーロと結構な値段ですが、その価値はありと判断してです。
 

さて今回M33を撮影したので、Pixinsightのバッチ処理に挑戦しました。ちょっとややこしいですが、多少癖がわかったのか、前回ほど戸惑うことはないです。

バッチ処理は「Script」メニューの「Batch Processing」->「BatchPreprocessing」を選ぶことから始まります。下のAddボタンを押してLightフレーム、Darkフレーム、Flatフレームなどを登録していきます。ここら辺まではいいのですが、最初はやはりなかなかうまくいきません。迷ったところをこれまた全部書いておきます。
  • Debeyerできない -> 右側のCFAimagesにチェックを入れるとできるようになる。
  • Cosmetic CorrectionのTemplate iconが選べない。-> これは特に分かりづらかったです。BatchPreprocessingに入る前に、あらかじめ「Preprocessing」の中から「CosmeticCorrection」を選び作っておく必要があります。前回の記事で説明したように、ファイルを選んで実行までしてから、(2018/3/22変更)CosmeticCorrectionでホットピクセル除去やクールピクセル除去のやり方を指定するだけでよく、ファイルまで選ぶ必要はありません。その後、CosmeticCorrection画面の左下の三角をクリック枠の外に出すと「Instance」が作成されます。これをBatchPreprocessingで指定するみたいです。「CosmeticCorrection」できたファイルを消したりしてしまうと、たとえインスタンスだけ残っていてそれを指定しても、エラーが出ます。
  • 「CosmeticCorrection」で一部の枚数だけ使って処理したインスタンスを使って、多数枚のLightフレームは処理できるのか? -> 問題なくできるみたい。でも、これで本当に全部のファイルのhot/coolピクセルが処理されているかは未検証です。念のため全Lightフレームを使って処理するようにしました。(2018/3/22変更)そもそもCosmeticCorrectionでホットピクセル除去やクールピクセル除去のやり方を指定するだけでよく、ファイルまで選ぶ必要はありません。
  • 一旦バッチファイルの画面を閉じてしまうと、選択したファイルも全てリセットされる。インスタンスを残しておいても、スクリプトファイルのソースみたいなのが出てくるだけで、元の画面が出てこない。 -> 仕様みたいです。何か回避策はあるのでしょうか?(2018/3/22追加)-> 左下の三角を枠外にドラッグ&ドロップしてインスタンスを作って置けば後から再度開くことができることがわかりました。ただ、開く時にインスタンスを右クリックして「Execute in the global context」を選ぶと物と画面に戻ることができて編集を再開できます。
  • ImageRegistrationのDrizzleの意味がわからない。 -> とにかくチェックしないとファイルが出力されない。最終画像も出ない。 (2018/3/22追加)->普通のDrizzleの意味で、解像度を上げるのですが、そのためのデータを出力するだけで、実際に出力ファイルの解像度が上がるわけではないみたいです。なので、チェックは外してもいいとのことですが、チェックしないとファイルが出力されないこともあったので、とりあえずチェックしてあります。
  • 星像が流れていないかなど、撮影後のfitsファイルの確認がしにくい。-> Canonカメラでの撮影の場合JPEGも残しているのと、RAWファイルのCR2形式はWindowsでもMacでも簡単にプレビューできるので便利。その一方、fits形式のプレビュー的なアプリはなかなかなく、今の所Pixinsightで全て開くしかない。 (2018/3/22追加) -> メニューの「Batch Processing」「SubframeSelector」というバッチ処理で星像の肥大度と偏心度などをみて自動判別するとても便利な機能があります。そのうちに解説します。
  • Lightフレームだけではダメみたいで、少なくともDarkかFlatかBiasが一枚はないとダメみたいです。
  • 右側の「Registration Reference Image」は必ず一枚Lightフレームを選ばなくてはならない。
  • Output Directoryも選ばないと怒られる。
  • Biasフレームは必要? ->  (2018/3/22変更) 冷却CCDとかでは必要みたいです。常温のCMOSカメラは?PixinsightではBiasは必ず取った方がいいみたいです。明らかに処理に差が出るようです。今回はとりあえず、よくわからないので撮ってません。調べてみるとBiasフレームとは、レンズにキャップをした状態にし、ライトフレームと同じISO感度かつ「最短シャッタースピード」で撮ったもののようです。簡単そうなので、次回撮影では撮ってみます。
  • Flatフレームもダークで補正されたほうがいいはずなのですが、実際に補正はされるのでしょうか?できたファイルからだけではよくわかりません。→ biasはFlatにもダークにも適用されます。FlatdarkはPixInsightでは必要ないそうです。
  • 実行前に「Diagnostics」ボタンを押すと、問題があるかどうかわかる。準備ができたら「Run」ボタン。
これで待っているとコンポジットされた画像が無事にできます。これ以降のバックグラウンドの処理などのLinear Stageの解説は次回に続きます。

今回も疲れてしまったので、ここからはいつも通りSteller Image8やPhotoShopなどで処理しています。

さて今回の処理はM33ですが、機材はFS-60QにASI294MCをつけて、Advanced VXをASI178MCと50mmのCマウントレンズを使い、PHD2でガイドしたものです。撮影はSharpCapで行いました。ASI294MCのゲイン270、各露光時間は5分間で合計25枚、計2時間5分になります。

そこそこの長時間露光になっているのですが、これを処理すると「縞ノイズ」が盛大に出てしまうことがわかりました。

light-BINNING_1


上の画像は、Pixinsightでバッチ処理でコンポジットした画像をSteller Image8に送り、「オートストレッチ」でホワイトバランスを整えてから、「チャンネルパレット」の「σ(1,3)」を押しただけの画像です。画像をクリックすると縦方向に少し斜めの線がたくさん見えると思います。実はこれまでも長時間撮影で何度か遭遇してボツにしてきた経緯があるのですが、そろそろ向き合わなければならない時期にきたみたいです。

この縞ノイズというのは、長時間露光の際に一般的に出てくる問題で、ガイドをしていても機材のたわみなどで少しづつ星像がずれていってしまうために起こるものです。実際、比較明合成で見てみると、縞ノイズの方向とずれの方向が一致しているのがわかると思います。

integration_maxtraced


ちなみに、Pixinsightで比較明合成をするには、原理的にはバッチ処理の中の「Image Registration」の過程を抜いてIntegrationすれはいいので、今回はバッチ処理でできたoutputファイルがあるディレクトリの中のcalibrated/light/debayeredの中のファイルを全て「Process」メニューの「Preprocessing」の「Image Integrartion」でコンポジットします。そうすると、上に示したような比較明合成画像が出来上がります。

さて、この縞ノイズをなくすには機材のたわみなどを極限までなくし、ガイドの精度を上げることなのですが、今回のズレも画像から計算すると2時間でわずか約40秒と決して悪いわけではありません。精度を上げる方向で攻めるのは普通は難しいので、ディザリングなどで撮影時にわざと規則的に画角を繰り返しずらしていくことで、縞ノイズの影響を少なくするような方法をとることができるようです。ここで一つ問題が出ます。今回の撮影でも使ったSharpCapだとディザリングは難しいみたいなのです。撮影の合間にずらして揺れが落ち着くまで少し待つということを繰り返すのですが、SharpCapの撮影は基本的に連続で、ずらしている間に露光を止めることができないようなのです。手持ちのEOSを使う場合はBackYard EOSとPHD2の組み合わせでディザリングももんだいなくできるようですが、CMOSカメラだとAPT(Astro Photography Tool ) などを使う必要があるみたいで、お気に入りのSharpCapが使えません。

ディザリングはおいおい考えるとして、Pixinsightで比較明合成の仕方を探る時に色々試していて面白いことに気づきました。Image Integrationのオプションの違いで明らかに縞ノイズの出方が違うのです。関係するオプションは2つで、「Combinarion」と「Normalization」です。全部のオプションを試したわけではないですが、Combinationでは「Average」と「Maximum」で明らかな違いがありました。またNormalizationではデフォルトの「Aditive with scaling」と「No normalization」でもCombinationと合わせると明らかな違いがありました。結果を画像で示しておきます。

まず、2つ上の画像と同じものですが、デフォルト設定でCombinationは「Average」、Normalizationは「Additive with scaling」となります。

light-BINNING_1
「Average」、「Additive with scaling」

次に、Combinationを「Maximum」に変えます。画像処理は上と同じでSteller Image8のオートストレッチとチャンネルパレットのσ(1,3)のみです。

integration_Maximum_Additive_with_scaling
Maximum」、「Additive with scaling」

明らかに縞ノイズが減っているのですが、少しわかりにくいかもしれません。

次にデフォルトの設定からNormalizationを「No normalization」にします。Combinationは「Average」のままです。に変えます。

integration_Average_No_normalization
「Average」、「No normalization

これは一見ほとんど同じに見えるかもしれません。

最後に両方ともデフォルトから変えて、Combinationを「Maximum」に、Normalizationを「No normalization」にします。

integration_Maximum_No_normalization
「Maximum」、「No normalization」

それでも縦縞はまだ残っていますが、こちらはパッと見ただけでわかるくらい縦縞が減っています。

比較した画面です。

comp

こうやってみると、元の画像に細かいノイズがのっかただけのように見えないこともないです。それでもその後の処理では大きく違うこともわかりました。実際に「Average」、「Additive with scaling」とMaximum」、「No normalization」を比較する意味で、真面目に画像処理してみました。画像をクリックして拡大してみると結果は一目瞭然です。(追記: 次の日見たら後者の方がぼかしてあり比較するのにあまり適していなかったので、処理を同じようなものに合わせました。)

light-BINNING_1_SI3
「Average」、「Aditive with scaling」


integration_Maximum_No_normalization3c

「Maximum」、「No normalization」

処理をしていても、デフォルト設定の「Average」、「Additive with scaling」方は縞を消さなくてはいけないと思い、かなり不自然な処理になってしまっています。それでもまだ全然消しきれていません。一方、Maximum」、「No normalization」の方は処理中も縞をほとんど気にすることなく、画像処理に集中できます。もちろん完全に縞ノイズが消えているわけではないです。また、他のパラメーターでさらに改善する可能性もあるかもしれません。


Pixinsightはまだ使い始めたばかりで右も左も分からないので、今回の試みがごくごく一般的なテクニックなのか、それともあまり知られていないものなのかもよくわかりません。洋書の「Inside PixInsight」は買ってあるので、該当する箇所を読んでみたのですが、大したことは何も書いていなくて、Combinationに関しては「Averageを使え」だけです。Nomalizatioinに関しては、ある章では「バイアスを履かすのを保つためにNo normalizatoinを選べ」とかいてあって、別の章では「Additiveは少なくとも使え、Scalingは露光時間が違う場合は使ったほうがいい」とあるくらいで、ほとんど中身の説明はありません。ヘルプのドキュメントをよく読めとも書いてあったので読んでみました。ヘルプの方が確かに少しマシですがそれでも「Averageは一番いいS/Nになる」くらいと、「NormarizationはバックグランドをScalingはばらつき具合を合わせる」というくらいのことしか書いてありません。「ScalingはS/Nを良くする」とも書いてあるので、もしかしたらS/Nを良くするというところの処理が悪さをして、縞ノイズが出る出ないに関わっているのかもしれません。何れにせよアルゴリズムは不明なので、どのような処理をやっているかがわかるようなレベルではないです。

それにしてもPixInsight奥が深すぎます。かなりブラックボックスです。まだしし座のトリプレットの未処理画像が残っているので、引き続きもう少し触ってみます。








ASI294MCでのバーナードループの固定撮影の続きです。

さて、5秒、100枚のスタックですが、三脚にASI294MCを取り付けるだけのお手軽固定撮影のために、時間とともに画面の中で星が動いていきます。歪みが全くないレンズならば問題ないのでしょうが、そんなレンズは存在しません。なのでそのままスタックすると中心と端の方で、どうしても位置にズレが出てきてしまいます。Steller Imageは基本的に並進と回転のみで位置合わせをしているので、このような画面にひずみのようなズレがある画像をうまくスタックすることは苦手なようです。PixInsightはこんなひずみもうまくコンポジットしてくれるとのことなので、今回初めてPixinsightを使ってみました。とりあえずは無料の45日制限のお試し版です。無料といってもフル機能使えるので、試して気に入ったら購入するつもりです。

処理するものはSharpCapでASI294MCを使って5秒露光での撮影で得られた100枚のファイルです。撮影中にダーク補正もフラット補正もしてしまっています。RAW16モードでfits形式で保存したものです。


まず思ったことは、PixInsigtはものすごくとっつきにくいです。ある程度噂では聞いていましたが、これほどとは。とにかくメニューが多すぎて何がどこにあるかわからない。どれがどの機能を指しているのかよくわからないといった状況です。とりあえず迷ったところ全部書いておきます。この方法が正しいかどうかもまだよくわかっていません。かろうじてコンポジットまでできた経緯です。同じように迷えるどなたかの役に立てばという思いです。

  1. まず、ファイルをどうやって開けばいいのかわかりません。「File」メニューから「Open」は意味がありません。「Process」メニューの「Preprocessing」の中のメニューを選択して開くことが大事です。ここまでわかるのに一苦労でした。Preprocessingという言葉はSteller Imageで言うコンポジットまでの一連の処理のことを指すみたいです。
  2. その「Preprocessing」の中からまずは「CosmeticCorrection」を選びます。ホット、クールピクセルの除去などができるようです。「Add Files」ボタンを押して、今回撮影した複数の「.fits」を全て選択して開きます。次に「Output」から保存したいフォルダを指定します。フォルダを指定しないと同じフォルダにファイルが追加されていきます。「Use Auto Detect」にチェックして、「Hot Sigma」も「Cool Sigma」もチェックします。下の左の黒丸を押して実行します。問題があればここでエラーダイアログが出ますが、特に問題がなかければテキストベースのコンソール画面のようなものが出てきて、処理が進んでいくのが見えます。
  3. これまたわかりにくいのですが、それぞれの処理画面の左下の三角をクリックして、クリックしたまま枠の外に出すと「Instance」というものが作成されて、アイコンができます。このアイコンは作業のリンク(ショートカット)のようなものと理解しています。画面を消してしまっても、このアイコンをダブルクリックするとまた同じ画面が出てきます。
  4. 次に再び「Process」メニューの「Preprocessing」にいき、今度は「Debayer」を選びます。白黒の画像をカラー化します。先ほど処理してできた「_cc.xisf」という拡張子がついたファイルを「Add Files」ボタンを押して全て開きます。ここで左下の黒丸ボタンを押してエラーが出て悩みました。この解決方法は一番上の「Bayer/mosaic pattern」を「Auto」から「RGGB」に変更します。どのパターンにするかは事前に調べておいたほうがいいです。SharpCapの方でDebayer方式をかえて、変な色にならないものを見つけました。これで黒丸が押せるようになり実行できます。まだ、黒丸と黒四角の違いはよくわかりません。もし確認したければ、ここでできた「_cc_d.xisf」ファイルを「File」のメニューの「Open」から選んでみると見事カラーになっているのがわかります。ここでも左下の三角を押してInstaceを作っておくといいでしょう。
  5. 再び「Process」メニューの「Preprocessing」にいき、「StarAlignment」を選びます。位置を揃えてコンポジットするための事前計算です。この事前計算は「ImageCalibration」でもできるみたいですが、それぞれの画像で歪んでいるような場合はこちらの「StarAlignment」がいいみたいです。(2018/3/22追記: ImageCalibrationはダーク補正やフラット補正をするプロセスです。本来Debayerの前にする処理です。今回は撮影時にダーク補正もフラット補正もしているので、簡単のため割愛します。)ここも普通に「Add Files」からすぐ上で作ったカラー画像「_cc_d.xisf」ファイルを全て選びます。一つだけ違うのは、さらに基準となるファイルを一番上の「Reference Image」で選ばなければならないことです。「Add Files」で選んだうちの一枚を選びます。すぐ横の「VIew」を押して、「File」を選んで、さらに右の三角を押せば選択できます。色々オプションが選べるみたいですが、よくわからないのでまずはそのままの設定でやってみました。あとは左下の黒丸を押して実行します。
  6. 最後は「Process」メニューの「Preprocessing」の「ImageIntegrartion」でコンポジットです。同じく「Add Files」で最後にできた「_cc_d_r.xisf」ファイルを開きます。ここも色々オプションがありますが、全てデフォルトです。まだ細かいことはよくわかりません。黒丸を押して待つとやっとコンポジットされた画像が出来上がります。画像が2枚出てきて、一枚はコンポジットしたもの、もう一枚は暗い除かれたものみたいです。コンポジットされたものを「File」メニューの「Save As」で適当なファイル形式を選び保存します。同じfits形式でも色々互換性とかの問題があるみたいなので、とりあえずPixinsight標準のxisf形式で保存して、あとは色々な形式で試して目的のソフトで開くことができるか確認するといいかもしれません。Steller Imageでも開くことができるものは限られていました。
  7. ここからPixinsight語で言う「Linear Process」(Steller Imageで言うカブリ補正やレベル補正) に入っていきます。この際Screen Transfer Function (STF)というのを使ってレベル補正に相当することをしていくようなのですが、最初レベルを変えるSTFバーの出る画面がどうしても見つかりませんでした。中途半端に「Image」メニューの「Screen Transfer Function」に色々あるのがわかりにく原因で、バーを出したい場合には「Process」メニューの「IntensityTransformations」のところにある「Screen Transfer Function」を選ばなければいけません。メニューとオプション多すぎです。ここらへんで力尽きました。
ところで、以上の行程はバッチ処理での自動生成もできるみたいですが、今回はダークとかフラットが別のファイルになっていないので、理解する意味も含めて一つ一つ手でやってみました。バッチ処理はかなり便利とのことなので、次にまた試してみようと思います。


さて、比較のためにSteller Image8でも同様にコンポジットしてみました。まずSteller Image バージョン8の売りの「自動処理モード」だと、SharpCapで保存されたfitsファイル(RAW16)が白黒のままコンポジットされてしまい、コンポジットされた画像もカラー化することができませんでした。結局いつものように「詳細編集モード」で100枚を開いて、一枚一枚「ベイヤー・RGB変換」するしかありませんでした。「Altキー+I、Altキー+Y、Enter」で多少早くできますが、それでも100枚を一枚づつ手動で変換しなくてはならないことには変わりありません。この手間だけは冴えないですが、あとはバッチ処理でほぼ自動でできます。

できた画像を比較してみます。まず興味のある中央と四隅を拡大してみます。

cut
Steller Image8(左)                                 Pixinsight (右)


左がSterller Image8、右がPixinsightです。中央はそれほど変わりませんが、四隅を比べるとやはりSteller Image8だと流れたりぼけたりしてしまっています。Pixinsightも少し流れているように見えますが、これはレンズのせいで、一枚一枚の個々の画像ですでに流れてしまっています。f1.4のレンズを一段絞ってf2.0で撮影したのですが、ピクセル等倍で見るとまだ流れが目立つので、もう一段絞ったほうがよさそうです。

つぎに、全体の比較も面白いので見てみます。上がSteller Image8、下がPixInsightです。

Capture 23_35_59_00001-00101_23_36_01

integration

驚異的なのが、Steller Imageの方は、固定撮影のために空が流れていってしまい撮影できていない枚数が少ないところは普通に暗くなっているのに対し、PixInsightの方は撮影できていない部分も枚数で重み付けして明るさを復元していることです。

やはり噂通りPixInsightのコンポジットはかなり強力なようです。


 今回初めてPixinsihgtを使ってみました。確かに高機能で、性能もいいです。でもなぜ日本でSteller Imageがメジャーなのか?やっとわかりました。Steller Imageの方がはるかに簡単だからです。慣れの問題もあるでしょうし、Steller Imageは?なところも多少ありますが、日本語ですし、操作は想像がつきますし、ある程度一本道だし、マニュアルなどもしっかりしています。簡単にできるということは思っていた以上にありがたいことだと実感しました。


今回もコンポジットまではPixinsihgtでやりましたが、それ以降のカブリや周辺減処理、デジタル現像に相当するものはPixinsightでもできるはずですが、まだ手が出ません。PixInsightは疲れたのでしばらくはここからはいつも通りSteller Image8で続けることにします。

integration4

富山県富山市, 2018年1月13日23時36分
NIKKOR NC 35mm f1.4 + ASI294MC 固定撮影
露出5秒x100枚 総露出8分20秒
PixInsight + Steller Image 8、Photoshop CCで画像処理


最後の仕上げにSteller Image8とPhotoshopCCで続きの処理をした画像が上になります。さすがに5秒露光の100枚だとトータル10分もないので厳しいです。画像処理でかなりごまかしています。それでも馬頭星雲あたりは見えていますし、目的のバーナードループも見えています。他にもバラ星雲もなんとか見えますし、うっすらとですがエンゼルフィッシュも少しは出ているみたいです。

自宅の庭で、赤道儀も使わない、ポンと適当に置いた三脚に固定での、わずか10分のお気楽極楽撮影
なら、まあ十分ではないでしょうか。この方法だと部屋の窓際に適当に置くだけでいいので、かなり楽かもしれません。

今の制限は、一回の露光で星が流れないという5秒からきているので、ちょっとめんどくさくなりますが、ポタ赤でも使ってもう少し長い露光時間でやってみるのも面白いと思いました。



週末の金曜日、岐阜方面の山側が晴れていたので、富山ももしかしたら今日は晴れるかなと期待しながら、夕方仕事帰りに自宅近くまで来ると、雲はないはずなのになぜか一面のすごい濃霧。たまたま雲がない日になんでまたこんな霧が...と思いました。

あまりの天気の悪さに、ずっとネタ切れでブログの更新も止まっていたのですが、今回はいくつか新しいことがありました。まず夕飯を終えて自宅でのんびりしていると、この間落札した35mm f1.4のNIKKOR -NC Autoレンズが届きました。目的は主に電視観望用ですが、味のある写りらしいので普通の撮影に使っても意外に面白いかもしれません。NIKKORのオールドレンズは50mmに続きこれで2本目になります。


IMG_3430
NIKKOR NC Auto 35mm f1.4


この前シグマの10mm-22mm f3.5をASI294MCに使ってみたのですが、もう少し明るいものが欲し買ったのと、同じく50mm f1.4のNIKKORもASI294MCで試したのですが、これよりもう少し広角が試したかったからです。ASI294MCはセンサーサイズがフォーサーズとASI224MCより大きくなっているので、CマウントやCSマウントレンズが使えません。カメラ用の明るいレンズは焦点距離が短くなって来ると非常に高価なので、どうしても古いものになってしまいます。APS-C用のシグマの35mm f1.4も考えたのですが、フルサイズでも使えるものと思い、オークションで出ていたものを落としました。

手にれたレンズは相当昔のもので、俗にいう「アトムレンズ」、別名「放射能レンズ」「トリウムレンズ」とかいうものとのことで、かなり「黄変」といって黄色くなってしまっています。

IMG_3433
PCの画面を白くして撮って見ました。明らかに黄変しています。

そう思って見て見ると、以前買った50mmの方も気にしていなかったのですが、今見るとやはり黄変しています。どうせホワイトバランスは画像調整で整えるのであまり気にならないのですが、透過率が悪いのはもったいないです。紫外線で透明に戻るという情報もあるので、そのうちに試してみようと思います。あと、途中のレンズにアイリスの羽根の跡が少し残っているのが気になりましたが、撮影にはほとんど影響ないみたいです。いつか分解した時に掃除しようと思います。少し調べてみるとこのNCというのは1973-1976年に製造されたもののようで、今から40年以上前のレンズです。今では珍しいと思われる、金属製のフードがついています。

さて、レンズ到着の時に外に出てみると、霧もすっかり晴れて本当に久しぶりに星空が広がっていました。早速届いたレンズを試してみます。このレンズで試したかったことが、前回あまりうまく見えなかったバーナードループです。しかもガイドなしどころか、赤道儀も追尾もなしの、カメラ三脚にASI294MCを取り付けて、玄関先にポンと置いただけの完全固定撮影です。どこまで手を抜いて撮影ができるかです。

レンズの見え味は、まあ予想の範囲内。50mm f1.4をそのまま少し広角にしたような感じです。f1.4でフルに開放すると星像がぼやけてしまったので、一段階だけ絞ってf2にしました。これでぼやけ具合は気にならない程度です。

今回は試しなので5秒露光で100枚撮ってみました。露光8秒あたりから、拡大すると星が流れ出すのが見えるようになったのでもう少し短い時間にというのが5秒の理由です。ヒストグラムのピークをそこそこ右に持って来るために、ゲインは相当高く400/570にしています。 

一枚一枚はこんな感じです。うっすらバーナードループが見えているのと、左上にバラ星雲が薄く見えています。

IMG_3429

電視観望と違い、撮影になるので今回始めてSharpCap上でフラット補正とダーク補正もしてみました。フラットフレームの撮影はこんな感じになります。

IMG_3426


後ろの画像が撮影したフラットフレームですが、撮影時と同じパラメータで、10枚撮って平均化しています。レンズにスーパーの袋を被せたのですが、なぜか赤っぽくなってしまっています。フラット撮影時にダーク補正が必要なのかどうかよくわかりませんでしたが、今回はダーク補正はせずにフラットだけで試しました。ダークも含めて何枚くらい取る必要があるか、ゲインと露光時間はいいのですが、他にカラーバランスやガンマ、ブライトネスなど、どのパラメータが効いてくるのかもう少し検証が必要そうです。ただ、フラットはに関してはやるとやらないでは、不完全でもやったほうが周辺減光の影響は大きく軽減されることがわかりました。

固定撮影の場合、スタック処理はこれまでのSteller Imageだとずれてしまってうまくできないみたいなので、今回始めてPixinsightと戦っています。


次の記事に続く。

SharpCapのツールのカメラの性能評価機能を使い、手持ちのZWO社のCMOSカメラ
  • ASI224MC
  • ASI178MC
  • ASI294MC
の3台について測定、比較してみました。測定結果に示す各値の意味については以前の記事が参考になると思います。ASI294MCについては今回新たに測定し直していますが、結果はReadNoiseがよりダークな環境で測定することに気をつけたためか、多少良くなっている点を除いては、かなり一致しているので、そこそこ信頼がおける結果になっているのではないかと思います。



測定方法

まず、測定方法を簡単に書いておきます。SharpCapにカメラを接続し、認識させてから、「Tools」メニューから「Sensor Analysis」を選びます。下の方に出てきた測定エリアの指示に従えばいいのですが、いくつか気づいた点を書いておきます。 

まず、映している画面の中で、赤い四角で囲まれているところのエリアのみ測定します。なので、例えば画面中央部と4角では結果が違う可能性があります。選んだエリアが暗すぎたりすると、下の写真のようなメッセージが出ます。

IMG_3257


ある程度は自動でゲインや露出時間を変えて測定してくれますが、基本的には次の写真にあるように、ピークが一本ピンと立っているような状況がいいみたいです。その一方、精度よく測るには暗い方がいいようなことが書かれていますが、あまり暗いとあるところから進まなくなってしまって迷いました。そんな時はもう少し明るい状況にすると進み出します。

IMG_3258


最初はコンバージョンファクターの測定です。測定が始まると上の写真のように、横軸ADCのカウント、縦軸ADCのノイズの分散でプロットしてくれます。その傾きをコンバージョンファクターとしています。ここで注意ですが、本来この測定はゲインを変えて何度も測定すべきですが、SharpCapではコンバージョンファクターはこの一回しか測定していません。それにゲインの変化分を換算して、簡易的に種々のゲインでのコンバージョンファクターを求めているようです。測定し終わると、次の写真のようになります。ダーク測定の後にゲインを変えているようですが、右のグラフがいくつも出るわけではないので、やはり簡易的な計測なのだろうと思います。

IMG_3260

最初の測定が終わると、次にカメラに蓋をかぶせてダーク状態で読み出しノイズの測定をします。このとき光が漏れていると、読み出しノイズに余分な信号が入ってしまい、読み出しノイズが大きく計測されてしまうようなので注意です。カメラに蓋をして、さらに暗い所へ持っていくなどの工夫が必要かもしれません。

IMG_3262

IMG_3263


ダーク測定が終わると上の写真のようになるので、再び蓋を取って、最後の測定に入ります。内部ゲインや露光時間を変えて色々測定しているようですが、ここはあまり何をやっているかわかりません。この時に十分な明るさがないと、全然先へ進まなくて同じ設定を繰り返しするような状態になってしまうことがあります。こんな時はもう少し明るくして見てください。

IMG_3268


測定が終わると、数値とともに測定結果を記したグラフ(注: 次に示すグラフとは別の測定でとった写真なので少し値が異なって来ます)が出てきます。

IMG_3269



測定結果

さて今回は上のような測定方法で、3つのカメラを測定してみました。結果は以下のようになります。

comp



結果を見ると、ZWOに示してあるグラフ(ASI224MC, ASI178MC, ASI294MC)と比べて、かなり一致していることがわかるかと思います。また、上で出したグラフはZWOが出しているグラフと表示形式を少し変えてあるのに気づくと思いますが、以下で説明していきます。

測定結果を見ていて思ったのですが、ZWOのグラフのGAIN(e-/ADU) (コンバージョンファクター)のところの縦軸がリニアになっているのはどうしてもいただけません。内部ゲインが高いところで0付近になっているためほとんど見分けがつきませんが、これは0付近でオーダースケールで0に近づいていくことに意味があるので、これは対数スケールで書くべきです。今回測定したグラフは対数スケールにしてあります。こうするときちんと直線になっていて、意味があるのがわかると思います。


考察

さてこのグラフを少し考察してみましょう。まず最初に思ったことが、Full Wellの値に果たして意味があるのかということでした。そこで試しに、ASI294MCにある「Full Well」の値を「e/ADU」で割ってみましょう。測定の数値結果を以下に示します。

ASI294MC_number



一番右の欄に計算結果も書いていますが、どの「Gain Value」に対しても全てぴったり16384になるのがわかる(ちなみにASI224MCの場合は全てぴったり4096になります。)と思います。これはADCの14bitのカウント数16384が最初にありきで、それを実測した「Gain Value」で割っているだけで、その結果を「Full Well」と呼んでいるだけだということがわかります。なので、示したグラフの上二つはほとんど同じことを言っていて、二つのグラフを両方とも示す意味は本当にあるのかと思ってしまいます。

本来のFull WellとはSensorの出力で制限される値を測定すべきなのですが、全てのゲインで測定していない簡易測定なのでこんな結果になってしまったか、もしくは測定していてもADCのbit数の制限でリミットされてしまっていて、少なくともセンサー本来が持っているFull Wellで制限された値が示されているわけではないことがわかります。このことは、言い換えるとセンサー本来はもっと出力できるのに性能がADCで制限されてしまっているか、もしくは簡易測定のためにADCに制限されたように見える、よくわからない結果になってしまっていると言えます。

それでも実際には高ビット化をしようとして、例えば安易に16bitADCにしようとしても、16bitの性能を引き出すのはノイズや転送速度、データ量の観点から普通はとても難しいので、14bitだからと言って一概にダメだということは全くありません。むしろこの価格で14bitで、転送速度まできちんと出ているというのはすごいことで、賞賛こそすれ非難できるようなことは何もないでしょう。


次に考えたことは、Read NoiseをADCのカウントにしてやったほうがわかりやすいのではないかということです。今回出したグラフはZWOのものにさらに追加してあって、一番下に書いてあります。これは単に一つ上の「Read Noise(e)」を「e/ADU」で割っただけなのですが、16384に対してどれくらいノイズとして明るさの変動があるかという目安になります。先のノイズの記事でも書きましたが、この「
Read Noise(ADU)」の意味は、内部ゲイン500の時、ノイズ100くらいだとしたら、明るさのバラツキが100カウントくらいで収まる範囲が68%に収まっている。200カウントのバラツキは98%に収まっているということです。200カウント以上のバラツキは2%くらいしかないですが、それでも0ではありません。300カウント以上は統計的にはわずか0.13%ですが、これはかなり0に近いのですが、ピクセル数が4144 x 2822 = 11694368もあるので、そのうち0.13%だとすると15200ピクセルくらいは300カウント以上飛んだ明るさを持つので、決して少ないわけではありません。

もちろん各ピクセルには信号を測定した際の平均的な明るさがオフセットとして乗っかるので、明るいピクセルはノイズは目立ちにくいでしょうが、暗いピクセルはノイズが目立つことになります。また、これは読み出しノイズについてのみ話しているので、他のノイズの兼ね合いで、意味のあるノイズだったり、無視できるノイズだったりします。例えば長時間露光してしまえば読み出しノイズは無視できます。逆に短時間だと読み出しノイズによって制限されてしまったりします。ここら辺は以前のノイズの記事をご参照ください。こうやって考えると、測定結果がやっと実際に目にしているノイズに近いものになってくることがわかります。


今回はわかったことは、メーカーの提示している仕様と、実測はかなり一致していること。ただしきちんと意味を考えないと、グラフを見ていても意味のある情報が得られないことなどです。


次に考えている目標は、スペックシートからそのカメラの性能がノイズや写り具合も含めてきちんとわかるかどうかということ。これはもう少しまとまったら、またそのうちに記事にしたいと思います。


このページのトップヘ