ほしぞloveログ

天体観測始めました。

タグ:タイムラプス

一連の皆既月食記事の8本目。いい加減にそろそろ終わりにするつもりです。前回の記事はこちらから。



Hough変換

今回はHough変換を使ったサークル抽出で、月食中の月の位置合わせに挑戦です。FS-60CBで撮影した4時間分の広角の画像から月が画面中心に来るように位置変換をします。その後、タイムラプス映像にしてみます。

Hough変換は画像の中から特徴的な形を抽出するアルゴリズムで、その中に円を抽出する関数があります。Hough変換は色々な環境で使えますが、今回はOpenCVで用意されている関数をPythonで使うことにしました。検索するとサンプルプログラムなどたくさん出てくるのと、今回は対処療法で組んでいったのの積み重ねなので、あまりに汚いコードで人様に見せれるようなものではないです。なので、どうパラメータを取ったかだけの説明にとどめることにします。

基本的にはあるフォルダにある、月が映っているたくさんのファイルを順次読み込み、カラー画像をグレースケールに変換して、HoughCircles関数を呼び出すだけです。Hough関数は以下のようにしました。

HoughCircles(gray, cv2.HOUGH_GRADIENT, dp=1, minDist=1500, param1=30, param2=2, minRadius=350, maxRadius=400)

パラメータがいくつかありますが、少しだけコツを書いておきます。
  • HOUGH_GRADIENTとHOUGH_GRADIENT_ALTは両方試しましたが、ALT付きの方が誤検出が多かったのでALT無しの方にしました。
  • dpは1以下も試しましたが、位置精度に違いはあまりなかったです。大きな値にすると精度が悪くなりました。
  • 円を複数検出するわけではないので、minDistは1000とかの相当大きな値にしておきます。
  • param1は最終的に50程度にしました。大きすぎたり小さすぎたり値では検出できなかったりしますが、位置精度にはあまり影響ないようです。
  • param2は位置精度に影響があるようです。大きすぎると精度が悪くなりますが、5以下くらいだと精度はこれ以上変わらないようです。
  • minRadiusとmaxRadiusは、月の大きさは一定なのでその半径を挟むような値を取ると効率が良いでしょう。

とりあえず結果を示します。


結局出た精度はこれくらいです。もうちょっとビシーっと止まってくれればいいのですが、まだちょこちょこズレています。

実は精度を出そうとして色々試してみてます。Hough変換のパラメータをいじるのはもちろんなのですが、大きなものは
  • グレー化後に、あらためて画像の2値化
  • グレー化後に、あらためて輝度やコントラストをいじる
  • Adobe Premiereのブレ補正
  • 一旦Hough変換でラフに位置合わせして、少し大きめに切り抜いて、再度Hough変換
くらいでしょうか。でも結局どの方法も精度を劇的に上げることはできませんでした。Hough変換で目で見てもおかしいズレがあるので、そこだけでもずれが直ったらと思ったのですが、やはりダメなものはダメで、どうも苦手な画像があるようです。

今回はFS-60CBで広角で撮ったものから抜き出しているので、解像度が良くないこと。さらに動画の中から最初の1枚だけを抜き出しているので、大気揺らぎなどで多少のブレがあります。もしかしたらスタックをすると平均化されるので、細かいブレは少なくなるのかもしれません。スタックしてから、Hough変換ではなく、特徴点を抜き出して合わせるとかいう処理をした方が精度が出るかも知れませんが、ちょっと力尽きたので、今回はここまでにします。

ついでに同じ位置合わせの手法で、いくつか画像を抜き出して天王星の潜入画像をつくってみました。位置合わせ後、比較明合成しただけです。これくらいの精度ではそこそこ合って見えるんですけど、やはり長時間のタイムラプスだときついかもです。

uraus_in

まとめ

今回の皆既月食に関する記事はこれで一旦終わりにします。

撮影後、1ヶ月以上にわたって楽しむことができてかなり満足しました。その一方、そろそろ月も飽きてきました。ただ、まだ未処理ファイルが大量にあるので、気が向いたらもう少し追加で書くかもしれません。

先の記事でも書きましたが、今回は月食に関してはかなり満足して撮影できました。大きな課題は地球本影を位置補正することなく撮影することですが、次回月食ではこれ一本に絞ることにするかもしれません。

ここ数日、BlurXTerminatorがすごいことになっています。次は少しこちらの方に時間を費やそうかと思います。












皆既月食の一連の結果です。前回の天王星食の記事からの続きです。


皆既月食の記事も佳境となってきました。メインの結果は今回で最後です。今回は、FS-60CBで赤道儀の追尾レートを太陽時で撮影した、4時間分の大量の画像です。


地球の形を位置合わせなしで

今回は一連の皆既月食の記事の中でも、目玉に相当るする回です。赤道儀の追尾レートを太陽時にして、月食の光源である太陽の移動速度に合わせることにより、地球による影を固定するように追尾します。影を映すスクリーンは公転運動で動いていく月です。月食の間の約4時間の間、1分に1枚撮影することで、うまくすると撮れた画像の位置合わせを一切することなく、影の形がそのまま地球の形になると期待しての撮影です。

実はこの位置合わせせずに地球の形を出す方法、昨年の限りなく皆既に近い月食の時から考えていて、太陽時に合わせればいいのではとの考えに至りました。でもシミュレーションしてみると、撮影中に月が上の方に移動していきます。上に移動していく理由は先の記事で書いていますが、一言で言うと地球の地軸の傾きのためで、地球の自転軸に垂直な面とと月の公転軌道面に差があるからです。赤道儀は赤経のみが追尾するので、赤緯を動かさない限り上下移動には対応しきれないのです。

Stellariumでのシミュレーションの結果から、画面の横方向にで2度角程度、縦方向でも2度角程度移動するようです。月の視直径が30分角程度なので、月が最低4個分、できれば6個分くらい入るような画角になります。左右だけでなく、上下にも十分な画角で撮影する必要があるため、今回は焦点距離の短い鏡筒FS-60CBを選びました。


機材

今回の機材は皆既月食で4つ出した機材のうちの一つで、これまで紹介してきた3つに続き最後になります。
  • FS-60CB + マルチフラットナー + ASI294MC + Advanced VX
です。SharpCapで撮影します。他の機材同様に、皆既月食時に合わせた長い露光時間と、満月時に合わせた短い露光時間の2種類をSharpCapのシーケンサーを使い30秒ごとに切り替えて撮影します。一つはグキの明るい部分用で、5msでゲイン120、もう一つは月食部分用で500msでゲイン240です。明るさの差は露光時間で100倍、ゲインで120 =12dB=4倍で、合わせて400倍になります。一つ一つは5秒程度の動画で撮影し、.serファイルに保存しました。

実際の撮影ですが、最初の頃は雲が少しあって極軸調整がなかなかとれなかったので、撮影開始が遅くなってしまい、結局部分月食が始まった直後の18時13分からになってしまいました。撮影は一旦始まってしまえば、あとはひたすら触らずに放っておくだけです。それでも最初と最後、あと皆既中のちょうど真ん中あたりで雲が多くなり、暗い画像になってしまったものが何枚かあります。


画像処理

撮影した画像を見ると480個の.serファイルと膨大な数になります。HDDの容量をみると400GB超えでした。

本当はそれぞれ動画で撮影した.serファイルをきちんとスタックしたいのですが、出来上がり画像の大きさがバラバラになったり、雲が多かった場合などはスタックがうまくいかない率が高かったので、1枚画像のみの方がマシだという結論に至りました。ただ、1枚ファイルを取り出す方法に苦労しました。例えばserplayerを使ってマニュアルで1枚づつ書き出すことはできますが、全部で480ファイルあるので、あまりに手間がかかります。いろいろ考えて、結局AutoStakkert!3で「Number of frames to stack」を1にして、スタックなしで書き出すことで、.serファイルから1枚のみを抜き出すことにしました。

もう一つの問題が、暗い画像を.serで保存すると、その暗さによって諧調が16bitと認識されず、15bitやそれ以下、たとえば雲がかかってほとんど真っ暗に近いファイルは10bitなどと認識されるようです。認識というのはSer Playerでもそうですし、AutoStakkert!3でもそう認識されるので、どうも保存時にどこかで判断され、そのような情報として記録されるようです。でも実際のファイルは16bitで保存されているので、(間違った情報をもとに)表示が強制的に10bitとかになってしまうと、全面(ある色で)飛んだように表示されてしまいます。上の過程で1枚だけ取り出そうとしても色が飛んでしまった画像が取り出されるので少し困ったのですが、AutoStakkert!3の解析後のAPを打つ時に「Scaling(Fit/Ser)」のところの「Auto」のチェックを外し、「Range」をあからさまに「16bit」と指示してやることで、この問題を回避できることがわかりました。

出来上がった240枚x2セットのファイルを、前々回の記事で書いたようなPixInsightのImageContainerとHistgramTransformationを使って、適当な明るさにします。その後、Blinkを使って連番のjpegファイルに落とし、ffmpegでタイムラプスに仕上げます。当然ですが、位置合わせなどは一切しません。


タイムラプス 

まずは、満月時に合わせた露光時間が短い暗い映像と、月食時に合わせた露光時間が長いものを繋いだ動画です。切り替わりの前後10コマを、露光時間の違う2枚から不透明度を段階的に変えて合成することで、なめらかな切り替わりにしています。
影の形がほとんど動かないことがわかるかと思います。

影の形は、下の露光時間の長いものの方がわかりやすいかもしれません。
影の形は地球の形を表しています。動く月をスクリーンに、地球の形が再現されるわけです。こうやってみると、太陽と地球と月の関係が一度に見え、月食の仕組みがよくわかります。これが今回やりたかったことです。


静止画

次に、タイムラプス映像の中から何枚かを抜き出して、そのまま比較合成します。皆既時のものだけは上から被せています。

mix4_cut

でもこれを見るとやっぱり今回の作戦は失敗なのです。影の形が円になっていません。もう少しわかりやすい画像です。

output_comp_cut
月が上に昇っていったことにより、影の形が縦長になってしまっています。月が上に上がっていくのは地球の地軸が月の公転面に対して傾いているためで、地球の影を固定するという考えからは、やはりなんとかしてキャンセルしたい動きと言えます。

赤道儀で「月に追尾」とすると月が上に移動していくのを追っていく赤道儀があるらしい(Vixenのスターブックテン系列や、SkyWatcherでも動かなかったという報告がTwitterのほうでありました)のですが、実際にやりたいことは追尾レートを太陽時に合わせて、しかも月の上下の移動をなくしたいので、おそらく既存の赤道儀ではかなり難しいと思われます。

さらに、地球が自転していることによる視点の位置の移動も影響するという指摘がTwitter上の議論でありました。地球の半径が約6400km、北緯36度くらいにで観察しているので、4時間の間に2 x π x 6400km x cos(46/180*π) x 6hour/24hour = 5400km程度、地球の時点により観測点が移動します。月と地球の距離が約38万kmなので、ざっくり1.4%になりますが、そこまで大きな影響ではなさそうです。

もう仕方ないので、本来の目的からは外れてしまいますが、月が上に移動しないように位置合わせした場合を、Photoshopで各画像の上下移動だけさせて、横一直線に並べます。

mix4_cut

あれあれあれ?でもやっぱり今度も影の形がひしゃげてしまいました。ここでちょっとヘルプで国立天文台のページを見てみました。


国立天文台のクレジットが入っていればWebやSNSなどでも画像を使ってもいいそうなので、ここにも貼っておきます。赤道儀を使っていてカメラの向きも赤経移動が水平になるように合わせ込んであるので、撮影画像の上下左右と、この図の北南西東は十分一致しているはずです。とすると、この図を見る限りやはり月は時間とと共に上に移動していくのが正しいようです。

topics02-2-l

ここからはとても悔しいのですが、この図に従って時間と位置を合わせることにより合成したものが次の画像になります。あ、でも単に画像で合わせただけなので、そこまでの精度はありません。
topics02-2-l_all_cut

さらにそこに国立天文台の図と同じ位置に地球の形をいれてみると...
topics02-2-l_all_circle_cut
こんどは実際に撮影した影の形がひしゃげるようなことは全くなく、ものの見事に地球の形を再現していることがわかります。

でもこの図を作るためにどれだけ位置をずらしたかを種明かしすると
topics02-2-l_all_frames
枠の欠け具合を見てもらえればわかりますが、上下だけでなく、左右にもかなりの量をずらす必要がありました。ただ、ずれの具合を見るとなんらかの規則性はあるようで、なぜこのようなずれが起きたのか、定性的に、定量的に考える必要がありそうです。

この図ができた後にいろいろ考えてみて、定性的には視野のずれで説明できることはほぼわかってきました。ただそれが定量的にどこまで合うのか、これだけで丸々一つの記事になりそうなので、後日改めて書きたいと思います。


昨年からの進歩

まだまだ課題は残るものの、昨年の地球の形の再現は月の明るい部分は全部サチっていたので、今回は2段露光で明るい部分の月の模様も出ていて、大きな進歩かと思います。あらためて並べておきます。

all_cut
2021年11月19日の皆既に限りなく近い月食。

topics02-2-l_all_cut
2022年11月8日の皆既月食。部分月食時の月の模様が出た!


まとめ

前回の記事をアップし終えた後、電気スタンドがメインのPCのモニター落下して割れてしまい使用不能に。データを吸い出してたり、さらに体調を崩したりと、色々トラブルがあり記事の更新が遅れてしまいました。やっとデータ復旧も終わり、なんとか記事を書ける状態になりました。

そろそろ自分でも気づいてきたのですが、今回の皆既月食は撮影の時から張り切りすぎで、データ量が溢れていて全然処理が追いついていません。もう少し機材を控えてもよかったですし、もう少しデータ処理の手を抜いてもいいのかもしれません。でも今回の位置合わせみたいに、謎を解いていくのが楽しくて楽しくて仕方ありません。できるだけ資料を「見ずに」、できるだけ人に「聞かずに」、自分の頭の中で考えて、自分で計算します。実測と計算が合ったときの快感は何ものにも変え難かったりします。

膨大なファイルの処理は大変ですが、皆既最中の赤銅色など、これまで天気などの影響でなかなか完璧に撮影できなかった貴重な画像を、今回は余裕を持って撮ることができました。雲が少しあったのでそれが惜しいくらいで、もう皆既月食に関してはかなり満足して撮影できました。残る課題もありますが、ここまでの経緯から位置合わせをせずに地球の影を完全い映し出すのは、おそらく相当敷居が高いです。何か制御方法を根本的に変える必要がありそうで、今後の大きな目標でしょうか。

月食関連の記事ですが、もう少し、多分あと2回くらいは続きます。


 
 
 
 
 
 
 
 

前回、LuSol-Guideというソフトを使い、太陽黒点まわりの撮影をオートガイドしながら撮影した記事を書きました。



今回は撮影したたくさんのserフォーマットの動画を元に、タイムラプス映像にする画像処理の話です。

内容的には以前まとめた太陽タイムラプス記事の続編ということになります。



大まかな概念は上のページに書いてあるので繰り返しませんが、他にガイドとタイムラプス映像にするための画像処理について主に書いてあります。

ガイドについてはFireCaptureの形状認識でしたが、これは時として太陽が画面外まで飛んでいってしまって、決して「戻らなくなる」のが問題でした。これについては前回のLuSol-Guideで別途ガイド鏡で太陽全体を見ながらガイドすることになったので、かなり解決されたはずです。

もう一つは、これまでうまくいってなかった画像処理時の動画にするときの「位置合わせ」です。hiroさんがImageJの強化版の「Fiji」というソフトを紹介してくれたため、今回位置合わせが完璧と言っていいくらいうまくいきました。



このFiji、バイオ系の顕微鏡画像処理などでよく使われているらしいのですが、ものすごく複雑で私はまだ全然細かいところまで見えていません。hiroさんが教えてくれた筋道をそのまま辿っただけです。hiroさんの説明はコメントに書かれているだけなので、改めてほぼコピペ状態でこのページにまとめておきます。わかりにくいところはコメントなどに書き込んでください。かなり便利なソフトのようなので私自身でもいろいろ検証してみたいと思います。

まずは、Fijiに行く前です。一番の問題は、AutoStakkart!3でスタックすると、画像サイズがバラバラになること。hiroさんがRegistaxで処理すると全ての画像サイズが同じになることを教えてくれました。久しぶりにResistaxでスタックをしてみたのですが、AS!3でスタックした場合に比べて細部だしの具合が甘くなってしまいます。おそらくこれは目立ったものが黒点しかないためです。AS!3はSurfaceというオプションで(例えば月の拡大のような)全面に広がったようなものも上手くスタックしてくれます。Registaxはもともと惑星撮影で発達したソフトで、アップデートが長い間されていなくて少し古いこともあるのか、今回のような光球面のスタックはうまく行ったりいかなかったりで、安定しないようです。

というわけで、今回もスタックにはAS!3を使い、その後違ったサイズで出てきた画像を以前の記事で書いたようにPhotoshopのアクションツールを使い、全てサイズを揃えます。

さらに今回、もう少し下処理をしました。各画像ごとの明るさの違い、ガイドの精度不足で黒点がブレたときの周辺減光の影響の違いを除去するために、PixInsightのABEを1次と4次で2回かけることにしました。他数枚の画像に同じ処理をするのは、そーなのかーさんのこの記事

を参考にさせていただきました。

背景補正が有ると無いとでは、仕上がったタイムラプス映像の見やすさが全然違い、細かい動きがよりみ見やすくなりました。光球面の動きはあまり目立ったものではないので、この下処理の効果は非常に大きいです。

さて、ここまで来てやっと今回の本題のFijiを使った位置合わせになります。基本的にはhiroさんが教えてくれた手順そのままで、少しだけ言葉を補足しています。
  1. FIJIを起動する。 
  2. 動画からスタック済みの一連の画像を選択し、FIJIの窓枠内にドロッする。 
  3. Plugins > Feature Extraction > Extract SIFT Correspondences を選択する。
  4. ポップアップ画面の最下部にexpectred trans Formation:[Affine]を選択しOKを押す。上手く行っていれば赤色の+マークが開いた画像の内の2枚に複数ついているはずです。 
  5. このまま続けて、Image>Stacks>Images to Stacke を選択し、ポップアップ画面のOKを押す。これで位置合わせ用として認識された複数の画像が一続きの要素として確定されます。 
  6. Stack画面の左下の▶を押すと、位置合わせ前の一連の画像がアニメとして動きます。 
  7. 更に続てけて、 Plugins > Registration > Linear Stack Alignment with SIFT を選択します。そして、expectred trans Formation:[Affine]を選択しOKを押す。 
  8. これで、位置合わせ完了です。画面の左下の▶を押すと位置合わせされた一連の画像を確認できます。 
  9. 動画から必要な部分だけ切り出したいときは、カーソルを画面を左上から右下へ動かすと選択できます。この後、Image>Crop を選択しOKで完了。 明るさとコントラストはImage>Adjust を選択すると調整バーが出てきます。 
  10. 保存は「File」->「Save as」->「Image Sequence」で、あとは好きなフォーマットで保存してください。
この位置合わせの威力は素晴らしく、これまでどんなソフトでやってもうまくいかなかった光球面の位置合わせがほぼ完璧にできてしまいます。その一方、おそらく今回は黒点があるから位置認識がうまく行っているのかと思います。純粋な光球面だけだとうまくいくかどうかはまだわかりません。

結果です。ブログでそのまま表示できるように少しサイズを切り詰めgifファイルに落とし込みました。

Blink3a

いかがでしょうか?今回はテスト撮影のつもりで、わずか1時間ぶん、60枚のタイムラプスです。プロミネンスは1分単位でもかなり激しく動くことは過去の記事のタイムラプス映像からもわかるかと思うのですが、光球面はこの時間スケールではほとんど動くことはないと思っていました。今回のタイムラプス映像を見てみると、実際ほとんど動いていない部分が大多数なのですが、一部黒点の右上くらいは1時間で激しく動いていることがわかります。これは全く予測していなくて、この動きの片鱗が少し見えたときは大興奮で、夜遅いにもかかわらずできるだけ見やすくしようとして、PixInsightのContainerに初挑戦してしまいました。

撮影条件を書いておくと、

鏡筒: Celestron C8、口径203mm、焦点距離2032mm、F10
エタロン: Coronado P.S.T.
赤道儀: Celestron CGEM II
カメラ: ZWO ASI290MM
撮影ソフト: SharpCap 4.0 (64bit)
撮影時間: 2022/3/12 15時45分-16時44分 gain120-170, 1分おきに1ms x を5秒分、平均400フレーム程で1ファイルあたり1.7GBで合計60ショット。各動画の上位75%を使用。
画像処理: AS3にてスタック、ImPPGで細部出し、PhotoshopCC、PixInsight、Fijiで位置合わせ、ffmpegで動画化。 

となります。

課題は、まだ細部出しの度合いが安定しないことです。同じ条件でとっても細部が出る場合とものすごくボケる場合の差がかなり激しいです。今回は全部同じ条件で処理したので、出ていないのもここに処理すればまだ細部が出る余地は残っているのかもしれませんが、今後のことも考え自動処理だけで済ませる方向で進めました。

この不安定な処理のため、最初は激しい動きのところも安定に取れていないからかとも疑いましたが、画像処理を進めるにつれどんどんはっきりしてきたので、おそらくこれはリアルに起こっている現象で間違いないかと思います。

あと、一枚画像をするときの最後のPhotoshopなどでの仕上げの細部出しに相当する部分があるのですが、今回はその過程を省いています。もしかしたらもう少しうまく出せるかもしれません。

もう一つは、まだ明るさが完全に言っていになっていなくて、動画にすると画面がチカチカしてしまいます。ここもまだ改良できるかと思います。

とりあえず今回はテスト撮影でしたが、それでも驚くほどの映像になりました。もう少しパラメータなど切り詰めて次回撮影に臨みたいと思います。

まだ夜に撮影した3天体の処理が全く進んでいません。今日の夜は入門講座の予定です。馬頭星雲とM100とM101、画像処理が終わってブログ記事にできるのはいつになることやら...?

 

最近太陽撮影でよくコメントをくれるhiroさんが、Lusol-Guideという太陽撮影でオートガイドを実現するソフトを見つけたと教えてくれました。私も試してみたので記事にしておきます。


なぜ太陽撮影にオートガイド?

太陽撮影は基本明るいので短時間で終わるためにオートガイドする必要はないのですが、プロミネンスの動きなどタイムラプス映像をするときにはオートガイドが欲しくなってしまいます。一番の理由はPSTなどの入門用太陽望遠鏡の場合、エタロンの精度があまりよくないため、画面内でHαの出方にムラができてまうことです。そのため撮影の位置がずれると後のタイムラプスの一コマ一コマで画像処理が一様にならなくて、動画の見栄えが悪くなってしまいます。

ところが、太陽のオートガイドはあまりいいのが無くて、例えばFireCaptureには撮影した画像にある物の形を認識してそれを保つように赤道儀に返すような機能もありますが、やはりどうしても途中で飛び跳ねたりして安定度がいまいちです。ここら辺の基本的な考え方や、hiroさんとのやり取りはこのページ

や、そこのコメント欄を追ってもらえるとわかるかと思います。


LuSol-Guide

さて、今回hiroさんによって発掘されたLuSol-Guideですが、2016年くらいに開発されたものでしょうか、もう結構古いもので、その後の開発は止まってしまっているようです。すでにhiroさんから同ページのコメント欄で結構うまくガイドできているとの報告がありますが、私も実際に使ってみました。

マニュアルがここにあります。


多少の癖があったり、使わないとわかりにくいところもありますので実際使用して気づいたことを書いておきます。


実際の使用記

まずガイド鏡を用意します。普通の夜の撮影で使うガイド今日で構いませんが、太陽光を軽減するフィルターを必ずつけてください。そうしないとカメラセンサーが焼けてしまうなどのダメージがあるので気をつけてください。

カメラですが、私は撮影用にASI290MM、ガイド様にもASI290MMを使いましたが、どうも同じカメラが2つというのは想定していない様で、Lusol-GuideかSharpCapのどちらかでカメラを動かすと、どちらかが止まってしまうという状況でした。仕方ないのでガイド用カメラをASI120MM miniにすると、すんなりと両方とも動ようになりました。

キャプチャ4


さて、操作手順です。
  1. 左下の「Camera」ところでガイドに使うカメラを選択し「Start」を押すと、ガイド鏡で映した画像が出てきます。横の「Setting」で適当なパラメータを設定してください。後で説明しますが、サチるくらいに明るくしたほうが安定するようです。
  2. 次に右上「Mount」のところの「Connect」で赤道儀に接続します。ASCOM platformと各自の赤道儀にあったドライバーなどはあらかじめインストールしておいてください。
  3. 右下の「Calibration」ボタンでキャリブレーションを始めます。ガイドカメラの縦横の向きは出来れば撮影カメラの縦横と合わせておいた方がいいでしょう。
  4. 1-2分待つとキャリブレーションが終わます。
これでガイド準備可能となりますがその後のパラメータがわかりにくいです。

  1. まずD.Minですが、これはこの値以下のピクセルのずれはガイドしないという意味のようです。言い換えるとPHD2のように、恒星の強度分布からピクセル以下の位置を推測する様な高度なことはしていなくて、1ピクセル単位のガイドが最も精度が良いということになります。なのでここの値は「0」が一番精度がいいです。撮影鏡筒の焦点距離が2000mm、ガイド鏡の焦点距離が120mmなので、2000/120 = 17と、ガイド鏡が1ピクセルずれるだけで撮影画像は17ピクセルと大きなずれになります。D.Minの値を「1」にすると、上下左右1ピクセルずれていても何もしないようなので、撮影画像では最高でも2ピクセル分の34ピクセルの精度になってしまいます。
  2. D.Maxはその値以上はガイドしないというだけなので、適当な値例えば50とか100で構わないようです。
  3. Agressivenessはデフォルトの5でいいみたいです。増やしすぎると発振することがありました。
  4. Thresholdがまたわかりにくいです。これは太陽の位置認識の感度のようです。小さくすると小さな円で、大きくすると大きな円でフィッティングするようです。明るさで判断しているので、この値を中途半端にすると少し明るさが変わっただけで円の大きさが大きく変わります。位置もそれに引きずられてブレるので、ブレの範囲を小さくするためには、カメラの設定を太陽がサチるくらい露光時間を長めかゲインを高めにしておいたほうがいいいみたいです。 
hiroさんがThresholdの値を高めに設定した方が安定すると書いてくれていたのは上のような理由からで、明るさの変化にあまり依存しないように、最大径でフィッティングした方が誤差が少ないからだろうと思われます。


実際のガイド精度

あとは特に説明しなくてもなんとかなるでしょう。ただ、上にも書いた通りもっとも精度が良くても撮影画像で17ピクセルの誤差があるので、かなり揺れます。風とかあるとガイドカメラでも数ピクセルずれることはあるので、撮影画像で50ピクセルくらいずれることはよくあります。それでもFireCaputureでのオートガイドとかよりはマシで、少なくとも飛んでいってしまう様なことはあまりありません。雲や電線など、ガイドカメラの像が不安定だと大きく揺れてしまいますが、それは仕方ないでしょう。


まとめと今後

とりあえず最低限の実用性はありそうです。もう少し精度を良くするためには、ガイド鏡の焦点距離を長くすることですが、太陽全体を見る必要があるのでより大きなセンサーサイズが必要になってきます。もしくはピクセルサイズのできるだけ小さいカメラをガイドカメラに使っても精度は上がりますが、ASI290MMもそこまで大きなピクセルサイズではないため、ピクセルサイズ側で大きく精度を向上させるのは難しそうです。

タイムラプスのための画像の位置合わせについては次回以降の記事で書くことにします。
 

2021年11月19日は、月の97.8%が欠ける限りなく皆既に近いと言われる月食です。前回の2021年5月26日の皆既月食は、ブログ記事にすることがほぼ何もないくらい雲が厚くて全滅でした。さて今回はどうなることやら。


準備

実は私、まだまともな月食の撮影はしたことがありません。星を初めてまだそこまで年数がたっていなくて、初の皆既月食は2018年でした。



同じ2018年にもう一度チャンスがありました。


この2回はいずれも雲に悩まされ、かろうじて雲越しの月を救い上げたか、皆既時には雲で撃沈だったりでした。その他部分月食の機会もありましたが、いずれも天気が悪かったりで、まだまともな撮影を実現できたことはありません。

そんな中、今回は北陸は天気が悪いとの予報だったので、もともとあまり気合は入らず、しかも月食当日の11月19日は平日で仕事もあるのであまりたいした準備もしていませんでした。でも当日になると予報に反して天気が良さそうです。仕事が終わってそれこそ超特急で準備をして、いつもの東が開けている近くの河原に陣取りました。とにかく時間がギリギリでした。

地平線(と言っても遠くの立山連峰が5度くらいの高さまでありますが)までひらけて見える前回の撮影場所にしようとしたのですが、冬の月に近いので出てくる位置が思ったより北に寄っていることに気づきました。そのため少し場所をずらし、月の出から見えるような位置に陣取りました。もう準備の途中ですでに肉眼でぼやけた、それでも既に欠けている月が見え始めているのに気づいてました。山の際の低空に雲があるため、最初は月が霞んでいたので、まだ少しだけ準備に時間をかけることができそうです。


機材1: 広角

まずは急いで、簡単な方の広角撮影の準備をします。EOS 6DとNikkor 50mmオールドレンズで月の出始めから月食終了まで1分ごとの連続撮影です。準備の間にやったことは
  1. 三脚にカメラをセットし、月を拡大してピントのチェック。
  2. 設定はF値2.8、露光1/5秒、ISO400で、かけている部分の模様が見えるくらいに。
  3. 画角のチェック。縦長で最下部に地面が入るように、かつ月が左端に来るように。これで月食終了時に月が右上のはずです。
1分ごとの撮影は、Magic Lanternのインターバル撮影の機能を使っています。バッテリーは長時間っ撮影でも電池切れにならない様に、2系統のUSBから電源を取得できる外部バッテリーを使っています。とりあえず撮影を始めて、月食が終わるまで3時間近く放っておきました。

その中から5分おきのものを抜き出して、比較明合成したものが以下になります。

StarStaX_IMG_6320-IMG_6480_lighten_5min

ちなみに1分ごとのものを全部合わせるとこうなります。

StarStaX_IMG_6320-IMG_6478_lighten

これをタイムラプス映像としてみると、


画像処理までして実感したこの撮影の反省です。1分という時間間隔はそこそこokです。それでもタイプラプスにするなら30秒の方がスムーズかもしれません。一番の問題は月食で欠けている部分に露光を合わせると、月の明るいところは完全に飽和してしまうことです。この写真も途中から露光を切り替えて、明るい部分の模様が見える様にした方が良かったかもしれません。でも長時間撮影なので、一度撮影を始めたら触りたくないんですよね。

そこで次回に向けて考えたのは、撮影は1分おきなので、その間に露光を3種類くらい変えればいいのではないかと思うのです。今回の設定と、2018年の7月の皆既月食のときの設定から考えて
  1. 明るい部分: F4、露光1/200秒、ISO100
  2. 今回の設定と等価F4、露光1/2.5秒、ISO400
  3. 欠けた部分: F4、露光1秒、ISO800
くらいでしょうか?

こういった複数の設定を繰り返すのは、いつも6Dで使うBackYardEOSはちょっと面倒かと思います。なので、NINAかSharpCapのASCOM接続とかになるのでしょうか、いずれ次回の月食までにテストしたいと思います。

あと50mmのもう少しいいレンズが欲しいですが、他にもほしいものがたくさんあり、なかなか優先度が上がりません。


機材2: FC-76での連続撮影

2台目は、FC-76 + ASI294MC + Advanced VXで、もう少し大きな月のタイムラプス映像と、地球の影を炙り出すために、5秒間のワンショットを1分おきに2時間半近く、合計150ショット近く撮影。撮影ソフトはFireCapture、露光時間は25ミリ秒でゲインが220です。5秒で70枚ほどが撮影されます。

画像処理ですが、AutoStakkert!3でスタック、あとはPhotoshopのアクションとLightroomの同期機能を使い、全数同じような処理をします。最大食だけは見やすいように少し目立つ処理をしました。

最大食時から前後20分おきの画像を並べてみました。フィルターなどは入れていません。

all_cut

参考にしたのはこのページです。



この位置に合う様に、月を一直線に並べていくと影がきちんと円を描きます。

FC-76での撮影も問題点は広角の場合と同じで、月食で欠けている部分に明るさを合わせると、月の明るいところは完全に飽和してしまうことです。なのでこちらも2種類か3種類程度に露光を変えるといいのかもしれません。今回、一つのファイルが1分のうち5秒撮影で1.5GB程度です。1時間で90GB、皆既月食の初めから終わりまでの約3時間撮ると270GBです。トータル1TBのディスクなので、1分に15秒までならなんとかぎりぎり撮影できそうです。

あとは追尾をどうするですが、かんたろうさん情報によると極軸の精度さえ出ていれば、追尾レートを太陽時に合わせておけば、比較明合成だけで位置が合うそうです。ただし、数時間にわたり位置がずれない様に極軸を合わせるのもなかなか大変なので、むしろ恒星時に合わせる様にガイド鏡とPHD2を使うのもいいのかもしれません。

太陽に合わせても、恒星に合わせても、いずれにせよ画面の中を走っていくので、ある程度の画角をあらかじめとっておくことが必要になります。

もう一つのやり方は、FireCaptureで形を認識してガイドした方がいいかのかもしれません。でも月食時に形が変わっても可能なのでしょうか?

この問題、位置がきちんと後から計算できるなら、月にある程度合うように撮影してしまえば楽です。もし太陽の見た目の位置と月の見た目の位置が情報としてわかっているなら、そして太陽、地球、月間の距離がわかっているなら、簡単な作図で計算できるのかもしれません。時間があるときにやってみようと思います。

FC-76では2時間半ほど撮影を続けたので、タイムラプス映像を作ることも可能です。でも撮影した全画像を見ると結構ずれてしまっていて、センター合わせがかなり難しいです。手動で合わせるには150枚近いのでさすがに大変。PIPPの位置合わせ機能を試しましたが、明るいところがサチっていると認識がうまくいかないようです。位置認識ソフトを自分で書くかどうか迷ってます。ハフ変換というのを使うと画像から円が認識できるらしいのですが、これでうまくいくのか?まだ処理で悩んでいるので、うまくいったら公開します。


極軸精度と月食撮影時のずれの見積もり

ついでなので、今の極軸の精度で足りるのかどうかザックリ見積もってみます。まず極軸の精度ですがSharpCapで50秒から1分角の精度がでます。誤差もあったりするので1分角としましょう。そうすると簡単な計算から、最大で4分間で1秒角ずれていくことになります。

 

1時間で25秒角、3時間で1分と15秒角ずれるというわけです。月の視直径が30分角くらいなので、これくらいなら大丈夫そうですね。やはり次回は十分な画角をとって太陽時で追尾でしょうか。


機材3: TSA-120による自由撮影

最後のセットアップは、TSA-120 + ASI294MC Pro(常温) + 35フラットナー + UV/IRカットフィルター +
CGEM IIで、画角いっぱいの月を自由な時に撮影するものです。SharpCapで25ミリ秒露光でゲインが220で100枚撮影をワンショットとします。

でもこの撮影画像、なかなか青い成分が出てこなくて、パッと処理しただけではターコイズフリンジらしいものが出てきません。明るい部分と暗い部分の境が出る様にかなり苦労して処理すると、青成分が含まれていることがわかりターコイズフリンジらしいものが見えてきます。

2021-11-19-0903_2_lapl5_ap3030_2_cut

でもかやはり無理をしている気がします。ここまで画像処理を必要とするほど大変なのでしょうか?

ネットに上がっている写真を見ると、ターコイズフリンジが全然出ていないものと、かなりはっきり出ているものに分かれている気がします。はっきり出ているのは簡単に出たものなのでしょうか?それとも私がやったようにかなり苦労したのでしょうか?

ここら辺でかなり迷走しました。この画像処理、月食の本来の色のことなど考えだすとものすごく長くなりそうなので顛末は別の記事で書きたいと思います。


まとめ

ある意味初のまともな月食撮影でした。でもやはり準備をさぼっていたため、いまいちだった感は否めません。今回の反省をもとに、次回はもう少し撮影体制を見直したいと思います。

それとは別に、ターコイズフリンジとタイムラプスでいまだに色々迷っています。既にかなり時間がかかっていますが、もう少し結果が出たらまたメモがてらですが、ブログ記事にしたいと思います。



2月11日、せっかくの晴れなのでこの日も太陽タイムラプス映像にチャレンジです。前日に同様の処理をやっていたので、ある程度繰り返しでできます。


プロミネンスをいくつか

でもこの日も黒点はなし。小さなプロミネンスがいくつかと、南西方向と、北東方向に少し大きめのプロミネンスが出ています。まずはプロミネンスをいくつか撮影。でもシンチレーションがそこまでいいわけではないので、処理も簡単に済ませました。明らかに手抜きなところも見えますが、ご容赦ください。

13_08_26_lapl4_ap2357_IP_cut

13_09_55_lapl4_ap1048_IP

13_10_52_lapl4_ap942_IP

13_11_43_lapl4_ap879_IP

13_12_37_lapl4_ap1199_IP

13_13_25_lapl4_ap1129_IP

13_14_37_lapl4_ap1182_IP

13_15_24_lapl4_ap1977_IP

  • 撮影日時: 2021/2/11 13:09-13:20
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: Celestron C8、口径203mm、焦点距離2032mm、F10
  • エタロン: Coronado P.S.T.
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI290MM
  • 撮影ソフト: SharpCap 3.3beta (64bit)
  • 撮影条件: ser形式でgain 130-160, 1.25ms x 2000フレーム中上位60%を使用
  • 画像処理: AS3にてスタック、ImPPGで細部出し、PhotoshopCCとShapen AIで後処理

北東のカラー化したものを除いて、どれも結構淡いです。シンチレーションの成果、そこまで解像度はよくありません、それでもスピキュールくらいは見えています。
  • 面白いのは上から3番目のやつ。プロミネンスが浮かんでいます。おそらくこれ、前日に捻れてたプロミネンスが出てたので、それが千切れたのではないでしょうか。
  • 1枚目の右下のプロミネンスも淡いですがそこそこ大きくて、リング構造が見えています。
  • 一番下のはかなり淡いですが、高く飛び出しているのがわかります。
数は多いですが、どうもインパクトには欠けます。やはり黒点が待ち遠しいです。


プロミネンスのタイムラプス

続いてタイムラプス映像です。位置合わせは今回もImPPGがうまくいかず、結局Photoshoになりました。枚数も昨日と同程度なのでそこまで苦になりません。


最後にしたの方でなんどか火柱が立っています。メインのプロミネンスの動きはそれほどでもないですが、でも動画にしてみると動いているのがよくわかります。

でも今回のタイプラプス映像、1時間15分程度のものですが、撮影時間は13時半頃から14時半頃と、約3時間かけてます。でもその間に雲で遮られたり、ガイドがうまくいかなくてズレてしまったりで、その中の連続した一番長い1時間15分ぶんを切り出しています。しかも1回の撮影枚数を400枚くらいに増やしたら、1ファイルで1GB越え、これが180個くらいあって全体で200GBを超えています。一回でこれだけの量になると少し考えものです。週末の土日は晴れてましたが、新月木で夜の撮影もあるので、太陽は少し休憩です。

黒点が出たら超長時間の撮影で、黒点の変化をみてみたいです。5分おきで8時間分とかでしょうか。


このページのトップヘ