ほしぞloveログ

天体観測始めました。

タグ:EOS6D

先週から体調がかなり悪くて、週末の小海の星フェスは泣く泣く諦めました。2日とも天気が良かったようで、Xの投稿を見ながら楽しそうでいいなあと思いつつ、体力が持ちそうにないことはわかっていたので、自宅で大人しくしていました。自宅の富山でも天気は良くて、月が出ていない時間も長く透明度も良かったのですが、夜に撮影どころか起きている元気もなくて、かなり悔しい思いをしていました。

時間だけはあったので、やっと彗星画像の処理に取り掛かれました。撮影日はもうだいぶ前の10月20日になります。


3つも機材を展開してパニックに近かったのですが、タイムラプス映像はすでに処理済みです。


彗星画像処理

今回は、3つの機材のうちの2つ目、RedCat51に、最近手に入れた2台目の6Dを取り付けて撮影した画像の処理になります。30秒露光で使えるものは47枚ありました。総露光時間は23分半になって、ネオワイズ彗星の時が80秒8分だったので、そこから見ても長くなっています。

その一方、撮影時間が長い分だけあって、恒星に対する彗星の移動が無視できないため、これまでのように恒星合わせでスタックすると、どうしても彗星がずれてしまいます。試しにWBPPしてみます。画像処理には、ダーク、フラット、フラットダークと後日別途撮影ファイルも使います。

5496x3670_EXPOSURE-30.00s_RGB_cut
核の部分の拡大。星の位置に合わせてスタックすると、彗星はずれていきます。

核を見てみると、彗星が25分程度の間に移動していく様子がよくわかります。でもこれだと彗星の正確な形がわからないので、彗星のみ別途処理する必要があります。でもその前に、とりあえずここで作った画像をStarNetで、恒星画像を分離して保存しておきます。後で彗星画像と合成するために使うことになります。

彗星核の位置を合わせるようにスタックするのは、PixInsightのCometAlignmentで簡単にできます。その代わりに当然ですが、恒星が流れてしまいます。
comet_alignment_integration
こうやってみると、30分クラスの撮影になるとかなりずれるのがよくわかります。

恒星をここから消すのは、ちょっとめんどくさくて、少なくとも上記の星が流れている画像でStarNetは全くうまくいきませんでした。しかたないので、一枚一枚のRAW画像にImageContainerを使ってStarNetを適用します。StarNetは1枚処理するのにもそこそこ時間がかかるので、47枚だと2時間くらいを要しました。

その後は再びCometAlignmentで核の位置を認識して重ね合わせますが、ここからが大変でした。星消し画像を彗星基準で重ねると、星を消した跡が軌跡となって残ってしまうのです。言うなれば一方向に流れた時に出る縞ノイズのようなものなので、途中ディザリングをすればよかったのかもしれません。
integration_ABE4_ABE4_ABE4

その後、ダーク補正なしとか、フラット補正なしとか、フラットダーク補正なしのフラット補正だけとか、色々試しましたがどれも残った軌跡をうまく消すことはできませんでした。少しネットで調べると、niwaさんの記事にIntegration時にCombinationをAverageからMedianに変更するといいとありました。そうするとrejectionで明るいところを弾けるとのことで、いくつかパラメータを試して、今回はhigh側を0.5σまで落としました。

この原理は、以前PixInsightを使い始めた頃にM33を処理して、縞ノイズを回避しようと試みたことに似ています。あの時はクールピクセルをCombinationをMaximumにすることで回避できました。当時は理由がはっきりわからなかったのですが、今ならはっきりと理由がわかります。縞ノイズは一旦発生すると相当厄介なので、Integrataionのオプションで多少は改善できることは、覚えておいてもいいのかと思います。

ただ、今回の0.5σというかなりきついhighリジェクションでも、まだ星の軌跡は少し残るのですが、テイルを除去しないためにはここら辺がもう限界でしょう。

ここでできた背景画像をPhotoshopに渡して、先に作った恒星画像を合成し、画像処理を進めたものが以下になります。淡い尾の構造を見たかったので、背景はABEを使いかなり平坦化しています。淡いところを強調したので、まだ星の軌跡は少し出てきてしまうのですが、上の画像から見たらかなりマシなので、まあよしとします。

integration_ABE4_ABE4_ABE4_comet_star_SPCC_MS_HT3
  • 撮影日: 2024年10月20日18時49分-19時21分
  • 撮影場所: 富山県富山市
  • 鏡筒: William Optics RedCat51(f250mm、F4.9)
  • フィルター: UV/IRカット
  • 赤道儀: SWAgTi (SWAT-350V-spec Premium + AZ-GTi)
  • カメラ: Canon EOS 6D(天体改造)
  • ガイド:  なし
  • 撮影: BackYard EOS、ISO1600、露光時間30秒 x 47枚 = 23分30秒
  • Dark: ISO1600、露光時間30秒 x 32枚、Flat, FlatDark: ISO1600、1/50秒 x 32枚
  • 画像処理: PixInsight、Photoshop CC

淡い尾が画面いっぱいまで広がってます。この画像の画角は横幅約8度に相当します。それ以上には余裕でありそうなので、まだこの時期だと少なくとも10度程度には広がっていたことがわかります。

10月14日の彗星にはかなり鋭い中心線となっていたネックライン構造ですが、20日のこの画像では鋭さはだいぶなくなっていて、明るいところも中心からずれています。視野方向が軌道面から少しずれてきたということなのでしょうか。

テイル部分は濃いところと薄い所で段になっているのがわかります。濃いところがイオインテイルに相当するのでしょうか?今回は軌道にかなり平行になっているからでしょうか、テイルもまっすぐで、前回見たネオワイズ彗星のように弧を描くようなテイルにはならないみたいです。

この画像は、これまでのネオワイズ彗星の画像に変わって、スマホの背景にしようと思っています。


核の回転

後半の処理は、同じ画像から核の部分を拡大して、ここにLarson-Sekanina フィルターを適用してみました。

これは、3つ目のセットアップのSCA260とASI29MCでの核の部分の拡大撮影の練習になります。ただし、このSCA260の画像、改造でシュミットに送り返してから何も調整せずに、しかも天板のプレートを自分で少し付け替えてしまっていて、現場で見ていると星像がかなり肥大化してしまっていました。もしかしたら解像度があまり出なくて、核の拡大画像としては使い物にならないかもしれません。

さて、上で作った恒星と背景画像をPixInsightの PixelMathで合成し、ここにPixInsightに標準で搭載されているLarson-Sekanina フィルターを適用してみます。Larson-SekaninaフィルターはRotation Gradientという名前でSirilにも搭載されているようなので、無料ソフト環境でも使うことができるようです。興味がある方は試してみるといいかもしれません。今回の画像のように、拡大するとかなり粗い画像でも結構面白い結果が得られます。

Larson-Sekaninaフィルターは彗星の核の周りの角度方向の輝度の違いなどを見やすくするために、以前からよく使われているとのことですが、数学的には特に難しいことをしているわけではありません。簡単にいうと、古文書の画像解析で文字をずらして見やすくするようなイメージでしょうか?ちょうどこの間の探偵ナイトスクープの西田局長の追悼回で、古いハガキのかすれた文書を読むのに使われれたので、見た方も多いかと思いますが、あの文字ずらしを極座標系でやっているようなものです。

具体的には、例えばPixInsightの場合には、中心を核の座標に指定し、距離と回転角でどれだけずらすかを、ピクセル単位と度単位で指定するだけです。Larson-Sekaninaフィルターの元の式を見るとわかりますが、距離はマイナス方向だけに、角度はプラスとマイナスの両方向に変化させています。距離がマイナスだけなのはプラスに動かすと、中心に空いたところに何を埋めればいいのかわからないからでしょう。このフィルターは1984年のかなり昔に提唱されたものなので、今ならアイデア次第でもっと複雑な変換を試してもいいのかもしれません。PythonやMatlabなどで画像を直接解析できるなら、実装もそれほど難しくはないでしょう。

PixInsightに搭載されているLarson-Sekaninaフィルターには、距離と角度の他に、もう一つamountというパラメータがあります。これが何を意味するのかよくわからないのですが、結果にはかなり大きく効きました。今回は距離: 2.5pixel、角度: 5度、amount: 0.05で、意味のありそうな構造が出てきました。

下が結果になります。見えやすいように輝度を反転しています。くるっと回っているような模様が見えると思います。

comet_star_SPCC_MS_25_5_004_035_inv_cut_L_cut

ですが、ここから何か意味を引き出そうとすると、とたんに難しくなります。そもそもLarson-Sekaninaフィルターの意義は「見やすくする」というものなので、そこから意味を引き出すのは別の話になります。意味を引き出すには、彗星がどういうものなのか、もっと知る必要がありそうです。今後の課題とします。


まとめ

彗星の画像処理はあまり慣れていないので、なかなか思うように進みませんが、やっとゴールが見え始めてきました。今回の紫金山アトラス彗星は、ネオワイズ彗星以来の大彗星で、そもそもやっと長時間での撮影ができたくらいです。Larson-Sekaninaフィルターもやっと試すことができたくらいです。

星を始めて8年半になりますが、これまで大彗星と呼ぶにふさわしいものはネオワイズを含めて2つだけです。ということはざっくり4年に1回というペースなのでしょうか。Wikipediaで大彗星で調べてみると、ネオワイズ彗星も紫金山アトラス彗星も大彗星に含めて、ここ50年ではわずか7つなので、実際には4年に1回よりは長そうで、むしろ4年に1度見えているのはラッキーなのかもしれません。

ネオワイズ彗星の時から考えてみても、今回は色々な進化がありました。次の大彗星ではどんな手法で撮影や画像処理を進めることができるのか、かなり楽しみです。


2024年10月20日に撮影した3種のセットアップですが、



なかなか画像処理を進める時間がとれていません。彗星は時事ネタなので、本当はもっと早く仕上げたいのですが、まだ時間がかかりそうです。とりあえず処理が終わったものからブログ記事にしていくことにします。

今回、まずはタイムラプス映像を処理しました。


機材など

機材はシグマの50mmのレンズをF2.8で使いました。ISOは1600で固定、露光時間は最初1/4000秒、F11から始めて暗くなるごとにまずはF値を小さくしてF2.8まで行きます。今回使った画像はF3.5から2.8に至るまででした。F2.8になったところで、あとは露光時間を暗くなるごとに伸ばして、最後は2秒まで行って、この頃になると彗星もきちんと写っているので、あとは放置で撮影を続けました。連続撮影にはMagic Lanternを使っているので、PCなどは使っていません。画像はRAWのcr2フォーマットでSDカードに保存されます。保存された画像は492枚ありました。

画像処理は、今回は基本的にPixInsight (PI)を使いました。最後の動画を作るところでffmpegをPI内から呼び出して利用しています。


PIでの動画作成

実際に使った画像は452枚。RAW画像なので、PixInsightで開くとBayer配列でモノクロに見えます。まずは、PixInsightでまとめてDebayerをかけます。パラメータはデフォルトです。

次にBlinkで動画にします。Blinkでそれらのファイルを開きます。
blink0

Blinkを使って全ファイルにオートストレッチをかけます。オートストレッチは2種類あって、
  1. 真ん中の列の、一番上のボタンが個々の画像にあわせたオートストレッチパラメーターをするもので、画像ごとにそれぞれにパラメータが違うので時間がかかります。
  2. 真ん中の列の、上から2つ目のボタンが、ある画像でオートストレッチをして、そのパラメータを全画像に適用するもので、同じパラメータなので早く処理できます。
1の場合、明るさが揃うので一見綺麗に見えますが、夕方から夜にかけての明るさの「変化」は失われてしまいます。2の場合、空の明るさの変化を追うことができますが、今回の場合途中で露光時間を変えたりして、手作業でカメラで明るさ調整をしているので、その調整がうまく行っていないところが不自然な明るさ変化になってしまいます。両方見比べましたが、今回は明るさの変化を残したくなり、2を採用しました。2の場合ですが、ある程度暗くなったところを基準にオートストレッチパラメータを決めたので、最初の方の画像が明るすぎることがありますが、まあこれは仕方ないでしょう。

Blinkのオートストレッチボタンの列の、上から3つ目は、色バランスをリンクさせる(撮影時そのまま)か、リンク解除(ホワイトになるように整える)かが選べます。今回はリンクを外しましたが、後でここからさらに全画像にHistgramTransformをかけたので、どちらでも良かったかもしれません。

とりあえずこの時点で、右下の一番右端の撮影開始マークアイコンを押して、一旦動画にまでしてみました。この時点でもしffmpegがない場合は、別途インストールしてください。ffmpegがインストールされていても、実行ファイルをフルパスで入れないとうまく動画にできません。Macだと/usr/local/bin/ffmpegとかいうことです。

blink

ファイルサイズを大きくしないように、デフォルトのpngではなくjpgをはき出したいので、一番下のファイル形式を.jpgに変更します。ffmpegのオプションは秒20コマのmp4ファイルにしたかったので、

-y -r 20 -i Blink%05d.jpg Blink.mp4

としました。

出来上がった動画を見てみると、炙り出しがまだ不足気味なのと、背景がグレーになってしまいあまり面白くなかったので、もう少しそれぞれの画像段階での処理を進めます。


PIでの他数枚の画像ファイルの処理

多数の枚数の画像処理は、PixInsightの
  • ImageContainer
  • ProcessContainer
が便利です。

  1. まずはImageContainerを開きます。そもそもImageContainerがどこにあるのか見つからないかもしれませんが、PIのメニューのProcessの一番下のところにポツンとあります。Process内に並ぶたくさんのグループの中には無いので注意です。
  2. 先ほどBlinkでストレッチまで済ませた多数のjpgファイルを、ImageContainerに登録します。
  3. さらに出力フォルダを設定します。その際、Outputl templatで出力ファイルのファイル名の指定を「&file name;&extension;」とします。そうするとファイル名がそのまま保持されるので、ffmpegで再度動画にするときに、そのまま同じコマンドが使えます。
  4. 次に、ImageContainerのインスタンスを作ります。左下の三角マークをマウスでクリックして、そのままマウそのボタンを離さずに、PI内の背景画面にドロップ (マウスを移動してマウスのボタンを離す) してください。

次はProcessContainerです。
  1. まずは、Blinkが出力したjpg画像のうち、適当な1枚をPixInsightで開きます。
  2. 今回はScreenTranserFunction(STF)を使いました。STFを立ち上げ、開いた画像を自分の好みの明るさとカラーバランスにします。
  3. 次にHistgramTransformation(HT)を開き、STFのインスタンス(左下の三角マーク)を、HTの下のバーに放り込みます。このように、バーに放り込むというのは、PixInsight独特の操作方法ですね。
  4. ProcessContainer(PC)を開き、今度は開いたPCの画面内に、先ほどのHTのインスタンスを投げ込みます。
  5. 最後に、ProcessContainerのインスタンスを、先ほど作ったImageContainerのインスタンスに投げ込みます。
PC

すると順次各ファイルの処理が進みます。

実はHTだけならProcessContainerは必要なく、直接ImageContainerにHTのインスタンスを投げ込むだけでできるのですが、Script処理などのさらに複雑な処理を多数枚の画像に適用しようとするとProcessContainerが必要になります。なので今回は略さずに説明しましたが、面倒な場合はProcessContainerをスキップしても構いません。

実際の画像処理にはもっと凝ったことをやってもいいかもしれませんが、タイムラプス動画なのでこれくらいに抑えておこうかと思います。もう少しやるとしたらですが、見る限りノイズが結構多いので、もう少し1コマあたりの露光時間を伸ばしてもいいかもしれません。ただ、単に露光時間を伸ばすだけだと星が流れるので(まあ動画なので多少流れてもいいのかもしれません)、1コマの時間にあたる20秒内でもっと枚数をかせいで、1コマごとに10枚くらいをスタックするとかでもいいのかもしれません。もしくは、20秒の前後の画像を何枚か合わせてスタックして一コマを作り、その前後のファイルを少しづつずらしつつ重ねてノイズを減らすとかも面白いかもしれません。ただし、これ以上撮影枚数を増やすとなると、メカニカルシャッターの回数制限のこともあるので、デジタル一眼レフカメラよりは、フルサイズのカラーCMOSカメラが欲しくなってきます。


タイムラプス映像

出来上がった動画を見てOKそうなら、最後に画像サイズを変更します。Macだとターミナルを開いて、出来上がった動画ファイルがあるフォルダに移動して、

ffmpeg -y -r 20 -i Blink%05d.jpg -vf scale=1920:-1 -b:v 20000k Blink.mp4

などとします。Blinkでこのコマンドを直接指定してやってもいいかもしれませんが、jpgファイルをまた出力することになるので時間がかかってしまいます。一旦jpgファイルが出力されて、もうjpgファイルレベルでの変更はないと思ったら、ffmpegを単独で走らせた方がいいでしょう。

もしjpg画像の最初の方を使いたくなくて、たとえばBlink00100.jpg以降のファイルのみ使いたい場合は

ffmpeg -y -r 20 -start_number 100 -i Blink%05d.jpg -vf scale=1920:-1 -b:v 20000k Blink.mp4

などとします。

今回は横幅を1920のHDMIサイズとし、ビットレートを20Mbpsとしています。最初453枚で作りましたが、上のコマンドで示したように初めの99枚を除いて処理したので、合計354枚の画像を使い、47.1MBの動画ファイルとなりました。できたmp4ファイルをYoutubeにアップロードしたものです。


最後に雲が流れる時くらいに、左側に少し天の川が入ってきています。

もし出来上がった画像のファイルサイズが大きいなどの場合や、フォーマットを変えたい場合は、Handbreakが便利です。でもこちらも時間がかかるので、ビットレートを変えたいだけとかならffmpegを再度走らせた方が速いかもしれません。


まとめ

久しぶりの動画なので、メモがわりに作成方法を少し詳しく書いておきました。

まだ画像処理がたくさん残っています。次は何から手をつけようか?早めにやらないと時期も去ってしまいますが、焦っても仕方ないので、落ち着いて順次進めるようにします。

前回記事で書いたように、昨日は尻尾がほんの辛うじて見えたくらいで、まあ見えなかったと言っていい、紫金山・アトラス彗星(C/2023 A3)。



今日は一転、ものの見事に大迫力で見えました!!!

昨日は悔しさに任せて書き殴っていたブログ記事ですが、今日は全然気分が違います。晴れ晴れとして書いているので、筆が進みます。


天気予報はイマイチ

2024年10月14日は連休3日目の月曜日。そもそもこの日は午前中こそ晴れていましたが、午後くらいから雲が出始め、夕方までかなり雲が多かったです。16時頃に外を見て、まあダメだと思い諦めてテレビを見てました。17時になる10分くらい前でしょうか、窓から少し弱いながらも太陽の光が差し込んでいたので、とりあえずダメもとで外にだけ出ようと、昨日と同じ場所へ向かいました。昨日の機材はそのまま車に積んであるので、17時には現地に着いていました。

空を見ると、天気は辛うじて昨日よりマシなくらいで、まだ雲がかなり残っています。最悪晴れている場所があれば移動することも考えて、機材は昨日よりもかなりシンプルで、シグマの105mmにEOS 6Dのみです。架台は固定三脚ですが、昨日のマンフロット三脚に自由雲台から変えて、ビデオ用三脚に近いような水平と垂直を独立して傾けれるものにしました。これは正解でした。撮影していると、あと少しだけ角を中央に移動とか、地面を少しだけ入れたいとか、微妙の角度を調整したくなるのです。

IMG_0209


早く見えないかな?

機材の準備はものの10分ほどすみました。昨日一度セットしている経験が効いています。最初に撮った写真のタイムスタンプを見てみると、17時13分でした。太陽が遠くの山に沈んだ直後で、流石にまだ明るすぎます。

太陽が沈む位置から、その時の彗星の位置は南へ7-8度、高さはまだ20数度あるはずです。105mmレンズとフルサイズの画角は19.3x13.0度あります。地面を画面内に入れると、まだ彗星は画面からはみ出るような位置にあります。そこで、地面から少し上くらいにカメラを向けて、彗星が確実に画面内に入るような位置にして、見えるようになるのを待ちます。

カメラは昨日と同じ、PCに繋いでBackYardEOSでシャッターを切り、モニターしています。ピントは、昨日合わせた時にパーマセルテープで固定しておたのですが、見る限りズレたりしていることはなさそうです。ここから1分おきくらいにシャッターを切って彗星が見えるのを待ちます。

17時20分、流石にまだ見えません。
17時30分、ちょっとくらい見えないかな?
17時40分、そろそろ見えてもいいのでは?
17時45分、流石に見えるはずでは?
17時50分、なんで見えない?何か間違っているのか?
17時52分、おお! 核が見えている!!

とこんな感じで、いまかいまかと待っていました。


まずは核が見えた!

LIGHT_Tv1s_200iso_f3-5_+22c_20241014-17h52m49s662ms_rot
核の位置は画面中央より少し左寄りでした。

その前の撮って出しJPG写真を注意深く見てみると、17時46分の画像では核は確認できませんが、17時48分の画像には写っていました。

その後さらにRAW画像をPixInsightで炙り出してみると、17時46分の画像にははっきりみえていますが、1分前の17時45分の画像以前には写っていません。これはまだ明るかったというよりは、残っていた雲が厚くて核を隠していたようでした。


尾も見えてきた

核が見えてからは順調そのものです。彗星の尾が左上に向かっているので、核の位置を中央右下になるように少しだけカメラの方向を変えます。

17時59分には核が完全に雲から出てきて、尾っぽが見え始めます。
LIGHT_Tv1s_400iso_f2-8_+21c_20241014-17h59m57s332ms_rot

5分後の18時4分には尾の全体も雲から出てきました。
_LIGHT_Tv1s_800iso_f2-8_+21c_20241014-18h04m59s158ms_rot

この辺りで双眼鏡で見てみましたが、尾がはっきりと見えました。ただ、肉眼だと周りが明るいからか、核も尾もあまりよく見えませんでした。


全体像が凄い

18時12分の画像では彗星の全体が確認できます。現地でWindowsの「フォト」を使って、少しだけ画像処理しました。
LIGHT_Tv2s_1600iso_f2-8_+20c_20241014-18h12m39s037ms_2_rot

つぎは18時26分の写真です。だいぶん下に降りてきたので、地面と一緒に写してみました。
LIGHT_Tv2s_1600iso_f2-8_+20c_20241014-18h26m04s845ms_rot

暗くなって核が雲に隠れる直前の18時29分の写真を、PixInsightで炙り出して尾の長さを見てみました。画面の長手方向の3分の2はあると言っていいでしょうか。

LIGHT_Tv2s_1600iso_f2_8_20c_20241014_18h29m04s229ms_ABE_HT_NXT

縦方向が19度ちょい程度なので、少し斜めに伸びていることも考えると、尾の長さはこの画面で見えているだけでも13度以上と言っていいでしょう。これは紛れもなく大彗星と言っていいのかと思います。


とうとう終わり

18時41分には低空の厚い雲の中に核が入ってしまいました。
LIGHT_Tv2s_1600iso_f2-8_+20c_20241014-18h41m09s592ms_rot

再び見えることはないのかと、少しだけ待ちましたが、これ以降は尾もどんどん低くなってきて見えなくなってきたので、この日はここで終了としました。

明日以降は少し天気が悪くなりそうですが、まだチャンスがあると思います。どこまで成長するのか?それとももう尾は短くなっていくのか?今後も楽しみです。


片付けと帰宅

興奮も冷めやらぬまま後片付けです。大した機材は出していないので片付けは簡単で、19時前には現地を出発しました。今日は自宅に息子しかいないので、すき家によって牛丼大盛と旨辛すき焼き牛丼中盛りを買って、自宅で子供と食べて、ブログを書いて、今に至ります。

今回の紫金山アトラス彗星はとにかくもう満足でした。やり残したことというと、タイムラプスを撮りたかったかもしれないのと、今使っている古いiPhone XRで写るかどうか試すことくらいです。ただ、肉眼ではっきり見えたネオワイズ彗星に比べて、今回は肉眼ではよく見えなかったので、自分の中の順位としてはやはりネオワイズ、紫金山アトラスでしょうか。ネオワイズは初めて見た大彗星だったので、そのインパクトもあるのかもしれません。でも、そもそも今日はダメもとで外に出てみたくらいの気分だったので、それを考えたら十分過ぎるくらいの結果です。

とりあえず今回の記事は速報で、撮って出しと簡易処理です。きちんとスタックしたりしての画像処理はもう少し時間をかけてやろうと思っています。


夕方に見えるようになり、大化けしつつある話題の紫金山・アトラス彗星(C/2023 A3)。連休ということもあり、時間も少し取れそうなので私も挑戦してみることにしました。


場所をどうするか?

前回見た大型のネオワイズ彗星は、天気と暗い場所を求めて、能登半島を挟んだ富山の反対側の羽咋市の海岸にまで遠征しました。今回は月が出ているので、あまり暗いところに行くのは意味がありません。ただし、まだ高度がかなり低いので、西側が地平線近くまで開けている場所が必要です。というわけで、昼間のうちに一度偵察に行って、自宅から車で5分くらいの川の堤防を陣取ることに決めました。


セットアップ

18時くらいに日没なので、17時には準備を終えたいと思い、16時に自宅を出発。堤防に着くとまだそこそこ日が高く、日があたると暑いので車の影に隠れながら機材をセットします。

IMG_0196

撮影機材はRedCat51+ASI294MC Proと、シグマの105mm F1.4レンズ+ EOS 6Dの2セット。架台はCGEM IIとSWAgTiの2セットです。一応普通のカメラ三脚と自由雲台も用意しました。

結論としてはCGEM IIは全く使わなかったです。便利だったのはSWAgTiのAZ-GTiで、操作のためのSynScan Proをネットに繋いで起動すると、あらかじめ彗星の最新のデータをダウンロードでき、導入が楽に行えます。結局RedCat51をSWAgTiに載せ、105mmレンズと6Dは自由雲台で使うことにしました。

IMG_0201

PC側のアプリは、RedCat51がSharpCapで、6DがBackYardEOSです。両方ともPC上で画面が見えるので、特に6Dのモニターを覗かなくてよくて、確認がかなり楽でした。


なかなかうまくいかない

AZ-GTiの自動導入といっても、昼間なのでそもそも初期アラインメントがうまくできず、全く精度が出ません。水平を出して、iPhoneのコンパスアプリで方向を確かめて設置しましたが、結局かなりあさっての方向を向いていました。月が出ていればそれでワンスターアラインメントができるのですが、残念なことにその時間月は雲の中でした。しかたないので、鏡筒先端に蓋をして、(SynScan Proの太陽導入の制限を外してから)太陽を初期アラインメントで導入し、鏡筒の方向があっているかを目視で確かめたくらいでした。他にも、遠くの山でピントを合わせておくなどしたのですが、これらも結局最後星で合わせ直したので、昼間の精度はかなり出にくいということを実感しました。

そもそもの原因が、とにかく雲。準備の最中くらいはまだ西方向に晴れ間が広がっていたのですが、日没が近づくにつれ雲が広く厚くなっていきます。日没くらいには西から南がほぼ全面雲に覆われていました。その一方、北と東には青空が広がっています。

IMG_0197
iPhoneで適当に撮った画像です。17時ちょうど。

IMG_0202
同じくiPhoneで17時30分。日没直後は西側はほぼ全面雲でした。

今更場所を変えるわけにもいかず、もうここら辺で諦めモードで、とりあえず使わないCGEM IIを片付け始めます。一応RedCatは彗星と思われる方向に向け、6Dでは広角で多少位置が間違っても大丈夫なように見ていましたが、見えているのは雲ばかりです。遥か遠方に、山の上と雲の下に隙間があり、あわよくばそこから見えればと思って、最後に足掻いていました。

Capture_00001 17_50_42_WithDisplayStretch
17時50分。RedCatの画像。下の方にわずかですが、雲の隙間がずっとありました。

途中、彗星の位置思っていた方向と少しズレていることに気づきました。気づけたのは、太陽が沈む位置を写真で残しておいたことと、Vixenの彗星アプリで太陽が沈む位置と彗星が沈む位置が10度くらいズレているのを確認したからです。


なんか見える!

18時20分頃からでしょうか、雲の上の方が少し薄くなってきて、雲ごしに星が見えるようになってきました。改めて星を使ってピントなどを合わせ直し、彗星が出てそうな雲の薄いところを見ると、なんと真っ直ぐ上に伸びる尾っぽが見えているではありませんか!!!

ちょうどその時に妻から電話が!「今どこなの?ご飯食べるの?」とのことです。なんでやっと見えかけた時に限って!?と思いましたが。「今彗星。近くの川。帰ったら食べる。」とだけ答えて、すぐに撮影に入ります。その時に何枚か写したのがこれです。

LIGHT_Tv2s_1600iso_f2_+23c_20241013-18h32m27s118ms_rot
105mmレンズの画像です。縦に尻尾だけ見えます。時刻は18時32分。
核は多分山のちょうど天辺に隠れるか隠れないかくらいだと思います。

Capture_00001 18_37_33_WithDisplayStretch
RedCatの画像です。赤道儀に載っていて、上が天の北なので、尻尾が傾いて見えます。
時刻は18時37分で核が地平線に沈む直前です。 

あわよくば核も見えないかと思いましたが、結局下の方の暑い雲が退くことはなく、核も沈んでしまう時間になってしまいました。その頃には尻尾も再び見えなくなってしまい、上の写真が精一杯の結果でした。

CGEM IIは早くに片付けていたので、残りの後片付けも大したことはなく、そのまま自宅に帰り夕食にありつきました。


帰ってから

それでもなんとか尻尾だけは見えたので、彗星が全く見えなかったわけではありません。ほんの少しの満足感と、惜しかったというのと複雑な気持ちです。さらに、自宅に着いてから見たXの投稿で続々と綺麗な写真が投稿されているのを見て、全国的に見えたのに何故ここだけ?と、悔しくなってきてふてくされていました。

さらに時間が経ってくると、天リフのブログコーナーに「見えた!」という記事が次々とアップされています。みなさん素晴らしい結果です。はい、羨ましいです。それらを見て、一つくらいは見えなかった記事があってもいいのではと思い、今回のこの記事となりました。悔しさのあまり書いたので、わずか30分くらいで書き上げました。わかってます、本来ボツにするような記事です。

この記事を書き終えて、ふと思いついて尾っぽの写真をPixInsightで炙り出してみました。すると、ちょうどそれらしい位置に核のような白い点が見えます!

LIGHT_Tv2s_1600iso_f2_+23c_20241013-18h32m27s118ms_nueclear_cut

一応核も見えたということにしましょう。そう思うと少しだけ満足度が上がりました。

明日晴れないかな?天気予報だと夕方曇りですが、SCWだと場所を選べば晴れているところはありそうです。あまりぜいたくは言わないので、とにかく西が開けていて雲が少ない場所を探せればと思います。


本記事は、一連のSWAT+AZ-GTi=SWAgTi (「スワッティ」gは発音せず) の関連記事になります。




目的

今回は、
  1. SharpCapの極軸調整を一眼レフカメラでやれるかどうか?
  2. プレートソルブを一眼レフカメラでできるかどうか?
という2つのことに挑戦したいと思います。

元々の動機は「SWATユーザーには一眼レフカメラを使って撮影している人が多い」という、開発元のユニテックさんからの情報です。せっかくAZ-GTiで自動導入ができるので、一眼レフカメラでもプレートソルブができないかと考えたことが始まりです。ついでにプレートソルブができるなら極軸合わせもできるのではないかと考えました。

本当は、胎内星まつりのSWAgTiの実演でEOS 6Dで試すところを披露したかったのですが、そこまで全く辿り着かず、いつもやっているCMOSカメラでさえ極軸調整がうまくいかなかったので、その後自宅に帰ってからやっと試すことができたというわけです。胎内で期待されていた方がいましたら、申し訳ありませんでした。この記事で代替とさせてください。


セットアップ

実際のセットアップです。鏡筒はFS-60CBにマルチフラットナーで、鏡筒とフラットナーの間にサイトロンのDBP(Dual Band Pass)フィルターを入れています。そのため恒星が多少暗くなり、極軸調整でもプレートソルブでも影響があるかもしれません。それでも簡単のために撮影時の設定を崩したくないので、今回はフィルターを外したりせずにそのまま試すことにしました。一眼レフカメラとしては天体改造済みのEOS 6Dです。これらをSWAT+AZ-GTiのSWAgTiに載せます。SWAgTiはいつものようにGitzo製のバサルトのミニ三脚に載せます。

鏡筒とカメラである程度重くなっているので、ホームセンターで買った12mmのネジが切ってある金属棒をAZ-GTiにつけ、そこにウェイトをつけています。胎内でユニテックさんにデモを見せてもらったように、SWATの回転方向のバランスをきちんと取らないとSWATのギヤに大きな負担がかかることを学んだので、今後はウェイトを使って赤経方向のバランスを取ることを心がけるようになりました。CMOSカメラの時はウェイト側が重過ぎてバランスが取りきれていなかったのですが、一眼レフカメラになってちょどバランスが取れる範囲になりました。

IMG_8504


極軸合わせ

まずはSharpCapで6Dを認識させることからです。今のSharpCapはASCOM経由で一眼レフカメラのかなりの機種を接続することができます。



ポイントは、SharpCapで一眼レフ用のASCOMドライバーを立ち上げる際には、カメラをケーブルで接続をしない状態で行うか、ケーブルで接続をしてもカメラの電源を入れないことです。こうすることで、エラーなど出ずに下の画面のように設定画面でカメラの設定をすることができます。

11_canon

ISOですが、設定画面で設定しものが反映されないことがあるようなので、その場合は一度接続ケーブルを外し、カメラ本体側で操作できるようにしてから設定します。

設定が完了したらカメラを接続して、さらにカメラの電源を入れて、上記設定画面の「OK」ボタンを押します。「カシャーン」とシャッターが上がる音がして動作開始です。おそらく初めて繋ぐときはライブビューモードになっているので、自動的にSharpCapでカメラからの撮影画面が出ますが、これだとシャッターを切り続けてしまい落ち着かないので、すかさず画面右上の「ライブビュー」ボタンを押して以下の画面のようなスティルモードにしてシャッターを切り続けるのを止めます。

10_still

露光時間を設定しますが、今回は16秒で試してみました。シャッター回数が増え過ぎず、一つの動作をあまり待たないくらいの時間という意味です。

ここからはSharpCap上で普通に極軸調整をします。どうやら極軸調整を選ぶと自動的にライブビューモードに切り替わるようです。なので、少なくともここに来るまでに適した露光時間にしておいてください。

12_polar
極軸合わせでは自動的にライブビューモードになるようです。

ここからは単に、一コマ一コマに16秒かかる極軸調整になるだけです。星の認識も問題なくできます。
01_polar

通常通りNextを押して途中SWAT側で赤経つまみを緩めて90度回転し、どれだけずれているか計算してもらいます。下の画面は2度くらいずれてますね。
03_polar

あとは三脚の足の伸び縮みと、三脚をずらしての水平方向の回転で調整します。今回は下のように、30秒角程度まで合わせこむことができました。ここまで合わせると、ずれは4分間かかっても0.3秒程度になるので、今回ターゲットとしている3分間程度の露光では極軸のずれによる星像の流れは完全に無視できるレベルです。おそらく機材のたわみによるズレの方が支配的になってくると思われます。

07_polar

でも露光時間が長いので合わせこむ回数にどうしても制限ができてしまいます。あまり突き詰めなくても、3分角程度まで合わすことができれば十分でしょう。これでも最大で4分間で3秒角程度ずれていく程度なので、SWATの精度と同等くらいになります。


極軸合わせのまとめですが、試してみた結果、露光時間が長いので少し時間はかかりますが、それ以外はCMOSカメラでの極軸合わせと何ら変わりはなく、一眼レフカメラでも十分に極軸を合わせられることがわかりました。

ちなみに、最初はASCOMドライバーでライブビューモードを選び、動画モードで極軸合わせができればと考えていたのですが、感度が全く足りませんでした。そもそも動画レベルなので露光時間が1秒より遥かに短くしか撮れていないことが原因です。1等星クラスの明るい星なら見えるかもしれませんが、ほとんどの星はSharpCapの画面上で見ることができません。

bad
ライブビューモードは使い物になりませんでした。 


プレートソル

極軸合わせでうまくいったので、気を良くして次はAZ-GTiでの初期アラインメントです。ここではちょっと冒険をしてAZ-GTiを使ったプレートソルブを試してみます。

SharpCapからAZ-GTiまでの接続ですが、まずAZ-GTiはSWATの上に乗っかっていて、PC上で立ち上げたSynScan Proから WiFiで接続されています。接続時には赤道儀モードを選んでいます。SharpCapからはASCOMドライバーを介してSynScan Proに繋げます。

この際気を付けることは、SharpCapとSynScan Proがきちんと接続されているか確認することです。きちんと接続されると、SharpCapのコントローラ部に今どちらの方向を向いているかの数字が表示され、その数字が時間とともに動いている様子が見えます。数字が動いていなかったり、0付近になっているとか実際に向いている方向と明らかに違う数字が出ている場合はうまく接続されていません。この場合は、PC上のSynScan Proを一旦閉じて、再度立ち上げてから繋ぐとうまく接続できるかと思います。うまくいかない場合は、PC上のSynScan Proの緯度経度情報を確かめてみてください。スマホやタブレットで繋いだときはGPSがあるので自動的に緯度経度情報は取得できますが、PCは通常GPSがないので緯度経度情報がうまく設定されていないかもしれません。

プレートソルブの設定はSharpCapの設定画面のプレートソルブタブから行います。

14_ps_gauss

私はASTAPとAll Sky Plate Solver(ASPS)を併用していますが、普段はほとんどASTAPです。まれにASTAPでうまく解決できなくてASPSだとうまくいくことがありますが、ASPSのほうが少し余分に時間がかかります。あと注意は、焦点距離をきちんと入れておくことでしょうか。自分の機材にあった焦点距離を大体でいいので入力しておきます。ここが大きくずれているとどうやってもプレートソルブはうまくいかないです。

設定画面には、ズレを計算した後にどうやってAZ-GTiに返すかですが、4つのオプションがあります。以前は2つ目のオプションのきちんと同期するところまでやっていたのですが、最後のAZ-GTiに返すところでうまく動いてくれないことも多くて、最近は4つ目のオプションの「マウント位置をオフセットして、天体を中央に配置する」を選ぶことが多くなりました。

とりあえず実際にプレートソルブをやってみましょう。まずはPC上のSynScan Proから初期アラインメントをします。赤道儀の極軸がかなり合っているので、ワンスターアラインメントで十分でしょう。適当に星を選びます。今回はアルタイルで試しました。一番最初に初期アラインメントで自動導入した後、下のように「マニュアルで中心に」と出ますので、この時にマニュアルで合わせる代わりに上で書いた「4つ目のオプションをえらんで」プレートソルブを使います。

22_PS_ok

うまくいくと、赤道儀が見ていると思っている方向と、実際に今見ている画面から計算した方向のずれが角どで上の緑のバーのところに表示されます。
20_PS_ok

その後、自動的にターゲットの星が真ん中に来ます。
21_PS_ok

このようにターゲット星が真ん中に来て、赤道儀が見ていると思っている方向と、実際に今見ている方向が一致している状態で、SynScan Proの初期アラインメントを完了してください。これで同期が完了し、これ以降は、(SWATの水平出しに依りますが)自動導入でターゲット天体がほぼ正しい位置に来るはずです。


うまくいかない時:
実は今回、初期アラインメントのテストにあたり、一番最初アルタイルでなくベガを選びました。実際初期導入すると、すでにベガが画面の端の方に入ってきました。ところが真ん中に持っていこうとプレートソルブをかけますが、なぜか全然位置を解決できません。ASTAPもASPSも両方ともダメです。一眼レフカメラなので何か弊害があるかと思い、露光時間、ISO、その他各種設定を色々いじっても全くダメです。もしかしたら本当にダメなのか...と、諦めかけていたのですが、ターゲットをベガからアルタイルに変えたら、一発で解決しました。しかも露光時間など多少設定を変えても全部きちんと解決してくれます。もしプレートソルブがうまくいかない場合は、早々に諦めてべつのターゲットにしてみるというのも手なのかと思います。


まとめ

この日は月も明るく、平日だったので、プレートソルブのテストまでで、撮影は敢行しませんでした。極軸調整もプレートソルブも、SharpCapを一眼レフカメラで使う時特有の、ライブビューモードとスティルモードをきちんと意識して使い分けることで、CMOSカメラと比べてもほとんど遜色なく使うことができるとわかりました。この際、露光時間を16秒としたのですが、やはりこのくらいが適当かと思います。短かすぎると操作性はよくなりますが、シャッターを切りまくるのでメカニカルシャッターの寿命が気になりますし、長すぎると操作性が悪くなるかと思います。

次は実際の撮影をどうするかですが、月のない天気の良い日を待ちたいと思います。SharpCapで撮影すべきか、これまで通りBackYardEOSを使うべきか、それともソフトなど使わずにシャッターを切るだけにするか。まだちょっと迷っています。


皆既月食の一連の結果です。前回の記事の続きです。


今回は広角で月食の全景を撮影したものです。


広角撮影セットアップ

全過程を広角で撮影したものです。機材は
  • 35mm、F1.4のNIKKORレンズをF8で使用
  • Canon EOS 6D、HKIR改造、フィルターなし、1/400s(2.5ms) ISO100
  • Manfrottoの固定三脚とVelbonの自由雲台PH-173
になります。

レンズは最初50mmを考えていたのですが、今回は4時間と長丁場で、Stellariumで画角を計算してみると全景は全然入りきらずに持っていた古い35mmレンズとしました。広角なので手持ちの唯一のフルサイズの6Dをここに投入します。

露光設定ですが、こちらもSharpCapのシーケンサーを使って、1分に2枚明るさを変えて撮影します。
  • 1枚は露光時間1/400s(2.5ms)、ISO100で、月の明るい部分に合わせた暗い設定
  • もう1枚を露光時間1/2s(500ms)、ISO800で、月食部分にあわせた明るい設定
とします。SharpCapのシーケンサーの詳細です。

seq

撮影後、撮って出しJPGを見たらかなり暗く写っていたので、最初失敗かと思いました。でも画像処理をして炙り出すことで、特に問題ない画像となりました。1分間に2枚撮影して、4時間強の撮影になったので、1セットあたり263枚、合計526枚の画像がありました。多量のファイルがあるのでどう画像処理を進めようかと思い、LightRoomや動画にしてからPremireで加工するなども試しましたが、結局PixInsightでContainerを使うのが一番小回りが効きやすかったです。


画像処理詳細

かなり暗めに撮影したため、炙り出すとBiasノイズのような縞ノイズが見えました。しかも縞は一定ではなく、ランダムで出るので厄介です。今回はCanonBandingReductionが有効なことがわかったので、これを全てのファイルに適用します。263枚を一度に処理する必要があり、さすがに一枚一枚処理するのは大変なので、
  • ImageContainer
  • ProcessContainer
を使うことにしました。心配だったのは、CanonBandingReductionはScritpsに所属するUtilityなのですが、これでも一括処理できるようです。やり方は、
  • ImageContainerに処理したいファイルを登録し、出力フォルダを設定したりします。
  • ImageContainerのインスタンスを作ります。
  • CanonBandingReductionを開き、適当に設定し(今回はデフォルトのまま)、そのインスタンスを作ります。
  • ProcessContainerを開き、CanonBandingReductionのインスタンスを投げ込みます。
  • ProcessContainerのインスタンスを、先ほど作ったImageContainerのインスタンスのインスタンスに投げ込みます。
すると順次各ファイルの処理が進みます。

ここで一つ注意です。CanonBandingReduction単体の処理なので、ProcessContainerが余分な気がしますが、試した限りUtilityはImageContainer単体には適用することができないようです。

さらに画像処理して、PixInsightで適度にストレッチします。今回は途中で明るさをいじったりしたくなかったので、MaskedStretchなどは使わずに、HistgramTransformationのみ使いました。全部のファイルに適用するのはImageContainerを使いました。ここではProcessContainerは必要なく、直接ImageContainerにインスタンスを投げ込むだけで適応できました。

さらに出来上がった.xisfファイルをjpegに変換します。変換はのちに動画にしたいこともあるので、Blinkを使います。ここでjpegを指定し、一旦仮の動画にしてしまいます。


結果の画像と動画

これらの過程を満月に合わせた暗い設定、月食に合わせた明るい設定の2つに適応し、できた多量のjpegファイルを合成します。合成は、皆既になる前後を境にして、暗い設定->明るい設定->暗い設定としてファイルをまとめるようにします。Blinkを通した時点でファイル名のタイムスタンプはなくなってしまっています。なので、Blinkを通す時点で1分で2回取れたファイルのみを変換しておくことに注意です。そうしないと2種の明るさのファイルの時間がずれてしまい、合成した時に境目でズレが起きます。(それでも境目で30秒のずれはどうしても発生していますが、これは今回は無視するとことにします。)

まずは5分おきに比較明合成したものです。これが一番メインの結果となるでしょうか。
StarStaX_Blink00001-Blink00261_lighten

ついでに、1分おきに比較明合成すると以下のようになります。
StarStaX_Blink00001-Blink00263_lighten_500ms

月食に合わせた、明るい設定だけを1分おきに比較名合成してみました。最初の頃と最後の頃に雲が多かったので、全部は使わずに部分月食が終わってからの画像はカットしました。
StarStaX_Blink00001-Blink00200_lighten

次にタイムラプスです。アニメ化する際には、必要なファイルを入れたフォルダに移動して、ターミナルで

ffmpeg -y -r 20 -i Blink%05d.jpg -vf scale=1920:-1 -b:v 20000k Blink.mp4

などと打ち込みます。横幅がHDMIの1920ピクセルになるようにしています。ただしこれだと横長の動画になってしまうので、次のコマンドで回転させます。

ffmpeg -i Blink.mp4 -vf "transpose=2" Blink_rot.mp4

こうしてできた動画になります。


動画にするとかなり月が小さく見えるので迫力があまりないです。できるだけ画面いっぱいに拡大してみた方が良さそうです。ついでに、明るい設定のものだけをタイムラプスにしたものをアップしました。こちらのほうが見やすいかもしれません。

最初と最後に雲がそこそこあったことがよくわかります。

次の記事は天王星食です。


 
 
 
 
 
 
 
 

 

このページのトップヘ