ほしぞloveログ

天体観測始めました。

前回のTSA-120に引き続き、VISAC (VC200L) でM13を撮影してみました。




撮影時の様子と結果

と言っても撮影したのは前回の画像処理をする前。なので、反省点は生きていません。撮影条件なども基本的には同じです。

大きく変わったのは、鏡筒はもちろんですが、撮影時間を3時間以上と大幅に増やしたこと。まあこれも増やしたと言うよりは、放って置いたら3時間経ってたと言うのが正しいので、3時間に「増えてしまった」と言った方がいいのかもしれません。あと、撮影にN.I.N.A.を使ってみました。結構よかったので、これは次の記事でレポートします

撮影時に気づいたことといえば、TSA-120は鏡筒自身が長いので時間が経つとCMOSカメラ側が三脚に当たって、それで撮影が終わることが多いのですが、VISACは焦点距離が長いのに物理的な長さは短いので全然大丈夫なことです。実際、M13が天頂を超えてしまって、あーもう当たってるかもと思って急いで見に行ったらまだ全然余裕で、その後30分くらい撮影を延長しました。

撮影結果です。


「M13: ヘラクレス 座球状星団
light_BINNING_1_integration_ABE_ABE_PCC_STR_PS_decom3
  • 撮影日: 2020年5月14日21時9分-5月15日0時48分
  • 撮影場所: 富山県富山市下大久保
  • 鏡筒: Vixen VC200L
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro + サイトロン QBP (37.5mm)
  • ガイド: PHD2 + f=120mmガイド鏡 + ASI290MMによるディザリング
  • 撮影: N.I.N.A.、ゲイン220、温度-15℃、露光時間300秒x38枚 = 3時間10分 
  • PixInsight、Photoshop CCで画像処理

中心部です。

light_BINNING_1_integration_ABE_ABE_PCC_STR_PS_decom3_cut



画像処理について

画像処理をした後の、いくつかの反省点と検討事項です。
  • StarNet++を試しましたが、相当明るい構成のみを一部分離できただけで、使い物になりませんでした。球状星団には向いていないです。
  • 背景ノイズを消す目的で試したのですが、相変わらずDfine2もDeNoise AIも微光星が崩れしまって、悪影響の方が大きいです。今回も使いませんでした。
  • 露光時間が長いので背景ノイズが滑らかになり、微光星とはかなりはっきり分離できています。逆に一番の問題は、露光時間が長いのでやはり星像にシャープさが無いこと。シャープさを出すために、Sharpen AIとNik collectionのSharpner Proとか色々試しましたがほぼ全滅で、唯一まともだったのがPixInsightのDecombolutionでした。ちなみに、月とかでRegistax代わりに使うMultiscaleLinearTransformも背景ノイズが増えたように見えるのでダメでした。
  • Decombolutionはまだあまりパラメータとか理解できていないので、ほぼデフォルト。Wavelet layerはデフォルトの2つだと不十分なようで、4つに増やしました。他にかなり効いたところがDeringingです。これもデフォルト設定ですが、オンにすると背景のノイズの崩れ具合がかなり改善されました。このおかげでシャープさが少し回復したのかと思います。
  • まだ口径200mmの分解能には迫っているとは思えません。特に明るい星が肥大化してしまうのはコントラストなども関わってくるので、難しいです。
  • 具体的に言うと、星が密になる境のあたりに3つ赤い星が固まっていて、一番外側の星の横に青い小さな星があるのですが、この3つの星がどうしてもくっつきがちです。シャープな画像を見ているともっと分離しています。次に短時間露光を試すときに、ここの分解能を出せるのかどうかがポイントかと思っています。
  • 以前問題になった、星像おにぎり化現象、一旦は出なくなったのですがはたして今回はと言うと、とりあえず星像を見る限り丸で、どうやら大丈夫なようです。でもこれまだ、調整不足で星像が肥大化して見えなくなっただけの可能性もあるので、結論は先送りです。

背景について

背景をわかりやすくするためにガンマを上げたものを載せておきます。

light_BINNING_1_integration_ABE_ABE_PCC_STR_PS_decom_gamma2

微光星とノイズがはっきりと見分けがついているところが今回進歩したところでしょうか。

その一方、よくみると背景に黒いシミのようなものがたくさんあるのがわかります。これがどこから来ているのか不明です。周辺減光を見てもわかりますが、今回フラット補正をしていないので、フラット補正をしたらうまく取れるかもしれません。まだフラット補正に絶対の自信がなく、出来る限り躊躇してしまっています。きちんと検証するいい機会なのかもしれません。


TSA-120の画像とVISACの画像の比較

面白いのはここからです。M13の画像をTSA120とVISACの場合で比較してみました。日にちも条件も違うので、完全な直接比較にはならないのですが、いくつか面白いことがわかりました。わかりやすいように、中心部の画像の右上4分の1を切り取って並べます。左がTSA-120、右がVISACになります。

detail_comp_TSA120_VISAC

まず、分解能についてですが、VISACの方が圧勝です。そもそも焦点距離が倍以上長いので、同じCMOSカメラで撮影した場合焦点距離の長いVISACの方が有利です。また、VISACの方が撮影時間3時間以上と3倍近い時間をかけているので、背景ノイズが小さくなっていて、微光星がよりはっきりと分離されています。
一方、明るい恒星に関しては隣同士の距離がTSA-120でもVISACでもあまり違いがありません。ここら辺はトラペジウムのE、F星がTSA-120では余裕で見えてVISACでは見えたことがないというところに通じるのかもしれません。もちろん、両撮影とも5分と露光時間が長いので、共に明るい星が肥大化してしまった可能性もあります。

星の色についてですが、基本的に白、オレンジっぽい赤、緑よりの青の3つに分かれるのは前回と同じです。赤と青がバラバラに散らばっているので、収差とかではなさそうです。また、どの星がどの色になるのかの再現性はあるようです。QBPのせいかなとも思ったのですが、他の方の画像を見ても同じように3種に分かれているのが多いです。やはりフィルターが入っているのかとも思ったのですが、Wikipediaの写真や、NASAの写真も同じような傾向です。これは一般的にこれで正しいのか?これも課題の一つです。

VISACの星像が横に伸びてしまっています。光学系のせいなのか、撮影時の流れなのか不明ですが、解決しなくてはダメそうです。TSA-120は流石に真円に近いです。

次に、左上のICIC4617周りを比較してみます。左がTSA-120、右がVISACです。

comp_IC4167

調べてみるとIC4617が15.14等級だそうです。Stellariumが18等級までデータを持っていて、改めて画像を見ると17等級後半とかは余裕で見えています。例えば、IC4617の右上にある3つ並んだ星の一番遠い矢印で指しているのが17.8等級です。VISACだと余裕ですが、TSA-120だとギリギリ見えてるかどうかというところでしょうか。

VISACはさらに暗い星が見えているようですが、もうデータがないので何等級かわかりません。きちんとデータと比べて限界等級を知っておきたい気もします。


まとめと、今後の課題

さて、VISACによる3時間撮影で、微光星の分解能は格段に上がりました。でも明るい恒星の肥大問題はまだ存在しているようです。こうやって考えると
  • VISACで10秒クラスの短時間露光撮影
  • TSA-120でシンチレーションのいい日に3時間クラスの長時間撮影
のような方向で攻めるのが次の目標でしょうか。でも、シリウスBとかトラペジウムとか考えたら、
TSA-120で10秒クラスの短時間露光撮で他数枚というのが手持ちの機器では解なのかもしれません。


 

球状星団を撮影するのは初めてになります。今回、ヘルクレス座の球状星団M13をTSA120を使って撮影してみました。全天で最も美しい球状星団と言われています。


初の球状星団撮影

連休初日に入るこの日の夜、天気は悪くなく、夜中から天の川を撮影しようと思っていたのですが、それまでの繋ぎでM13を撮影してみることにしました。よく考えたら、球状星団をまともに撮影するのは初めてのことです。もちろん、眼視や電視観望などでの簡易撮影などはあります。それでも時間をかけてまじめに撮影するのは初めて、いろいろわからないことがありそうです。
  • そもそも、撮影時間はどれくらいがいいのか?星雲ほど長くなくていいのか、それともやはり長ければ長いほどいいのか。
  • 1枚あたりの露光時間はこれまで通り5分でいいのか?
  • QBPはあってもいいのか?無いほうがいいのか?

天の川が出てくるまで1時間ほどあります。最初なのでとりあえずこれまでの星雲撮影のセッテングをベースとして、撮影時間を1時間としてみました。

撮影は順調。PHD2とAPTで、ガイドも含めて特に問題はなかったです。ちょうど同じ時間帯に、あぷらなーとさんもM13を狙っていたみたいです。


画像処理と結果

球状星団の画像処理も初めてのことで、まだ全然慣れていません。疑問だらけで、また太陽映像に取り掛かっていたこともあり、時間がかかってしまいました。

星雲の場合と違って、いじればいじるほど処理の跡が目立つような感触です。なかなかごまかしが効かない、素材の出来具合がそのまま処理後の出来に直結するような気がしました。とりあえず処理した結果です。



「ヘルクレス座球状星団M13」
light_BINNING_1_integration_ABE_PCC_STR2_cut
  • 撮影日: 2020年4月29日0時24分-1時23分
  • 撮影場所: 富山県富山市下大久保
  • 鏡筒: Takahashi TSA-120 + 35フラットナー + サイトロン QBP (48mm)
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • ガイド: PHD2 + f=120mmガイド鏡 + ASI290MMによるディザリング
  • 撮影: ATP、ゲイン220、温度0℃、露光時間300秒x11枚 = 55分 
  • PixInsight、Photoshop CCで画像処理
中心部です。

light_BINNING_1_integration_ABE_PCC_STR2_center

今調べたら簡易撮影では、星を始めて一番最初に撮影したメシエ天体がM13 M3(2020/5/16訂正:玄さんのコメントのおかげで4年を経てM3と気付くことができました。玄さん、どうもありがとうございました。)でした。星を始めて、一眼レフカメラを手に入れてすぐのM13 M3がこれ。1枚撮り、中心からずれてる、星がぶれてる、画像処理も何もしてない。さすがにこれを見ると、4年間で進歩したと思えます。でも望遠鏡とカメラでメシエ天体が写っただけでも、ものすごく嬉しかったこと覚えています。

IMG_0326



反省点色々

最初は、初めてにしてはそこそこ中心部まで見えたのかなと思っていました。でもやはりまだまだですね。以下、反省点です。
  • 一つ一つの星像が大きい。もっと分離してもいいはず。
  • 星雲みたいに背景を出す話ではないので、構成を分離するStarNet++が意味をなさないはずです。今回は試すこともしませんでしたが、背景のノイズを減らすのには役に立つかも知れません。今後の課題とします。
  • 背景のノイズを無くそうと、DeNoiseやDfine2も試しましたが、見事に恒星の不自然さを強調します。今回は試しただけで、結局使いませんでした。
  • 炙り出していくと、背景ノイズがまだ多いです。今回はトータルで1時間弱の撮影だったので、もう少し総露光時間を増やしていいかもしれません。
  • すでに炙り出しすぎの感もあります。中心部から少しずれたところなんかは、微光星なのかノイズなのか見分けがつかなくなってきます。
  • 明るい恒星の裾部分の階調が少し不足しています。微光星を出そうとするとこうなってしまいます。もう少し中心部の微光星を抑えても良かったかも知れません。
  • 同様に、左上に写っている銀河も階調不足の感があります。
  • 中心部の画像を見ると、色が白、オレンジ、青緑と3系統にはっきり分かれています。現実は多分そんなことはないので、何かおかしな画像処理過程が入っているようです。それともQBPのせいでしょうか?
  • やはりまだ決定的に分解能不足です。というか、星が肥大化しています。これは画像処理以前の撮影時の問題です。
画像処理以前のこととして、決定的だと思ったのは、一枚の撮影時間の5分が長すぎたではないかということです。長時間露光はどうしてもブレが積分されるので星像がボケてしまいます。もちろんシンチレーションとか風の揺れによるのですが、1枚は1分程度に抑えて、枚数を増やした方がいいのかも知れません。

揺れに関して少し考えてみます。撮像の揺れ時間スケールで見ると
  • 秒以下の揺れ: シンチレーション、地面の揺れ、風による機材の振動
  • 1秒程度の揺れ: 風
  • 10秒周期以上の揺れ: 赤道儀のピリオディックモーション、機材のたわみ
などがあります。
  • この中で改善できるのは10秒以上の揺れのみ。オートガイドです。それでも1時間オーダーではたわみが問題になってきます。
  • 1秒から10秒程度の揺れはオートガイドで多少は抑えることができますが、速い揺れほどその効果は小さくなります。
  • 秒以下は今のところ打つ手なし。AOを使うことで、シンチレーションみたいな画面の中で揺れるもの以外は改善できます。でもAO高いです。自分で作ることを考えた方がいいかも知れません。
このように考えるとすぐにわかるように、一枚あたりの露光時間を1分程度に短くしても大した効果はありません。ただ、揺れの大きさで考えると、突風などの突発的事象で星像が肥大することはあり得るので、露光時間を短くしてそれらの揺れの大きいものを省くことはできます。ラッキーイメージの考え方ですかね。

さらに、カラーCMOSカメラで撮影していることも分解能を低下させている原因の一つです。モノクロの冷却CMOSカメラでそこそこのセンサー面積のものをそろそろ本気で考えた方がいいのかも知れません。

少なくとも今回の結果は、TSA-120のが持っている光学的な分解能には全く達していないと思います。


おまけとまとめ

最後にいつものアノテーションです。少しだけ斜めになってました。念のため再度ImageSolverで計算したら回転のズレ結果は0.41度でした。上が北で、経線が縮まっていくので上の方が間が小さくなっていまるので、より斜めに見えてしまっているようです。

light_BINNING_1_integration_ABE_PCC_STR2_Annotated

本当はこの撮影の後に天の川が登ってくる時間になり、中心部の干潟とか三裂星雲を狙おうとしていたのですが、外に出たら曇り。この日は撤収しました。

画像処理まで進めて、まだまだ改善の余地がたくさんあることがわかりました。球状星団は撮影時の条件がそのまま出てごまかしが来なさそうです。今回の撮影の後、もう少し試したくて、別の日にVISACで長時間撮影してみました。 これはまた次の記事で書きます。


 

みなさん、こんにちは。「ほしぞloveログ」のSamです。最近凝っている、太陽プロミネンス動画ですが、昔撮影してうまく最後まで処理できなかったファイルを、改めて処理したので載せておきます。


3月のテスト撮影

一つ目は少し前の3月7日に撮影したものです。まだテスト段階でしたが、ファイルが残っていたので動画にしてみました。でもプロミネンスの大きさがあまり大きくないので、動きもあまりたいしたことありません。

Blink2

鏡筒: 国際光器マゼラン102M、口径102mm、焦点距離1000mm、F10 アクロマート
エタロン: Coronado P.S.T.
赤道儀: Celestron CGEM II
カメラ: ZWO ASI290MM
撮影ソフト: FireCapture
撮影時間: 2020/3/7 13:55-14:50
撮影条件: ゲイン310、露光時間25ms、200フレーム撮影し150フレームをスタック 
画像処理: AS3にてスタック、ImPPGで細部出し、Sharpen AI、Photoshopで画像、PixInsightとffmpegで動画作成 

前回と同じようにgifにしましたが、gifファイルはあまりファイルサイズを小さくできないので、撮影時間1時間の60枚くらいが限界です。


4月の長時間撮影

次のファイルはゴールデンウィーク始めの4月29日撮影の約3時間ぶんの結果です。

  • 鏡筒: 国際光器マゼラン102M、口径102mm、焦点距離1000mm、F10 アクロマート
  • エタロン: Coronado P.S.T.
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI290MM
  • 撮影ソフト: FireCapture
  • 撮影時間: 2020/4/29 12:59-15:55
  • 撮影条件: ゲイン300、露光時間25ms、200フレーム撮影し120フレームをスタック 
  • 画像処理: AS3にてスタック、ImPPGで細部出し、Sharpen AI、Photoshopで画像、PixInsightとffmpegで動画作成 
PixInsightで動画を作る際、

-y -r 25 -i Blink%05d.png -b:v 15000k -vcodec libx265 Blink2good.mp4

として、H.265でmp4にして、youtubeにアップしました。ただ、やはりプロミネンスがあまり大きくないので、長時間の割に動きが少ないです。このときちょうど小さな黒点も出ていたので光球面も一緒に出してみました。

本当は黒点周りや、Benar対流の動きが見たかったのですが、この日はかなり風が強く鏡筒が揺れてしまっていたので、分解能があまりよくありません。じっくり見てると少しだけ動いているのはわかりますが、いまいちインパクトがありません。再度挑戦して、もう少しはっきりとした動きを見てみたいと思います。やはり、プロミネンスと光球麺を同時に出すのはまだ難しいです。静止画ならマスク処理などで別々に細部を出せるのですが、動画だとそこまで手をかけることはできません。

SODの4月29日の動画との比較です。



UTCなので、午前5時くらいから午前8時までくらいに相当します。


苦労は理解され難く

ちなみに、撮影したファイルの合計は190GBになりました。3時間ものの超大作をやっと動画にまでして、この喜びをわかってもらおうと、妻に「すごいでしょう」と言って見せたとき、なんて言ったと思います?

「なにこれ?シューシューしてるの?
ヤカンの湯気みたい。」

ですよ!1億5千万キロも離れたプロミネンスの動きをヤカンの湯気なんて...。がっくりでした。

妻にとっては下の鳥の方がはるかにいいみたいです。


おまけ、初の鳥写真

さて、気を取り直してもう一つ、天文ネタと全然関係ないですが、庭にいつもいるキジを撮影してみました。ご存知かも知れませんが、キジは国鳥です。

FS-60CBにマルチフラットナー をつけてEOS 6Dで撮影しています。庭の端の方にいて少し焦点距離が足りなかったので、トリミングしています。

IMG_5492_cut

IMG_5492_cut_small-gigapixel-scale-4_00x

鳥をきちんと撮影するのはほぼ初めてで、星雲とかと違って色が最初から出ているのでずいぶんと楽です。普段の画像処理テクを駆使して細部とかも出してみました。羽がとても綺麗です。でもこれって正しい方法なのかどうか?

この子、この辺りにもう何年も住みついていて、グェー、グェーといつもうるさいです。今年もつがいでいます。毎年ひなを育てているのを見るのですが、今年も無事に生まれてほしいです。。

太陽プロミネンスのタイムラプスの手法がやっと確立しました。


これまでの試み

太陽アニメはこれまでも何度か挑戦しています。





でもこれ、めちゃくちゃ大変だったんです。2018年のは10分おきに3時間ですが、そもそも昼間で極軸が出ていないので赤道儀がずれてきます。ほぼずっとつきっきりでとにかく大変で、二度とやりたくないと思いました。

また、いずれもPhotoshopで一コマ一コマ手で位置合わせをしています。2019年4月の2つ目は何分かおきに撮りましたが、コマ数は11コマと少ないのでまだましです。でも位置合わせだけでなく、明るさとかもかなり違っていて、一枚一枚合わせこむので、これくらいが手合わせでは限界です。ジェットの結果は面白かったですが、この時ももう二度とやりたくないと思いました。


太陽タイムラプスの何が難しいのか

でもやっぱり太陽の変化をアニメにしたいんです。しかも1分おきくらいに数時間にわたるアニメです。そのためにはクリアしなければならない問題がいくつもあります。
  • PSTは安価ため、エタロンの平行度があまりいいわけでなく、Hαをうまく出せる部分が限られていて、画面の30-40%のみ。長時間撮影で太陽の位置が画面内でずれると、Hαの見え方も変わってくる
  • そのため長時間太陽がずれないような手法を確立する必要がある。極軸さえ合わせられないので、ほっといたらずれていく。ガイドか?でもどうやって?
  • 撮影時間が長く、画像の枚数が多いと、個別の画像処理は現実的ではなくなる。画像処理をまとめて一気にやってしまいたいが、一度にうまくできるのか?
  • たとえ撮影時の位置があまりずれなかったとしても、その精度ではアニメにしようとするとブレブレになってしまう。かと言ってステライメージやPixInsightなどの画像処理ソフトで位置合わせをしようとしても、星を使った位置合わせのような基準が何もないのでできない。
など、思ったより大変そうです。もう少し細かく考えます。
  • 撮影したserファイルをAutoStakkert!3でスタックしますが、太陽のブレ具合によって毎回出来上がる画像のサイズ(縦、横のピクセル数)が変わってきます。オプションでcropにしても拡大する方を選らんでもサイズは毎回変わってしまうようです。このため、動画にするときの位置合わせが難しくなります。
  • 炙り出しの際ImPPGを使っていますが、同じ設定でも撮影時の条件の微妙な違いにより、出来上がりの明るさや細部の描写などがバラバラになってしまいます。撮影時の条件をよほどうまく合わせるような工夫を何かしなくてはダメです。
実はあまり記事にしていないのですが、これまで何度もアニメには挑戦してきて、やっと上記問題を解決しなければうまくいないことがわかってきました。これらの反省点を含めて、手法を何度か改善しつつ、今回やっとうまく動画まで持っていける手法を確立することができました。

今回やった方法を順に書いていきます。それでもそこそこ大変です。


FireCaptureによる太陽オートガイド撮影

撮影はFireCaptureを使います。ポイントはガイド機能を使うこと。そのためにまずは赤道儀をASCOMやST4経由でPCから制御できるようにしておきます。接続がOKなら、「Setting」タブで「Telescope」を選んで、ASCOMやST4ドライバーを選びFireCaptureと赤道儀を接続してください。うまく接続できると画面の最前面に方向ボタンが出てきます。いくつか押してみてFireCaptureの画面に見えている太陽がきちんと移動するか確認するといいでしょう。

その状態で縦に並んでいるアイコンの上から5つ目の「AutoGuide」にいきます。まずは右クリックをするとオプションが選べます。制御はPHD2などと比べると随分シンプルでできることも限られますが、「Swap direction」でフィードバックする方向をきちんと選ぶこと、極軸があっていないので思ったよりずれていくことがあるので、「Guide rate」フィードバック量をデフォルトの倍くらいに増やすことなどに気を付けて調整します。

IMG_0012


設定が終わったら「AutoGuide」横のチェックボックスをクリックして、ガイドをオンにします。赤い四角いボックスが表示され、太陽のリムの形を使ってをオートガイドすることができます。最初なかなかうまくいかないかもしれません。しばらく待ってずれていかなければ成功ですが、方向とかを間違えるとどんどんずれていきます。いくつか設定を変えて試してみてください。うまくいくと数時間とかの単位できちんとガイドしてくれました。

タイムラプス映像にしたいので、一コマ一コマの時間間隔が重要になります。そのため撮影はフレーム数単位でなく、時間単位になります。今回は12.5ms露光で5秒間撮影、その後55秒休みます。保存はRAWで残したいので.serにします。今のPCだと80fpsで取り込めるので1ファイル400フレームくらい、サイズは1.7GBくらいです。これをFireCaptureの「Capture」タグのところにある「カメラアイコン」を押して出てくる「AutoRun」機能で繰り返します。「Delay」を55秒、「Limt」を5秒にします。これで1分に1度5秒間撮影します。出来たファイルのサイズやフレーム数は多少ばらつきが出ますが、気にしないでおきます。

cap1

撮影時にもう一つ気を付けておくことが、ゲインの設定です。ゲインはサチるくらい高めにしておきます。今回は440まで上げています。理由は、淡いプロミネンスを階調よく撮るためというのが一つの理由です。でも、実はもう一つの理由の方が重要で、ヒストグラムで見た時の背景ピークの幅を広げてピーク位置の依存性を少なくし、後の画像処理の時のパラメータにあまり依らないようにするためです。輝度の高い光球面までダイナミックレンジの中に入れようとすると、背景のピークが鋭く左の暗い方に寄ってしまいます。この状態で画像処理をしようとすると、撮影条件が変わった時にピーク位置がずれ、画像処理の設定が対応しきれなくなって、仕上がり画像のばらつきが大きくなってしまうからです。今回のようにゲインを上げて撮影する場合、当然ですが光球面の模様は諦めなくてはいけません。プロミネンスに特化したアニメになると思ってください。

実際のガイドの様子の動画です。娘のギターがうるさいですが、気にしないでください(笑)。


PC画面の右上の矢印がピコピコ反応して、きちんとガイドしているのがわかると思います。

長時間にわたる撮影の場合、保存されるファイル量が数百GBクラスになることもありますので、残りのディスク容量に注意してください。


ちょっと脱線、太陽のオートガイドについて

この記事を書きながら色々調べてみました。どうやら、このFireCapureのガイド機能を太陽撮影で使った例は、海外も含めてほとんどないようです。基本的に惑星での使用例ばかりです。太陽でのガイド撮影はCloudy Nightsとかでも「Hinode(ヒノデ)ソーラーガイダー」を勧めていました。名前は日本語っぽいですが、アメリカ製だそうです。ガイド精度も上記ページで動画があります。実はこれ、胎内(だったと思います)で実物を見た記憶があります。太陽を始めていたのでガイドにちょっと興味があったのですが、値段がそこそこ。なんか工夫してできないかと思っていました。

今回、SharpCapの機能で画像認識をしてそれがズレないようにガイドするのも試しました。まだ実験的と書いてあるからなのでしょうか、こちらはあまりうまくガイドできませんでした。FireCaptureはなんとかうまくガイドできましたが、これも最初はあまりうまくいかずパラメータ出しに苦労しました。あと、雲とかで一度位置を失うと、その後の復帰は位置が大きくズレる可能性があります。

要するに、まだ太陽のガイドってあまり確立された技術ではないようなのです。まあ、太陽やっている人が少ないので、仕方がないと言えば仕方ないのですが。

今考えているのは、別のカメラを用意して焦点距離を短くして、全体を見ながらガイドをかけるとかでしょうか。というのは、今回は太陽の縁が入っていたのでたまたまガイドできましたが、今後、黒点のアップなどを長時間撮影したい場合は今の方法では無理なので、何か別の方法を考える必要があります。


画像処理

ここから動画ファイルになるまでの過程を説明していきます。

まずは撮影後の画像処理ですが、動画の場合は通常以上に複雑になります。これまで太陽撮影や、太陽画像の処理をしたことがない方は、まずは下記のページを参考に一枚の画像を最後まで処理してみてください。




一枚がきちんと出せないようでは、多数枚を出すのは至難の技です。今回の動画の処理過程もある程度このページの処理方法に依っています。今回の記事では上記ページに加えて、動画作成で必要な部分に焦点を当てて、一枚画像の処理との違いを中心に説明していきます。


AutoStakkert!3での一括スタック

最初はいつも通り、AutoStakkert!3でのスタックです。撮影した全てのserファイルを一度に開きます。最初のファイルだけ処理すると、順に同じ設定で全てのファイルを処理してくれます。

ファイルの数が多いので、時間がかかります。間違えると全てやり直しで大変なので、慣れていない方は練習のためにまずはファイルを一つだけ開いて、うまく処理できるかどうか試した方がいいでしょう。これでうまく処理できたのを確認してから、改めて全てのファイルを一度に開いて処理した方がいいでしょう。

多数のファイルを処理する場合、撮影時の太陽の位置が長時間安定していなかったり、雲などで画面の明るさに変動があるとそのファイルはうまくスタックできない可能性があります。少なくとも、最初の方のファイルと最後の方のファイルをRAW動画で見てみて、位置が大きくずれていないか、明るさは大きく変わっていないかを確認した方がいいです。

全部の処理には時間がかかると思いますので、じっくり待ちます。


Photoshopで画像の大きさを揃える

次のステップとして、Photoshopで画像の大きさを揃えます。この過程はすごく重要です。なぜなら、AutoStakkert!3は写りの良い部分だけを処理するので、出てきたファイルの画像サイズは一枚一枚バラバラだからです。サイズを合わせないと、後の位置合わせがうまくいかなくて、全くアニメになりません。サイズ合わせはPhotoshopの「イメージ」->「カンバスサイズ」を使ってやります。AutoStakkert!3でできたサイズの中で一番小さいサイズ以下の大きさに設定します。

この過程をアクションツールを使って全てのスタックされたファイルに適用します。詳しいやり方は「Photoshop アクション 繰り返し」などで検索すると出てきますので、そちらを参考にしてください。ちなみにこのページが分かりやすかったです。ここでは簡単な手順だけ書いておきます。
  1. Photoshopを立ち上げ、「ウインドウ」から「アクション」を選び表示します。
  2. アクションパネルの下のアイコンの右から二番目の「新規作成」アイコンを押します。
  3. 新規アクションに名前をつけて、記録を開始します。
  4. 画像ファイルを開くところを含んで記録します。
  5. 先のサイズ合わせを一通りします。
  6. ファイルを「別名で」保存します。
  7. その後、アクションウィンドウの下の左の停止ボタンを押し記録を止めます。
  8. 次に「ファイル」->「自動処理」->「ドロップレットを作成」を開きます。
  9. 「ドロップレットを保存」で先ほどのアクションを選びデスクトップなどに保存します。ポイントは左の「”開く”コマンドを無視」と右の「”別名で保存”コマンドを省略」にチェックを入れておくことです。
  10. デスクトップなどに出来たドロップレットに、ImPPGで処理したTIFFファイルを全て選択し放り込みます。
うまくできましたでしょうか?実際に画像サイズが全て揃った、出力ファイルをきちんと確かめてみてください。


ImPPGで位置合わせ

次にImPPGを使い位置合わせをします。「Tools」の「Align image scequence」を選びます。上のPhotoshopの処理をサボって画像サイズがバラバラだと、位置合わせは全くうまくいかないので注意してください。

cap_ImPPG01

Photoshopで大きさを揃えた画像ファイルを選択します。ポイントは「Align on the solar limb」を選ぶこと。条件は太陽の縁がきちんと出ていることです。太陽が円になっていなくて、一部だけが写っていても、縁さえ写っていればうまく処理できます。これでうまくいかない場合は上の「Stabilize high-contrst feature」でやりますが、こちらは精度が悪くアニメにした時にぶれてしまうと思います。


ImPPGでの一括処理

次に改めてImPPGで炙り出しと細部出しをします。まずはImPPGで位置合したファイルを画像を1枚開き、処理過程を進めます。処理が終わったところで、「File」->「Save Processing Settings」でその際の設定を保存します。次に「File」->「Batch Processing」で、AutoStakkert!3でスタックされた画像を全て選び、先ほどの設定ファイルを選択し、適当な出力先を指定します。保存形式は「TIFF 16-bit」を選択します。「Start processing」ボタンを押して連続処理します。

IMG_0011


最終調整

この時点でもう動画にする準備はできていますが、ImPPGでの画像処理だけだと不十分なこともあるでしょう。例えばPhotoshopのアクション機能を使うことで、全ての画像に同じような処理をすることもできます。また、DeNoiseも最新バージョンではバッチ処理をサポートしていて、同じ処理を多数のファイルに一括で適用することができます。

それでも、背景の明るさが揃い切っていなかったりすることもあるかと思いますが、ある程度は一枚一枚微調整が必要なこともあるかと思います。ここら辺はアニメーションを扱うときには仕方のないことでしょう。


動画ファイルの作成

さて、素材のファイルができたのでここからやっと動画ファイルの作成になります。動画作成はいろいろな方法があるかと思いますが、ここではPixInsightを使います。PixInsightを立ち上げ、「Process」->「ImageInspection」->「Blink」を選び、これまでにできた画像ファイルファイルを全て開きます。
  1. 再生ボタン(右三角)を押すと動画の様子が確認できます。
  2. 真ん中のアイコン列の上から2つ目のオートストレッチがオンになっている場合、画像処理されてしまいます。オフにすると元の画像のまま表示されます。
  3. Previewで一部を切り取るとその部分だけ拡大してその部分だけ動画にすることもできます。
  4. Blink画面の右下の一番右端の撮影開始マークアイコンで動画にします。
  5. ffmpegがない場合は別途インストールしてください。ffmpegがインストールされていても、実行ファイルをフルパスで入れないとうまくいかないことがあります。/usr/local/bin/ffmpegとかいうことです。
  6. 今回の場合秒15コマのgifファイルにしたかったので、-y -r 15 -i Blink%05d.png Blink.gifとしました。
gifファイルは256色の制限があるので、パレットを最適化したい場合は別途コマンドラインで、

ffmpeg -y -r 15 -i Blink%05d.png -filter_complex "[0:v] fps=15,scale=1024:-1,split [a][b];[a] palettegen [p];[b][p] paletteuse" Blink.gif

などとするといいかもしれません。

Blink

実際に出てきたgifファイルを確認してみてください。gifアニメはWebなどでは再生することなく勝手に動画になってくれるので、見ていて楽しいです。長いファイルだとサイズが大きくなりすぎるかもしれません。その時はmp4などに変換するといいでしょう。


まとめ

IMG_9612


一応、動画になるまでの過程を書き出しましたが、うまく動画ファイルになりましたでしょうか?一枚一枚みていただけではあまり変化がわからなかった画像も、動画にするとプロミネンスが活発に動いていることに驚かれるかと思います。

ここに挙げた方法はあくまで一例です。他にも面白い方法があれば、どんどん探ってみてください。また、自分でやってみて分かりにくいところがありましたら、コメントでお尋ねください。できるだけ応えるようにします。

今後、このような動画ファイルがたくさん出てくると、太陽をやってみようという人がもっと出てくるかもしれません。早く太陽活動活発にならないかなー?もっとすごい動画が見てみたいですよね。

太陽楽しいですよー。


久しぶりの太陽です。記事としては3.5nmのHαフィルターの記事以来でしょうか。でも実は太陽撮影はちょくちょくやっています。ただ太陽活動があまり活発でなく、絵的にぜんぜん面白くないので、記事にするに至っていません。


晴れ間にパッと見た太陽に大きなプロミネンスが!

今年のゴールデンウィークはなかなか外に遊びに行ける状況でもなく、遠征撮影もままならないのでZoomで中継をしたりしてましたが、後半は天気もあまり良くないので、庭撮りも諦めていました。5月4日、この日も天気予報は曇りで期待していませんでしたが、午前中外を見ると珍しいくらいの綺麗な青空が広がっていました。透明度は良さそうですが、少し雲もあるので短時間なら太陽撮影できるかなと気楽に機材を出してみたら、東南方向に大きなプロミネンスが見えました。

晴れてる合間にすぐに撮ってしまおうと、午前11時半頃から撮影を始め、一度5000フレームほどのファイルを保存したのですが、風が強かったせいか、シンチレーションがたまたま悪かったのか、処理してみると写りはイマイチ。その後12時近くのわずか400フレームのファイルの方がはるかに細部が出ます。多分風がおさまったせいだと思っています。それを処理したのが下の画像です。

Sun_115711_lapl4_ap1328_IP3_OS_cut
  • 鏡筒: 国際光器マゼラン102M、口径102mm、焦点距離1000mm、F10 アクロマート
  • エタロン: Coronado P.S.T.
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI290MM
  • 撮影ソフト: FireCapture
  • 撮影時間: 2020/5/13 11:57
  • 撮影条件: ゲイン440、露光時間12.5ms、400フレーム撮影し320フレームをスタック 
  • 画像処理: AS3にてスタック、ImPPGで細部だし、Sharpen AIで処理。
珍しくちょっと大きめのプロミネンスで、きちんと輪になっているのがよくわかります。シンチレーションも悪くなく、細部もよく出ています。

今回、細部を出すのにSharpen AIを使っています。かなり強力なシャープツールなので、擬似線が出てしまう可能性は否定できません。それでも元のファイルの出来が悪いといくらやっても綺麗に出ないこともまた事実で、やはりどんなソフトでも引き出せる限界はあるようです。AIと言えども万能ではないことは言うまでもありません。

上の画像の擬似カラー版です。

Sun_115711_lapl4_ap1328_IP3_OS_color_cut


プロミネンスのタイムラプス動画

さて、今回の目玉はこのプロミネンスのタイムラプス動画です。上のを撮影した後、まだ晴れが続いていたので、同じ構図で連続して撮影してみました。上の画像を撮影したときから30分くらい後の5月4日12時32分から12時50分までになります。

撮影条件は上の静止画の時と同じで、1分おきに5秒間撮影しています。約400フレーム撮影できるのは同じで、そのうちの240フレームをスタックしています。19分間ぶんの画像19枚でgifアニメーションを作っています。19枚で止まってしまったのは、これ以降は曇ってしまったからです。

最初短い時間しか撮影できなかったので全く期待していませんでした。せいぜい画像処理方法を試そうというくらいです。でも実際に動画にしてビックリです。

Blink

およそ20分の間ですが、細かいところがかなり動いていることがわかります。こんなに速く動いているとは想像していませんでした。これを見ると1分おきでもギリギリな間隔なくらいです。ここまでプロミネンスの動きが見えると相当面白くなってきます。

先にTwitterでテスト動画を公開したのですが、160いいねを記録し、TSA-120購入の時の言い値の数を超えて過去最高となりました。そもそも太陽関連の記事はマイナーなせいか、これまでも人気があまりなかったのでこの反応には驚いています。やはりこれだけ活発に太陽が動いているというのはインパクトがあるのでしょう。

ちなみに、その日のSDOの動画がここにあります。



時刻がUTCで表されているのでこの動画の最初の方、5月4日の午前3時半くらいのときのものが今回撮影したタイムラプス動画に相当します。SDOはこのページを見てもわかるように衛星なので、地上から撮影しているアマチュアでは到底太刀打ちすることはできません。それでも時間分解能ではそこそこ検討しているのではないでしょうか?今後、もっと長い時間撮影してみたいと思っています。


撮影方法と画像処理については次回解説

さて、太陽のタイムラプス映像ですが、これまで記事にしたものもあれば、
 

 

撮影だけして記事にしていないものもいくつもあり、実は結構な回数に挑戦しています。

やっと今回、短い間隔で多数枚撮影して、うまく最後まで画像処理する過程を確立することができました。その方法ですが、結構複雑で記事にすると長くなりそうで、未だにてこずっています。次の記事に独立して書こうと思います。多分明日くらいにはアップできると思いますので、今しばらくお待ちください。


おまけ: 撮影風景

タイムラプスの撮影時の風景です。撮影は始まってしまえばリモートで部屋の中から画面を見ることができます。娘が目の前でギターを弾いています。ギターがうるさい中、頼むから曇らないようにと祈っていました。

IMG_0005


Zoom中継3回目になります。人数的にも今回大きく盛り上がりました。


ことの始まり

過去2回やった電視観望のZoom中継ですが、連休中にあと1回くらいできればいいやと思っていくらいでした。ところが、前々回前回Zoom中継の記事を読んでくれた星ナビ編集部からなんと原稿依頼が!この厳しい情勢の中、アマチュア天文ファンがどうやって交流を進めるのか、その一環でZoomの様子を知りたいとのことです。

空の様子はというと、晴れてはいるものの、透明度がものすごく悪く、北極星も見えません。でも天気予報を見るとこの日以降しばらく曇りとか雨。晴れの予報まで待つと満月期に入ってきます。迷ったのですが、21時半頃テストでM51を見て、下のようになんとか見えることを確認。

IMG_9988

長時間露光であまりリアルタイム性はないですが、これでOKと判断し、急遽3回目のZoom中継を開くことにしました。


中継開始!

この日のネタは「月夜と銀河」。月があっても電視観望でどこまで銀河が見えるか試すというのですが、透明度が悪すぎてそちらで見え方がリミットされているようです。もう一つはZoomでの盛り上がりの様子を星ナビの原稿にできるよう、オンラインで集まっている様子を記録すること。

実際には22時にTwitterでアナウンスして、22時半から開始。開始してすぐに多分10人くらいになって、その後最大20人くらいになっていました。いつものように突然のアナウンスで、まさかこんなに参加してもらえるとは。ありがたいことです。でも多分、私の力量ではこれくらいがハンドルできる限界くらいの人数かと思います。もし次回やるとして、これ以上人数が増えたらどうしようと少し心配しています。まあ、こっそりアナウンスするかですね(笑)。

中継がうまくいかなかったらどうしようとか、人数が集まらなかったらとか、逆に多すぎて収集がつかなくなったらどうしようとか、色々心配事もありましたが、結局は全部杞憂で、会話だけでも十分盛り上がりました。目的の写真も、Zoom上のそれぞれの映像とハンドルネームが出てもいいことを確認して、十分な枚数をとることができました。


参加メンバーとか

会議開始後、せっかくなので参加されたそれぞれの方に自己紹介をしてもらいました。途中参加された方にも、その都度自己紹介をお願いしています。お会いしたことのある方も、初めてな方もいろいろ。ブログやTwitterで発言されている方も多いです。まあさすが同じ趣味ということもあり、会話は放っておいても勝手に弾みます。

茨城から参加の、いつも面白いブログを書いているM87JETさんはとても反応よく発言してくれます。PowerMATEを貸してくれている仙台から参加の木人さんは、遠くのホテルのタイルで分解能のテストした時の話や秘密の作業場を画面共有で見せてくれました。

学生さんが多かったのも特徴でしょうか。皆さん関東勢ですかね、某ショップのDaikiさんや薜さんに加え、だぼさんと、高校生のRambさんも参加してくれました。Rambさんは回路まで自分で組むみたいで、OnStep自分で作っているとのことです。将来有望ですが、今年受験とのことで大変そうです。

今回、電視観望はただのおまけでした。最初に入れたしし座の三つ子銀河はほとんど見えず。
triplet2

M65とM67はかろうじてうっすら見えてますが、NGC3628はほとんど見えていません。

M51が長時間露光でせいぜいこれくらいです。

M51

途中諦めて月に行ったりしてました。

moon

流石に月は見えますが、この日はやはり透明度が悪く、こんな状況でした。

千葉のりょーじんさんのところでは、小学生のお嬢さんが一緒にいて画面を見てくれていて、色々子供ならではの反応してくれます。「お父さん40年も星を見てる」とか話してくれました。でも、銀河とかなかなかうまく見せることができなくて申し訳なかったです。年末に名古屋でやった電視観望会に来てくれた智さんやkima_Aquariusさんも参加してくれました。智さんは最近電視観望もすごく精力的にされていて、Twitterでよく報告されています。

同じ愛知勢では、いのさんが。福岡からRAINYさん、神奈川からJiro Sakanakaさんも参加してくれました。こうやってみると全国の人と話せるというのは結構すごいですね。あ、あとお一方kiss_a_tenさんという方が参加されていました。結局ミュート状態からお話しされることはなく、ミュートを解除する方法がわからなかったのか、話せない事情があったのか分かりませんが、せっかくなのでお話ししたかったです。


中継基地(私の部屋)の紹介

あ、そうそう、今回から中継場所が私の部屋になりました。在宅勤務でとうとう自分の部屋を確保できたので、もうキッチン側のテーブルのうるさい環境からやらなくて良くなりました。家族にも迷惑をかけなくていいです。トイレで少し抜けたのですが、その頃にはもう家族全員寝ていました。その間、皆さんで話してもらっていましたが、やはりホストがたくさん話すことになってしまうので、こういったホストがいない時間も大事なのかなと思います。その後、機材置き場やちょうど昨日買った雑誌用の本棚を見せたりして盛り上がりました。



IMG_9982

room

中継中に参加者の方から、接続方法についての質問がいくつかありました。基本的に庭においたAZ-GTiをステーションモードで自宅のLWi-Fiにつないでいます。そうすることで自宅内のどのPCからでもAZ-GTiをコントロールできます。CMOSカメラだけは天送料が多いので、カメラ近くに別のPCを置いてUSB3.0で有線で接続しています。そのPCも自宅Wi-Fiに接続します。部屋の中ではMacからカメラに接続したPCにリモートデスクトップで接続します。WindowsのRDPは速度がネットワーク帯域が狭くても転送速度が速くて、画面の劣化が少ないことが星空を中継するのに適しています。部屋のMacからZoomを立ち上げて、Zoomの画面共有でリモートデスクトップアプリを画面共有しているというわけです。

こうすることで、RDP 、Zoom共に細かい描写が可能になるため、星空をきちんと星空として配信することができるというわけです。

ここで一つ気づいたことです。最初は綺麗に見えていた月も、途中からボケ始め暗くなり、外に出て確認してみたら雲越しの朧月でした。ここで、暗いと技術的にZoomでブロックノイズがでることが判明しました。SharpCapでゲインを上げて明るくするとブロックノイズが消えるので、こうやってうまく転送速度を稼いでいるのかというのが少し分かりました。これは配信時、少し気にしておくといいかもしれないです。

apranat_gauss


なんとあぷらなーとさんが参加!

さてさてそうこうしている間に、大物ゲストのあぷらなーとさんが仕事を終え途中からサプライズ参戦。いつも面白いことに挑戦している、アマチュア天文会きっての変な人です。ビデオカメラの映像を見たどなたかから「想像と全然違う」との感想が。やっていることがいつも奇抜で若いイメージなので、そのせいでしょうか。実は私よりもずっと先輩です。

香川の天体望遠鏡博物館に行った時に自宅にお邪魔させてもらった話とか、あぷらなーとさんが今やっているビームスプリッタを使った「オンアキシス」の話とか、あぷらなーとさんにはこの会議をすごく盛り上げていただきました。ビームスプリッタは星まつりで安く手に入るという話になると、さっそく薜さんが実際に星まつりで買ったビームスプリッタを中継で見せてくれたりしました。

BS

こうやって双方向でやりとりできるのは楽しいですね。すぐに他の人の映像へ画面を切り替えたりできるのもZoomの特徴です。


星ナビ編集部の方も!

さらにお二方、スペシャルゲストで星ナビ編集部からも途中から参加。以前福島のフターライトフェスティバルや、CANPでお会いしたKさんと、ネットよ今夜もありがとうで担当頂いたFさんです。

ちょうどよかったとばかりに、Kさんから今回のZoom中継の趣旨をお話しいただくようお願いし、さらには参加者からの質問にも直接答えていただくこともできました。私も「ギャラリーの投稿はブログとかで発表した物でもいいのか」と聞いてみたのですが、答えは「OK」とのこと。コンテストなどに出したものなど、いわゆる二重応募に相当するのはダメだが、SNSなどの個人的な公開は構わないとのことです。私は撮影したら大抵すぐブログの記事にしてしまうので投稿できないと思い込んでいたのですが、大丈夫とのことなのでいいのが仕上がったら投稿してみようと思います。


楽しかったー!

もう最初から最後まで話が途切れることはなく、結局午前1時まででの2時間半、総勢20名程度の大会議になってしまいました。それでも話は尽きることなく、結構無理に1時に終わらせた感じで、そのまま行ったらエンドレスにでもなりそうな雰囲気でした。

参加された方、本当にありがとうございました。

最初天気が心配でしたが、実際には会話の方が遥かに盛り上がって、もうおなかいっぱいです。またいつか開催するかもしれませんので、その時にはまたよかったら参加してください。また、今回ギリギリのアナウンスで気付かなかった方もいたかと思います。「参加したかったのに」と思ってくださった方、本当に申し訳ありませんでした。次回こそは、(多分)もう少し余裕を見てアナウンスするようにしようと思います。

また、土壇場で開催を決めたにも関わらずこんなに盛り上がったのは、星ナビさんからきっかけを与えていただいたおかげかと思います。どうもありがとうございました。


まとめ

そもそもZoom中継を始めたのは、この厳しい状況でも好きな天文のことでコミュニケーションが取れるのではないかと思ったからです。

Zoomは一見ノイズと間違えるような細かい星空も、制限のあるネットワーク帯域でうまく中継して見せることができる数少ないツールです。これをきっかけに参加された方も、それぞれのコミュニティーでZoomを試していただければ、星仲間と会えない状況の中、連絡をうまく取り合えるのではないかと思います。中継だけでなく、喋るだけの飲み会にしてもいいと思いますし、画像処理をリアルタイムで検討するとか、テーマを決めた討論や講演とかでも、色々応用できると思います。

Zoomは世界中でたくさんの人に使われています。パスワードを設定する、個人IDでの会議せず毎回会議室を立てる、アドレスはパスワード付きのものを公開しないなど、セキュリティーに気をつけることを忘れないでください。うまく使えば、天文仲間のコミュニケーションに非常に強力なツールになると思います。

私も3回中継を試してZoomが星空中継にも、コミュニケーションを取るツールとしても十分に使えることがわかりました。定期的にやることにはならないと思いますが、そのうちにまた開催したいと思います。今後、他の方もZoom会議とかされると思いますので、そちらの方にも積極的に参加していければと思っています。

また、今回のZoom中継では初めて記録をとってみました。これ結構すごくて、声だけでなく画面まで全部mp4で記録されています。これらをもとに、これから原稿を書きます。はたしてどんな記事になることやら。文字数制限があるのでここまで詳しく書けないと思いますが、内容は星ナビ来月号でのお楽しみということで。 


このページのトップヘ