ほしぞloveログ

天体観測始めました。

5月21日から6月21日まで、富山の黒部市吉田科学館で「富山の天文愛好家 写真展」というタイトルで天体写真の展示会があります。

私の作品も2枚展示されているとのことなので、週末の土曜日、妻と一緒に早速見にいってきました。ずっと外出を控えていたので、久しぶりに市外に出る気がします。子供たちも誘ったのですが、昨日久しぶりに学校に行って疲れたのか、今回は家にいるとのこと。

IMG_0132


IMG_0115

kurobe


地元の黒部天文同好会はじめ、私の所属している富山県天文学会、石川のてんとう虫天文同好会、学生では富山県立大学天文部、富山大学天文部、さらに富山大学天文同好会OBと、たくさんの方の写真約50枚が展示してあります。私は5枚ほど提示し、その中の馬頭星雲と蛍の写真を2枚選んでもらいました。他の方も力作揃いです。とくに、学生の写真がたくさんあります。撮影まで興味を持つような若い人が富山にもいるというというのは嬉しい限りです。将来に期待してしまいます。 

黒部吉田科学館は全国に33箇所あるプラ「レア」リウムの一つで、五藤光学のS-3という昔の投影機が展示されています。プラネタリムが好きな人はこれだけでも見にくる価値があるかもしれません。

この日はさすがにまだ自粛要請が解除されたばかりでお客さんは少なく、我々の他には2組の夫婦だけでした。こんな時に来ているから、最初写真展の関係者かなとも思ったのですが、あまり天体写真には興味を示さずに帰ってしまいました。我々も1時間ほど滞在しただけで、今回はプラネタリウムはパスしてしまいました。

帰りに少し足を伸ばして妻のリクエストで円筒分水槽というのを見に行ってきました。昔、農水の使用で争いが絶えなく、円にして溢れ出す水を、円周を3等分することで、3つの用水に流れる水の量を公平にするということです。形は面白いのですが、理由を聞いて「やはり仲良くできないものなのだなあ」とちょっと興醒めな気がしました。妻は「ここで泳いでみたい」とか「千と千尋の湯屋みたいだ」とかとしきりに中に入りたがっていました。

IMG_0154a

私は田んぼの反射の練習。最近インスタグラムにアカウントを作ったのですが、「ウユニ田んぼ」というハッシュタグがあるそうです。インスタグラムにあがっている画像は皆さん思ったよりハデハデで、私も多少見栄えがするようにと思って何枚か目立ちそうなのをあげたのですが、他のに比べたら全然地味っぽく見えてしまうみたいです。まだまだ手探り状態です。

IMG_5547

インスタグラムの方にはブログだと紹介しきれない写真も含めてアップしていこうと思っています。

久しぶりに少しだけ外に出て撮影しました。といっても、通勤途中の道から5分ほど山側に行っただけの場所で、自宅からも20分くらいと、遠征というには近すぎで近征といった方がいいかもしれません。

IMG_5538_all6

  • 撮影地: 富山県富山市, 2020年5月14日0時36分
  • EOS 6D(HKIR改造, ISO6400, RAW), 露出30秒、固定撮影
  • SAMYANG 14mm, F2.8  ED AS IF UMC
  • PhotoShop CC等で画像処理 
山あいの田んぼと天の川で、一枚撮りです。一年のほんの短い期間にだけ撮れる、田んぼに映る天の川で、2年前から狙っていてなかなか実現できなかったショットです。最低限、反射した天の川の色は出たので一応満足です。

撮影日の前日までは月が出ていて天の川は厳しく、撮影日の次の日から雨、とギリギリで選んだ一日でした。事実、天の川の上のを待って撮影開始で、撮影できたのはほんの少しの時間でした。天の川が上にあがり切る前に月が出かってきて、山の際が明るくなってきて終了です。正味40分くらいでしょうか。

惜しむらくは、鉄塔と電線が天の川にかかってしまったところでしょうか。撮影している最中は暗くて全然気がつきませんでした。画像処理の段階で「あーっ!」と。

水が流れていて水面が完全に落ち着いていないので、反射させてもイマイチ明瞭になりません。また、田んぼの反射は暗く、ISO6400としましたが、それでもまだ足りないかもしれません。このレンズではここら辺が限界なのかもしれません。もう1-2段明るレンズが欲しくなりそうですが、これはまたいつか。

画像処理をして出てきた反省材料をもとに、できるならもう一度撮影に行きたいですが、天気がしばらく悪そうなので、苗が伸びてしまうでしょう。一年にほんの何日かのチャンスでした。

M13でのTSA-120とVISACの比較から、どうやら単純にはVISACの方が分解能が上のようです。以前、TSA-120とASI178MCで全く分解能のでなかったM51を、連休中にVISACで再度撮影してみました。




今年初稼働のVISAC

そもそも、TSA-120での撮影の時は透明度も全然よくなくて、風がかなり強く鏡筒が揺れていたので、出来上がりはボケボケ状態で、無理矢理炙り出したような状況でした。焦点距離が900mmと短いので、M51は結構小さく出てしまいます。そこでセンサーサイズが小さく、分解能を出す意味でピクセルサイズが小さいASI178MCを使ったのですが、感度がASI294MCとかに比べると4分の1くらいなので、淡い星雲には不利に働いたのかと思います。

さて、今回は焦点距離が2000mmと倍以上になりASI294MCで感度もいいので、前回よりも少なくとも有利なはずです。口径も120mmから200mmになり光量も2.7倍くらいになるので、それも有利に効くはずです。その一方、これまでの経験からシリウスBトラペジウムではTSA-120の方が有利だったように、星像のシャープさという点ではもしかしたら不利な点が出てくるかもしれません。

さて、この時の撮影用のソフトはまだN.I.N.A.ではなく、APTを使っています。実際にはM13より以前に撮影しています。この日は透明度もそれほど悪くなく、風もたいしたことありません。


やっと画像処理

M13の方を先に処理し出してしまったので、M51の画像処理は後回しになってしまってました。週末の日曜になってやっとやる気が出てきました。

まず撮影した結果をそのままRAWで見てみます。おーっ!一枚でも解像度はすでに前回よりはるかに上っぽいです。

L_2020_05_11_21_28_11_Bin1x1_300s__15C_RGB_VNG

でも少し拡大してみると、

L_2020_05_11_21_28_11_Bin1x1_300s__15C_RGB_VNG_cut

あれ?おにぎり星像、また出たか!? 
M13の時は大丈夫だったのに〜!?
夏になると出るのでしょうか?

しかたないので、三角星像は画像処理で何とかすることにして、とりあえず進めます。

スタックまではいつものPixInsightです。今回もダークは以前の使い回し、フラット補正はサボってなしです。あ、一つトラブルがありました。最初、BatchPreprocessingが途中でスターアラインメントのところで止まってしまったのです。探ってみると、Debayerで色がおかしく出てしまています。よくわからないので、マニュアルで最初から探っていくと、どうやら一番最初のCalibrationのダーク補正のところでおかしくなっているようです。

心当たりを探ってみると、今回StickPCではなく、もっとパワーのあるSurfaceマシンで撮影して、その際APTを新規に入れたものを使ったのです。その際、オフセットの値をきちんと確認しなくて、小さな値を入れてしまっていたことが原因です。ダークファイルは使い回しで、そのオフセットはライトフレームよりも大きかったのです。ダーク補正をする際に、大きくオフセットを引きすぎてRGBのうちRとBの背景が0より小さくなってしまって、完全に緑がかった色になってしまっていました。

ここでどうするすればいいか、困ってしまいました。結局やったことは、PixInsightのHistgramTransformationの「shadow」を上げてmaster dark frameのオフセットを小さくしてみたことです。

dark_offset_cut

画面はわかりやすいようにDebayerしてカラー化してオフセットを取っていますが、実際にはBayer配列のままやっています。でもこの方法で本当に正しいのかよくわかりません。いずれにせよ、これで作ったmaster dark frameでダーク補正をすることで、背景が真っ暗になるようなことはなくなりました。そのままBatchPreprocessingでも最後まで処理できるようになりました。

その後、ABEとPCCで処理し、ArcsinhStretchで途中までストレッチして、最後はHistgramTransformationでストレッチしてPIはおしまいです。

次のトラブルは、StarNet++があまりうまくいかないことでした。大きな星は分離できてますが、細かい星がほとんど分離できません。

light_BINNING_1_integration_ABE_PCC_AS_SNP

light_BINNING_1_integration_ABE_PCC_AS_SNP_cut

何が原因か知りたかったので、とりあえず今回は2つ試して見ました。
  1. 一つはもう少しストレッチして明るくしてからStarNet++をかけて見ましたが、こちらはほとんど影響なしで分離できる星は変わりませんでした。
  2. 次にやったのが、MorphologicalTrasnformationで三角を丸に直してからStarNet++をかけて見ました。そうすると、もう少し分離でき流ようです。どうやら星の形(真円に近いという意味)を見分けて判断していることが分かります。
でも結局はかなりMorphologicalTrasnformationをかけなくてはならず、星雲部分や背景まで崩れてくるので、こちらも適用は諦めました。結局StarNet++で大きな星だけが分離できた状態で画像処理を進めました。その代わりに、分離できた分だけの恒星部の画像を作って、それをMorphologicalTrasnformationで三角になったのを少し緩和しました。


結果

画像処理の結果です。

「子持ち銀河M51」
light_BINNING_1_integration_ABE_PCC_AS_all_PS3_cut
  • 撮影日: 2020年5月13日21時22分-23時27分
  • 撮影場所: 富山県富山市下大久保
  • 鏡筒: Vixen VC200L
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro + サイトロン QBP (37.5mm)
  • ガイド: PHD2 + f=120mmガイド鏡 + ASI290MMによるディザリング
  • 撮影: APT、ゲイン220、温度-15℃、露光時間300秒x26枚 = 2時間10分 
  • PixInsight、Photoshop CC、StarNet++、DeNoiseで画像処理

今回はかなり分解能も出ています。M101に続いて、焦点距離の長い口径の大きい鏡筒を使えば、光害地でQBPを使って、もう少し小さい系外銀河の撮影もそこそこ可能だということが分かりました。

画像処理でVISAC特有の三角星像もそこまで目立たないくらいにはなりました。でも、前回のM13で三角になることはなくて、なんでM51は三角になったのでしょうか?赤道儀の向きにも依存しているのかもしれません。もしそうだとすると、光学的な問題というよりは、メカ的な振動の可能性もあり得ます。こちらはもう少し調べてみます。


まとめ

富山の明るい北の空で、何とか系外銀河を狙う目処がやっとついてきました。おにぎり星像はまだ問題ですが、四隅で流れるようなことはないので画像処理の範囲である程度補正することはできます。それでももう少し、根本的に何が原因か探りたいと思います。


最近話題のNINAを試してみました。すごくいいです。試したのはVISACでM13を撮影したときです。


N.I.N.A.を使ってみた

そもそもAPTをまともに使い始めたばかりなのに、なんでNINAを使ってみたかというと、APTで少し不満があったからです。
  • Live viewの映像がうまくストレッチできない。
  • ピント合わせで拡大できない。
  • 撮影ごとのログが残らない。fitsに特化しているので、各ファイルの中に情報は含まれてますが、いちいちヘッダを見なくてはならないのが少し不満です。
  • 撮影中の設定が結構制限される。例えばカメラのカラーバランスやストレッチの設定など、撮影中も触りたいのにできない。(でも、撮影中に弄れたことも一度だけあるのですが、再現性無しです。不思議です。)
と言っても、上のように細かいことだけで、普通に撮影するだけならAPTは十分な機能を持っています。「今回の撮影は前と同じM13で、余裕があるので失敗してもいいからNINA試してみようか」くらいの気分でした。しかもNINAで上記不満が解決されたかというと、実はそうでもなく、せいぜいLive Viewがマシになったくらいでしょうか。

でもそれ以外にいい所がかなりあり、極めて順調に撮影までできたので、この記事を書いています。


N.I.N.A.のインストール

ダウンロードはここからです。

2020年5月13日現在、最新の安定バージョンは1.9ですが、事前情報から日本語を使うためにはベータバージョンを使う必要があり、Version 1.10 BETA002(5月16日の今日、アクセスしてみたらすでにBETA004になっています)をダウンロードしました。

Windows版のみ存在し、MacやLinux版はないようです。32ビット版と64ビット版がありますので、各自の環境に合わせて選択します。自分のWindowsが32ビットか64ビットか分からない場合はここなどを参考にして確認して下さい。

今回は64ビット版を使ってみましたが、注意事項が書いてあって、もしNINAの64ビット版を使う場合はASCOMも64ビット版を使う必要があるそうです。いくつかのASCOMドライバーは未だ32ビットのままなので、その場合は32ビット版を使うか、64ビット版のドライバーの開発を促してくれとか書いてあります。とりあえず今回の使用(一通りセットアップして、plate solvingして導入、長時間撮影とかするくらいまで)では64ビット版で困ることはありませんでしたが、たくさんの機器を繋いで本格的に稼働させるとかの人は32ビット版の方がいいのかも知れません。

インストールは普通にやれば特に困ることはないでしょう。


最初の設定

インストール後、起動して一番最初にやるべきことは左端アイコン群の一番下「オプション」の「一般」の設定でしょう。そもそも日本語になってないと「Options」の「Genaral」になっています。まずは、そこの「Language」を「Japanese(Japan)」に変えます。変えた瞬間に日本語に切り替わるのが素晴らしいです。でも後から再起動して気づいたのですが、細かいところ、例えば先ほどの「Japanese(Japan)」は再起動して初めて「日本語(日本)」に切り替わるので、全ての項目が瞬時に切り替わるわけではないようです。一応言語を切り替えたら、一旦終了して立ち上げ直した方がいいでしょう。

同じページで「天文測定学」(ちょっと訳が微妙ですが)で緯度、経度を写真のように「137.12」などという形式で「度と分だけを小数点で区切った形」で入れておくといいでしょう。後の「スカイアトラス」のところで正しく表示されるようになり、撮影時間などの目安を立てやすくなります。


IMG_0090

「オプション」「撮像」「画像ファイルパス」で、撮影した画像を保存する場所を指定できます。好みの適当なところにしておくといいでしょう。


機材の接続

最低限の設定がとりあえず終わったら、次は「機材」ページです。この時点で、必要な機器はケーブルなどで実際に接続しておいた方がいいでしょう。今回設定したものはカメラ、望遠鏡(赤道儀のこと)、ガイダーです。これら3つは接続すると縦に並ぶアイコン群の右下に小さな電源マークが出るので、何が接続されているのか一目で分かります。

IMG_0087

それぞれのページの一番上で接続したい機器を選択し、その右の電源マークのアイコンを押して「接続」します。例えばカメラなら、すでにカメラが接続されていれば上の写真のように「ZWO ASI294MC Pro」という選択肢が出てきます。カメラが繋がれていないとASCOMとかN.I.N.A.のシミュレーターカメラとかしか出てこないので注意です。もしきちんとカメラにケーブルをつないでいても、つないだカメラ名が出てこない場合は、接続アイコンの左の矢印が回っている「デバイスの再スキャン」を押すと再認識されて、選択肢として出てくることがあります。

うまくカメラが接続できると温度制御やゲインの設定などができるようになります。冷却は設定温度を決めて、右横の雪の結晶マークのアイコンを押すだけです。撮影終了時の昇温は下の炎マークのアイコンを押します。オフセットはダークファイルのオフセットより大きな値が入っていればいいのかと思います。通常数十とかでしょうか。ゲインは後の「撮像」のところで改めて設定するので、適当でいいです。


適当な天体の導入と、PHD2でオートガイド

とりあえず、赤道儀での自動導入でも、マニュアル導入でもいいので、撮影したい適当な天体を導入します。最初はテスト撮影だと思って下さい。NINA自身の導入機能「フレーミング」については次回の記事で説明します。

一旦撮影したい天体が導入できたら、PHD2を起動してオートガイドを始めます。その際ですが、PHD2で赤道儀に接続した時に出てくる4方向ボタンのの小さな画面が後で導入すうる時に便利になるので、できればボタンを押してきちんと赤道儀が反応するか確かめておくといいでしょう、

きちんとオートガイドされていることが確認できたら、「オプション」「ガイダー」で、PHD2に接続して下さい。もしかしたら自動的に認識されて、すでに接続された状態になっているかも知れません。もし選択肢にPHD2が出てこなかったら、「オプション」「機材」の右下の「ガイダー設定」できちんと「PHD2パス」が設定されているか確認してみて下さい。私は先にPHD2を動かしていて、うまく動いている状態でNINAを立ち上げたので、特に何も設定する必要はなかったですが、うまくいかない場合はここが設定画面になるはずです。

IMG_0096

うまくPH2Dが接続されると、ガイドされているグラフが「機材」「ガイダー」のところに表示されます。PHD2の制御情報がそのままNINAで表示されるのがすごいです。左の方の選択で、y軸、x軸の表示設定とともに、誤差の単位を変えることができます。下の写真ではピクセル単位にしています。概ね0.5ピクセル以内に収まっているでしょうか。

IMG_0089

ついでにここで、NINA上でも赤道儀との接続も済ませておきましょう。PHD2がうまく動いているなら、すでに赤道儀はPCと接続されているはずです。NINAの「オプション」「望遠鏡」で自分の赤道儀のドライバーを選択し、右の「接続ボタン」で接続します。

IMG_0088



撮像

次はNINA画面の左端アイコンの下から二番目「撮像」ページです。ここは盛り沢山で混乱しますが、最初は最低限の機能から試します。

IMG_0094

まずは右上の「撮像」パネルのところのシャッターマークの「露光開始」ボタンを押して一枚テスト撮影して見て下さい。その際、「露出時間」は適当に10秒くらい、「ビニング」は1x1、「ゲイン」は200から400くらいいいでしょう。これらの設定はテスト撮影の時のみ有効で、本撮影では別の設定項目があり、そことは独立に設定ができます。撮影中は左下に「撮像:露出中」とか出て、時間バーが動いていきます。一枚撮影すると画像が出てくるはずです。望遠鏡の蓋がきちんと外れていて、ピントも合っていて、何かターゲットが入っているはずなのに真っ暗な画面しか出てこない場合は、撮影画面の上の右側にあるアイコン群の真ん中の棒のようなマークの「画像の自動オートストレッチをトグルスイッチでオン/オフする(表示のみ)」を押して、ボタンが明るくなるのを確認して下さい。同時にオートストレッチが効いて撮影画面も明るくなり、星などが見えてくると思います。

右上の「撮像」パネルのカメラマークの「ライブビュー」も同様です。「露出時間」を1秒とかにして「オートストレッチ」をうまく使って、リアルタイムで連続してみることができます。ただ、この「ライブビュー」うまくいかないことが何度かありました。「ライブビュー」ボタンを押して「露光開始」を押してうまくいったときもあれば、画面の拡大率を変えてうまく行った時もあります。同様のことをしてエラーが出たこともあります。ライブビューはまだ少し不安定な気がします。

ちなみに、この撮像画面のパネル、入れ替えとかしてぐちゃぐちゃになってしまったら、「オプション」の「撮像」タブにいき、右下の「画面配置のリセット」でデフォルトの設定に戻すことができます。


シーケンス設定

次にNINA画面左のアイコン群の「シーケンス」を押します。撮影計画をここで設定します。最低限
  • トータル#
  • 時間
  • ゲイン
  • オフセット
  • デザリング
だけ設定すればいいでしょう。デザリングはデフォルトでオンになっているようですが(下の写真はオフになっています。この場合ボタンを押して「オン」と表示されるようにしてください。)、PHD2が動いていてサーバーモードになっていれば、これだけでデザリングもできてしまいます。

IMG_0097

ちなみに、ディザー量などは「オプション」「機材」の右下の「ガイダー設定」で設定します。

シーケンス画面の左上の「対象」のところの「ターゲット名称」のところに希望の天体名を打ち込むと候補が出てきます。例えば「M13」と入れると「Herucles Globular Cluster」と出てくるので、それをクリックします。すると何時頃が撮影どきかとかも知らせてくれます。これと関連して、NINA画面左のアイコン群の「スカイアトラス」でも同じようなことができます。

IMG_0098

これらの画面にある「ガイド開始」「対象の導入」「ターゲットをセンタリング」「シーケンスの対象として設定」「導入」などのボタンはまだ試していません。ここら辺を駆使すれば、時間がくれば自動的に導入して撮影を始めるとかができるのかと思います。ドームでの撮影などでは便利なのかも知れません。


いよいよ撮影開始

さて、最低限の撮影準備が整ったと思います。いよいよ本撮影です。

IMG_0094


左端アイコンの下から二番目「撮像」ページに戻り、右側真ん中の「シーケンス」パネルの三角の再生マーク「シーケンスを開始します」を押して下さい。撮影が開始され、順次右下の「画像履歴」パネルに撮影された画像が溜まっていくと思います。Windowsのエクスプローラで実際に保存先フォルダを見て、ファイルがきちんと保存されているか確かめて見ましょう。私は一番最初だけエラーメッセージが出て、ファイルが保存できないと言われました。これは撮影中に保存先を変更してしまったことなどが原因かと思われます。最初の一度きりで、それ以降はこのようなエラーはなく安定して撮影できました。

撮影時の注意事項ですがが、あえてシーケンスの「リセット」ボタンを押さないと、途中枚数からの撮影が続行されてしまいます。テスト撮影で止めてしまった時など、必要枚数に達しなくなる時があるので、本撮影を始める時は必ず「リセット」を忘れないようにします。左端アイコン「シーケンス」に行って、左下のアイコン群の左から三番目の矢印が回っているマークのアイコンを押すとまた0枚に戻ります。

とりあえずここまでで、最低限のディザーの撮影までできるかと思います。


使っての感想など

うーん、NINAかなりいいです。もちろんどのソフトがいいかは機能だけでなく、インターフェースとかの好みはあるでしょうし、安定性なども大きなファクターです。NINAはまだまだ開発がどんどん進んでいる段階で、しかも今回はベータ版にもかかわらず、一度も落ちることはありませんでした。実は立ち上げてから一度も終了することなく撮影までできてしまうくらい分かりやすいインターフェースでした。オープンソースでこれだけのものができるのは、開発者の方々にただただ感謝です。

ベータ版ですが、すでに日本語が選択できるところもありがたいです。日本語訳もおかしなところはほとんどありません。どなたか日本人の貢献者がいらっしゃるのかと思います。感謝いたします。


感想など、細かいところをいくつか。
  • オンオフボタンがわかりにくいです。オンとオフどちらを押してもスイッチが切り替わってしまいます。どうやらボタンのところに「オン」と出ていたら「現在はオンの状態」、「オフ」と出ていたら「現在はオフの状態」という意味のようです。
  • ライブスタックはSharpCapと比べると流石にまだまだですが、APTよりははるかにマシです。多少不安定なところもありましたが、最低限操作の通りには動いてくれます。
  • 結局撮影ごとのログは残せませんでした。全体のログは残せるがトラブル時以外はあまり有用ではなさそうです。
  • 撮影中もほとんどの設定を変更できるところがいい。
  • 非力なStickPCで試さなかったので、重いかどうかがわかりません。でもホームページには2GBで動くと書いてあるので、意外に軽いのかも知れません。

とりあえず今回はここまで。次回はもう少し応用編として、「プレーとソルブ」と「フレーミング」などについて解説します。実はもう試してはいて、プレートソルブは簡単だったのですが、フレーミングに少し手間取りました。お楽しみに。

前回のTSA-120に引き続き、VISAC (VC200L) でM13を撮影してみました。




撮影時の様子と結果

と言っても撮影したのは前回の画像処理をする前。なので、反省点は生きていません。撮影条件なども基本的には同じです。

大きく変わったのは、鏡筒はもちろんですが、撮影時間を3時間以上と大幅に増やしたこと。まあこれも増やしたと言うよりは、放って置いたら3時間経ってたと言うのが正しいので、3時間に「増えてしまった」と言った方がいいのかもしれません。あと、撮影にN.I.N.A.を使ってみました。結構よかったので、これは次の記事でレポートします

撮影時に気づいたことといえば、TSA-120は鏡筒自身が長いので時間が経つとCMOSカメラ側が三脚に当たって、それで撮影が終わることが多いのですが、VISACは焦点距離が長いのに物理的な長さは短いので全然大丈夫なことです。実際、M13が天頂を超えてしまって、あーもう当たってるかもと思って急いで見に行ったらまだ全然余裕で、その後30分くらい撮影を延長しました。

撮影結果です。


「M13: ヘラクレス 座球状星団
light_BINNING_1_integration_ABE_ABE_PCC_STR_PS_decom3
  • 撮影日: 2020年5月14日21時9分-5月15日0時48分
  • 撮影場所: 富山県富山市下大久保
  • 鏡筒: Vixen VC200L
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro + サイトロン QBP (37.5mm)
  • ガイド: PHD2 + f=120mmガイド鏡 + ASI290MMによるディザリング
  • 撮影: N.I.N.A.、ゲイン220、温度-15℃、露光時間300秒x38枚 = 3時間10分 
  • PixInsight、Photoshop CCで画像処理

中心部です。

light_BINNING_1_integration_ABE_ABE_PCC_STR_PS_decom3_cut



画像処理について

画像処理をした後の、いくつかの反省点と検討事項です。
  • StarNet++を試しましたが、相当明るい構成のみを一部分離できただけで、使い物になりませんでした。球状星団には向いていないです。
  • 背景ノイズを消す目的で試したのですが、相変わらずDfine2もDeNoise AIも微光星が崩れしまって、悪影響の方が大きいです。今回も使いませんでした。
  • 露光時間が長いので背景ノイズが滑らかになり、微光星とはかなりはっきり分離できています。逆に一番の問題は、露光時間が長いのでやはり星像にシャープさが無いこと。シャープさを出すために、Sharpen AIとNik collectionのSharpner Proとか色々試しましたがほぼ全滅で、唯一まともだったのがPixInsightのDecombolutionでした。ちなみに、月とかでRegistax代わりに使うMultiscaleLinearTransformも背景ノイズが増えたように見えるのでダメでした。
  • Decombolutionはまだあまりパラメータとか理解できていないので、ほぼデフォルト。Wavelet layerはデフォルトの2つだと不十分なようで、4つに増やしました。他にかなり効いたところがDeringingです。これもデフォルト設定ですが、オンにすると背景のノイズの崩れ具合がかなり改善されました。このおかげでシャープさが少し回復したのかと思います。
  • まだ口径200mmの分解能には迫っているとは思えません。特に明るい星が肥大化してしまうのはコントラストなども関わってくるので、難しいです。
  • 具体的に言うと、星が密になる境のあたりに3つ赤い星が固まっていて、一番外側の星の横に青い小さな星があるのですが、この3つの星がどうしてもくっつきがちです。シャープな画像を見ているともっと分離しています。次に短時間露光を試すときに、ここの分解能を出せるのかどうかがポイントかと思っています。
  • 以前問題になった、星像おにぎり化現象、一旦は出なくなったのですがはたして今回はと言うと、とりあえず星像を見る限り丸で、どうやら大丈夫なようです。でもこれまだ、調整不足で星像が肥大化して見えなくなっただけの可能性もあるので、結論は先送りです。

背景について

背景をわかりやすくするためにガンマを上げたものを載せておきます。

light_BINNING_1_integration_ABE_ABE_PCC_STR_PS_decom_gamma2

微光星とノイズがはっきりと見分けがついているところが今回進歩したところでしょうか。

その一方、よくみると背景に黒いシミのようなものがたくさんあるのがわかります。これがどこから来ているのか不明です。周辺減光を見てもわかりますが、今回フラット補正をしていないので、フラット補正をしたらうまく取れるかもしれません。まだフラット補正に絶対の自信がなく、出来る限り躊躇してしまっています。きちんと検証するいい機会なのかもしれません。


TSA-120の画像とVISACの画像の比較

面白いのはここからです。M13の画像をTSA120とVISACの場合で比較してみました。日にちも条件も違うので、完全な直接比較にはならないのですが、いくつか面白いことがわかりました。わかりやすいように、中心部の画像の右上4分の1を切り取って並べます。左がTSA-120、右がVISACになります。

detail_comp_TSA120_VISAC

まず、分解能についてですが、VISACの方が圧勝です。そもそも焦点距離が倍以上長いので、同じCMOSカメラで撮影した場合焦点距離の長いVISACの方が有利です。また、VISACの方が撮影時間3時間以上と3倍近い時間をかけているので、背景ノイズが小さくなっていて、微光星がよりはっきりと分離されています。
一方、明るい恒星に関しては隣同士の距離がTSA-120でもVISACでもあまり違いがありません。ここら辺はトラペジウムのE、F星がTSA-120では余裕で見えてVISACでは見えたことがないというところに通じるのかもしれません。もちろん、両撮影とも5分と露光時間が長いので、共に明るい星が肥大化してしまった可能性もあります。

星の色についてですが、基本的に白、オレンジっぽい赤、緑よりの青の3つに分かれるのは前回と同じです。赤と青がバラバラに散らばっているので、収差とかではなさそうです。また、どの星がどの色になるのかの再現性はあるようです。QBPのせいかなとも思ったのですが、他の方の画像を見ても同じように3種に分かれているのが多いです。やはりフィルターが入っているのかとも思ったのですが、Wikipediaの写真や、NASAの写真も同じような傾向です。これは一般的にこれで正しいのか?これも課題の一つです。

VISACの星像が横に伸びてしまっています。光学系のせいなのか、撮影時の流れなのか不明ですが、解決しなくてはダメそうです。TSA-120は流石に真円に近いです。

次に、左上のICIC4617周りを比較してみます。左がTSA-120、右がVISACです。

comp_IC4167

調べてみるとIC4617が15.14等級だそうです。Stellariumが18等級までデータを持っていて、改めて画像を見ると17等級後半とかは余裕で見えています。例えば、IC4617の右上にある3つ並んだ星の一番遠い矢印で指しているのが17.8等級です。VISACだと余裕ですが、TSA-120だとギリギリ見えてるかどうかというところでしょうか。

VISACはさらに暗い星が見えているようですが、もうデータがないので何等級かわかりません。きちんとデータと比べて限界等級を知っておきたい気もします。


まとめと、今後の課題

さて、VISACによる3時間撮影で、微光星の分解能は格段に上がりました。でも明るい恒星の肥大問題はまだ存在しているようです。こうやって考えると
  • VISACで10秒クラスの短時間露光撮影
  • TSA-120でシンチレーションのいい日に3時間クラスの長時間撮影
のような方向で攻めるのが次の目標でしょうか。でも、シリウスBとかトラペジウムとか考えたら、
TSA-120で10秒クラスの短時間露光撮で他数枚というのが手持ちの機器では解なのかもしれません。


 

球状星団を撮影するのは初めてになります。今回、ヘルクレス座の球状星団M13をTSA120を使って撮影してみました。全天で最も美しい球状星団と言われています。


初の球状星団撮影

連休初日に入るこの日の夜、天気は悪くなく、夜中から天の川を撮影しようと思っていたのですが、それまでの繋ぎでM13を撮影してみることにしました。よく考えたら、球状星団をまともに撮影するのは初めてのことです。もちろん、眼視や電視観望などでの簡易撮影などはあります。それでも時間をかけてまじめに撮影するのは初めて、いろいろわからないことがありそうです。
  • そもそも、撮影時間はどれくらいがいいのか?星雲ほど長くなくていいのか、それともやはり長ければ長いほどいいのか。
  • 1枚あたりの露光時間はこれまで通り5分でいいのか?
  • QBPはあってもいいのか?無いほうがいいのか?

天の川が出てくるまで1時間ほどあります。最初なのでとりあえずこれまでの星雲撮影のセッテングをベースとして、撮影時間を1時間としてみました。

撮影は順調。PHD2とAPTで、ガイドも含めて特に問題はなかったです。ちょうど同じ時間帯に、あぷらなーとさんもM13を狙っていたみたいです。


画像処理と結果

球状星団の画像処理も初めてのことで、まだ全然慣れていません。疑問だらけで、また太陽映像に取り掛かっていたこともあり、時間がかかってしまいました。

星雲の場合と違って、いじればいじるほど処理の跡が目立つような感触です。なかなかごまかしが効かない、素材の出来具合がそのまま処理後の出来に直結するような気がしました。とりあえず処理した結果です。



「ヘルクレス座球状星団M13」
light_BINNING_1_integration_ABE_PCC_STR2_cut
  • 撮影日: 2020年4月29日0時24分-1時23分
  • 撮影場所: 富山県富山市下大久保
  • 鏡筒: Takahashi TSA-120 + 35フラットナー + サイトロン QBP (48mm)
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • ガイド: PHD2 + f=120mmガイド鏡 + ASI290MMによるディザリング
  • 撮影: ATP、ゲイン220、温度0℃、露光時間300秒x11枚 = 55分 
  • PixInsight、Photoshop CCで画像処理
中心部です。

light_BINNING_1_integration_ABE_PCC_STR2_center

今調べたら簡易撮影では、星を始めて一番最初に撮影したメシエ天体がM13 M3(2020/5/16訂正:玄さんのコメントのおかげで4年を経てM3と気付くことができました。玄さん、どうもありがとうございました。)でした。星を始めて、一眼レフカメラを手に入れてすぐのM13 M3がこれ。1枚撮り、中心からずれてる、星がぶれてる、画像処理も何もしてない。さすがにこれを見ると、4年間で進歩したと思えます。でも望遠鏡とカメラでメシエ天体が写っただけでも、ものすごく嬉しかったこと覚えています。

IMG_0326



反省点色々

最初は、初めてにしてはそこそこ中心部まで見えたのかなと思っていました。でもやはりまだまだですね。以下、反省点です。
  • 一つ一つの星像が大きい。もっと分離してもいいはず。
  • 星雲みたいに背景を出す話ではないので、構成を分離するStarNet++が意味をなさないはずです。今回は試すこともしませんでしたが、背景のノイズを減らすのには役に立つかも知れません。今後の課題とします。
  • 背景のノイズを無くそうと、DeNoiseやDfine2も試しましたが、見事に恒星の不自然さを強調します。今回は試しただけで、結局使いませんでした。
  • 炙り出していくと、背景ノイズがまだ多いです。今回はトータルで1時間弱の撮影だったので、もう少し総露光時間を増やしていいかもしれません。
  • すでに炙り出しすぎの感もあります。中心部から少しずれたところなんかは、微光星なのかノイズなのか見分けがつかなくなってきます。
  • 明るい恒星の裾部分の階調が少し不足しています。微光星を出そうとするとこうなってしまいます。もう少し中心部の微光星を抑えても良かったかも知れません。
  • 同様に、左上に写っている銀河も階調不足の感があります。
  • 中心部の画像を見ると、色が白、オレンジ、青緑と3系統にはっきり分かれています。現実は多分そんなことはないので、何かおかしな画像処理過程が入っているようです。それともQBPのせいでしょうか?
  • やはりまだ決定的に分解能不足です。というか、星が肥大化しています。これは画像処理以前の撮影時の問題です。
画像処理以前のこととして、決定的だと思ったのは、一枚の撮影時間の5分が長すぎたではないかということです。長時間露光はどうしてもブレが積分されるので星像がボケてしまいます。もちろんシンチレーションとか風の揺れによるのですが、1枚は1分程度に抑えて、枚数を増やした方がいいのかも知れません。

揺れに関して少し考えてみます。撮像の揺れ時間スケールで見ると
  • 秒以下の揺れ: シンチレーション、地面の揺れ、風による機材の振動
  • 1秒程度の揺れ: 風
  • 10秒周期以上の揺れ: 赤道儀のピリオディックモーション、機材のたわみ
などがあります。
  • この中で改善できるのは10秒以上の揺れのみ。オートガイドです。それでも1時間オーダーではたわみが問題になってきます。
  • 1秒から10秒程度の揺れはオートガイドで多少は抑えることができますが、速い揺れほどその効果は小さくなります。
  • 秒以下は今のところ打つ手なし。AOを使うことで、シンチレーションみたいな画面の中で揺れるもの以外は改善できます。でもAO高いです。自分で作ることを考えた方がいいかも知れません。
このように考えるとすぐにわかるように、一枚あたりの露光時間を1分程度に短くしても大した効果はありません。ただ、揺れの大きさで考えると、突風などの突発的事象で星像が肥大することはあり得るので、露光時間を短くしてそれらの揺れの大きいものを省くことはできます。ラッキーイメージの考え方ですかね。

さらに、カラーCMOSカメラで撮影していることも分解能を低下させている原因の一つです。モノクロの冷却CMOSカメラでそこそこのセンサー面積のものをそろそろ本気で考えた方がいいのかも知れません。

少なくとも今回の結果は、TSA-120のが持っている光学的な分解能には全く達していないと思います。


おまけとまとめ

最後にいつものアノテーションです。少しだけ斜めになってました。念のため再度ImageSolverで計算したら回転のズレ結果は0.41度でした。上が北で、経線が縮まっていくので上の方が間が小さくなっていまるので、より斜めに見えてしまっているようです。

light_BINNING_1_integration_ABE_PCC_STR2_Annotated

本当はこの撮影の後に天の川が登ってくる時間になり、中心部の干潟とか三裂星雲を狙おうとしていたのですが、外に出たら曇り。この日は撤収しました。

画像処理まで進めて、まだまだ改善の余地がたくさんあることがわかりました。球状星団は撮影時の条件がそのまま出てごまかしが来なさそうです。今回の撮影の後、もう少し試したくて、別の日にVISACで長時間撮影してみました。 これはまた次の記事で書きます。


 

みなさん、こんにちは。「ほしぞloveログ」のSamです。最近凝っている、太陽プロミネンス動画ですが、昔撮影してうまく最後まで処理できなかったファイルを、改めて処理したので載せておきます。


3月のテスト撮影

一つ目は少し前の3月7日に撮影したものです。まだテスト段階でしたが、ファイルが残っていたので動画にしてみました。でもプロミネンスの大きさがあまり大きくないので、動きもあまりたいしたことありません。

Blink2

鏡筒: 国際光器マゼラン102M、口径102mm、焦点距離1000mm、F10 アクロマート
エタロン: Coronado P.S.T.
赤道儀: Celestron CGEM II
カメラ: ZWO ASI290MM
撮影ソフト: FireCapture
撮影時間: 2020/3/7 13:55-14:50
撮影条件: ゲイン310、露光時間25ms、200フレーム撮影し150フレームをスタック 
画像処理: AS3にてスタック、ImPPGで細部出し、Sharpen AI、Photoshopで画像、PixInsightとffmpegで動画作成 

前回と同じようにgifにしましたが、gifファイルはあまりファイルサイズを小さくできないので、撮影時間1時間の60枚くらいが限界です。


4月の長時間撮影

次のファイルはゴールデンウィーク始めの4月29日撮影の約3時間ぶんの結果です。

  • 鏡筒: 国際光器マゼラン102M、口径102mm、焦点距離1000mm、F10 アクロマート
  • エタロン: Coronado P.S.T.
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI290MM
  • 撮影ソフト: FireCapture
  • 撮影時間: 2020/4/29 12:59-15:55
  • 撮影条件: ゲイン300、露光時間25ms、200フレーム撮影し120フレームをスタック 
  • 画像処理: AS3にてスタック、ImPPGで細部出し、Sharpen AI、Photoshopで画像、PixInsightとffmpegで動画作成 
PixInsightで動画を作る際、

-y -r 25 -i Blink%05d.png -b:v 15000k -vcodec libx265 Blink2good.mp4

として、H.265でmp4にして、youtubeにアップしました。ただ、やはりプロミネンスがあまり大きくないので、長時間の割に動きが少ないです。このときちょうど小さな黒点も出ていたので光球面も一緒に出してみました。

本当は黒点周りや、Benar対流の動きが見たかったのですが、この日はかなり風が強く鏡筒が揺れてしまっていたので、分解能があまりよくありません。じっくり見てると少しだけ動いているのはわかりますが、いまいちインパクトがありません。再度挑戦して、もう少しはっきりとした動きを見てみたいと思います。やはり、プロミネンスと光球麺を同時に出すのはまだ難しいです。静止画ならマスク処理などで別々に細部を出せるのですが、動画だとそこまで手をかけることはできません。

SODの4月29日の動画との比較です。



UTCなので、午前5時くらいから午前8時までくらいに相当します。


苦労は理解され難く

ちなみに、撮影したファイルの合計は190GBになりました。3時間ものの超大作をやっと動画にまでして、この喜びをわかってもらおうと、妻に「すごいでしょう」と言って見せたとき、なんて言ったと思います?

「なにこれ?シューシューしてるの?
ヤカンの湯気みたい。」

ですよ!1億5千万キロも離れたプロミネンスの動きをヤカンの湯気なんて...。がっくりでした。

妻にとっては下の鳥の方がはるかにいいみたいです。


おまけ、初の鳥写真

さて、気を取り直してもう一つ、天文ネタと全然関係ないですが、庭にいつもいるキジを撮影してみました。ご存知かも知れませんが、キジは国鳥です。

FS-60CBにマルチフラットナー をつけてEOS 6Dで撮影しています。庭の端の方にいて少し焦点距離が足りなかったので、トリミングしています。

IMG_5492_cut

IMG_5492_cut_small-gigapixel-scale-4_00x

鳥をきちんと撮影するのはほぼ初めてで、星雲とかと違って色が最初から出ているのでずいぶんと楽です。普段の画像処理テクを駆使して細部とかも出してみました。羽がとても綺麗です。でもこれって正しい方法なのかどうか?

この子、この辺りにもう何年も住みついていて、グェー、グェーといつもうるさいです。今年もつがいでいます。毎年ひなを育てているのを見るのですが、今年も無事に生まれてほしいです。。

太陽プロミネンスのタイムラプスの手法がやっと確立しました。


これまでの試み

太陽アニメはこれまでも何度か挑戦しています。





でもこれ、めちゃくちゃ大変だったんです。2018年のは10分おきに3時間ですが、そもそも昼間で極軸が出ていないので赤道儀がずれてきます。ほぼずっとつきっきりでとにかく大変で、二度とやりたくないと思いました。

また、いずれもPhotoshopで一コマ一コマ手で位置合わせをしています。2019年4月の2つ目は何分かおきに撮りましたが、コマ数は11コマと少ないのでまだましです。でも位置合わせだけでなく、明るさとかもかなり違っていて、一枚一枚合わせこむので、これくらいが手合わせでは限界です。ジェットの結果は面白かったですが、この時ももう二度とやりたくないと思いました。


太陽タイムラプスの何が難しいのか

でもやっぱり太陽の変化をアニメにしたいんです。しかも1分おきくらいに数時間にわたるアニメです。そのためにはクリアしなければならない問題がいくつもあります。
  • PSTは安価ため、エタロンの平行度があまりいいわけでなく、Hαをうまく出せる部分が限られていて、画面の30-40%のみ。長時間撮影で太陽の位置が画面内でずれると、Hαの見え方も変わってくる
  • そのため長時間太陽がずれないような手法を確立する必要がある。極軸さえ合わせられないので、ほっといたらずれていく。ガイドか?でもどうやって?
  • 撮影時間が長く、画像の枚数が多いと、個別の画像処理は現実的ではなくなる。画像処理をまとめて一気にやってしまいたいが、一度にうまくできるのか?
  • たとえ撮影時の位置があまりずれなかったとしても、その精度ではアニメにしようとするとブレブレになってしまう。かと言ってステライメージやPixInsightなどの画像処理ソフトで位置合わせをしようとしても、星を使った位置合わせのような基準が何もないのでできない。
など、思ったより大変そうです。もう少し細かく考えます。
  • 撮影したserファイルをAutoStakkert!3でスタックしますが、太陽のブレ具合によって毎回出来上がる画像のサイズ(縦、横のピクセル数)が変わってきます。オプションでcropにしても拡大する方を選らんでもサイズは毎回変わってしまうようです。このため、動画にするときの位置合わせが難しくなります。
  • 炙り出しの際ImPPGを使っていますが、同じ設定でも撮影時の条件の微妙な違いにより、出来上がりの明るさや細部の描写などがバラバラになってしまいます。撮影時の条件をよほどうまく合わせるような工夫を何かしなくてはダメです。
実はあまり記事にしていないのですが、これまで何度もアニメには挑戦してきて、やっと上記問題を解決しなければうまくいないことがわかってきました。これらの反省点を含めて、手法を何度か改善しつつ、今回やっとうまく動画まで持っていける手法を確立することができました。

今回やった方法を順に書いていきます。それでもそこそこ大変です。


FireCaptureによる太陽オートガイド撮影

撮影はFireCaptureを使います。ポイントはガイド機能を使うこと。そのためにまずは赤道儀をASCOMやST4経由でPCから制御できるようにしておきます。接続がOKなら、「Setting」タブで「Telescope」を選んで、ASCOMやST4ドライバーを選びFireCaptureと赤道儀を接続してください。うまく接続できると画面の最前面に方向ボタンが出てきます。いくつか押してみてFireCaptureの画面に見えている太陽がきちんと移動するか確認するといいでしょう。

その状態で縦に並んでいるアイコンの上から5つ目の「AutoGuide」にいきます。まずは右クリックをするとオプションが選べます。制御はPHD2などと比べると随分シンプルでできることも限られますが、「Swap direction」でフィードバックする方向をきちんと選ぶこと、極軸があっていないので思ったよりずれていくことがあるので、「Guide rate」フィードバック量をデフォルトの倍くらいに増やすことなどに気を付けて調整します。

IMG_0012


設定が終わったら「AutoGuide」横のチェックボックスをクリックして、ガイドをオンにします。赤い四角いボックスが表示され、太陽のリムの形を使ってをオートガイドすることができます。最初なかなかうまくいかないかもしれません。しばらく待ってずれていかなければ成功ですが、方向とかを間違えるとどんどんずれていきます。いくつか設定を変えて試してみてください。うまくいくと数時間とかの単位できちんとガイドしてくれました。

タイムラプス映像にしたいので、一コマ一コマの時間間隔が重要になります。そのため撮影はフレーム数単位でなく、時間単位になります。今回は12.5ms露光で5秒間撮影、その後55秒休みます。保存はRAWで残したいので.serにします。今のPCだと80fpsで取り込めるので1ファイル400フレームくらい、サイズは1.7GBくらいです。これをFireCaptureの「Capture」タグのところにある「カメラアイコン」を押して出てくる「AutoRun」機能で繰り返します。「Delay」を55秒、「Limt」を5秒にします。これで1分に1度5秒間撮影します。出来たファイルのサイズやフレーム数は多少ばらつきが出ますが、気にしないでおきます。

cap1

撮影時にもう一つ気を付けておくことが、ゲインの設定です。ゲインはサチるくらい高めにしておきます。今回は440まで上げています。理由は、淡いプロミネンスを階調よく撮るためというのが一つの理由です。でも、実はもう一つの理由の方が重要で、ヒストグラムで見た時の背景ピークの幅を広げてピーク位置の依存性を少なくし、後の画像処理の時のパラメータにあまり依らないようにするためです。輝度の高い光球面までダイナミックレンジの中に入れようとすると、背景のピークが鋭く左の暗い方に寄ってしまいます。この状態で画像処理をしようとすると、撮影条件が変わった時にピーク位置がずれ、画像処理の設定が対応しきれなくなって、仕上がり画像のばらつきが大きくなってしまうからです。今回のようにゲインを上げて撮影する場合、当然ですが光球面の模様は諦めなくてはいけません。プロミネンスに特化したアニメになると思ってください。

実際のガイドの様子の動画です。娘のギターがうるさいですが、気にしないでください(笑)。


PC画面の右上の矢印がピコピコ反応して、きちんとガイドしているのがわかると思います。

長時間にわたる撮影の場合、保存されるファイル量が数百GBクラスになることもありますので、残りのディスク容量に注意してください。


ちょっと脱線、太陽のオートガイドについて

この記事を書きながら色々調べてみました。どうやら、このFireCapureのガイド機能を太陽撮影で使った例は、海外も含めてほとんどないようです。基本的に惑星での使用例ばかりです。太陽でのガイド撮影はCloudy Nightsとかでも「Hinode(ヒノデ)ソーラーガイダー」を勧めていました。名前は日本語っぽいですが、アメリカ製だそうです。ガイド精度も上記ページで動画があります。実はこれ、胎内(だったと思います)で実物を見た記憶があります。太陽を始めていたのでガイドにちょっと興味があったのですが、値段がそこそこ。なんか工夫してできないかと思っていました。

今回、SharpCapの機能で画像認識をしてそれがズレないようにガイドするのも試しました。まだ実験的と書いてあるからなのでしょうか、こちらはあまりうまくガイドできませんでした。FireCaptureはなんとかうまくガイドできましたが、これも最初はあまりうまくいかずパラメータ出しに苦労しました。あと、雲とかで一度位置を失うと、その後の復帰は位置が大きくズレる可能性があります。

要するに、まだ太陽のガイドってあまり確立された技術ではないようなのです。まあ、太陽やっている人が少ないので、仕方がないと言えば仕方ないのですが。

今考えているのは、別のカメラを用意して焦点距離を短くして、全体を見ながらガイドをかけるとかでしょうか。というのは、今回は太陽の縁が入っていたのでたまたまガイドできましたが、今後、黒点のアップなどを長時間撮影したい場合は今の方法では無理なので、何か別の方法を考える必要があります。


画像処理

ここから動画ファイルになるまでの過程を説明していきます。

まずは撮影後の画像処理ですが、動画の場合は通常以上に複雑になります。これまで太陽撮影や、太陽画像の処理をしたことがない方は、まずは下記のページを参考に一枚の画像を最後まで処理してみてください。




一枚がきちんと出せないようでは、多数枚を出すのは至難の技です。今回の動画の処理過程もある程度このページの処理方法に依っています。今回の記事では上記ページに加えて、動画作成で必要な部分に焦点を当てて、一枚画像の処理との違いを中心に説明していきます。


AutoStakkert!3での一括スタック

最初はいつも通り、AutoStakkert!3でのスタックです。撮影した全てのserファイルを一度に開きます。最初のファイルだけ処理すると、順に同じ設定で全てのファイルを処理してくれます。

ファイルの数が多いので、時間がかかります。間違えると全てやり直しで大変なので、慣れていない方は練習のためにまずはファイルを一つだけ開いて、うまく処理できるかどうか試した方がいいでしょう。これでうまく処理できたのを確認してから、改めて全てのファイルを一度に開いて処理した方がいいでしょう。

多数のファイルを処理する場合、撮影時の太陽の位置が長時間安定していなかったり、雲などで画面の明るさに変動があるとそのファイルはうまくスタックできない可能性があります。少なくとも、最初の方のファイルと最後の方のファイルをRAW動画で見てみて、位置が大きくずれていないか、明るさは大きく変わっていないかを確認した方がいいです。

全部の処理には時間がかかると思いますので、じっくり待ちます。


Photoshopで画像の大きさを揃える

次のステップとして、Photoshopで画像の大きさを揃えます。この過程はすごく重要です。なぜなら、AutoStakkert!3は写りの良い部分だけを処理するので、出てきたファイルの画像サイズは一枚一枚バラバラだからです。サイズを合わせないと、後の位置合わせがうまくいかなくて、全くアニメになりません。サイズ合わせはPhotoshopの「イメージ」->「カンバスサイズ」を使ってやります。AutoStakkert!3でできたサイズの中で一番小さいサイズ以下の大きさに設定します。

この過程をアクションツールを使って全てのスタックされたファイルに適用します。詳しいやり方は「Photoshop アクション 繰り返し」などで検索すると出てきますので、そちらを参考にしてください。ちなみにこのページが分かりやすかったです。ここでは簡単な手順だけ書いておきます。
  1. Photoshopを立ち上げ、「ウインドウ」から「アクション」を選び表示します。
  2. アクションパネルの下のアイコンの右から二番目の「新規作成」アイコンを押します。
  3. 新規アクションに名前をつけて、記録を開始します。
  4. 画像ファイルを開くところを含んで記録します。
  5. 先のサイズ合わせを一通りします。
  6. ファイルを「別名で」保存します。
  7. その後、アクションウィンドウの下の左の停止ボタンを押し記録を止めます。
  8. 次に「ファイル」->「自動処理」->「ドロップレットを作成」を開きます。
  9. 「ドロップレットを保存」で先ほどのアクションを選びデスクトップなどに保存します。ポイントは左の「”開く”コマンドを無視」と右の「”別名で保存”コマンドを省略」にチェックを入れておくことです。
  10. デスクトップなどに出来たドロップレットに、ImPPGで処理したTIFFファイルを全て選択し放り込みます。
うまくできましたでしょうか?実際に画像サイズが全て揃った、出力ファイルをきちんと確かめてみてください。


ImPPGで位置合わせ

次にImPPGを使い位置合わせをします。「Tools」の「Align image scequence」を選びます。上のPhotoshopの処理をサボって画像サイズがバラバラだと、位置合わせは全くうまくいかないので注意してください。

cap_ImPPG01

Photoshopで大きさを揃えた画像ファイルを選択します。ポイントは「Align on the solar limb」を選ぶこと。条件は太陽の縁がきちんと出ていることです。太陽が円になっていなくて、一部だけが写っていても、縁さえ写っていればうまく処理できます。これでうまくいかない場合は上の「Stabilize high-contrst feature」でやりますが、こちらは精度が悪くアニメにした時にぶれてしまうと思います。


ImPPGでの一括処理

次に改めてImPPGで炙り出しと細部出しをします。まずはImPPGで位置合したファイルを画像を1枚開き、処理過程を進めます。処理が終わったところで、「File」->「Save Processing Settings」でその際の設定を保存します。次に「File」->「Batch Processing」で、AutoStakkert!3でスタックされた画像を全て選び、先ほどの設定ファイルを選択し、適当な出力先を指定します。保存形式は「TIFF 16-bit」を選択します。「Start processing」ボタンを押して連続処理します。

IMG_0011


最終調整

この時点でもう動画にする準備はできていますが、ImPPGでの画像処理だけだと不十分なこともあるでしょう。例えばPhotoshopのアクション機能を使うことで、全ての画像に同じような処理をすることもできます。また、DeNoiseも最新バージョンではバッチ処理をサポートしていて、同じ処理を多数のファイルに一括で適用することができます。

それでも、背景の明るさが揃い切っていなかったりすることもあるかと思いますが、ある程度は一枚一枚微調整が必要なこともあるかと思います。ここら辺はアニメーションを扱うときには仕方のないことでしょう。


動画ファイルの作成

さて、素材のファイルができたのでここからやっと動画ファイルの作成になります。動画作成はいろいろな方法があるかと思いますが、ここではPixInsightを使います。PixInsightを立ち上げ、「Process」->「ImageInspection」->「Blink」を選び、これまでにできた画像ファイルファイルを全て開きます。
  1. 再生ボタン(右三角)を押すと動画の様子が確認できます。
  2. 真ん中のアイコン列の上から2つ目のオートストレッチがオンになっている場合、画像処理されてしまいます。オフにすると元の画像のまま表示されます。
  3. Previewで一部を切り取るとその部分だけ拡大してその部分だけ動画にすることもできます。
  4. Blink画面の右下の一番右端の撮影開始マークアイコンで動画にします。
  5. ffmpegがない場合は別途インストールしてください。ffmpegがインストールされていても、実行ファイルをフルパスで入れないとうまくいかないことがあります。/usr/local/bin/ffmpegとかいうことです。
  6. 今回の場合秒15コマのgifファイルにしたかったので、-y -r 15 -i Blink%05d.png Blink.gifとしました。
gifファイルは256色の制限があるので、パレットを最適化したい場合は別途コマンドラインで、

ffmpeg -y -r 15 -i Blink%05d.png -filter_complex "[0:v] fps=15,scale=1024:-1,split [a][b];[a] palettegen [p];[b][p] paletteuse" Blink.gif

などとするといいかもしれません。

Blink

実際に出てきたgifファイルを確認してみてください。gifアニメはWebなどでは再生することなく勝手に動画になってくれるので、見ていて楽しいです。長いファイルだとサイズが大きくなりすぎるかもしれません。その時はmp4などに変換するといいでしょう。


まとめ

IMG_9612


一応、動画になるまでの過程を書き出しましたが、うまく動画ファイルになりましたでしょうか?一枚一枚みていただけではあまり変化がわからなかった画像も、動画にするとプロミネンスが活発に動いていることに驚かれるかと思います。

ここに挙げた方法はあくまで一例です。他にも面白い方法があれば、どんどん探ってみてください。また、自分でやってみて分かりにくいところがありましたら、コメントでお尋ねください。できるだけ応えるようにします。

今後、このような動画ファイルがたくさん出てくると、太陽をやってみようという人がもっと出てくるかもしれません。早く太陽活動活発にならないかなー?もっとすごい動画が見てみたいですよね。

太陽楽しいですよー。


久しぶりの太陽です。記事としては3.5nmのHαフィルターの記事以来でしょうか。でも実は太陽撮影はちょくちょくやっています。ただ太陽活動があまり活発でなく、絵的にぜんぜん面白くないので、記事にするに至っていません。


晴れ間にパッと見た太陽に大きなプロミネンスが!

今年のゴールデンウィークはなかなか外に遊びに行ける状況でもなく、遠征撮影もままならないのでZoomで中継をしたりしてましたが、後半は天気もあまり良くないので、庭撮りも諦めていました。5月4日、この日も天気予報は曇りで期待していませんでしたが、午前中外を見ると珍しいくらいの綺麗な青空が広がっていました。透明度は良さそうですが、少し雲もあるので短時間なら太陽撮影できるかなと気楽に機材を出してみたら、東南方向に大きなプロミネンスが見えました。

晴れてる合間にすぐに撮ってしまおうと、午前11時半頃から撮影を始め、一度5000フレームほどのファイルを保存したのですが、風が強かったせいか、シンチレーションがたまたま悪かったのか、処理してみると写りはイマイチ。その後12時近くのわずか400フレームのファイルの方がはるかに細部が出ます。多分風がおさまったせいだと思っています。それを処理したのが下の画像です。

Sun_115711_lapl4_ap1328_IP3_OS_cut
  • 鏡筒: 国際光器マゼラン102M、口径102mm、焦点距離1000mm、F10 アクロマート
  • エタロン: Coronado P.S.T.
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI290MM
  • 撮影ソフト: FireCapture
  • 撮影時間: 2020/5/13 11:57
  • 撮影条件: ゲイン440、露光時間12.5ms、400フレーム撮影し320フレームをスタック 
  • 画像処理: AS3にてスタック、ImPPGで細部だし、Sharpen AIで処理。
珍しくちょっと大きめのプロミネンスで、きちんと輪になっているのがよくわかります。シンチレーションも悪くなく、細部もよく出ています。

今回、細部を出すのにSharpen AIを使っています。かなり強力なシャープツールなので、擬似線が出てしまう可能性は否定できません。それでも元のファイルの出来が悪いといくらやっても綺麗に出ないこともまた事実で、やはりどんなソフトでも引き出せる限界はあるようです。AIと言えども万能ではないことは言うまでもありません。

上の画像の擬似カラー版です。

Sun_115711_lapl4_ap1328_IP3_OS_color_cut


プロミネンスのタイムラプス動画

さて、今回の目玉はこのプロミネンスのタイムラプス動画です。上のを撮影した後、まだ晴れが続いていたので、同じ構図で連続して撮影してみました。上の画像を撮影したときから30分くらい後の5月4日12時32分から12時50分までになります。

撮影条件は上の静止画の時と同じで、1分おきに5秒間撮影しています。約400フレーム撮影できるのは同じで、そのうちの240フレームをスタックしています。19分間ぶんの画像19枚でgifアニメーションを作っています。19枚で止まってしまったのは、これ以降は曇ってしまったからです。

最初短い時間しか撮影できなかったので全く期待していませんでした。せいぜい画像処理方法を試そうというくらいです。でも実際に動画にしてビックリです。

Blink

およそ20分の間ですが、細かいところがかなり動いていることがわかります。こんなに速く動いているとは想像していませんでした。これを見ると1分おきでもギリギリな間隔なくらいです。ここまでプロミネンスの動きが見えると相当面白くなってきます。

先にTwitterでテスト動画を公開したのですが、160いいねを記録し、TSA-120購入の時の言い値の数を超えて過去最高となりました。そもそも太陽関連の記事はマイナーなせいか、これまでも人気があまりなかったのでこの反応には驚いています。やはりこれだけ活発に太陽が動いているというのはインパクトがあるのでしょう。

ちなみに、その日のSDOの動画がここにあります。



時刻がUTCで表されているのでこの動画の最初の方、5月4日の午前3時半くらいのときのものが今回撮影したタイムラプス動画に相当します。SDOはこのページを見てもわかるように衛星なので、地上から撮影しているアマチュアでは到底太刀打ちすることはできません。それでも時間分解能ではそこそこ検討しているのではないでしょうか?今後、もっと長い時間撮影してみたいと思っています。


撮影方法と画像処理については次回解説

さて、太陽のタイムラプス映像ですが、これまで記事にしたものもあれば、
 

 

撮影だけして記事にしていないものもいくつもあり、実は結構な回数に挑戦しています。

やっと今回、短い間隔で多数枚撮影して、うまく最後まで画像処理する過程を確立することができました。その方法ですが、結構複雑で記事にすると長くなりそうで、未だにてこずっています。次の記事に独立して書こうと思います。多分明日くらいにはアップできると思いますので、今しばらくお待ちください。


おまけ: 撮影風景

タイムラプスの撮影時の風景です。撮影は始まってしまえばリモートで部屋の中から画面を見ることができます。娘が目の前でギターを弾いています。ギターがうるさい中、頼むから曇らないようにと祈っていました。

IMG_0005


Zoom中継3回目になります。人数的にも今回大きく盛り上がりました。


ことの始まり

過去2回やった電視観望のZoom中継ですが、連休中にあと1回くらいできればいいやと思っていくらいでした。ところが、前々回前回Zoom中継の記事を読んでくれた星ナビ編集部からなんと原稿依頼が!この厳しい情勢の中、アマチュア天文ファンがどうやって交流を進めるのか、その一環でZoomの様子を知りたいとのことです。

空の様子はというと、晴れてはいるものの、透明度がものすごく悪く、北極星も見えません。でも天気予報を見るとこの日以降しばらく曇りとか雨。晴れの予報まで待つと満月期に入ってきます。迷ったのですが、21時半頃テストでM51を見て、下のようになんとか見えることを確認。

IMG_9988

長時間露光であまりリアルタイム性はないですが、これでOKと判断し、急遽3回目のZoom中継を開くことにしました。


中継開始!

この日のネタは「月夜と銀河」。月があっても電視観望でどこまで銀河が見えるか試すというのですが、透明度が悪すぎてそちらで見え方がリミットされているようです。もう一つはZoomでの盛り上がりの様子を星ナビの原稿にできるよう、オンラインで集まっている様子を記録すること。

実際には22時にTwitterでアナウンスして、22時半から開始。開始してすぐに多分10人くらいになって、その後最大20人くらいになっていました。いつものように突然のアナウンスで、まさかこんなに参加してもらえるとは。ありがたいことです。でも多分、私の力量ではこれくらいがハンドルできる限界くらいの人数かと思います。もし次回やるとして、これ以上人数が増えたらどうしようと少し心配しています。まあ、こっそりアナウンスするかですね(笑)。

中継がうまくいかなかったらどうしようとか、人数が集まらなかったらとか、逆に多すぎて収集がつかなくなったらどうしようとか、色々心配事もありましたが、結局は全部杞憂で、会話だけでも十分盛り上がりました。目的の写真も、Zoom上のそれぞれの映像とハンドルネームが出てもいいことを確認して、十分な枚数をとることができました。


参加メンバーとか

会議開始後、せっかくなので参加されたそれぞれの方に自己紹介をしてもらいました。途中参加された方にも、その都度自己紹介をお願いしています。お会いしたことのある方も、初めてな方もいろいろ。ブログやTwitterで発言されている方も多いです。まあさすが同じ趣味ということもあり、会話は放っておいても勝手に弾みます。

茨城から参加の、いつも面白いブログを書いているM87JETさんはとても反応よく発言してくれます。PowerMATEを貸してくれている仙台から参加の木人さんは、遠くのホテルのタイルで分解能のテストした時の話や秘密の作業場を画面共有で見せてくれました。

学生さんが多かったのも特徴でしょうか。皆さん関東勢ですかね、某ショップのDaikiさんや薜さんに加え、だぼさんと、高校生のRambさんも参加してくれました。Rambさんは回路まで自分で組むみたいで、OnStep自分で作っているとのことです。将来有望ですが、今年受験とのことで大変そうです。

今回、電視観望はただのおまけでした。最初に入れたしし座の三つ子銀河はほとんど見えず。
triplet2

M65とM67はかろうじてうっすら見えてますが、NGC3628はほとんど見えていません。

M51が長時間露光でせいぜいこれくらいです。

M51

途中諦めて月に行ったりしてました。

moon

流石に月は見えますが、この日はやはり透明度が悪く、こんな状況でした。

千葉のりょーじんさんのところでは、小学生のお嬢さんが一緒にいて画面を見てくれていて、色々子供ならではの反応してくれます。「お父さん40年も星を見てる」とか話してくれました。でも、銀河とかなかなかうまく見せることができなくて申し訳なかったです。年末に名古屋でやった電視観望会に来てくれた智さんやkima_Aquariusさんも参加してくれました。智さんは最近電視観望もすごく精力的にされていて、Twitterでよく報告されています。

同じ愛知勢では、いのさんが。福岡からRAINYさん、神奈川からJiro Sakanakaさんも参加してくれました。こうやってみると全国の人と話せるというのは結構すごいですね。あ、あとお一方kiss_a_tenさんという方が参加されていました。結局ミュート状態からお話しされることはなく、ミュートを解除する方法がわからなかったのか、話せない事情があったのか分かりませんが、せっかくなのでお話ししたかったです。


中継基地(私の部屋)の紹介

あ、そうそう、今回から中継場所が私の部屋になりました。在宅勤務でとうとう自分の部屋を確保できたので、もうキッチン側のテーブルのうるさい環境からやらなくて良くなりました。家族にも迷惑をかけなくていいです。トイレで少し抜けたのですが、その頃にはもう家族全員寝ていました。その間、皆さんで話してもらっていましたが、やはりホストがたくさん話すことになってしまうので、こういったホストがいない時間も大事なのかなと思います。その後、機材置き場やちょうど昨日買った雑誌用の本棚を見せたりして盛り上がりました。



IMG_9982

room

中継中に参加者の方から、接続方法についての質問がいくつかありました。基本的に庭においたAZ-GTiをステーションモードで自宅のLWi-Fiにつないでいます。そうすることで自宅内のどのPCからでもAZ-GTiをコントロールできます。CMOSカメラだけは天送料が多いので、カメラ近くに別のPCを置いてUSB3.0で有線で接続しています。そのPCも自宅Wi-Fiに接続します。部屋の中ではMacからカメラに接続したPCにリモートデスクトップで接続します。WindowsのRDPは速度がネットワーク帯域が狭くても転送速度が速くて、画面の劣化が少ないことが星空を中継するのに適しています。部屋のMacからZoomを立ち上げて、Zoomの画面共有でリモートデスクトップアプリを画面共有しているというわけです。

こうすることで、RDP 、Zoom共に細かい描写が可能になるため、星空をきちんと星空として配信することができるというわけです。

ここで一つ気づいたことです。最初は綺麗に見えていた月も、途中からボケ始め暗くなり、外に出て確認してみたら雲越しの朧月でした。ここで、暗いと技術的にZoomでブロックノイズがでることが判明しました。SharpCapでゲインを上げて明るくするとブロックノイズが消えるので、こうやってうまく転送速度を稼いでいるのかというのが少し分かりました。これは配信時、少し気にしておくといいかもしれないです。

apranat_gauss


なんとあぷらなーとさんが参加!

さてさてそうこうしている間に、大物ゲストのあぷらなーとさんが仕事を終え途中からサプライズ参戦。いつも面白いことに挑戦している、アマチュア天文会きっての変な人です。ビデオカメラの映像を見たどなたかから「想像と全然違う」との感想が。やっていることがいつも奇抜で若いイメージなので、そのせいでしょうか。実は私よりもずっと先輩です。

香川の天体望遠鏡博物館に行った時に自宅にお邪魔させてもらった話とか、あぷらなーとさんが今やっているビームスプリッタを使った「オンアキシス」の話とか、あぷらなーとさんにはこの会議をすごく盛り上げていただきました。ビームスプリッタは星まつりで安く手に入るという話になると、さっそく薜さんが実際に星まつりで買ったビームスプリッタを中継で見せてくれたりしました。

BS

こうやって双方向でやりとりできるのは楽しいですね。すぐに他の人の映像へ画面を切り替えたりできるのもZoomの特徴です。


星ナビ編集部の方も!

さらにお二方、スペシャルゲストで星ナビ編集部からも途中から参加。以前福島のフターライトフェスティバルや、CANPでお会いしたKさんと、ネットよ今夜もありがとうで担当頂いたFさんです。

ちょうどよかったとばかりに、Kさんから今回のZoom中継の趣旨をお話しいただくようお願いし、さらには参加者からの質問にも直接答えていただくこともできました。私も「ギャラリーの投稿はブログとかで発表した物でもいいのか」と聞いてみたのですが、答えは「OK」とのこと。コンテストなどに出したものなど、いわゆる二重応募に相当するのはダメだが、SNSなどの個人的な公開は構わないとのことです。私は撮影したら大抵すぐブログの記事にしてしまうので投稿できないと思い込んでいたのですが、大丈夫とのことなのでいいのが仕上がったら投稿してみようと思います。


楽しかったー!

もう最初から最後まで話が途切れることはなく、結局午前1時まででの2時間半、総勢20名程度の大会議になってしまいました。それでも話は尽きることなく、結構無理に1時に終わらせた感じで、そのまま行ったらエンドレスにでもなりそうな雰囲気でした。

参加された方、本当にありがとうございました。

最初天気が心配でしたが、実際には会話の方が遥かに盛り上がって、もうおなかいっぱいです。またいつか開催するかもしれませんので、その時にはまたよかったら参加してください。また、今回ギリギリのアナウンスで気付かなかった方もいたかと思います。「参加したかったのに」と思ってくださった方、本当に申し訳ありませんでした。次回こそは、(多分)もう少し余裕を見てアナウンスするようにしようと思います。

また、土壇場で開催を決めたにも関わらずこんなに盛り上がったのは、星ナビさんからきっかけを与えていただいたおかげかと思います。どうもありがとうございました。


まとめ

そもそもZoom中継を始めたのは、この厳しい状況でも好きな天文のことでコミュニケーションが取れるのではないかと思ったからです。

Zoomは一見ノイズと間違えるような細かい星空も、制限のあるネットワーク帯域でうまく中継して見せることができる数少ないツールです。これをきっかけに参加された方も、それぞれのコミュニティーでZoomを試していただければ、星仲間と会えない状況の中、連絡をうまく取り合えるのではないかと思います。中継だけでなく、喋るだけの飲み会にしてもいいと思いますし、画像処理をリアルタイムで検討するとか、テーマを決めた討論や講演とかでも、色々応用できると思います。

Zoomは世界中でたくさんの人に使われています。パスワードを設定する、個人IDでの会議せず毎回会議室を立てる、アドレスはパスワード付きのものを公開しないなど、セキュリティーに気をつけることを忘れないでください。うまく使えば、天文仲間のコミュニケーションに非常に強力なツールになると思います。

私も3回中継を試してZoomが星空中継にも、コミュニケーションを取るツールとしても十分に使えることがわかりました。定期的にやることにはならないと思いますが、そのうちにまた開催したいと思います。今後、他の方もZoom会議とかされると思いますので、そちらの方にも積極的に参加していければと思っています。

また、今回のZoom中継では初めて記録をとってみました。これ結構すごくて、声だけでなく画面まで全部mp4で記録されています。これらをもとに、これから原稿を書きます。はたしてどんな記事になることやら。文字数制限があるのでここまで詳しく書けないと思いますが、内容は星ナビ来月号でのお楽しみということで。 


このページのトップヘ