ほしぞloveログ

天体観測始めました。

2025年06月

前回の「太陽分光SHG700始動(その3): 連続分光撮影」に引き続き、太陽分光撮影シリーズの4回目です。


今回は撮影したserファイルを処理する太陽全景画像再構築ソフトの説明をします。


JSol'Ex

撮影した.serファイルから太陽全景画像を再構築するソフトはIntispecINTISpectroheliograph reconstruction softwareJSol'Exなどがあるようですが、MLastroではJSol'Exが勧められているので、ここではJSol'Exを使ってみます。


JSol'Exの日本語での解説記事はほとんどないみたいなので、いろいろと試してみました。

ダウンロードしたらインストールしますが、インストール先がデフォルトでは自分のユーザーディレクトリの中の隠しフォルダのAppsData以下になるようなので、実行ファイルがどこにあるかなど戸惑うことがあるかもしれません。私は天文関連のアプリはショートカットをデスクトップに置いているので、実行ファイルを探すのにちょっと苦労しました。ちなみにショートカットは、エクスプローラー上で実行ファイルを選択して、シフトキーとコントロールキーを同時に押しながら、デスクトップに放り込めばできますね。


serファイルからの簡易画像生成

JSol'Exを立ち上げて、まずは手持ち機器の登録をしましょう。メニューの「Equipment」の「Spectrograph editor」で分光器を登録します。Sol'ExやSHGはバージョンごとにわかれてあらかじめ登録されているので、通常は特に変更の必要はないです。もしカスタムなどしている場合はここで設定するといいでしょう。

もう一つ、メニューの「Equipment」の「Setup editor」で鏡筒とカメラを登録します。「Latitude」と「Longitude」は設定しなくていいみたいなので、私は空白にしています。
スクリーンショット 2025-06-24 215035


処理を開始するために、serファイルを読み込みます。メニューの「file」から単体のserファイルなら「Ooen ser file」、複数のserファイルをまとめて処理したいなら「Batch mode」になります。

スクリーンショット 2025-06-24 145332

簡単には出てきた画面で、下の「Quick mode」ボタンを押せば簡易処理になり、全景を再構築した画像と、それをオートストレッチした画像のみが保存されます。
スクリーンショット 2025-06-24 205206


カスタム出力設定

高機能なJSol’Exを活用するために、きちんと設定して出力画像の種類を増やしましょう。

まずは先ほど設定した、自分の機器を選択します。上記画面の「Observatoin details」を選択し、Instrumentで「MLAstro SHG700」を、Telescopeで自分の機器、ここでは先ほど設定した自分の「FC-76」を選択します。
スクリーンショット 2025-06-24 215918


保存する画像のフォーマットは「Miscellaneous 」で必要なフォーマットにチェックを入れます。あとでスタックとかする場合はfitsやtifなどのRAWフォーマットにしておいたほうがいいかと思います。画像アップ用でJPEGやPNGを一緒に選択しておいてもいいかもしれません。

保存フォルダの形式を、同じく「Miscellaneous 」で「Batch」にしておくといいでしょう。あとでスタックする場合には、複数serファイルからできた同じ種類の画像がまとまって一つのフォルダに入ります。

スクリーンショット 2025-06-24 145715

ここからがJSol'Exの真骨頂になります。serファイルを開いて設定などした後に、まずは右下の「Full process」を押してみましょう。時間は余分にかかりますが、いろんな種類の画像が生成されます。

でもこの「Full」だと一部されない画像もあるので、「Custum process」を押して、さらに「Select all」にしたほうがいいかもしれません。これにすると、波長を少しずらした(デフォルトだと-3,0,3,15pixel)画像も合わせて生成されます。
スクリーンショット 2025-06-24 205325

波長の違いは見てるだけでも楽しいので、ぜひ試してみてください。波長をどれだけずらすかは、自分で設定できます。画面内の数値を適当に変えたり、増やしたりしてみてください。


出力される画像例

どんなファイルが生成されるのか見ていきましょう。以下に示す保存される場所は、File name patternを「Batch mode」で保存した場合になります。

まず基本はdiskフォルダとautostretchフォルダの中にある、再構築された全景です。diskの中は単に再構築しただけのRAWに近いもの、autostretchはそれをストレッチしたものです。ここではストレッチされたものを示します。
07_13_53_0000_07_13_53_autostretch_0_00

これらのフォルダには上記のHαの中心波長のみでなく、そこからずれた波長の画像も保存されています。例えば+/-3pixelずれたものです。波長への換算はざっくり0.1Å/pixelなので、それぞれ-0.3Åと+0.3Å程度ずれた画像になります。
07_13_53_0000_07_13_53_autostretch_3_00

07_13_53_0000_07_13_53_autostretch_-3_00

高々0.3Åのずれですが、中心波長画像と比べると見た目でかなり変わっていることがわかります。まず、中心波長の方が全体的に渦のような縞々が少ないように見えます。わたしはこれまでこの縞々がHα線で見る時の真骨頂かもしれないとずっと思っていたのですが、どうも本当の中心はもっとのっぺりしているのかもしれません。その代わりに、中心はちょうでは白いもやみたいなものが全体に見えます。これがなんなのか?ちょと興味があります。

他にも15pixel = 1.5Åだけ中心波長から離れた画像も保存されます。これだけズレるとほとんど白色光に近い画像になり、黒点がよく見えるようになります。
07_13_53_0000_07_13_53_autostretch_-15_00

どれだけずらすかは自分で設定することができます。先ほどのCustum processで数字で指定してある部分です。

cardフォルダの中には黒点番号、緯度経度と自転軸の傾きが書き込また画像が保存されています。太陽の自転軸は、地球の公転面に対して約7度傾いています。この画像にある自転軸は地球から見たときの見かけの自転軸です。地球は太陽の周りをまわっているので、太陽の自転軸の「地球から見たときの見かけの」傾き角は、季節によって変化します。
07_13_53_0000_07_13_53_card_0_00

このサイトで見かけの自転軸の傾き角を計算することができます。2025/6/17 22:13:53(UTC)だと-8.44度と計算されるので、画像に表示されている角度と同じですね。ちなみに、地球の自転軸の傾きもあるので、見かけの傾きは7度以上になることがあるので、今回の-8.44度は間違ってないです。

diskフォルダの中にあった、+/-3ピクセルずらした画像から、ドップラーシフト画像を生成することができます。dopplerフォルダの中に入っています。
07_13_53_0000_07_13_53_doppler

上記のような画像は任意のずれから画像を生成することもできるので、色々試してみると面白いでしょう。

実はドップラーシフト画像で気づいたのですが、最初に試した時に赤と青が反転してしまいました。本来は上の画像のように、左側が奥から手前に回転し、右側が手前から奥に回転するので、左は波長が縮んで青の短い側にに、右は波長が伸びて赤の長い側なるような色を付けるのが正しいです。なぜ色が反転したのか、探っていくとJSol'Exでserファイルを開いた時の「Process parameters」で色を入れ替えたり、上下や左右のフリップを指定できることがわかりました。
スクリーンショット 2025-06-24 205206
スクリーンショット 2025-06-24 145523

でも色を入れ替えるだけだとなぜか画像も左右反転してしまったので、左右フリップもオンにしてやっと正しいと思われる色と向きになりました。ちょっとややこしいので、一度自分で試すといいでしょう。画像の上下左右は、黒点が出ているならcardフォルダの緯度経度が書いてある画像に黒点番号も書き込まれているので、この番号の位置が黒点の位置とあっているかどうかも確かめることができます。

doppler-eclipseフォルダには、プロミネンス部分を強調してドップラーシフトでどちら向きに進んでいるかわかる画像も含まれています。
07_13_53_0000_07_13_53_doppler-eclipse

太陽表面及びプロミネンスのドップラーシフトはいつか求めてみたいとずっと思っていました。というか、このドップラーシフトを試したくて今回のSHG700に手を出したと言っても過言ではありません。以前Phoenixで波長をシフトさせて自転のドップラーシフトが見えないか考えたのですが、波長分解の敵にちょっと厳しいと判断しました。今回のような波長分解能のいい分光撮影で、やっと実現したことになります。でも0.3Åの波長シフトで十分見えるのなら、今考えるとPhoenixでも見える気がします。画像は残っているので、今度見直してみようと思います。

他にも、colorizedフォルダには自動的にカラー化された画像も保存されたりしています。
07_13_53_0000_07_13_53_colorized_0_00


さらなる画像生成

上の画像はほぼデフォルトで出力されるものの一部です。ほかにも紹介しきれないマイナーが画像もありますし、設定を変更できるのでさらにパラメーター違いの画像を各種出力できます。

でもそれでもここまでは「Simple」というモードに過ぎず、serファイル選択後に「Custom process」を押し、「Mode」で「ImageMath」を選ぶと、スクリプト形式でどんな出力にするかを指定して、画像を演算などすることで一連の画像を出力することもできます。

説明はここにありますが、さすがにこのページの説明の範囲を超えてくるので、興味がある方は各自で試してみてください。

マニュアルは簡易版がここ


詳しいものがここにあります。


他にも波長を変えた際の画像のアニメ化ができるみたいです。serファイルを処理終了後、右上画面の横タブの「Redshift」を選びます。
スクリーンショット 2025-06-24 213843

でも、一度試したのですがメモリ不足で止まってしまいました。そのうち、もう少し余裕のあるPCで試してみようと思います。ちなみに、serファイル処理後は上記のように画像が表示されていて、画像上のボタンやスライドなどでこの状態で設定を変えることができます。変えた設定は保存画像を変更するので、次の処理をするまではあらわに保存せずとも自動的に更新が保存されます。


画像以外の解析など

JSol'Exには.serファイルからの画像出力だけでなく、他にも便利な機能がいくつかあります。一つはフラウンフォーファー線のリファレンス機能です。これまでHαで撮影してますが、それでも一番最初はどの輝線がどの波長を表しているのか、画像からだけだと全くよくわかりません。それでもHα線はメジャーなので、他の人が撮影した画像と比較とかして特定できるかもしれませんが、他の画像、例えば太陽撮影で次にメジャーなCaK線は一気に比較画像を探すのが難しくなります。そんな時に「Spectrograph editor」を使うと、自分で撮影した画像と比較することができます。メニューの「Tools」->「Spectrograph editor」を選んで、出てきた画面で見たい輝線を選択します。自分で撮影した画像を並べて、画面内の+/-で幅を揃えて同じような模様を探します。今回自分のセットアップで撮影した場合、上下幅が18nmに相当することも、輝線を探すときの手がかりになりました。

ちなみに、画像をロードしてJSol'Ex内で比較することもできるようなのですが、まだ実験レベルの実装らしくていまだにやり方がわからず、私は下のように画面を横並べにして比較しています。
スクリーンショット 2025-06-18 151746

吸収線をグラフ化してリファレンスと比較する機能もあります。serファイルを処理終了後、右上画面の横タブの「Profile」を選びます。
スクリーンショット 2025-06-24 204301_cut


このグラフを見ると、1点がスキャン1回ぶんになっているようで、グラフから読み取ると0.118Å/pixelのようです。光学的な波長分解能は0.18Å/pixelと計算できているのですが、実効的にはどの程度かはもう少し考えて判断したいと思います。


さらなる情報

JSol'Exは相当高機能なソフトです。今回紹介した機能はわかりやすいものばかりで、まだ複雑な機能は私も全然使い切れていません。ImageMathの所でも紹介しましたが、マニュアルは詳しいものが用意されているので、とりあえずはそれを読むことかと思います。

簡易版


詳細版



このページにチュートリアルビデオがたくさんありますが、問題は言語で、英語のものがわずか3本、あとは全部フランス語です。私はフランス語はよくわからないので見るだけですが、それでもいくつかのファイルは参考になります。




まとめ

JSol'Exはすごい高機能ですね。とにかく、ドップラーシフトがこうも簡単に出てくるのは期待以上でした。元々は自分でソフトを書かなくてはと思っていたくらいなので、ちょっと拍子抜けしたくらいです。いつかみたジェットを、今度は分光撮影してみたいです。多分波長のシフトとなって出てくると思っています。

こういったソフトが出てくるのも、Sol‘Exで文化を切り開いてくれたおかげでしょう。今後もありがたく使わせていただきたいと思います。













前回記事で、やっと1枚分の画像を処理しました。


それでも、細かい部分は分光撮影特有のブレが生じてしまっています。今回はこれを改善します。

今回の紹介するスクリプトは、SHG700に特化しているわけではないので、Sol’Exユーザーにも有効な撮影方法になるかと思います。


分光特有のブレ

改めて拡大して細かいところを見てみます。

10_09_34_x4_20250617_disk_0_00_cut_prom

10_09_34_x4_20250617_disk_0_00_cut_spot

黒点部分も、プロミネンス部分も、潜在的な分解能はそこそこあるのに、縦縞のようなブレが起きてしまっていて実質的な分解能が落ちてしまっています。

このブレを理解する前に、分光撮影から太陽画像の再構築がどうやって行われているかのプロセスをきちんんと理解しておく必要があります。


どうやって太陽画像をつくるのか

まず、鏡筒から出てきた光が7μmという細いスリットを通り抜け、細長い形をした光が回折格子にあたります。回折格子では波長ごとに分光され、空間的に広がりを持ってカメラに向かっていきます。カメラのところでは、その分解された光がセンサーの縦方向に広がって記録されますが、ROIで縦方向を200ピクセルに制限して記録しているので、(分解能が約0.1Å/pixelと分かっているので) 合計で約20Å幅ぶんが記録されます。

一方、センサーの横手方向は、赤道儀のモーターでRA方向にスキャンすることで、太陽を縦方向にスライスしていった線が、横向きになって記録されていきます。この横に長い線は、センサー上の縦方向に波長ごとに広がって記録されるので、面積を持った像になります。この時の一本の線から得た面積を持った画像が1コマとなり、それを連続してスキャン撮影することで動画として記録しています。

同じ波長の線、ここではHα線を考えましょう、この線は一直線にはならずに今回の場合上に凸の曲線になります。

07_13_53_0000_07_13_53_average

暗い部分がHα線に相当し、赤い曲線はその中で最も暗い部分をフィッティングした線です。この曲線に沿った同波長の部分を1コマの画像から取り出し、直線に変換します。その直線が太陽全景を描くための一本の縦線となります。それら一本一本の線をプリンタのように書いていくことで、一枚の太陽の全景画像が出来上がるというわけです。


なぜブレるのか?

このように全景画像をどう再構築するかを理解しておくと、なぜ分光撮影の場合に細かいブレがしょうじてしまうのかが理解できます。直接の原因は、スキャンしている間に機材に揺れが起きてしまうことです。ある一本の線を撮影するときの揺れと、次の一本の線を撮影するときの揺れは、撮影する時間が違うために揺れの分だけずれてしまいます。

一般的な撮影でこのようなズレが起きないのは、画面全体を面積として一度に撮影しているからです。画面内では分光の時の線のような時間的、相対的なズレはなく、全体的な揺れが撮影時間で平均されたものになっているだけだからです。

改めて最初の拡大した画像を見てみます。特に太陽表面とプロミンセンスの境のところを見るとよくわかりますが、縦方向に細かい線のようになっているブレが目立ちます。一瞬スピキュールと思うかもしれませんが、スピキュールなら表面とプロミネンスの境界線に対してほぼ垂直に立つはずです。でもこれらの線は、境界線の上でも横でも下でも、たとえ太陽表面内の真ん中でも、全部縦方向のみに表れます。これは縦線を並べていく際に、縦線の縦位置がブレているものを並べたからだということがわかります。

スクリーンショット 2025-06-23 195202_cut

一本の縦線は一度に撮影するので、相対的なズレはないが、各縦線は別時間に撮影しているために、縦線同士ではどうしても相対的なブレが生じてしまっているということで、これは分光撮影では原理的に完全に取り去ることは難しいでしょう。

また、一本一本の線が完全にバラバラにブレているというわけではなく、何本かまとまってゆらゆら揺れているのがわかります。この揺れのエンベロープをたどっていくと、機材が時間的にどのように揺れていったのかがわかります。この揺れは情報として残っているので、それを補正するように線を置いて行けば、一枚画像でももっとブレの少ない画像になるはずですが、探した限りではそのような補正をしているソフトは見つかりませんでした。(2025/7/4 追記: JSol'ExのImage Enhancedに「Jagged edges correction」という似たような試みがありました。でも実験レベルとのことで、試してみましたが、プロミネンスを段差と認識してしまったり、確かに実用レベルにはなかなかならないようです。)このような試みも、次に書く改善方法の一つだと思います。


改善方法

これらのブレを改善するためには、まず直接的には揺れを抑えることです。この機材の揺れはどこが大きいかというと、やはりネックとなっている鏡筒とSHG700の接続部が弱いので、鏡筒に対してSHG700本体が大きく揺れていると考えていいでしょう。もちろん赤道儀や鏡筒部分も揺れてはいますが、特に風邪などが吹いた場合にはSHG700自身がどうしても一番揺れてしまうのかと思います。実際、分光撮影では風が一番効くという記述が多くあります。シーイングがいい日を選ぶのも大事ですが、分光撮影ではまずは風の静かな時を選んだ方がいいというのは理にかなっている気がします。

もう一つの改善策は、惑星撮影での画像処理のように、多数の枚数を撮影して、画像を歪ませて位置合わせをしてスタックすることです。通常の太陽撮影でもスタック処理はしますよね。太陽でも私の場合、最近は200フレーム、必要なら500フレームとか1000フレームとかをスタックします。

今回はこの多数枚スタックを試してみたいと思います。

ただし、分光撮影では1枚の画像を作るのも結構な手間なので、そこまで枚数を増やすことはできません。いかに手間をかけずに多数枚撮影するかが鍵となります。


SharpCapで自動連続スキャン

ここまでが前振りで、やっと今回書きたいことに辿り着きました。多数枚のスキャンをどうやって楽にやるかです。ここでは、SharpCapのスクリプト機能を使います。

まずはこのページで紹介されているスクリプトをダウンロードします。SharpCapで連続スキャンを実現するスクリプトです。上の方にあるオリジナルは中国語ですが、英訳されたバージョンが下にスクロールすると見つかります。落としたZIPファイルを適当なフォルダに展開します。

SharpCapを立ち上げ、メニューの「ファイル」->「SharpCapの設定」から「起動スクリプト」タブを選択します。「追加」ボタンを押し、上記スクリプト(SHG_SharpCap-Script-202XXXXX.py) をSharpCap起動時に読み込むように設定します。SharpCapを再起動すると、アイコン群の中の右のほうに「SHG」と書かれたボタンができるはずなので、それを押すと次のような画面が出てくるはずです。

スクリーンショット 2025-06-22 111159

設定はある程度見ればわかると思いますが、
  • 「Target」はとりあえずSun-Hαを選びます。
  • 「Slew Rate」の値は赤道儀によりますが、4とか8とか16になるかと思います。この値は先に一度マニュアルで撮影した値と同じでいいはずですが、私の場合その時の8だとなぜが遅くなったので、最終的には結局16としました。
  • 「Duration of each Video Record(sec)」は何秒間撮影し続けるかです。上のSlew Rateにも依存します。一度マニュアルで太陽の端から端までスキャンして、時間を測るといいと思います。それより多少長めに設定します。私の場合、太陽が通る時間は15秒くらいですが、ここでは30秒と指定しています。なかなかぴったりとは収まらないので、ある程度余裕がないと、像が途中で切れてしまいます。
  • 「Delay before Record(sec)」は録画前に何秒待つかですが、決めにくいパラメータの一つです。私はとりあえずデフォルトの3秒にしておきました。
  • 「Fine tuning(sec)」はモーターが加速しはじめてから一定のスピードになるまでの時間のようなのですが、あまりよくわかりません。説明には1とか1.2がいいと書いてあります。とりあえず1.0で試しました。
  • 「Scanning Count」は何往復するかの繰り返し回数です。
  • 「Scan Axis」はSHG700の場合はRAになるかと思います。
  • 「Record Direction」はどちらの方向に動く時に撮影するかです。最初は「Foward only」でやってましたが、途中から時間がもったいないので「Forward & Backward」にしました。ただしForward & Backwardは1往復で2回撮影するので、Scanning Countを10とかにすると20本動画ファイルができます。またプラス方向とマイナス方向でそれぞれ.serファイルを処理する必要があるので、2度手間になったりします。結局私はForward & BackwardでScanning Countを5とかにし、プラスとマイナス2回処理するのをデフォルトにしました。
  • それ以降の2つの「per Round」と「--> ROI...」と「--> Click...」はよくわかりません。説明にもないもので、後から追加で付けたみたいです。全部0にしています。
ちなみに、これらの設定は、解凍したスクリプトと同じフォルダにある、SHG_SharpCap-Script-202XXXXX.profile.iniを編集することで、プロファイル名と設定内容を保存でき、再度SHGスクリプトを起動したときにプロファイル名を指定することで呼び出すことができます。例えば上の設定なら、

[76/600APO_SHG700_Touptek678m_r80-916fps]
TargetName = Sun-Hα
MoveRate = 8
RecSeconds = 30
DelayBeforeRec = 3
AdjustSec = 1.0
Count = 10
ScanAxis = RA
RecDirection = 1
ForceGotoSun = 0

のようになります。最初の行のプロファイル名は任意なので適当です。


撮影

ここまでの設定がOKなら、撮影テストと、本番の連続撮影になります。
  1. まず、RAモーターを動かして、太陽の丁度真ん中くらいの位置に来るようにします。とりあえず繰り返し回数は1にして「Start batch Scan Record」ボタンを押してみてください。
  2. ピッと音がして、バック方向(East)に動き出します。
  3. 太陽の端を通り過ぎてしばらくしたところで止まって、今度はフォワード方向(West)に動き出します。
  4. 録画開始とか出るので、その時点でまだ太陽が見えていないこと、ちょっとしてから太陽が見え始めること、太陽がもう一方の端に到着すること、その後に録画終了とメッセージが出ることを確認します。
  5. しばらく(10秒くらい)すると最初にあった位置に戻るので、それまで何も触らないほうがいいです。
  6. 撮影した.serファイルを改めて確認します。もしここで、録画内に太陽が全然収まりきらないなら、Duration of each Video Record(sec)を長くします。もしくは最初か最後の片側だけ切れているなら、最初が切れている場合はバックのEast方向に少しずらし、最後が切れている場合はEast方向に少しずらし、撮影初期位置を調整します。
  7. 再び「Start batch Scan Record」を押して、きちんと太陽が全て録画時間内に収まるまで、録画時間もしくは撮影初期位置の調整を繰り返します。
  8. 無事に録画時間内に太陽が入るなら、「Scanning Count」を例えば10に増やし、Start batch Scan Recordを押して、10往復するのを待ちます。
  9. 全てが終わると、元の位置に戻るはずです。この元の位置への再現性はそこそこ正確なので、もし戻る位置が違うなどがある場合は、何かハード的にトラブルが起こっている可能性が高いです。
2025/6/27 追記: 特に赤道儀の極軸がずれていると、何度か撮影している間に徐々にずれてしまう可能性があります。昼間なのでそもそも極軸を合わせるのが難しいこと、赤道儀のモーターを回しながらの撮影なので原理的にオートガイドはできないことなど、太陽の位置がずれていく可能性は十分にあります。回数にもよりますが、連続撮影は10分程度はかかるので、その間太陽が画面内に保たれるような曲軸合わせの精度が必要になります。


連続撮影ファイルの画像処理

保存された.serファイルが問題ないなら、次はJSol'Exで複数のファイルを一度に処理しましょう。JSol'Exのメニューの「File」->「Open SER file」から撮影したserファイルを開いて、出てきた画面の下の真ん中の「Quick mode」ボタンを押してください。

ここではメニューの「File」->「Batch mode」から撮影した複数の.serファイルをまとめて開きます。出てきた画面のいくつかの横バーの一番下の「Miscellaeous」を開いて、「File naming pattern」を「Batch」にしておくといいでしょう。ここからは前回と同じ簡易処理で、真ん中の「Quick mode」ボタンを押します。しばらく待つと同じ種類の画像ファイルがまとめて一つのフォルダに保存されます。

あとはこれらをスタックします。JSol'Exにもスタック機能はありますが、使ってみた限りあまり精度がよくないようなので、ここは普段のようにAutoStakkert!4を使います。AutoStakkert!4を立ち上げ、ファイルを開くときに「Images」を選択し、先ほどできた画像ファイルを全て選択し処理します。今回はdiskフォルダ以下に入っていたストレッチと化していないRAWに近いような13枚の像をスタックしました。

出来上がった画像を下に示します。どうでしょうか?
IP_crop_lapl2_ap23267

比較のための拡大図です。この記事の最初に載せた画像と同じ画角です。
IP_crop_lapl2_ap23267_cut_prom

IP_crop_lapl2_ap23267_cut_sot

明らかに細かいブレが軽減されているのがわかります。これ以上は枚数を増やすか、風やシーイングが穏やかな日を選ぶとかになるかと思います。


画像処理

ここからの処理は普通の太陽画像と同じです。まだRAWファイルをスタックしたような状態なので、画像処理で細部を出すことができます。

ImPPGを使ったり、SolarToolboxを使ったりすればいいでしょう。今回はImPPGで細部出しとプロミネンス強調までして、さらにPixInsightでSolar Toolboxは使わずに細部出しをしてみました。

最終的にはこのようになりました。まずはモノクロです。
IP_crop_lapl2_ap23267_IP_2

解像度もかなり出ていて、プロミネンスの淡いところも出ています。縦方向のブレは完全には消せませんでしたが、そこそこ見えるくらいにはなっているかと思います。

次にモノクロの反転です。
IP_crop_lapl2_ap23267_IP_inv

更にカラー版と、その反転です。
IP_crop_lapl2_ap23267_IP_color

IP_crop_lapl2_ap23267_IP_inv_col


まとめ

これでやっと満足できるレベルの太陽全景画像になりました。普通の撮影と違い、多少手間もかかりますが、0.18Åという波長分可能と、全景でここまで空間分解能がでるなら、これだけの手間をかける価値も十分にあるというものです。

次回はJSol'Exの使い方です。これも面白いですよ。いろんな種類の画像が出てきます。












前回の記事で、SHG700の開封と事前準備などについて書きました。


今回はSHG700本体を鏡筒に取り付けて、実際に撮影した様子を記事にしていこうと思います。

一番確実なのはMLastroのチュートリアルビデオを見ることでしょう。

このビデオの主に後半が今回の記事の範囲になります。ただ、英語なのと、私はあまり動画は好きではないので、自分のやったことも含めてまとめておこうと思います。


鏡筒

まず鏡筒ですが、今回は手持ちのタカハシのFC-76を選びました。このブログの昔の記事を読んだことがある方は覚えているかもしれませんが、名古屋にスターベースがまだある頃に、ジャンクで格安で購入した白濁レンズものです。

IMG_7127_cut

鏡筒カバーが分厚い金属製で、まだ鋳造メーカーの名残が残る逸品です。惜しむらくは、レンズのコーティングがまだ未熟な時代のもので、時間と共に必ず白濁してしまうようです。これはのちのマルチコーティングになって解決されていますが、実際は多少の白濁なら望遠鏡をのぞいて見る限りは、全く気になりませんでした。眼視で月など非常に明るいものを見ると、もしかしたら気づくかもというくらいです。カメラで撮影している分には全く問題なかったので、まあ多分今回も大丈夫でしょう。

IMG_7068

鏡筒選びのポイントです。狭い範囲の分光撮影の場合は、ある意味単波長撮影のようなものなので、3枚玉とか4枚玉とかのそこまでハイスペックな光学系は必要ないこと。それともう一つ、こちらの方が重要ですが、接眼部がしっかりしていることです。さすが鋳造を自分のところでやっているだけあって、FC-76の接眼部はかなり強固で、今回のかなりモーメントの大きくなる長もの機器を付けるのにはもってこいです。

加えて、焦点距離が600mmと、SHG700の限界の700mmに近いので性能を十分発揮できるはずです。口径が8cm近くと、PSTやPhoenixなどの4cmよりは倍くらい大きいのも効いてくるはずです。


鏡筒への取り付けとピント出し

まず、鏡筒を赤道儀に取り付けます。この時点ではSHG700はまだ外しておいた方がいいでしょう。導入の際は下の写真のような太陽用のファインダーを使うと楽でしょう。
IMG_1478

撮影時には赤経(RA)か赤緯(DEC)のモーター(どちらのモーターにするかは結局スリットが取り付けられている向きで全てが決まるみたいです。今回の場合は結局赤経モーターになりました。)をスイープさせるので、モーターが一定速度で動く必要があります。そのため、ある程度精度のいい赤道儀がいいかと思われます。私は普段使っているCelestronのCGEM IIにしました。

SHG700を鏡筒に取り付ける前に、一度太陽を導入します。追尾を太陽モードにするのを忘れないで下さい。導入後、接眼部から太陽の明るい光が出ていることを、手などに光を当てて確かめてみてください。熱いので火傷しないようにパッと手をかざすくらいでしょうか。心配なら金属の板などをあてて確かめるといいでしょう。SHG700では、鏡筒接合部の手前についているスリット位置に鏡筒の焦点を合わせる必要があります。あらかじめその位置を確認しておいて、フォーカサの調整範囲内で焦点がスリット位置に持って来れるかどうか、試しておくといいでしょう。

MLastroのページによると、SHG700の前方についているスリットの器材は合成石英でできていて、熱膨張に強いため、口径102mmの鏡筒で集光させて使っていても問題なかったと書いてあります。あまり大きな口径の鏡筒を使うとスリットがダメージを受けることがあるので、注意が必要です。今回は口径76mmなので、スリットを壊すような問題はないでしょう。

いよいよ鏡筒にSHG700を取り付けます。SHG700の取り付け角度はとても重要です。赤道儀の赤緯体が回転する平面にできるだけ平行に取り付けます。あとで撮影して、どれくらいズレているか出て、その量を補正するのですが、とりあえずここの段階である程度正確に取り付けておくに越したことはないでしょう。

IMG_1465

IMG_1476

同時にPCと繋いだカメラの画像をSharpCapで見ます。まだ太陽から視野からがずれていると、背景光が見えます。背景光は暗いですが、事前にフラウンフォーファー線を見たように、露光時間とゲインを上げてやれば見えるはずです。線は水平になっているか(左右の高さが揃っているか)?、ピントが合っているか、今一度確認するといいかもしれません。左右の高さが合っていなければカメラの回転角を調整します。ピントが合っていなければ、カメラレンズ側のマイクロメーターを調整します。

その後、鏡筒の向きを赤道儀で調整して、カメラ視野の中に太陽を入れると、かなり明るい、おそらく飽和した画面になるので、露光時間とゲインを下げます。私の場合は1msでゲインが最低の100(1倍、ZWOで0相当、0dB)で丁度いい明るさになりました。

事前準備の段階、もしくは背景光で、カメラ側のピントをSHG700内部のカメラレンズ位置をマイクロメーターで調整することで合わせてあるので、ここではもうカメラやマイクロメーターに触る必要はありません。また、初期状態ではSHG700内部の手前側のコリメーターレンズの位置は出荷時に調整してあるとのことなので、コリメーター側のマイクロレンズも最初は触らないほうがいいでしょう。また、回折格子の回転角は出荷時ではHαに合わせてくれているようです。最初は一番見やすいHαから試すのが無難なので、回折格子のマイクロメーターも触らないでおくことにします。

太陽が導入された状態で適当に露光時間をゲインを合わせると、横線のフラウンフォーファー線がたくさん見えてくるはずです。もし見えない場合は鏡筒のフォーカサーを調整します。繰り返しになりますが、この時点でカメラの位置やカメラ側レンズのマイクロメーターは触らないことです。ピントが合ってくると線がはっきりしてきますが、ここからはかなりの微調整が必要です。コツはチュートリアルビデオにもありますが、SharpCapのヒストグラムの真ん中の線を右側に持っていってコントラストを上げて、フォーカサーを微調整して見えてくる「縦のたくさん動く線」が最も濃くなるようにすることです。これは太陽表面の模様が見えているのですが、縦全体に見えるということは、Hα線のところだけでなく、模様が広い波長域に渡って広がっているということを意味します。ビデオでも言っていたように、粒状斑が見えていると思って良さそうです。

スクリーンショット 2025-06-17 100723_cut2

最後に重要な確認です。画面上はROIで制限されて表示されていると思いますが、それを300%くらいに拡大表示して、画面を右と左にスクロールさせて、太陽の端の部分見て見ます。太陽と背景が以下の写真のように、十分シャープになっていることを確認してください。

スクリーンショット 2025-06-18 153850_CaK_forcus_cut

初期設定ではきちんとシャープに映るようになっているはずですが、万が一輸送などの振動で、特にコリメーターレンズの位置がズレたりすると、ここがシャープにならずにボケボケになります。その場合は、コリメーターレンズをいじる必要があります。少なくとも私の場合はいじらなくて大丈夫なレベルでしたが、いずれ波長域をHαから変えた時にはいじる必要が出てきます。詳しい調整方法はその時に説明します。


SharpCapの設定

ここまでで、ハード的な準備はほぼ整いました。必要ならばSharpCapと赤道儀を接続しておきましょう。撮影時モーターでスイープさせる時に、ハンドコントローラーで操作してもいいのですが、いずれ自動でスイープできるようにするので、PCから操作できたほうがいでしょう。

SharpCapの設定を見直します。
スクリーンショット 2025-06-17 100657_cut
  • 重要なのはROIです。横幅はカメラの最大幅で、G3M678Mの場合は3840ピクセル、縦幅は200ピクセル程度でいいでしょうか。私の場合、ファイル量節約のため最終的には縦幅100ピクセルまでしましたが、慣れないうちは200ピクセルくらいあったほうがいいでしょう。
  • Hα線が真ん中に入っていることを確認します。上下にずれている場合は、ROI設定画面の「ティルト」を調整して、Hαの上に凸の曲線の全てが画面の中に入るようにします。使うのはHα線の周りのせいぜい数ピクセルなので、基本的に暗い線の中心が全部画面内に入っていれば大丈夫でしょう
  • 露光時間が1ms程度十分速いこと、ゲインが高すぎないこと。
  • モーターの速度を4倍とか8倍適した速度する。速過ぎると中心線を分離よく撮影することができません。遅過ぎるとファイルサイズが大きくなります。
  • 階調がRAW16になっているか、フォーマットがserになっているか確認。
  • FPSが100以上十分速いこと、ドロップが原則0であることを、画面下部に出ている数値で確認します。私の場合、上記ROIだと220fpsくらい出ます。必要ならUSB転送速度を最速や、高速モードオン、フレームレートを最大など、fspを制限しないように設定します。
  • 最後に、一度テストでモータを回して太陽をスキャンして、一番明るいところでも飽和しないか確認。
などでしょうか。ちなみに緑字のところは、使っている機材のパラメータなどから必要な値を正確に計算することができます。でもややこしくなるので、詳しくは後日別記事で解説します。


いよいよ撮影

準備ができたら、いよいよ撮影開始です。一旦太陽の端を越えるところまでWかEの赤経のモーターで持っていきます。フレーム数や時間が無制限で、ストップするまで録画される設定になっていることを確認してから録画開始ボタンを押し、モーターをさっき進めたのと反対側に回します。太陽がもう一方の端までスキャンできたら録画を停止します。これで終わりです。

一応撮影された.serファイルを、SerPlayerなどで確かめるといいでしょう。きちんと太陽の端から端まで撮影できていますでしょうか?


太陽像を再構築

撮影したファイルから太陽の全景像を再構築するためには、何らかの変換ソフトを使った方が楽でしょう。ここではMLastroでオススメされていた「JSol'Ex」を使いたいと思います。かなり高機能なソフトで、この解説だけで一記事使ってしまうほどなので、詳しいことは後日別途記事にしようかと思います。

ここではメニューの「File」->「Open SER file」から撮影したserファイルを開いて、出てきた画面の下の真ん中の「Quick mode」ボタンを押してください。しばらく待つと、serファイルがあったところの下にフォルダができていて、そこを探っていくと「processed」というフォルダの中に太陽全景の画像が2枚入っていると思います。1枚はストレッチなし、もう1枚はオーとストレッチしたものです。

今回、ホントのホントに最初の撮影でできた画像が以下になります。ストレッチしていない方なので、撮って出しと言ってしまっていいでしょう。右に見える筋は雲でしょうか。また、細かいところ、特にプロミネンス周りを見ると、分光撮影特有のギザギザが見えます。
10_06_08_20250617_disk_0_00

それにしても、初っぱなからかなりの解像度で撮影されています。

実際に雲などなく、うまく撮れたのは3ショット目で、オーとストレッチしたものですが、以下になります。
10_09_34_x4_20250617_autostretch_0_00

とりあえずここまで出たなら、十分満足でしょう。細かいギザギザを取るためには、複数枚とってスタックするのがいいらしいのですが、それはまた次回以降に試すとします。

その前に、一つ重要なことを。チュートリアルビデオにも指摘があるのですが、JSol'Exでserファイルを解析するときに、何度傾いて撮影されたかが角度で表示されます。下の画面のログの中にある「Tilt angle:」というところです。

スクリーンショット 2025-06-20 201321


私は最初-3.88度でした。これは、赤道儀のモータを動かした時の動きに対して、SHG700が平行からどれだけずれて取り付けられているかを表しています。鏡筒のアイピース固定ネジなどを緩めて、SHG700本体をしてされた角度だけ、まあ目分量になりますが、ずらします。方向はわからないので、とりあえずどちらかにずらしてみてください。私は2回目はズレが-6度になりました。3回目は回転方向を変えて0.1度とかになりました。ズレが+/-1度以下がいいとのことです。その後必要なら、今一度鏡筒のフォーカサーでピントを合わせます。


まとめ

初めての分光撮影ですが、とりあえず太陽の再構築までうまくいったようです。分解能もかなりのもので、今後が期待できます。

やはり最初から組まれているSHG700を買って正解だったかもしれません。3Dプリンタを持っていないのですが、たとえ持っていたとしてもSol'Exを自分で印刷してから撮影するまでの敷居よりははるかに低いはずです。完成品でも普通の天体撮影と違いかなり苦労するので、自分で印刷して撮影までたどり着いた方たちには敬意を表します。

長くなったので、今回はここまでにしたいと思います。次は何について書きましょうか?実作業はかなり終えていて、分光撮影でやりたかったことの半分くらいはすでに済んでいます。その一方、記事書きの方が全く追いついていません。JSol'Exの使い方にするか?多数枚スタック撮影の方法にするか?、まあ書きあがった記事からアップしていくことにします。

明日の土曜日も晴れるとのことなので、もう少し凝った撮影に入っていきたいと思います。書くべき記事は更にたまっていきますが...。













久しぶりに新機材を手に入れました。太陽を見るためのものですが、鏡筒とかではなく接眼側にくっつける分光器です。かなり楽しそうなので、今回からしばらく太陽分光の記事が続くことになると思います。


太陽の分光

6月10日、自宅に帰ったら待ちに待った太陽分光撮影のためのMLastroSHG700が到着していました。


4月初頭に発注してから、約2ヶ月待ちました。値段は880USDで、日本円にすると税など合わせてほぼ14万円でした。オプションなど何も無しです。これを高いと見るか安いと見るかですが、ほぼPhoenixと同じ価格帯です。Phoenixは太陽望遠鏡の中ではエタロンの性能は抜群ですが、口径的には入門機の部類でかなり安価な方と言えるので、同価格帯のSHG700も決して高くはないのかもしれません。でもこれまで私が太陽関連でかけてきた金額(C8: 3万、PST1台目: 3万、PST2台目: 3万、ASI290MM: 4万、G3M678M: 3万)から見ると、単体で10万越えで、しかもこれまでのメイン太陽機材全部と同等の価格で、私的にはかなり高価な部類になります。実際Phoenixも欲しかったのですが、10万越えを一度に二つも買ったら大ゲンカで家庭崩壊が目に見えているので、散々迷って、今回はより多くのことができそうなSHG700にしました。
IMG_1454

機種名にもなっているSHGですが、これはspectroheliographから来ていて、現在ではおそらく一般用語と言っていいでしょう。spectroが分光、helioがラテン語で太陽なので、分光太陽写真とか太陽分光写真とか訳されているようです。Wikipediaによると

It was developed independently by George Ellery Hale and Henri-Alexandre Deslandres in the 1890s.

とあります。さらに日本語でもう少し詳しい文書がここにあり、これによるとアイデアとしては1868頃に考え出され、1890年頃に発展したということです。アイデアから150年以上経った現在、アマチュア天文家が市販品レベルで普通に、しかもはるかに精度良く試せるようになっているというわけです。素晴らしい時代ですね。


Sol'Exについて

アマチュア用の太陽分光で近年の大きな出来事といえば、Shelyak INSTRUMENTSのSol’Exでしょう。


3Dプリンタで各ユーザーが印刷することを前提に図面を提供し、光学部品をまとめて販売してくれています。

日本で話題になったのは2022年の夏くらいでしょうか?プロジェクトとしてはAstrosurfに2021年の資料があるのは確認できましたが、おそらくそれ以前から議論されていたのかと思います。見つけた中で一番古い関連ページはここで2020年12月でした。

Sol'Exについては、海外記事にはたくさん解説があります。わかりやすいのはやはりAstrosurfのページでしょうか。特にここのTheoryとかResoursesのところは読んでおいて損はないです。日本語だとKanzakiさんのページが詳しいです。星仲間だと木人さんが2022年から始められていて、確か福島の星まつりで講演されていたはずです。

いずれにせよ、アマチュア天文において、誰でも市販レベルで太陽分光撮影を試せるようにしたSol’Exが、大きな潮流を産んだことは間違いないでしょう。特にソフト関連は、Sol'Exコミュニティーで発達した「JSol'Ex」というものを今回のSHG700でも使うようです。

Sol'Ex自身も開発を続けていて、その後Sol'Ex Proというのが出ていたり(これは本体印刷済みのものを売っているということなのでしょうか?フランス語なのでわからなかったです)、スリットをGEN2として7μmのものを提供するなど、バージョンアップしているようです。


なぜSHG700?

少し時を戻します。CP+でPhoenixに触れて太陽熱が再開してから、海外も含めて太陽関連を調べていると、太陽全景のものすごい画像がいくつもアップされていました。

そこで何度か見たSHG700の名前。なんだろうと調べていくと、どうやらエタロンではなく分光で撮影しているらしいのです。分光撮影はSol'Exの印象が強かったので、空間的な分解能はそこまで出ないのではという印象がありました。SHG700で撮影したという画像は、分解能不足を払拭させてくれる印象で、かなりの高解像度の画像がユーザーレベルの報告みたいな形でいくつも出ています。しかも少し調べていくと、今までエタロンの制限で出来なくて悩んでいたことが相当解決できそうです。例えば、Hαの波長幅がエタロンよりも遥かに小さく、太陽の自転の左右の速度差から出るドップラーシフトとかも見えるそうです。Phoenixで自転のドップラーシフトが見えないか、以前計算したことがあるのですが、Phoenixの0.5Å以下という鋭い半値幅でもまだ一桁くらい足りないようで、全然諦めていました。

今回のSHG700ではMLastroのページによると、0.06-0.1Åが楽に出るそうです。(その後きちんと見積もると、手持ちの機材では0.18オングストローム程度になるようです。でもそれでも十分すごいです。)一般的な太陽望遠鏡についているエタロンから考えたら、相当いい波長分解能です。市販の太陽望遠鏡で、シングルエタロンとしてはかなり性能のいい部類の0.5ÅのPhoenixから見ても十分細かいです。しかもそれが決められた波長だけではなく、300nm後半から900nmを切るくらいまで広い範囲にわたって同じ分解能で見えるとのことです。CaK線などの特殊機材を持っていなければ見えなかった波長も当然見えるので、とても楽しみです。

その一方、空間分解能はそこまでいかなくて、アップされている画像を見ているとSHG700を口径8cmクラスで焦点距離600−700mmの鏡筒に取り付けて使ったとしても、Phoenixの口径4cm、焦点距離400mmと同じくらいか、少し勝てるくらいでしょうか。しかも、1枚の画像を出すのにかなり手間はかかりそうなので、達成できる空間分解のうが同じくらいだとすると、波長での有利さのSHG700をとるか、簡単さのPhoenixを取るかと言ったところでしょうか。SHG700はPhoenixと同様に、基本的には太陽全景を見るためのもののようで、いつもC8+PSTでやっているような、長焦点鏡筒を使って細部を見るという目的には適していないようです。

SHG700は、初代普及器とも言えるSol'Exよりはかなり精度が上がっていて、普及2世代目といっていいような仕様になっています。例えば、可動部の調整機構にマイクロメーターを3箇所取り付けています。その精度がどれくらい効くのかはこれから確かめていこうと思いますが、必要な所に必要な精度を持ってきたということなのかと思います。また、マイクロメーターは精度もそうですが、位置の再現性もあるので、バックラッシュなどもあるかと思いますが、再現性の高い撮影ができそうです。

もう一つの特徴はスリットでしょう。Sol'Exのスリットは元々幅10μm、長さ6mmから始まって、現在はGEN2と呼んでいる幅7 μmと10μmの2ポジション、長さ6mmが標準となっているようです。スリット幅は狭いほど空間分解能が増し、スリット長が長いほど長焦点の鏡筒を使うことができます。口径にもよりますが、基本的には長焦点の鏡筒の方が空間分解能が増します。SHG700では最初から幅7μm、長さ7mmが標準で、長さ10mmのものも検討されているようです。また、SHG700では合成石英タイプのスリットを利用しているために、熱膨張しにくく、より集光した光を当てても歪んだり壊れたりしないということです。このことは鏡筒の口径や焦点距離を大きくすることに一役勝っているようです。Sol'Exのスリットの素材も改良されてきているようですが、あくまで膨張係数の小さいガラスという表現にとどまっているようです。

一方、内蔵されている2つのコリメーターレンズとカメラレンズはSHG700のものは共に焦点距離72mmで、Sol'Ex標準のコリメーターレンズの125mm、カメラレンズの80mmと比べると、特にコリメーター側はかなり短いので、波長分解能的に多少不利になるようです。ただし、使用鏡筒の口径にも依存するので、一概にどちらが有利かは単純には言えず、鏡筒とカメラも含めた全体設計として各パラメータを考える必要があります。

最新のSol'Exで撮影した画像はかなり細かいものもアップされていて、個人的な感想としてはトータルではSHG700の方が少し勝るくらいの印象でしょうか。最高画質だけで比べたら、かなり拮抗していると思います。ただ、Sol'Exを使っている人に話を聞くと、やはり「難しい」と。何が難しいかというと、調整があまりうまくできないことと、頑張って調整してももなかなか解像しないところみたいです。それでだんだんやる気がなくなってしまうようです。SHG700でマイクロメーターを使う利点は、精度そのものよりも、むしろ調整の簡単さを狙ったものなのかもしれません。その結果として、高解像度の画像が安定してアップされているような印象です。


開封

今回の注文ではオプションなど何もつけなかったので、下の写真のようにパッケージは至ってシンプルです。これに検査成績書が1枚入っていただけです。

IMG_1452
  • 太陽だけに使うのではなく、星を分光するためのオプション部品もありましたが、今回は見送りました。でもこちらも楽しそうなので、欲しくなったら注文するかもしれません。
  • カメラを差し込むためのアイピース口へと変換するアダプターが、発注時のオプションでありますが、一緒に注文しておいてもいいかもしれません。私は手持ちがあったので、注文しませんでした。
  • 同様に鏡筒への取り付けとして、2インチアダプター口へ差し込むためのノーズアダプターがオプションであります。今回は1.25インチで接続するために手持ちのノーズアダプターを使いましたが、2インチの方が接続が強固になりそうなので、買っておいた方がいいかもしれません。その場合当然ですが、鏡筒の方が2インチアイピースに対応している必要があります。
  • 他にも、MLastroのオススメのカメラとしてG3M678Mがオプションにありますが、AliExpressで探すとそちらの方が安かったのと到着も早そうなので、今回は一緒に頼むのはやめました。

送られてきた時、箱の長手方向の角の一辺が少し凹んでいましたが、中身には何の問題もありませんでした。初期の頃はネジが緩んでいるというクレームがあったようですが、今は改善されているそうで、少なくとも到着した本体にそのような緩みはありませんでした。

製作はベトナムでしているらしくて、ハノイからの出荷となっていました。香港を経由して大阪で輸入手続き、その後富山の自宅までという経路だったようです。出荷の連絡はMLastroから直接メールでトラックナンバー付きでくるので、その時その時にどこにあるのかがわかります。楽しみで何度も見ていたら、途中アクセス制限されてしまいました(笑)。ハノイ出荷から自宅到着までちょうど一週間でした。
  • 重さはMLastroによると1.2kgとのことです。筐体はアルミニウム製。金属なので強度的には十分で、アルミなのでそこまで重くもなく、鏡筒に取り付けてもそこまで撓むことはなさそうです。
  • 外観で目立つのは3つのマイクロメーターでしょう。鏡筒側と、回折格子の回転はとりあえず触らなくていいそうなので、そのままにしておきます。後述しますが、カメラ側はピントを出すためにすぐに結構な量を触る必要がありました。

組み立て

基本的に本体は出来上がった状態で、しかも調整された状態で到着するので、組み立てといっても大したことはなにもないです。とりあえず必要なアダプターなどをいくつかつけていきます。
  1. 鏡筒側にはT2(M42-P0.75)の雌ネジが切ってあって、しっかりたとした金属の蓋がねじ込み式でついています。この蓋を回して外して、代わりにCMOSカメラに付属していたT2(M42)-1.25インチのノーズアダプターを取り付けます。重要部品のスリットが付いている側なので、埃などが入らないように、普段は別途キャップをしておきます。
  2. カメラ側にもT2の雄ネジが切ってあって、こちらも金属の蓋が付いています。蓋を回して外して、手持ちの1.25インチアダプターに変換するアダプターをつけます。このアダプターはたまたまアイピース側に別途T2の雄ネジが外周に切ってあったので、カメラを取り付けない時には、付属の金属蓋をそのまま取り付けることができます。
  3. 本体底面部にはアルカスイス互換のプレートを取り付けました。これは最初に鏡筒なしで調整するためにカメラ三脚に簡単に取り付けるためです。ただし、本体側のネジ穴がかなり浅くてこの手のアダプターについている、手で締められるタイプの1/4インチネジだと微妙に長くて奥まで入っていきませんでした。仕方ないので、ネジを一旦プレートから外して、間にM6のワッシャーをかましました。

IMG_1459


ピント合わせ

初期調整のために、本体をカメラ三脚に取り付け、太陽光を取り入れます。この時点ではまだ鏡筒をつなぐ必要はなく、しかも晴れていなくてもかまいません。実際、雨の日に部屋の中で、鏡筒取り付け口を窓の外に向けて試しました。

IMG_1455

カメラはわざわざこのために新調した、MLastroオススメののG3M678Mです。手持ちのカメラでも使えないか色々考えましたが、多分これが性能的にも値段的にも一番有利です。AliExpressで探すと、安いものが見つかります。SHG700発注と同じくらいの時に別途発注して先に到着していたので、これまでのブログ記事にもあるように、すでに太陽撮影で使ってきました。

このカメラを使う利点は、ピクセルサイズが2μmとかなり小さい方なので、高分解能で撮影できることです。分光撮影ではセンサーの長手方向を利用して使うことになりますが、スリット長の7mmに丁度長さの横手方向になっているはずです。

カメラを最初に取り付けて調整するときに、カメラのピントが意外に出にくい場合があるので注意です。わたしはアイピース口に変換するアダプターに、手持ちのものを使いましたが、おそらくMLastroが想定しているアダプターよりも若干長いものなのかと思います。そのため、カメラを一番奥まで突っ込んでも、初期マイクロメーター位置の5mmの所ではピントが全然出ませんでした。もっとカメラを押し込む方向でピントが合うようです。でもピントがずれていると、線も何も見えないので手がかりが全くありません。マイクロメータを触ればいいのですが、チュートリアルには「初期位置からあまり触るな」と言っているので、ちょっとビビってました。結局、マイクロメーターで10回転、約5mmくらい伸ばして、10mmくらいの位置でやっとピントが出ました。マイクロメーターで5mmは結構な量に感じるので、最初は勇気が必要でした。でもその後、別のチュートリアルビデオを見ていたら、マイクロメーターで10mmくらいの位置でピントが出るはずだとか言っています。最初からそれくらいの位置に合わせておいてくれたらと思いました。


ファーストライトとフラウンフォーファー線

さて、ここでファーストライトになりますでしょうか。

ピントが合うと、SharpCapの画面上にとうとうフラウンフォーファー線が見えてきます。今回は1秒露光でゲインが3200(=32倍、=ZWOの300に相当、=30dB)で、ヒストグラムでストレッチしたら十分見えました。
スクリーンショット 2025-06-14 155717

いやー、これはすごい!
自分で撮って、ここまで綺麗に見えるとは。

ものすごい細かい線まで見えていますSHG700の標準のスリット長が7mmですが、画面を見る限りこれでG3M678Mの横幅をフル近くで使っているように見えます。これ以上長いスリットを見つけたとしても、カメラから変更しなければならないので、現時点で最もパフォーマンスが出る上手い組み合わせを考えてくれていると言えます。しかもカメラセンサーを大きくすると、ピクセルサイズが今の2μmよりも大きくなる可能性の方が高いので、その場合スリット長を伸ばす効果を相殺してしまいます。もし今後拡張する場合は、かなり考えて一気にやる必要がありそうです。

この撮影した画像ですが、そもそのどの波長なのか、どれくらいの範囲を写しているのか、どれくらいの分解脳があるのか、この時点では全くわかっていませんでした。SHG700本体の回折格子の回転調整のところを見てみると、初期位置でHαを指しているので、おそらくHα線が画面上下の真ん中近くにあるはずです。とすると、真ん中少し上の太い暗い線がHαなのでしょうか。
IMG_1463

少しだけ調べてみると、CNにあったSol'Exで撮影したHα周りの画像と比較することで、どれくらいの範囲が取れているのか判明しました。線の模様が同じようになっていて、主要な波長を数値で示してくれています。その結果、
  • 真ん中少し上にある太暗い線はやはりHαで656.28nm。
  • 上1/5くらいにある次に暗い線はFe IIで651.61nm。
  • 別途保存した画像から測定すると、この2つの輝線の間が506ピクセルだったので、分解能は実測で、0.923Å/pixel程度です。
  • 今回撮ったものは上から下までで18nmくらいの幅を見ているのかと思います。
どうやら一度に撮れる範囲が18nmと結構狭く、例えば可視光全波長をスキャンするのは30-40回くらいの撮影になり、ちょっと大変そうです。細かい調整も大変そうなので、回折格子の回転の微調整のためにマイクロメーターが付いているのは正解な気がしてきました。

露光時間を増やしてスタックしたら、ノイズに埋もれている淡い輝線ももう少し見えるはずです。次の日10秒露光で30フレームをスタックして、合計300秒で見てみました。

Stack_30frames_300s_WithDisplayStretch

拡大してみてもらえるとわかりますが、相当細かい線まで写っています。更にHα周りを拡大してみます。

Stack_30frames_300s_WithDisplayStretch_cut

このページの図と比較してみるとわかりますが、上の拡大写真の縦軸の範囲は、リンク先の左下の図で見えている範囲の3倍くらいに相当します。リンク先の図では、Hαより短い波長に2本、長い波長に1本落ち込みがありますが、上の画像ではそれらの線を含めてさらに淡い(細い)線も見えていることがわかります。


まとめ

とうとう太陽分光が指導しました。フラウンフォーファー線でももう大興奮です。今、やりたいことリストを作っていますが、かなり楽しそうです。

最近はもう真夏のような暑さなので、熱中症とかに気をつけながら撮影など進めていきたいと思います。













6月1日の記事で書いたエタロン改善ですが、最後に少し謎が残っていました。
  1. なぜエタロンとカメラの間の距離を長くすると、両像範囲が拡大するのか?
  2. なぜエタロンとカメラの間の距離を長くすると、画面が暗くなるのか?
  3. なぜエタロンとカメラの間の距離を長くすると、分解能が良くなったように見えるのは気のせいか?
などです。その後、少し検証しました。


暗くなる理由

6月5日、平日ですが朝早くから試したところで、2の原因の一部は理由がわかりました。前の記事で推測はしていたのですが、先に答えだけ言ってしまうと、接眼部についているBF(ブロッキングフィルター)と呼ばれている、直径5mmの径の小ささが原因でした。

試したことは、まずは前回のようにカメラをできるだけPSTのアイピース口に対して浅く取り付けて、エタロンとセンサー面の距離を長くとります。具体的な順序は

PST -> BF+アイピース取り付け口 -> アイピース口延長筒(手持ちのVixen製のもの) -> カメラ(G3M678M)

となります。ピントが出るように、C8の主鏡位置移動のつまみを回して合わせます。前回同様に距離が短い場合に比べて画面全体が暗くなるので、再現性はあります。
スクリーンショット 2025-06-05 073153_01_75mm_PST_BF_VIXENextender

次に、接続順序を以下のように変更します。

PST -> アイピース口延長筒(PSTに付属していたもの) -> BF+アイピース取り付け口 -> カメラ(G3M678M)

スクリーンショット 2025-06-05 07375702_75mm_PST_extender_BF_camera

ようするに、エタ論とカメラ間の全体の距離を保ちながら、Vixen製の延長筒を外しBFとカメラセンサー面の相対距離を縮めたわけです。全体長を保つために、BFの手前に別途延長筒を取り付けています。ピントは、C8の調整つまみを回すのではなく、カメラをアイピース口に出し入れすることで調整しています。カメラ位置を変えることでピントが出たなら、そこは全長が同じだった位置ということになります。

視野の大きさや、分解能に見た目の変化はほとんどないですが、明るさだけは倍程度になりました。(見かけの明るさはヒストグラムに応じてオートストレッチしているので同じようになりますが、ヒストグラムの山の位置は変わっているので実際の明るさは変化しています。) これはBFの小径が通る光を制限していたことになり、BFの位置がより焦点近くに移動したために、BFでの光束径が小さくなり、より多くの光が通ることになったのかと思われます。

この結果を踏まえて、BFとセンサー面の距離がある程度短い方が有利ということで、PSTとBFの間に、PST付属のアイピース口延長筒をもう一つ追加 (PSTが2台あるのでもう一台から奪ってきたもの) しました。それでもまだカメラ位置はエタロンから遠い方が良さそうなので、さらにBFとカメラの間にVixen製のアイピース口延長筒を入れたものをデフォルトの設定としました。


視野が広がる理由がまだわからない

1については考察のみしてみます。

8cm鏡筒でエタロン位置の最適化を探った時、エタロンを対物レンズから遠ざけるほど、カメラ位置はPST側に押し込まなければピントが出なかったという経験をしています。

対物レンズの焦点距離をf1、エタロン手前のレンズの焦点距離をf2として、その2枚で得られる合成焦点距離fは、レンズ間の距離をdとすると
1/f = 1/f1 + 1/f2 - d/(f1 f2)

と書くことができます。エタロン内部で平行光を作る条件は、= ♾️なので、

0 = 1/f1 + 1/f2 - d/(f1 f2)
で両辺にf1 f2をかけて、

0 = f2 + f1 - d
なので

d  = f1 + f2
となる長さで、エタロン内部に平行な光が提供されます。エタロン手前のレンズは凹レンズで焦点距離はf2 = -200 [mm]とわかっているので、例えばよく使っている8cm鏡筒で、対物レンズの焦点距離f= 400 [mm]の場合は、d = 200 [mm]となり、実際にその辺りの距離にエタロンをおいて運用してうまく動いているようなので、間違っていないでしょう。

ここで、エタロン位置を対物レンズから遠ざけるということは、dを大きくするということです。これは合成焦点距離が正の無限大でない数になります。言い換えると、平行光にはならずに、光を有限の距離で収束させる合成レンズになるということです。わかりにくい場合は、具体的に数値を入れてみるといいでしょう。最初の式に、f= 400と f = -200を入れてみると

1/f = 1/400 - 1/200 + d/(400 x 200)
となります。右辺最初の2項を合わせると負になるので、

1/f = -1/400  + d/(400 x 200)

となり、右辺の初項と2項目が等しいとバランスが取れて平行光になります。dは正の数で、増えると2項目が増えて、右辺は正になるので、結局合成焦点距離fも正になり、光を収束することになります。

エタロン後部に置かれた焦点距離 f= 200 [mm]のレンズで集光するのですが、エタロンをより後ろに動かすと、もともとあった平行光が、dが伸びたことでより集光された状態になるので、カメラまでの焦点距離がより短くなる方向になります。なので8cm鏡筒で試したように、現実にカメラをPST側により押し込んだときに焦点が合うというのは、正しいと言えそうです。

以上のことを踏まえて、C8で起こったことを考えます。
  1. 今回は、カメラの位置をPSTから遠ざけるほど視野が広がりました。カメラをPSTから遠ざけてピントを出したということは、上の考察から「エタロンはより対物レンズに近づいた」ということになります。そして、エタロン後部のレンズを出た光が焦点を結ぶ距離は、より後ろに下がったということになります。
  2. その一方、センサー上で見えている太陽表面のエリアは広がりましたが、これは拡大率が変わったわけではなくて、センサー内に映る円の大きさが大きくなったために、より多くの範囲が見えているというだけです。
これら2つのことがどうしても一見対立しているようで、なかなかいい説明ができません。エタロンが相対的に対物レンズ(この場合主鏡)に近づいたということは、レンズ径やエタロン径の制限がより効く方向なので、視野が狭くなると思えるのです。

ここ1週間くらいずっと考えていましたが、いまだに結論は出ていません。


黒点撮影

というわけでまだ謎は残りますが、とりあえずこれで撮影してみます。

まずは黒点AR4100、4101周りです。30秒おきに1ms露光で200フレームづつ、合計60枚で約30分間撮影しました。シーイングはあまりよくなく、その中で一番いいものを画像処理しました。画像処理は、ImPPG、PixInsightのSolarToolbox、Photohopなどです。いつものように、モノクロ、カラー化、さらに反転させたものです。それぞれ端の方を少しクロップしています。

08_56_22_lapl2_ap3397_IP_2_50_mono_cut

08_56_22_lapl2_ap3397_IP_2_50_color_cut

08_56_22_lapl2_ap3397_IP_2_50_color_inv_cut

その後、タイムラプス映像も作りましたが、高々30分であることと、シーイングが良くない時間が多かったので、結構ボケボケです。参考程度に載せておきます。フレアが最後に収まっていくのと、次のフレアが起こる始めくらいが見えています。



プロミネンス撮影

その後、プロミネンスを撮影し、タイムラプス化しました。前回記事の東端9時方向に出ていた大きなものです。カメラの回転角を変えて、長手方向に全体が入るようにしました。30秒おきに1ms露光で200フレームづつ、合計120枚で約1時間撮影しました。最後のffmpegのコマンドだけメモがわりに残しておきます。
  • ffmpeg -y -r 20 -i Blink%05d.png Blink_20.mp4
  • ffmpeg -i .\Blink_20.mp4 -vf "crop=3500:1900:175:125" Blink_20_cut.mp4
  • ffmpeg -i .\Blink_12_cut.mp4 -vf "scale=1920:-1" -vcodec libx264 -pix_fmt yuv420p -strict -2 -acodec aac .\Blink_12_cut_X.mp4


前回記事のものを再掲載しますが、やはり分解能の違いは明白で、全景からの切り出しでは細部を出すのは難しいことがわかります。


一度に全体と細部を撮る方法はないのか?口径が大きく、C8程度の焦点距離に、広い面積に渡り精度のいいエタロンを探して取り付け、ピクセルサイズの小さいフルサイズモノクロセンサーを使うとかでしょうか。まあ、技術的にも予算的にも全然無理な気がします。


カメラをASI290MMに戻すか?

ここまでの調整の甲斐もあり、G3M678Mで撮影範囲も広がり、かつ分解能も上がっています。その一方、今回の画像を見ても、まだ真ん中と端の方では差があり、これはHαの分解能なのか、収差などでピントがあっていないのかまだわかりませんが(エタロンがかなり無理をした位置に置いてあるので、後者の可能性も高いと思います。)、画角的には欲張りすぎな気がしています。

というわけで、カメラをASI290MMに戻すことを考えています。戻すことは結構利点があって
  • 大きな黒点が少なくなってきて、ある程度の狭角で撮らないと迫力が出ない。
  • G3M678Mだと、ワンショットあたりのファイルサイズが3-4GBで、すでに大きすです。ASI290MMだと800MB程度です。ちなみにこの6月5日に撮影したファイルの総量は600GB超えです...
  • G3M678Mのフレームレートが23fpsと結構遅いです。ASI290MMは60-70fpsくらい出ます。
  • 画素数もすでに多すぎる気がします。タイムラプス映像でYouTubeにアップするとしたら、横は1920ピクセルあれば十分です。G3M678Mはいわゆる4Kカメラで横幅3840ピクセルと倍もあり、今回もかなり削って、最後は横が1920ピクセルになるように縮小しています。
  • また、分解能に関してはシーイングの方が効きやすいので、2μmまでは必要ない気もしています。画像処理、特にImPPGでの細部出しの時に、1ピクセルレベルの細部が十分聞いていない気がしています。
  • G3M678Mを今後別目的(分光太陽撮影のための新機材のSGH700)で専用に使いたい、というかそもそもこのカメラを買ったのはSHG700のためです。
などの理由があります。

その一方、ASI290MMに戻すときの問題点がニュートンリングです。G3M678Mでは全く出なくなったニュートンリングですが、ASI290MMではカメラを傾けない限りはまた復活するでしょう。大きな違いはセンサー前の保護ガラスかと思っていて、一度ASI290MMの保護ガラスを外してニュートンリングが出なくなるかどうか見てみようと思います。


まとめ

結局視野が広がる謎は解けていませんし、さらにまだカメラ位置と画角と分解能の関係は印象だけで検証さえもできていませんが、実用的にはやれることは大体やったので、この時点でカメラをASI290MMに戻すことでほぼ問題ないでしょう。少なくとも以前よりは良い状態で撮影できるようになるはずです。

あとはエタロンそのものを探ることですが、これはさらに大変そうなのと、今の状態でも撮影結果にはそこそこ満足できそうなので、しばらく放っておきます。今後は撮影例を増やしていきたいと思います。

さて、いよいよ次回からは新機材、分光で太陽を撮影する「SHG700」の始動です。多分できることがものすごく増えるので、じっくり取り組もうかと思っています。







最近ものすごく忙しくて、土日も仕事のことが多いです。先週末の福島も行けずじまいでした。そんな忙しい状況ですが、先週のある晴れた平日に朝早く起きて、色々と試しました。結局この日は自宅にいたので、セッティングだけして撮影中はほったらかしにしておきます。しばらく梅雨で何もできそうにないので、しばらくこの日にやったことを記事にしていきます。


SharpCapでのリアルタイム処理

最初はSharpCapを使っての太陽全景のタイムラプス映像です。SharpCap単体で、リアルタイムでスタックして細部出し、さらにはカラー化からプロミネンスの炙り出しまでできるので、撮影さえしてしまえば、あとは動画化するだけになります。


上記記事にSharpCapでの太陽全景撮影のための設定は説明していますが、実際の長時間タイムラプス映像はまだ試せていませんでした。なので今回の記事はその続編ということにもなります。


撮影設定など

実際の撮影です。全景撮影で太陽の細かいところまでは見えないためシーイングはあまり関係ないので、午後からの撮影としました。シーイングがいい午前の撮影については、C8で高解像度のテストとしましたが、これについてはまた後日記事にします。

20秒に1枚で、トータル2時間25分の撮影で、数えたら422枚の大量の画像です。枚数は多いですが、ファイル量としてはトータルで高々10GB程度です。同じカメラで動画撮影する200フレームのserファイル換算だと、たった3本分程度です。ちなみに動画の場合は100本レベルで撮影したりしています。しかも処理ずみの画像が保存されるので、それ以上の画像処理も必要なく、心理的にもかなり気楽です。

撮影中はPHD2でのガイドと、SharpCapでのセンタリングを併用しています。SharpCapでの設定内容は以下のようにしました。
スクリーンショット 2025-06-05 150152_cut

以前に示した設定よりも少し凝った設定になっていますが、これでほぼ完全にセンターに保つことができました。後々の位置合わせは全く必要なく、全コマに渡り、見ている限りピッタリ位置が揃っていました。これはすごい。

ただし、このことは快晴だったからというのが大きいと思います。これまで雲がある時にタイムラプス用の連続撮影を試していますが、小さな雲の通過でも影響が大きく、長時間撮影では途中で位置がずれてしまったり、スタックがうまくいかなくなったり、プロミネンスの炙り出しがうまくいかなかったりしていました。なので、このSharpCap単体でのタイムラプス映像のための撮影は(あまり設定にかかわらず
)、本当に雲がないという意味での快晴の時でないと、うまくいかないと思います。


出来上がったタイムラプス映像

繰り返しにもなりますが、今回のやり方の利点をまとめておきます。
  • リアルタイムで、スタック、細部出し、カラー化、プロミネンス炙り出しなど、それ以上の画像処理が必要ないレベルで、画像を保存していくことができる。
  • トータルファイルサイズを節約できる。
  • 各画像の位置合わせの必要が、全くない。
  • あとは、動画化するだけ。
なので、ホントに保存された画像をそのままアニメ化します。今回はPixInsihgtのblinkで動画化しました。blink上でtifから一旦pngにして、mp4で書き出しています。その後、ブログに載せるために以下のコマンドでYoutubeに適したフォーマットにしています。

 ffmpeg -i .\Blink.mp4 -vf "scale=1920:1400" -vcodec libx264 -pix_fmt yuv420p -strict -2 -acodec aac .\Blink_X.mp4

実際に出来たタイムラプス映像です。

見てもらってもわかりますが、はっきり言って全然面白くないんですよね。理由はひとえに動きが少なすぎるからです。でも実際には一部動いていて、たとえば左の大きなプロミネンス部分を拡大してみると以下のようになります。

たしかに動いていはいるのですが、いつものC8のタイムラプス映像と比べると、まあ当然ですが解像度不足なのは否めません。また、拡大して見るレベルだと太陽表面とプロミネンスの境がさすがに不自然です。

全景動画をよく見てみると、まだ他にも動いているところはありますが、上の動画よりはるかに小さな動きでしかありません。

結局、実際に長時間撮影したものをタイムラプス化して面白かったことは、2時間半で太陽の自転がわかったことでしょうか。これはタイムラプスというよりは、最初と最後の画像を比べればいいでしょう。
Blink3

赤道付近の自転の周期が25日程度というので、半回転180度として、それをざっくり12日で回転するとしたら、1日あたり15度、2時間半だと1.5度程度回転するはずです。高々2時間半でこれくらいわかるので、夏場の朝から晩まで、1時間おきくらいに撮影して12時間くらいの自転を見るのも楽しいかもしれません。


問題点

さて、今回長時間撮影してわかった問題点もあります。今後の改善のために列挙しておきます。
  • SharpCapで保存されたtif画像が、階調8ビットで保存されてしまっています。SharpCapのタイムラプスの設定画面の下の方に、画面のストレッチをしたら8bitで保存されると書いてあるので、逆に言うとストレッチしていなければ16bitで保存されるはずなのかと思います。実際、以前PhoenixとASI290MMで撮影した過去画像を調べたらきちんと16bitで保存されていたので、何か方法があるはずです。でも8bitで保存されたとしても、すでにプロミネンスまで炙り出し済みなら、階調は問題でないのかと思います。
  • 黒点やダークフィラメントなど、何か構造が見えるところだけボケてしまっていて、アニメ化するとブレてしまっています。SharpCapから保存されてtifファイルの時点でもうボケが見えているので、スタックの問題か、変なノイズ処理が入っているからとかかと思うのですが、今の所不明です。今回はアニメ化してからこのことに気づきました。次回からは画像をとにかく1枚保存して、きちんと撮れているか確認しようと思います。ちなみに、このボケのため、太陽表面が動いているように見えるものはほとんどフェイクです。
  • 太陽表面の模様があまり出ていない気がします。シーイングがものすごく悪かったのか、設定が悪かったのか、今となっては確認できません。短時間でいいので、serファイルを別途撮影しておけばよかったです。
  • やはり全景では変化がなさすぎてつまらないです。拡大してみるとプロミネンスの変化などがわかるので、拡大を前提に楽しむべきか、それでも拡大するとすぐに分解能の限界でアラが見えるので、どこまで拡大するかのバランスが大事なのかと思います。
  • プロミネンスの境が不自然に見えます。リアルタイム処理なので仕方ないのかもしれません。
  • プロミネンスの境がブレるようです。アニメ化すると目立ちます。

色々問題点もありますが、それでもこれだけ簡単にタイムラプス映像ができるのは、魅力なのかと思います。


まとめ

やっとSharpCapのリアルタイムスタックを利用して長時間のタイムラプス映像まで辿り着きましたが、あまり面白くもないので、これを今後継続するかはちょっと迷っています。ただ、問題点はまだあることはわかったので、もう少しはマシになるはずです。これらの問題点をある程度解決してから判断しようかと思います。







このページのトップヘ