ほしぞloveログ

天体観測始めました。

カテゴリ: software

前回示したように、画像の一部でドップラーシフトの連続変化が見えるなら、頑張れば画像全体でも見えるはずです。


今回は、全画面でのドップラーシフトをアニメ化する方法を探ってみたいと思います。いい機会なので、JSol'Exの強力なスクリプト言語のImage Mathを使ってみようと思います。


1. 自動画像生成+マニュアルでアニメ化

まずは連続波長ずれ画像(静止画)を出力する一番簡単な方法です。

とりあえず、JSol'Exでserファイルを開いて、「Custum prosess」を選んで「Mode」を「Simple」にして、下の「Select all」ボタンを押し、右上の数字が並んでいるところに「-10;-9;-8;-7;-6;-5;-4;-3;-2;-1;0;1;2;3;4;5;6;7;8;9;10」などと入れてやって、-10pixelから+10pixlelまでシフトした画像を生成してくれます。
redshift_cut

autostrerchフォルダなどに出力された21枚の画像を、適当なツールを使ってアニメ化するというのが、まずは一つ目の簡単な方法になります。例えば、PixInsightのBlinkで動画化することができます。

実際に作って見ました。ブログに載せるために縮小してgif化してますが、これだけでも迫力があります。
Blink_10_blog

一旦はこれで作ったのですが、でもまだまだ不満が残ります。


Image Math

まず、どれだけ波長がシフトしているかの数字を画面内に入れたいのですが、なかなかいいツールが見つかりません。高々20枚ほどなのでPhotoshopなどでマニュアルで入れるのでも構いませんが、JSol'ExのImageMath機能を使うと、さらに細かいことが色々できるみたいです。せっかくなので、ここで使い方を一通り把握しておきたいと思います。

まず、マニュアルや解説に相当するページですが、以下の4つくらいでしょうか。

https://melix.github.io/astro4j/3.3.1/en/jsolex.html
https://melix.github.io/astro4j/3.3.1/en/imagemath.html
https://youtu.be/l6tb-UFC6Zs?si=oyHAQhvETiXK3iJe
https://youtu.be/8XKzFcmvqfI?si=GXIArv_YOCPATGgI

上の2つはバージョンごとにページがあるので、今使っているバージョンのものを見るといいでしょう。アドレス内の数値を自分のバージョンに合わせてください。いっそのこと最新バージョンの3.3.1を落とすのもいいでしょう。このJSol'Exですが、まだ開発絶頂期の範囲なのか、バージョンアップの頻度がものすごいです。私が使い始めたわずか2週間の間に、3.2.1から3.2.2、3.3.0、3.3.1と、3回もアップデートしています。

下の2つは動画ですが、1つ目は基礎からImageMathまでわかりやすく英語で解説してくれています。え?日本語でないからわかりにくい?いやいや、2つ目の動画はImageMath専用の解説ですが、フランス語です。私は大学でフランス語を選択してましたが、今では全くわかりません。作者が解説してくれているJSol’Ex関連のビデオは結構たくさんあります。

https://melix.github.io/blog/jsolex.html

でも見てみるとわかりますが、21本中英語版はわずか3本、他は全部フランス語です。なので英語にしてくれているものは大きな情報源になり、かなり助かります。でもフランス語でも画面を見ているとわかるところもあり、特にImageMathについてはソースコードを見るとわかることも多いので、多少は役に立つと思います。というか、他の方のものなども散々探しましたが、どうもこれくらいしか解説はないようです。


Image Mathを使ってみる

実際にImageMathを触るときは、まずはサンプルコードを見るといいでしょう。JSol'Exのメニューの「Tools」から「Image Math editor」を選びます。出てきた画面で「Sample scripts」を押すと、いくつかの例が出てきます。

IM_card

この中で一番わかりやすいのは「Technical card」でしょうか。Full modeで緯度とか経度が書き込まれるcardという画像が出ていますが、それと同じ画像を作るスクリプトです。中身はこんな感じです。

#
# Generates a technical card similar to the built-in one
#

[params]
gamma=1.5
cropFactor=1.2

[tmp]
contrast=sharpen(auto_contrast(img(0);gamma))
cropped=autocrop2(contrast;cropFactor)
globe=draw_globe(cropped)

[outputs]
techcard=draw_solar_params(draw_obs_details(globe))

まずはこのスクリプトを、そのままSaveボタンを押して適当な名前をつけてどこかに保存してみてください。

次にserファイルを開いて、「Custum process」に進んで、出てきた画面の右上の「Mode」を「ImageMath」にします。右横の「Open ImageMath」ボタンを押してエディタを開き、「Load」ボタンを押して先ほど保存したファイルを開きます。

もし先ほどのスクリプトを保存していない場合は、ここであらためて「Technical card」を選択してもいいですが、SaveしてLoadせずに進めると何も読み込まれない状態になってImageMathの処理がされないので注意です。それから、ここで開いたサンプルファイル一覧では、「Tools」から「Image Math editor」から開いた場合で見たサンプルファイル一覧に出てくるものより少ないものしか出てこないので、これも注意です。なので、サンプルファイルは基本的にはメニューの「Tools」から辿って開くようにした方がいいいです。

Image Math editorの「Ok」ボタンを押し元の画面に戻って、「Unselect all」を押します。これでImage Mathの処理のみが行われるので時間の節約になります。JSol'Ex上に処理された緯度経度情報が入った画面が表示されると思います。その後のスクリプトの改造ですが、この画面の右下にImageMath scriptという場所があって、そこに先ほどのソースコードの内容が表示されていると思います。ここをいじっていきます。

手始めに、このモノクロのcard画像をカラー化してみましょう。

まず[param]、[tmp]、[output]の3つのパートに分かれているのがわかります。[param]は変数 (数値) の定義、[tmp]は内部的な画像処理で、[outputs]で指定されたもののみが実際の画像として出力保存されます。

改造のための情報を得るために、関数リファレンスページでコントロールキーとFキーを押すなどして「color」などとページ内検索します。どんなコマンドを使えばいいかはこの関数リファレンスページの関数一覧を一通り読むか、他のサンプルファイルを読み込んでみるといいでしょう。検索すると「COLORIZE」という関数が出てきます。使用例には

colorize(img: img(0), profile: "H-alpha")
colorize(range(-1, 1), "Calcium (K)")

などと書かれていますが、これを参考にします。例えば今処理しているcardスクリプトでは[tmp]の最後にglobeという画像が出来上がっているので、同じ[tmp]のところに

colorized=colorize(globe;"H-alpha")

という1行を追加して、colorizedという変数に画像を入れてみましょう。上の使用例と結構違っているので注意が必要です。それぞれの引数の間は「, (カンマ)」ではなくて、「; (セミコロン)」が標準みたいです。カンマでもいいみたいなのですが、サンプルコードでは全てセミコロンになっているので、私もセミコロンで統一することにしました。あと、引数のところの「img」とか「profile」は入れても入れなくてもいいみたいですが、入れるなら全て入れて、入れないなら全て入れないようにしないとダメみたいです。他のサンプルコードを見ると、入れない方が標準みたいです。

あとは、[output]の中の1行を

techcard=draw_solar_params(draw_obs_details(colorized))

のように書き換えて、先ほど作ったcolorizedを引き継ぎます。これでもう一度JSol'Ex画面右下のImage Math Scriptの「Run」ボタンを押して走らせるとカラー化された緯度軽度情報が入った画像が出来上がる位はずです。ただし、ここで書き換えたスクリプトはあらわにセーブしないと、再度立ち上げた時には元のモノクロの状態のスクリプトしか残ってないので、気をつけてください。

ちなみに、ここで出来たカラー画像ですが、フルモードなどで自動で作ったカラー画像とは色使いが違います。自動処理の方のカラー化はもう少し凝ったことをしているようです。


2. Image Mathで全画面ドップラーシフトをアニメ化

ここまででImage Mathの使い方のきっかけくらいは掴めたのかと思います。次は目的の全景のドップラーシフトアニメーションを作ってみましょう。といっても、これもサンプルファイルがあります。同様にImage Math editorで見えるサンプルリストの中から「Continuum animation」を選びます。以下のような内容です。

#
# Creates an animation of the continuum
#

[params]
# the animation will be created with images from [-shift;+shift]
shift=5
# autocrop factor
cropFactor=1.1
# contrast adjustment
gamma=1.2
# interpolation steps
steps=5
# delay between frames
delay=20

[tmp]
continuum=transition(range(-shift,shift);steps)
cropped=autocrop2(continuum;cropFactor)
contrast_adjusted=auto_contrast(cropped;gamma)

[outputs]
continuum_anim = anim(contrast_adjusted;delay)

このコードをそのまま使ってもいいのですが、前回のアニメであったような波長などの書き込みはありません。ここでは練習として、動画の各画像にテキストで波長を書き込んでみましょう。

使うコマンドはdraw_textです。[tmp]の最後に1行

text_added=draw_text(contrast_adjusted; 200; 2900; "Shift from Hα: %SHIFT%Å", 72; "FFFFFF")

を付け加えます。200とか2900は位置なので、自分の画像の大きさに合わせて適当に数字を変えてください。%SHIFT%はリファレンスマニュアルのdraw_textのところに書いてありますが、あらかじめ予約されている変数で、単位がÅに換算されたそれぞれの画像の波長のずれを表します。72はフォントの大きさです。こちらも適当に変えてください。FFFFFFは色で、RGBを各2バイトで表していて、この場合はRもGもBも255で一番明るくしてあるので白色になります。

[outputs]内では、最後の行を以下のようにtext_added変数を引き継いだ形に変更します。

continuum_anim = anim(text_added;delay)

基本的にはこれで走るはずですが、[params]内にある数値に少し触れておきます。
  • まず、shiftですが、これは[tmp]内のrange関数の引数に使われます。単位はピクセルなので、serファイルのHαの中心線から上下5ピクセルを処理します。ここは10くらいにしておくと楽しいでしょう。
  • stepですが、transition関数引数で使われていて、1ピクセルと1ピクセルの間を何枚補完するかになります。5の場合はかなり滑らかになります。ただし、先ほど表示したテキストの波長は間が補完されず、元画像の飛び飛びの波長しか出せないみたいなので、私はここは1にしました。
  • 最後delayですが、[output]のanim関数の引数で使われていて、フレームとフレームの間の時間で、単位はmsです。これはshiftとstepの数に合わせて調整しますが、私は1波長1枚としたので、ここでは200としました。

出来たスクリプトは以下のようになります。

#
# Creates an animation of the continuum
#

[params]
# the animation will be created with images from [-shift;+shift]
shift=10
# autocrop factor
cropFactor=1.1
# contrast adjustment
gamma=1.2
# interpolation steps
steps=1
# delay between frames
delay=200

[tmp]
continuum=transition(range(-shift,shift);steps)
cropped=autocrop2(continuum;cropFactor)
contrast_adjusted=auto_contrast(cropped;gamma)
text_added=draw_text(contrast_adjusted; 200; 2900; "Shift from Hα: %SHIFT%Å", 72; "FFFFFF")

[outputs]
continuum_anim = anim(text_added;delay)

走らせた結果ですが、以下のようになります。ブログにアップロードできるように、元々出力された3040x3040のmp4ファイルを600x600のgifに落としています。無事に数値が入って、わかりやすくなりました。

step
  • 撮影日: 2025年6月18日7時13分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: Takahashi FC-76(f600mm、F7.9) 
  • 分光器: SHG700
  • 赤道儀: Celestrn CGEM II
  • カメラ: ToupTek G3M678M
  • 撮影: SharpCap Gain 200 (=6dB)、露光時間1ms、ROI: 3840x100、平均381fps
  • 画像処理: JSol'Ex

これでももう結構十分で、ここでフルサイズの画像をアップしてもいいのですが、追加でもう一つ手法を紹介します。


3. もっと簡単な全画面ドップラーシフトのアニメ化の方法

Image Mathをある程度見てみて、上の動画まで完成させた後に、もっとはるかに簡単に全景画像を作る方法があることを知りました。悔しいですが、紹介しておきます。

処理したいserファイルを、Quick modeで一度処理します。出てきた画像の上で、コントロールキーを押しながら左クリックで処理したい部分を選択します。そして右クリックして「Create animation or panel」を選択します。

anime_select

すると次のような設定画面が出るので適当に設定して「Generate」ボタンを押します。
anime_setting

時間がかかりますが、処理が終わると以下のような画像と動画ができます。
07_13_53-trimmed_0000_07_13_53-trimmed_custom-panel_cut

out

上の動画はブログ用に縮小しています。フルサイズの動画はここにおいておきました。どうもショート動画になってしまうようですが、かなりの解像度なのでぜひ全画面化や、さらに拡大して見てみてください。

この領域選択はどこでもできます。最初からこんな大きな全景範囲で処理すると大変なので、まずは小さなサイズで試してみるといいと思います。例えばプロミネンスなどです。

out

この便利な機能、マニュアルにも記述がないみたいです。


まとめ

今回は3通りの全画面の連続波長ずらしのアニメ化の方法を示しました。本当は2つ目までだったのですが、一旦2つ目までの記事をほとんど書き終えてから3つ目の画像の一部選択の方法があることを知りました。まさか全画面ではできないかと思っていたら、あまりに簡単にできてしまったので、悔しかったですが紹介することにしました。でもまあ、Image Mathの使い方がわかったからよしとしましょう。

次の記事はこのドップラーシフトの全景画像を使って、色々議論したいと思っています。


これまでSHG700を使った始動編として、基本的な太陽分光撮影の解説を、ハード面ソフト面に渡り記事にしてきました。今回からは徐々に応用編に入っていきます。と言ってもまだしばらくはJSol'Exの標準機能の範囲内の話です。でも、徐々にこれまであまり見ることがなかったものになってくると思います。

前回はSHG700始動編の(その5)でCaK線の撮影をしましたが、今回はもっと多波長で撮影してみました。


撮影途中で気付いたこともいろいろあるので、メモ代わりですが細かく書いておきます。


波長の選択

前回のCaKの分解能が悪かったので、まずはその再現性です。前回終了時の設定を何も変えずに、まずは1ショット撮影しておきました。その後、何が悪いのか見るために色々見てみると、輝線のピントがあった状態で、太陽光と背景の境目の縦線がボケボケでした。縦線は空間分解能に聞くはずなので、何か設定がおかしいようです。ちなみみ、撮影した動画ファイルからCaKの全景を再構築して見てみると、雲が通過していて全景を見るのが厳しかったですが、分解能は前回と変わらずやはりだめそうです。

CaKの分解能がダメそうだったので、次にHαに戻して分解能が回復するかを見ることにしました。その後、波長を順次短くしていっていくつかの代表的な波長を撮影し、再びCaKに再挑戦することにしてみました。

順序としては、
  1. Hα (6562.81Å)
  2. Na D1 (5889.95Å)
  3. Mg b1 (5183.62Å)
  4. Hβ (4861.34Å)
  5. Hγ (4340.47Å)
  6. CaK (3933.66Å)
としました。

この内、HγはJSol‘Exでの全景再構築時に選択肢として出てこないので、JSol‘Exのメニューの「Tools」から「Spectral ray editor」を選び、以下のように名前と波長を入れてやります。
スクリーンショット 2025-07-04 142837_cut
波長を入力するとそれに応じた色が勝手に付きます。でもこの色、ちょっと微妙で、出来上がる画像は設定通りになかなかならないことがわかりました。あとで画像と一緒に検討します。


ピント合わせの自由度

何度か波長を変えていくうちに、ピント合わせ方がある程度確立しました。前々回の記事でCaKに挑戦したときのピントは今思うと大幅にずれていたので、分解能が出なかったのも納得です。

まず自由度の数ですが、SHG700の部分に回折格子の回転 (固定ネジを緩めてラフに回転+マイクロメーターで微調整) と、レンズについているマイクロメーターが2つと、鏡筒のフォーカサーが1つで、合計4つあります。具体的に番号を振っておきます。
  1. 回折格子
  2. コリメーターレンズ
  3. カメラレンズ
  4. 鏡筒フォーカサー
調整を難しくしている一つの原因が、これらの自由度が独立ではなく、各自由度の調整が他の自由度に影響することです。ただし、順を追って調整することで、それぞれの位置が一意に決まることがわかってきたので、メモがわりに手法を書いておきます。ただし、今後もっといい方法が出てくるかもしれないので、とりあえず参考的な手順としてくらいです。また、この方法はSHG700で試しましたがSol'Exでも有効なはずで、また必要そうな精度も書いておいたので、どれくらい頑張って合わせれがいいかの目安にもなるかと思います。


波長を変えた時のピント合わせの具体的手順

A. まず最初に見たい波長を決め、回折格子の回転角度を決定します。
  1. 回折格子下部のネジを手で緩めて、回転台の切り欠き溝の真ん中を印刷されている目的の輝線にラフに合わせます。
  2. SharpCapの画面で見ながら、JSol‘ExのSpectrum browserで表示されるフランフォーファー線図と比較して、目的の波長の近くにいるか確認します。
  3. 似たような輝線模様が見つかったら、目的の輝線が画面の上下で真ん中になるように、回折格子についているマイクロメーターで合わせます。SharpCapで同心円と十字のレチクルを出しておくと合わせやすいでしょう。撮影時にはROIで上下100ピクセル内に輝線を入れる必要があり、そのために必要なマイクロメーターの精度は1-2目盛り程度になります。
付属のマイクロメーターは50目盛りが2回転すると1mm移動するので、1目盛りは10μmに相当します。回転角への変換係数がわからないので、角度の精度で議論はできないのですが、かなりの精度が必要なことがわかります。といっても、多少ずれていたとしても後からROIのTiltを変えてやることで、センサーのどこを見るかの位置調整ができるチャンスがあるので、ここではそこまで精度にこだわる必要はありません。ここで回折格子の回転角を決めたら、これ以上はもうこの自由度はこれ以上いじることはないです。というか、これ回折格子の回転角を以上いじってはいけません。もしいじると、また最初からやり直しです。

B. 次に、2のコリメーターレンズのマイクロメーターと、3のカメラレンズのマイクロメーターの2自由度を同時に動かします。
  1. SharpCapの画面を300%程度に拡大し、画面を右か左にスクロールさせて、太陽光が切れるところまで持っていき、ヒストグラムの一番右の線を左にかなり寄せて背景光の輝線が見えるようにします。
  2. 背景光で輝線がうまく出たら、さらに端に寄せて、スリットの境の光が見えるところと見えないところまで画面を持っていきます。ここで二段階目の調整をします。
  3. まずは3のカメラレンズのマイクロメーターを回して、画面の横向きの線のピントが合うようにします。
  4. 一旦横線のピントがあったら、次に2のコリメーターレンズのマイクロメーターを回して、縦の「光があるところとないところの境目」のピントを合わせます。
  5. ここを合わせると、3のカメラレンズのピントが少しズレるので、また3のカメラレンズのマイクロメーターを微調整します。この時に必要な精度は+/-2目盛りくらいです。かなりの精度が必要なことがわかります。
  6. 3を微調整したら、再び2のコリメーターレンズのマイクロメーターを微調整します。ここでの必要な精度は+/-7,8目盛りくらいでしょうか。こちらは多少大きく動かしてもいいでしょう。
  7. この2と3のマイクロメーターの調整を数回繰り返し、横の輝線と縦の光の境目の線の両方のピントが出るようにします。
うまく調整できると下の画面のようになるはずです。左の明るい部分が太陽の直接光で、真ん中の木線が見えている部分が背景光になります。

スクリーンショット 2025-07-04 092825
 
調整位置が決定したら、回折格子のマイクロメーターも含めて3つともこれ以上触ってはダメです。


C. 最後に、鏡筒のフォーカサーを調整します。
  1. ヒストグラムを調整するなどして、太陽の直接光の輝線が見えるようにします。
  2. フォーカサーのピントを調整すると、粒状斑や黒点などの瞬く縦線が濃く見えるところがあるはずです。
  3. 同時に、太陽光と背景光の境目のピントもぴったり合うはずです。
うまくいくと、下の画面のようになるはずです。
スクリーンショット 2025-07-04 092926

この段階で、縦線は見えるのに境目のピントが合わないとか、境目のピントを合わせると瞬く縦線が見えなくなる場合などは何かおかしいので、Bからやり直すことをお勧めします。ここでのフォーカサーの精度は使っている鏡筒に依るかと思いますが、微動減速装置が欲しくなるレベルです。まだ微動装置を付けていないので、ここのピント合わせに一番気を使います。

逆に言うと、SHG700にマイクロメーターが付いているために、回折格子と2つのレンズの調整がかなり楽になっているということです。この微調整の精度で、横向きの輝線のピントが波長分解能に効き、瞬く縦線や太陽光と背景光の境目の縦線のピントが空間分解能に効いてきます。画像の仕上がり精度にそのまま直結する部分です。Sol‘Exでは微調整の機構はないので、ここで苦労するのかと推測します。SHG700ではSol‘Exで大変だったところをきちんと改善しているのがわかります。

今回合わせたピントを合わせた状態で、前回分解能が出なかったCaKを改めて14枚スタックしてみました。見てもわかる通り、あからさまに分解能が増しているのがわかるので、とりあえずは子のピント出し方法でしばらくは続けていこうと思います。

IP_resize_lapl2_ap5118_IP


JSol'Exがよく止まる

今回、数多くの.serファイルをJSol'Exで処理して分かったのですが、処理中に結構頻繁にエラーが出ます。処理中にタスクマネージャーで見ていると、CPUパワーもメモリも9割以上使っていることが多いので、かなり重い計算をしているようです。撮影用のPCで画像処理もしているのですが、処理用のPCは別途もっと速くてメモリが多いものにするほうがいいのかもしれません。

エラーが出ると、途中で止まってしまったり、画像が最後まで生成されません。一見エラーが見えなくても、特にバッチ処理途中のエラーですでにログ上でスクロースされてしまっていてエラーじゃないと思っても、結局最後まで辿り着かずに止まってしまうこともあります。止まる確率は10%くらいでしょうか。バッチ処理ではいくつのserファイルは成功しても、一つでも止まってしまうものがあると、フォルダの中のどれが完了しているわからなくなるので、結局最初から全部やり直しています。複数のserファイルがあることになるので、全部が成功する確率は結構低くなってしまいます。完了したというメッセージが出ない時は、何か足りないファイルがあると思っていいでしょう。

JSol'Exのバージョン3.2.2がリリースされました。ちょっと重くなったように感じています。エラーの頻度も増したように思えて、最後までたどり着く率が下がった気がします。なので、私は今は3.2.1に戻して使っています。


特徴波長での画像

かなり寄り道をしてしまいましたが、今回撮影した各波長です。色はJSol'Ex標準にしています。細部出しとかも何もしていないので、拡大してみるとちょっと物足りないかもしれません。

各タイトルの波長の横に書いてある数字は、波長分解能になります。例えばHαなら
スクリーンショット 2025-07-05 101928
というように実測で0.091Å/pixelと評価できていて、実際に隣のピクセルとも有意な差が見えているので、分解能を0.091Åと言ってもよさそうです。この分解能は見ている波長によって変わってきて、波長が短くなるほど分解能が悪くなります。最初、あれ逆では?波長が短い方が精度がよくなって分解能もよくなるのでは?と思ったのですが、ピクセルサイズが決まっていてそこに短い波長を詰め込むと考えると、同じピクセルサイズなら見える波長の細かさは粗くなってしかるべきと理解できました。でも波長分解能の違いは、波長の違いの比のルートに比例するようです。1次でそのまま効きそうなので線形化と思いましたが、なぜルートに比例なのか?未だに疑問です。


1. Hα (6562.81Å), 0.091Å
09_39_22-trimmed_0000_09_39_22-trimmed_colorized_0_00
  • 撮影日: 2025年7月4日9時39分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: Takahashi FC-76(f600mm、F7.9) 
  • 分光器: SHG700
  • 赤道儀: Celestrn CGEM II
  • カメラ: Touptek G2M678M
  • 撮影: SharpCap Gain 200 (=6dB)、露光時間0.75ms、ROI: 3840x100、平均381fps
  • 画像処理: JSol'Ex、ImPPG

2. Na D1 (5889.95Å), 0.100Å
0000_08_24_28_colorized_0_00
  • 撮影日: 2025年7月4日8時24分
  • 撮影: SharpCap Gain 200 (=6dB)、露光時間0.75ms、ROI: 3840x100、平均381fps

3. Mg b1 (5183.62Å), 0.106Å
0000_08_34_13_colorized_0_00
  • 撮影日: 2025年7月4日8時34分
  • 撮影: SharpCap Gain 200 (=6dB)、露光時間0.75ms、ROI: 3840x200、平均221fps

4. Hβ (4861.34Å), 0.108Å
03_Hbeta_0001_08_44_26_colorized_0_00
  • 撮影日: 2025年7月4日8時43分
  • 撮影: SharpCap Gain 200 (=6dB)、露光時間0.75ms、ROI: 3840x100、平均381fps

5. Hγ (4340.47Å), 0.111Å
04_Hgamma_0000_08_56_44-trimmed_colorized_0_00
  • 撮影日: 2025年7月4日8時56分
  • 撮影: SharpCap Gain 200 (=6dB)、露光時間1ms、ROI: 3840x100、平均381fps

6. CaK (3933.66Å), 0.113Å
05_CaK_0003_09_14_06_colorized_0_00
  • 撮影日: 2025年7月4日9時14分
  • 撮影: SharpCap Gain 400 (=12dB)、露光時間1.5ms、ROI: 3840x100、平均381fps

こうやって見ると、波長ごとに模様がかなり違うのがわかります。でもNa D1を見てもわかるように白色光とあまり変わらず特徴が無かったりもします。というか、ほとんどの波長はこのNa D1みたいに白色とほぼ同じに見えるようです。

実は他に、He-D3 (5875.62Å)というのが結構面白そうな模様を出しそうなのですが、Spectrum browserで確認したところ、あまりに淡そうなので今回は諦めました。
スクリーンショット 2025-07-05 090320

またいつか挑戦してみたいと思います。


JSol'Exでの色付け

実はJSol’ExではHαの色だけ、特別な処理をしています。Hαだけ他のものに食らえて派手すぎです。即別な処理を外して、JSol’Ex標準のルールに従って色付けすると、Hαといえど下のようにかなり地味になってしまいます。
09_39_22-trimmed_0000_09_39_22-trimmed_colorized_0_00

私は結構派手な色使いも好きなので、他の波長もHαでやる場合と同じように特別な処理をして派手目にしようとしてみました。でもうまくいきません。どうやらバグみたいで、Spectral rays editorでcolor curveオプションをオンにして色をいじってみるとわかるのですが、青を濃くしてしまうと、serファイルでカラー画像を出した時に変更できるstretchingの所で選択できる「Linear stretch」と「Curve stretch」で初期状態での色遣いが違ってしまっていて、しかもLinear stretchで調整したものは保存できないようです。Hαは青をほとんど出さないので、バグとして認識されていないのかもしれません。

というわけで、もう少し派手目に色付けするとして、Photoshopで自分でやってみました。参考にしたものはMLastroのこのページの一番下にある各波長の色付けです。

6colors

と、こんなカラフルな太陽画像はどうでしょうか?


まとめ

SHG700関連記事も応用編に入り、徐々に分光撮影の威力が発揮されてきました。全波長で本当に0.1Åオーダーで撮影できてます。これは結構すごいです。しかも今回は1枚画像での処理で、JSol'Exのオーとストレッチと色付けだけで、スタックや細部出しもしてません。必要なら、特定の波長は枚数を撮ってもっと凝った処理にしてもいいのかと思います。コンスタントな撮影ももう少し落ち着いたら続けて見たいと思います。

新しく撮影したものを含む、手持ちの撮影ストックはこれくらいです。これまで撮影した画像を使いまだ試したいことがあります。次回、次々回と、ドップラーシフト関連の記事になるかと思います。



前回の「太陽分光SHG700始動(その3): 連続分光撮影」に引き続き、太陽分光撮影シリーズの4回目です。


今回は撮影したserファイルを処理する太陽全景画像再構築ソフトの説明をします。


JSol'Ex

撮影した.serファイルから太陽全景画像を再構築するソフトはIntispecINTISpectroheliograph reconstruction softwareJSol'Exなどがあるようですが、MLastroではJSol'Exが勧められているので、ここではJSol'Exを使ってみます。


JSol'Exの日本語での解説記事はほとんどないみたいなので、いろいろと試してみました。

ダウンロードしたらインストールしますが、インストール先がデフォルトでは自分のユーザーディレクトリの中の隠しフォルダのAppsData以下になるようなので、実行ファイルがどこにあるかなど戸惑うことがあるかもしれません。私は天文関連のアプリはショートカットをデスクトップに置いているので、実行ファイルを探すのにちょっと苦労しました。ちなみにショートカットは、エクスプローラー上で実行ファイルを選択して、シフトキーとコントロールキーを同時に押しながら、デスクトップに放り込めばできますね。


serファイルからの簡易画像生成

JSol'Exを立ち上げて、まずは手持ち機器の登録をしましょう。メニューの「Equipment」の「Spectrograph editor」で分光器を登録します。Sol'ExやSHGはバージョンごとにわかれてあらかじめ登録されているので、通常は特に変更の必要はないです。もしカスタムなどしている場合はここで設定するといいでしょう。

もう一つ、メニューの「Equipment」の「Setup editor」で鏡筒とカメラを登録します。「Latitude」と「Longitude」は設定しなくていいみたいなので、私は空白にしています。
スクリーンショット 2025-06-24 215035


処理を開始するために、serファイルを読み込みます。メニューの「file」から単体のserファイルなら「Ooen ser file」、複数のserファイルをまとめて処理したいなら「Batch mode」になります。

スクリーンショット 2025-06-24 145332

簡単には出てきた画面で、下の「Quick mode」ボタンを押せば簡易処理になり、全景を再構築した画像と、それをオートストレッチした画像のみが保存されます。
スクリーンショット 2025-06-24 205206


カスタム出力設定

高機能なJSol’Exを活用するために、きちんと設定して出力画像の種類を増やしましょう。

まずは先ほど設定した、自分の機器を選択します。上記画面の「Observatoin details」を選択し、Instrumentで「MLAstro SHG700」を、Telescopeで自分の機器、ここでは先ほど設定した自分の「FC-76」を選択します。
スクリーンショット 2025-06-24 215918


保存する画像のフォーマットは「Miscellaneous 」で必要なフォーマットにチェックを入れます。あとでスタックとかする場合はfitsやtifなどのRAWフォーマットにしておいたほうがいいかと思います。画像アップ用でJPEGやPNGを一緒に選択しておいてもいいかもしれません。

保存フォルダの形式を、同じく「Miscellaneous 」で「Batch」にしておくといいでしょう。あとでスタックする場合には、複数serファイルからできた同じ種類の画像がまとまって一つのフォルダに入ります。

スクリーンショット 2025-06-24 145715

ここからがJSol'Exの真骨頂になります。serファイルを開いて設定などした後に、まずは右下の「Full process」を押してみましょう。時間は余分にかかりますが、いろんな種類の画像が生成されます。

でもこの「Full」だと一部されない画像もあるので、「Custum process」を押して、さらに「Select all」にしたほうがいいかもしれません。これにすると、波長を少しずらした(デフォルトだと-3,0,3,15pixel)画像も合わせて生成されます。
スクリーンショット 2025-06-24 205325

波長の違いは見てるだけでも楽しいので、ぜひ試してみてください。波長をどれだけずらすかは、自分で設定できます。画面内の数値を適当に変えたり、増やしたりしてみてください。


出力される画像例

どんなファイルが生成されるのか見ていきましょう。以下に示す保存される場所は、File name patternを「Batch mode」で保存した場合になります。

まず基本はdiskフォルダとautostretchフォルダの中にある、再構築された全景です。diskの中は単に再構築しただけのRAWに近いもの、autostretchはそれをストレッチしたものです。ここではストレッチされたものを示します。
07_13_53_0000_07_13_53_autostretch_0_00

これらのフォルダには上記のHαの中心波長のみでなく、そこからずれた波長の画像も保存されています。例えば+/-3pixelずれたものです。波長への換算はざっくり0.1Å/pixelなので、それぞれ-0.3Åと+0.3Å程度ずれた画像になります。
07_13_53_0000_07_13_53_autostretch_3_00

07_13_53_0000_07_13_53_autostretch_-3_00

高々0.3Åのずれですが、中心波長画像と比べると見た目でかなり変わっていることがわかります。まず、中心波長の方が全体的に渦のような縞々が少ないように見えます。わたしはこれまでこの縞々がHα線で見る時の真骨頂かもしれないとずっと思っていたのですが、どうも本当の中心はもっとのっぺりしているのかもしれません。その代わりに、中心はちょうでは白いもやみたいなものが全体に見えます。これがなんなのか?ちょと興味があります。

他にも15pixel = 1.5Åだけ中心波長から離れた画像も保存されます。これだけズレるとほとんど白色光に近い画像になり、黒点がよく見えるようになります。
07_13_53_0000_07_13_53_autostretch_-15_00

どれだけずらすかは自分で設定することができます。先ほどのCustum processで数字で指定してある部分です。

cardフォルダの中には黒点番号、緯度経度と自転軸の傾きが書き込また画像が保存されています。太陽の自転軸は、地球の公転面に対して約7度傾いています。この画像にある自転軸は地球から見たときの見かけの自転軸です。地球は太陽の周りをまわっているので、太陽の自転軸の「地球から見たときの見かけの」傾き角は、季節によって変化します。
07_13_53_0000_07_13_53_card_0_00

このサイトで見かけの自転軸の傾き角を計算することができます。2025/6/17 22:13:53(UTC)だと-8.44度と計算されるので、画像に表示されている角度と同じですね。ちなみに、地球の自転軸の傾きもあるので、見かけの傾きは7度以上になることがあるので、今回の-8.44度は間違ってないです。

diskフォルダの中にあった、+/-3ピクセルずらした画像から、ドップラーシフト画像を生成することができます。dopplerフォルダの中に入っています。
07_13_53_0000_07_13_53_doppler

上記のような画像は任意のずれから画像を生成することもできるので、色々試してみると面白いでしょう。

実はドップラーシフト画像で気づいたのですが、最初に試した時に赤と青が反転してしまいました。本来は上の画像のように、左側が奥から手前に回転し、右側が手前から奥に回転するので、左は波長が縮んで青の短い側にに、右は波長が伸びて赤の長い側なるような色を付けるのが正しいです。なぜ色が反転したのか、探っていくとJSol'Exでserファイルを開いた時の「Process parameters」で色を入れ替えたり、上下や左右のフリップを指定できることがわかりました。
スクリーンショット 2025-06-24 205206
スクリーンショット 2025-06-24 145523

でも色を入れ替えるだけだとなぜか画像も左右反転してしまったので、左右フリップもオンにしてやっと正しいと思われる色と向きになりました。ちょっとややこしいので、一度自分で試すといいでしょう。画像の上下左右は、黒点が出ているならcardフォルダの緯度経度が書いてある画像に黒点番号も書き込まれているので、この番号の位置が黒点の位置とあっているかどうかも確かめることができます。

doppler-eclipseフォルダには、プロミネンス部分を強調してドップラーシフトでどちら向きに進んでいるかわかる画像も含まれています。
07_13_53_0000_07_13_53_doppler-eclipse

太陽表面及びプロミネンスのドップラーシフトはいつか求めてみたいとずっと思っていました。というか、このドップラーシフトを試したくて今回のSHG700に手を出したと言っても過言ではありません。以前Phoenixで波長をシフトさせて自転のドップラーシフトが見えないか考えたのですが、波長分解の敵にちょっと厳しいと判断しました。今回のような波長分解能のいい分光撮影で、やっと実現したことになります。でも0.3Åの波長シフトで十分見えるのなら、今考えるとPhoenixでも見える気がします。画像は残っているので、今度見直してみようと思います。

他にも、colorizedフォルダには自動的にカラー化された画像も保存されたりしています。
07_13_53_0000_07_13_53_colorized_0_00


さらなる画像生成

上の画像はほぼデフォルトで出力されるものの一部です。ほかにも紹介しきれないマイナーが画像もありますし、設定を変更できるのでさらにパラメーター違いの画像を各種出力できます。

でもそれでもここまでは「Simple」というモードに過ぎず、serファイル選択後に「Custom process」を押し、「Mode」で「ImageMath」を選ぶと、スクリプト形式でどんな出力にするかを指定して、画像を演算などすることで一連の画像を出力することもできます。

説明はここにありますが、さすがにこのページの説明の範囲を超えてくるので、興味がある方は各自で試してみてください。

マニュアルは簡易版がここ


詳しいものがここにあります。


他にも波長を変えた際の画像のアニメ化ができるみたいです。serファイルを処理終了後、右上画面の横タブの「Redshift」を選びます。
スクリーンショット 2025-06-24 213843

でも、一度試したのですがメモリ不足で止まってしまいました。そのうち、もう少し余裕のあるPCで試してみようと思います。ちなみに、serファイル処理後は上記のように画像が表示されていて、画像上のボタンやスライドなどでこの状態で設定を変えることができます。変えた設定は保存画像を変更するので、次の処理をするまではあらわに保存せずとも自動的に更新が保存されます。


画像以外の解析など

JSol'Exには.serファイルからの画像出力だけでなく、他にも便利な機能がいくつかあります。一つはフラウンホーファー線のリファレンス機能です。これまでHαで撮影してますが、それでも一番最初はどの輝線がどの波長を表しているのか、画像からだけだと全くよくわかりません。それでもHα線はメジャーなので、他の人が撮影した画像と比較とかして特定できるかもしれませんが、他の画像、例えば太陽撮影で次にメジャーなCaK線は一気に比較画像を探すのが難しくなります。そんな時に「Spectrograph editor」を使うと、自分で撮影した画像と比較することができます。メニューの「Tools」->「Spectrograph editor」を選んで、出てきた画面で見たい輝線を選択します。自分で撮影した画像を並べて、画面内の+/-で幅を揃えて同じような模様を探します。今回自分のセットアップで撮影した場合、上下幅が18nmに相当することも、輝線を探すときの手がかりになりました。

ちなみに、画像をロードしてJSol'Ex内で比較することもできるようなのですが、まだ実験レベルの実装らしくていまだにやり方がわからず、私は下のように画面を横並べにして比較しています。
スクリーンショット 2025-06-18 151746

吸収線をグラフ化してリファレンスと比較する機能もあります。serファイルを処理終了後、右上画面の横タブの「Profile」を選びます。
スクリーンショット 2025-06-24 204301_cut


このグラフを見ると、1点がスキャン1回ぶんになっているようで、グラフから読み取ると0.118Å/pixelのようです。光学的な波長分解能は0.18Å/pixelと計算できているのですが、実効的にはどの程度かはもう少し考えて判断したいと思います。


さらなる情報

JSol'Exは相当高機能なソフトです。今回紹介した機能はわかりやすいものばかりで、まだ複雑な機能は私も全然使い切れていません。ImageMathの所でも紹介しましたが、マニュアルは詳しいものが用意されているので、とりあえずはそれを読むことかと思います。

簡易版


詳細版



このページにチュートリアルビデオがたくさんありますが、問題は言語で、英語のものがわずか3本、あとは全部フランス語です。私はフランス語はよくわからないので見るだけですが、それでもいくつかのファイルは参考になります。




まとめ

JSol'Exはすごい高機能ですね。とにかく、ドップラーシフトがこうも簡単に出てくるのは期待以上でした。元々は自分でソフトを書かなくてはと思っていたくらいなので、ちょっと拍子抜けしたくらいです。いつかみたジェットを、今度は分光撮影してみたいです。多分波長のシフトとなって出てくると思っています。

こういったソフトが出てくるのも、Sol‘Exで文化を切り開いてくれたおかげでしょう。今後もありがたく使わせていただきたいと思います。













最近ものすごく忙しくて、土日も仕事のことが多いです。先週末の福島も行けずじまいでした。そんな忙しい状況ですが、先週のある晴れた平日に朝早く起きて、色々と試しました。結局この日は自宅にいたので、セッティングだけして撮影中はほったらかしにしておきます。しばらく梅雨で何もできそうにないので、しばらくこの日にやったことを記事にしていきます。


SharpCapでのリアルタイム処理

最初はSharpCapを使っての太陽全景のタイムラプス映像です。SharpCap単体で、リアルタイムでスタックして細部出し、さらにはカラー化からプロミネンスの炙り出しまでできるので、撮影さえしてしまえば、あとは動画化するだけになります。


上記記事にSharpCapでの太陽全景撮影のための設定は説明していますが、実際の長時間タイムラプス映像はまだ試せていませんでした。なので今回の記事はその続編ということにもなります。


撮影設定など

実際の撮影です。全景撮影で太陽の細かいところまでは見えないためシーイングはあまり関係ないので、午後からの撮影としました。シーイングがいい午前の撮影については、C8で高解像度のテストとしましたが、これについてはまた後日記事にします。

20秒に1枚で、トータル2時間25分の撮影で、数えたら422枚の大量の画像です。枚数は多いですが、ファイル量としてはトータルで高々10GB程度です。同じカメラで動画撮影する200フレームのserファイル換算だと、たった3本分程度です。ちなみに動画の場合は100本レベルで撮影したりしています。しかも処理ずみの画像が保存されるので、それ以上の画像処理も必要なく、心理的にもかなり気楽です。

撮影中はPHD2でのガイドと、SharpCapでのセンタリングを併用しています。SharpCapでの設定内容は以下のようにしました。
スクリーンショット 2025-06-05 150152_cut

以前に示した設定よりも少し凝った設定になっていますが、これでほぼ完全にセンターに保つことができました。後々の位置合わせは全く必要なく、全コマに渡り、見ている限りピッタリ位置が揃っていました。これはすごい。

ただし、このことは快晴だったからというのが大きいと思います。これまで雲がある時にタイムラプス用の連続撮影を試していますが、小さな雲の通過でも影響が大きく、長時間撮影では途中で位置がずれてしまったり、スタックがうまくいかなくなったり、プロミネンスの炙り出しがうまくいかなかったりしていました。なので、このSharpCap単体でのタイムラプス映像のための撮影は(あまり設定にかかわらず
)、本当に雲がないという意味での快晴の時でないと、うまくいかないと思います。


出来上がったタイムラプス映像

繰り返しにもなりますが、今回のやり方の利点をまとめておきます。
  • リアルタイムで、スタック、細部出し、カラー化、プロミネンス炙り出しなど、それ以上の画像処理が必要ないレベルで、画像を保存していくことができる。
  • トータルファイルサイズを節約できる。
  • 各画像の位置合わせの必要が、全くない。
  • あとは、動画化するだけ。
なので、ホントに保存された画像をそのままアニメ化します。今回はPixInsihgtのblinkで動画化しました。blink上でtifから一旦pngにして、mp4で書き出しています。その後、ブログに載せるために以下のコマンドでYoutubeに適したフォーマットにしています。

 ffmpeg -i .\Blink.mp4 -vf "scale=1920:1400" -vcodec libx264 -pix_fmt yuv420p -strict -2 -acodec aac .\Blink_X.mp4

実際に出来たタイムラプス映像です。

見てもらってもわかりますが、はっきり言って全然面白くないんですよね。理由はひとえに動きが少なすぎるからです。でも実際には一部動いていて、たとえば左の大きなプロミネンス部分を拡大してみると以下のようになります。

たしかに動いていはいるのですが、いつものC8のタイムラプス映像と比べると、まあ当然ですが解像度不足なのは否めません。また、拡大して見るレベルだと太陽表面とプロミネンスの境がさすがに不自然です。

全景動画をよく見てみると、まだ他にも動いているところはありますが、上の動画よりはるかに小さな動きでしかありません。

結局、実際に長時間撮影したものをタイムラプス化して面白かったことは、2時間半で太陽の自転がわかったことでしょうか。これはタイムラプスというよりは、最初と最後の画像を比べればいいでしょう。
Blink3

赤道付近の自転の周期が25日程度というので、半回転180度として、それをざっくり12日で回転するとしたら、1日あたり15度、2時間半だと1.5度程度回転するはずです。高々2時間半でこれくらいわかるので、夏場の朝から晩まで、1時間おきくらいに撮影して12時間くらいの自転を見るのも楽しいかもしれません。


問題点

さて、今回長時間撮影してわかった問題点もあります。今後の改善のために列挙しておきます。
  • SharpCapで保存されたtif画像が、階調8ビットで保存されてしまっています。SharpCapのタイムラプスの設定画面の下の方に、画面のストレッチをしたら8bitで保存されると書いてあるので、逆に言うとストレッチしていなければ16bitで保存されるはずなのかと思います。実際、以前PhoenixとASI290MMで撮影した過去画像を調べたらきちんと16bitで保存されていたので、何か方法があるはずです。でも8bitで保存されたとしても、すでにプロミネンスまで炙り出し済みなら、階調は問題でないのかと思います。
  • 黒点やダークフィラメントなど、何か構造が見えるところだけボケてしまっていて、アニメ化するとブレてしまっています。SharpCapから保存されてtifファイルの時点でもうボケが見えているので、スタックの問題か、変なノイズ処理が入っているからとかかと思うのですが、今の所不明です。今回はアニメ化してからこのことに気づきました。次回からは画像をとにかく1枚保存して、きちんと撮れているか確認しようと思います。ちなみに、このボケのため、太陽表面が動いているように見えるものはほとんどフェイクです。
  • 太陽表面の模様があまり出ていない気がします。シーイングがものすごく悪かったのか、設定が悪かったのか、今となっては確認できません。短時間でいいので、serファイルを別途撮影しておけばよかったです。
  • やはり全景では変化がなさすぎてつまらないです。拡大してみるとプロミネンスの変化などがわかるので、拡大を前提に楽しむべきか、それでも拡大するとすぐに分解能の限界でアラが見えるので、どこまで拡大するかのバランスが大事なのかと思います。
  • プロミネンスの境が不自然に見えます。リアルタイム処理なので仕方ないのかもしれません。
  • プロミネンスの境がブレるようです。アニメ化すると目立ちます。

色々問題点もありますが、それでもこれだけ簡単にタイムラプス映像ができるのは、魅力なのかと思います。


まとめ

やっとSharpCapのリアルタイムスタックを利用して長時間のタイムラプス映像まで辿り着きましたが、あまり面白くもないので、これを今後継続するかはちょっと迷っています。ただ、問題点はまだあることはわかったので、もう少しはマシになるはずです。これらの問題点をある程度解決してから判断しようかと思います。







CP+のセミナーの中で、SharpCapを使うと太陽をリアルタイムでスタックして画像処理ができるので楽だという説明をしましたが、ブログ記事にはしていなかったのでまとめておきます。この記事を書く気になったのは本ブログのコメントで、リュウさんから設定画面を見てみたいというリクエストがあったからです。


太陽の導入

カメラをPCに繋いでSharpCapで太陽を映すまではいいでしょうか?特に昼間の導入は意外に面倒だったりするので、少しだけコツを書いておきます。
  1. まず、赤道儀や経緯台の水平をきちんと取ることは必須です。水平出しは、これ以降の精度全てに効いてきますので、水準器を使ってきちんと水平になっているのを確認します。(補足: 昔の記事で赤道儀の場合は極軸さえ合っていれば水平出しは原理的にどうでもいいと書いていますが、それはあくまで極軸が正確に合わせられる場合です。昼間はほぼ太陽しか出ていなくて、極軸を精度よく合わせることは無理なので、最低限水平をきちんと取ってから始めたほうが遥かに楽です。)
  2. 鏡筒をホームポジションの方向に向けます。ホームポジションは赤道儀や経緯台の機種によるのでマニュアルをきちんと見てもらえばいいのですが、赤道儀の場合は北極星方向、経緯台の場合は北向き水平が多いでしょうか。太陽ファインダーを持っていない場合は、ここはできるだけ精度よく合わせたほうがあとあと楽です。
  3. 経緯台の場合、水平方向は鏡筒に水準器を当てるといいでしょう。
  4. 北向きにするのはなかなか精度が出ません。最近ではスマホにコンパスアプリがついているので、それを使うといいでしょう。その場合、設定で「真北」を選んでください。デフォルトでは「磁北」になっている場合が多いので、これだと6−7度ずれてしまいます。
  5. 次に進む前に、ここで重要な確認です。望遠鏡は太陽を見ることができる状態になっていますか?白色光の場合は太陽用減光フィルター、Hα線の場合はエタロンとブロッキングフィルターなど確実に付いていますか?私は必ず指差し確認をするようにしています。慣れてしまうとどうしても確認が疎かになる可能性が出てくるからです。
  6. 次に、カメラを鏡筒にセットし、カメラをPCに繋ぎます。SharpCapの上部メニューの「カメラ」から接続したカメラと同じ名前のカメラを選択します。
  7. ここまできたら、やっと赤道儀や経緯台の自動導入を使って、太陽を導入します。昼間の太陽導入は安全のために機能的に制限されている赤道着や経緯台が多いので、その制限を解除します。解除方法は機種に依ります。
  8. 必要なら導入前に念のため、赤道儀や経緯台の現在位置の設定と、時刻の設定を見直してください。現在位置や時刻がずれていると、これ以降導入がズレが出る可能性が高いです。緯度と経度を入力する場合は、スマホのコンパスアプリなどで今いる場所の緯度経度を確認できるので、その値を入力するのが楽です。
  9. 太陽を自動導入後、SharpCapで画面を確認しますが、大抵の場合は太陽は画面内に入ってこないと思います。
  10. 太陽ファインダーを持っているなら、太陽光がファインダーの投影板の真ん中に来るように、赤道儀の場合は架台部分の「ネジ」を使って水平方向と垂直方向を合わせます。この時点ではモーターを使わないように注意してください。この時点では、設置時の赤道儀の極軸からのズレを補正するためです。経緯台にはネジがついていないと思いますが、ネジの代わりに三脚をの足を伸ばしたり、水平にずらしたりして、水平方向や垂直をある程度合わせてもいいでしょう。
  11. 太陽ファインダーがない場合は、次のようにSharpCapの画面で確認するしかありません。
  12. 太陽ファインダーの真ん中に来たら、SharpCapの画面に入ってきているか確認してください。露光時間は機材に依りますが、1msとかかなり短くていいはずです。ゲインも0とかせいぜい200(=20dB=10倍)までで大丈夫かと思います。
  13. 太陽が画面内に入りかけているか確認するために、SharpCapの右側パネルのヒストグラムのところにあるオートストレッチボタンを押して、画面を明るくします。端の方が明るかったりしたら太陽が近くまで来ているということなので、ここからはモーターを使って明るいのが真ん中に来るように合わせます。太陽が入ってきて、極端に明るくなったら、今一度オートストレッチボタンを押して明るさを調整します。太陽の一部でも入ればあとはモーターで真ん中に持ってくるだけです。
  14. 最後に、赤道儀もしくは経緯台の追尾設定を、デフォルトの恒星から太陽に変更するのを忘れないでください。

ピント合わせ

太陽が導入できたら、次はピントを合わせます。ピント合わせも少しコツがあります。
  1. 赤道儀や経緯台のモーターを利用して、見たい位置に太陽を持ってきます。
  2. SharpCapの画面を見ながら、とりあえずそこそこフォーカサーなどでピントを合わせます。
  3. SharpCap右側パネルのヒストグラムで、オートストレッチをかけます。
  4. ヒストグラムの3本ある線の、左の線を背景光を表す左のピークより少し右側に、右側の線をヒストグラムの盛り上がりの右端くらいに合わせます。
  5. 画面を見ながら、真ん中の線を少し右に寄せ、細かい模様がよく出るところを探ります。グラフが下に凸の形になるはずです。
  6. ピントを微調整します。
スクリーンショット 2025-05-11 105533
ヒストグラムで調整するとこれくらいになるので、
かなりピントが合わせやすくなるはずです。


必要ならフラット化で見やすく

もし画面全体が太陽表面だけを見る場合(太陽の縁より外が画面に入っていない場合)は、常時フラット補正をしておくといいでしょう。これを行うことで、上記ピント合わせも遥かに精度よく見ることができます。
  1. 黒点周りなど、太陽表面の見たいところを赤道儀のモーターを使って導入する。
  2. 鏡筒のフォーカサーでピントをかなりずらす。その際、つまみをどちら向きに何回転くらい回したかを覚えておくといいでしょう。
  3. ボケボケになったところで、SharpCapのメニューの「キャプチャ」の「フラットフレームキャプチャ」を選びます。
  4. 出てきた画面でフラット撮影の設定をします。枚数は16枚とか32枚もあれば十分でしょう。スタートボタンのすぐ下の「撮影後新しいフラットを適用する」とかいうオプションにチェックを入れておくと楽です。
  5. スタートボタンを押します。
  6. フラットが適用されていることを、画面(真っ白になるはず)や下部に出ているヒストグラム(一本の細い山になるはず)で確認します。
  7. 画面下部に出ているヒストグラムを閉じ、ピントを元に戻します。ピントの再調整は、必要なら上の手順に従ってください。今回は太陽表面の輝度差が補正されているので、かなり合わせやすくなっているはずです。

これでセンサーやフィルターのホコリ、太陽表面の輝度の違い、エタロンの中心波長のずれで見えにくくなっていたエリア、ニュートンリングなどが補正され、圧倒的に見やすく、コントラストを上げて撮影できるようになります。この状態では、露光時間やゲインはある程度変更できますが、あまりに違う設定の場合はフラットを取り直してください。また、位置などが大きくズレると補正もずれてしまうので、その場合もまたフラットを取り直してください。


SharpCapの撮影設定

太陽が導入できてピントもあったなら、太陽が見えているはずです。まずはカメラの設定をします。
  1. モードはモノクロカメラならMONO16一択です。カラーカメラの場合はRAW16でしょう。
  2. 明るすぎたり暗すぎたりしないように、露光時間とストレッチ度合いを今一度合わせます。
  3. 露光時間は撮影のことも考え1ms程度、ゲインは0 ( = 0dB = 1倍) とか100( = 10dB = ~3倍) から、せいぜい200( = 20dB = 10倍) くらいまでで、ゲインがその範囲に入らなければ露光時間を長くしたり短くしたりします。適度な明るさとは、ヒストグラムで見て山が右も左も切れていなく、かつ山が全体的に広がっている状態です。
  4. ストレッチは適時オーとストレッチボタンを押します。露光時間やゲインを変えたとき、雲が通過して画面の明るさが変わった時も押すといいでしょう。


太陽画像のリアルタイムスタック

明るさが適度に調整出来、ピントもあっていたとしても、まだシャキッとした画像にななりません。ここでいよいよライブスタックを開始します。
  1. メニューの「ツール」の「太陽/月/惑星のライブスタッキングと強化」を選択します。
  2. 出てきた画面で「Sharping&Adjunstment」を選んで、下の画面を参考に調整します。
  3. 左側の「Gaussian Wavelet Sharpening」は十分な解像度が出ているなら「Fine」を上げるだけでほとんど大丈夫です。Level1以降は画面を拡大しながら上げてもいいですが、たいていは強すぎるのでほどほどにした方がいいと思います。画面を引いてみる場合と拡大してみる場合は、いいと思われる設定は違うと感じると思います。好みで設定すればいいと思いますが、私は拡大したときに強くなりすぎずに、引いてみたときにあっさりしすぎなくらいでちょうどだと感じています。
  4. 同画面右側の「Image Adjustments」はかなり便利です。でもその前に、オートストレッチをリセットしてヒストグラム画面で出ている曲線をきちんと直線にするのを忘れないでください。ヒストグラムで画像調整してしまうと、画像を保存するときに二重に調整効果がかかってしまって、変なことになる場合が多いです。
  5. 画面が明るすぎたり暗すぎたりするときは「Brightness」を調整します。「Gamma」は見栄えに大きく関係するので、毎回いいところを探してください。
  6. その後は好みで「Solar Colorization」をオンにするとカラー化されます。カラーの度合いはあまりいじることはできないはずです。
  7. 次の「Corona Boost」は、全景の場合はもうデフォルトオンでいいでしょう。ただし雲などが通過するとずれて強調されたりするので、その場合はオフにしてください。「Radius Offset」は適時変えてみて、いいところを選んでください。これも好みかと思います。

スクリーンショット 2025-05-11 113714

次のタブは「Frame Filtering」です。これでラッキーイメージ的なことができます。下の画面では250フレームにわたって画質の良さを評価して、上位85%をスタックするという意味です。
スクリーンショット 2025-05-11 113731
ここに出ているグラフはピント合わせに利用することもできます。主にコントラストを見ているようなので、特に全景の場合は太陽と背景のコントラスト比に比例して数値が出ます。言い換えると、ピントを前後させて、一番値が大きいところがピントが合っているところということです。先に説明した方法でうまくピントが出ない場合は、こちらを利用してみてもいいかもしれません。

最後は「Stabilizatin/Alignment」です。私はガイド鏡を使ってPHD2の太陽バージョンでガイドすることが前提なので、個々の設定はかなりシンプルにしています。こうしないと、PHD2とけんかしたり、正しい状況が見えにくかったりするからです。
スクリーンショット 2025-05-11 091737
全景の場合は「Stabilization Mode」は「Planet/Full Dis」のほうがいいのかもしれませんが、「Surface」でも普通にズレずにスタックできています。「Stacking Mode」も「Single Point」で十分なようです。というよりも、雲が来るとどんな設定でもだめで、雲が来なければどんな設定でもいいと言うような印象です。

その一方、フル設定だと以下のようになると思います。今回の記事のために設定してみただけなので、あまりあてにしない方がいいかもしれません。上で書いたように、ここまでしてもアラインメント精度はあまり違いがない印象です。いい時はいいけど、ダメな時はどう設定してもダメっぽいです。「Stabilize to cente...」はカメラの画角の中に太陽全景が入っていさえすえば、太陽を常に画面中心に持ってきてくれます。タイムラプスなどの時は便利だと思いますが、カメラの画角から太陽が出てしまったときは途端に像が崩れます。問題はこのオプションがオンになっていると、画角の端まであとどれくらい余裕があるのかわかりにくいことです。

「Track Planet with Camera ROI」は普段ROIを使うことがないので、私の場合は意味がないです。ROIで画角を制限したときに、fpsが上がればいいのですが、実用的なROIの範囲ではfpsは変わらないので、フルで撮影するようにしています。動画ファイルが大きくなりすぎるなら、ROIを設定するのもありだと思います。

さらにチェックしていない「Re-align...」と「Overlay...」は試してみましたが、何が変わるのかいまいちよくわかりませんでした。モノクロ撮影だからなのかもしれませんが、よくわかりません。

スクリーンショット 2025-05-11 113509

最後、「Time Lapse」タブですが、これもまだあまり試してはいません。できるだけ階調良く保存したいのでフォーマットはSERかTIFFです。でもSERではバグなのか、いまだにうまく保存できないようなので、今がにTIFF一択です。

「Apply Display Histgram...」はここではオンになっていますが、オフの方がいいでしょう。これがオンになっている、もしくはヒストグラムでリセット状態のまっすぐな線になっている場合以外は、たとえTIFFフォーマットだとしても8bitで保存されると下部のノートに書かれています。

「Create short animated GIF...」がオンになっていますが、いまだにうまくGIFファイルが生成されたことがありません。オフでいいかと思います。

あとは何秒ごとに画面を保存するか設定してスタートボタンを押せばいいのかと思います。動画よりもはるかにファイルサイズが小さくなるので、多少間隔を短くしても大したファイル量にはならないでしょう。「Reset stack after...」は経緯台の場合には画面の回転を防いで枠が回っていくのを防ぐことができるので、うまくフレーム数を設定してみるといいでしょう。ただ、タイムラプス撮影をするなら、あえて回転を見たいとかでなければ太陽の場合は素直に赤道着を使った方がいいかと思います。

スクリーンショット 2025-05-11 120116

いくつかはうまく動かない機能があるので、私の環境が悪いのか、バグなのか不明ですが、タイムラプスに関してはまだそこまで期待しない方がいいのかもしれません。

右から二つ目のタブで設定が3通りまで保存、再現できます。設定を変えた時の比較などに使えるので随時使うといいでしょう。


まとめ

以前は惑星も太陽も画面センターにキープできる機能が便利で、FireCaptureで撮影することが多かったのですが、SharpCapの機能が圧倒的に進んでしまい、少なくとも私は太陽用にはもうSharpCapオンリーです。今回はかなり基本的な太陽の導入の仕方から解説したので、よかったら参考にしてください。私なりのテクニックも随所に入れ込んでいます。







太陽画像の処理をしているのですが、AutoStakkertの画像選別がいまいち信用できていません。

最近は1ms程度の露光時間で、そう多くない200フレーム程度を撮影し1ショットとし、この1ショットを30秒ごとに撮影して、1時間とか2時間とか長時間の連続撮影しています。その中で統計的に飛び抜けてシーイングのいい時間帯を探すと、そのショットはたのショットに比べて平均的にシーイングがいいので、そのうちの上位90%とかを使うことにしています。

その対極の方法が、1ショットを数千フレーム、時には万のオーダーのフレーム数で撮影して、スタック時にその中から上位フレームを数%とかのかなり少数を選んでスタックすることでしょうか。

後者の方法でやっていたこともあるのですが、そもそも平均的にシーイングがイマイチな時間を撮影している限り劇的によくなることはないことは、ここ1ヶ月くらいで理解できました。それはそれとして、上位フレームを選ぶのにAutoStakkertを使っていますが、長時間ファイルから少数を選んでもスタック結果を見る限りきちんと上位フレームを選べている実感があまりなく、この結果がいまいち信用できなかったのです。

少なくともこれまで、きちんとしたフレームが選ばれるという確認を自分では取ったことがなかったので、今回少し検証してみました。


PIPPを使ってAutoStakkertの画質評価を検証

かなり昔にインストールしたserファイルの事前処理アプリのPIPPを最近再び使うようになってきて、思ったより色々できそうなことを再認識できたので、ちょっと面白そうな実験をしてみました。

PIPPの機能の一つとして「複数のserファイルを結合する」ということができます。serファイルの読み込みの「Source Files」のタブで複数のserファイルを読み込んだ状態で、同じ画面内の「Multiple Soure Files:」で「Join mode」を選ぶことで、結合された動画ファイルを生成する処理となります。


1:
ここに2つのserファイルを用意します。一つは A:シーイングがいい時間帯のもので、分解能がよく出るとわかっているserファイルです。Aのファイルを実際に90%スタックして、ImPPGで細部出しをしたものが以下の画像になります。分解能も出ているのでシーイングが良かったことがわかります。
12_05_56_lapl2_ap3965_out

もう一つは、B:シーイングが悪い時間帯のもので、分解能が出ないとわかっているもので、同条件でBを細部出しまでしても、以下の画像のようにかなりボケボケです。
12_12_43_lapl2_ap3955_out

これらA、Bの2つのserファイルを、PIPPを使って特に余分な処理を何もせずに、そのまま単純に結合します。結合の順序は、分解能が出ていないBを先、分解能が出ているAを後としました。これはAutoStakkertではいいと判断されたコマが先に持ってこられるので、きちんと順序づけできているかどうか、元ファイルの先にいいものがあるか、後にいいものがあるのかで不公平が出ないようにチェックするためです。

結合したseeファイルをAutoStakkert!4で読み込み、解析だけすると、各コマの質の評価がされます。
スクリーンショット 2025-05-09 110155_cut1

評価されたグラフの灰色の線で結果を見ると、ファイルの先に記録されているほぼ半分のコマは評価が低く、後半半分のコマの評価が高いです。緑色の線はこの評価を利用していい順に並べ替えた後の結果なので、ここでは無視してください。これはPIPPで指定したように、前半はシーイングが悪いB、後半はシーイングがいいAという順序の通りになっていて、AS!4でもきちんと評価できていることがわかります。

AS!4ではその後、この評価結果の通りにいいものから先に並べかえてしょりをすることになります。一番最初に来ているコマを見てみると次のように分解能がいいAからのものが来ていて、
スクリーンショット 2025-05-09 110155_cut2

一番後ろに来ているコマを見てみると、ボケボケのBからきているのものになっていることがわかります。
スクリーンショット 2025-05-09 110242_cut2

上の2枚の比較はよく見ないとわからないかもしれません。スタックして細部を出した後にものすごい差が出るとしても、動画の状態での一コマの比較ではこのように最良コマと最悪コマで見たとしても、わずかこの程度の差に過ぎません。もし元々撮った一つのserファイルを、AutoStakkert!4でいい悪いを評価してもらったとしても、見える差は非常に小さくて、それが本当にいいのか悪いのか、少なくとも私の眼力でははっきり見分けることができません。

それでも上の結果だけ見ると、AutoStakkert!4の順位づけは正しく使えるという評価になりますが、それは本当なのでしょうか?


では明るさが違うと?

2:
では次に少し意地悪をして、C: シーイングは良かったけれども少し暗く撮影したserファイルと、D: シーイングは悪かったけれども明るく撮影できたファイルを用意します。2つのserファイルC、Dを同様にPIPPで単純に結合します。ちなみに、それぞれ細部出しまでした画像が以下になります。

C: 分解能が出ていても、全体的に暗い
12_02_14_lapl2_ap3963_out

D: 分解能が出ていないが、全体的に明るい:
12_30_03_lapl2_ap3859_out

今回はserファイルの結合順序を、シーイングがいいCを先、シーイングが悪いDを後とします。結合したserファイルをAutoStakkert!4で読みこんで同様に解析にかけます。シーイングをきちんと評価しているなら、前半がいい評価で、後半が悪い評価になるはずです。

結果は以下のようになります。
スクリーンショット 2025-05-09 110740_cut1

ここでも灰色の線を見ます。はい、期待とは全く逆で、前半のシーイングがいいCを悪く評価し、後半のシーイングが悪いDを良く評価してしまっています。

これは、判断基準の一つに「明るさ」というものを使っているからかと思われます。しかもこの明るさが違う場合の評価の差が、先の明るさが同等くらいの時の評価の差よりもはるかに大きくなっているので、シーイングの差よりも明るさの差の方をはるかに重要視しているというまずい結果なのかと推測できます。

ここら辺がAutoStakkert!4での評価が信頼できないところの一つです。

(2025/5/10: 追記) 記事公開後、ASで上位10%を選択してスタックしたものと、Ninoxで上位10%選択してASで100%スタックしたもので差が出るかという質問があったので、試してみました。私はあまり差が出ないと予測していたのですが、結果は思ったより差が出ました。細部出しまでふくめて、同じ条件で処理した結果を示します。

まずはAutoStakkert4で上位10%選んだものです。
12_12_06_lapl2_ap3983_IP

次はNinoxで上位10%選択してAutoStakkert4で100%スタックしたものです。
12_12_06_pipp_lapl2_ap3944_IP

かなりわかりにくいので、わかりやすいところを一部拡大して並べて見ます。左がAutoStakkert4で上位10%選んだもの、右がNinoxで上位10%選択してAutoStakkert!4で100%スタックしたものです。
スクリーンショット 2025-05-10 170954_cut
特に黒点や、その右上は明らかに右のNinoxの方がいいかと思います。

別の個所を比較します。同じく左がAutoStakkert!4で上位10%選んだもの、右がNinoxで上位10%選択してAutoStakkert4で100%スタックしたものです。
スクリーンショット 2025-05-10 172527_cut

こちらの比較は左のASの方が細部まで出ています。どうやら得意不得意があるみたいで、まだどちらがいいのかちょっと迷っていますが、今現在の判断は、最細部がASの方が出ているとすると、ASの方に傾いていますでしょうか。

1つ目の比較だけで判断していた時はNinoxを使えばいいという判断弟でしたが、2つ目の比較でASの方がいいとなったので、どちらのアルゴリズムを選んだ方がいいのか迷うことになります。serファイル内に明るさの変化がある場合はNinox、変化がない場合はASでしょうか。結構面倒です。もう少し検証例を増やした方がいいのかもしれません。(追記終わり)


画像評価のアルゴリズム

少しAutoStakkert!4の画像評価のアルゴリズムを示しておきます。元々は私自身も、AS4!でどんな評価アルゴリズムが使われているのか全然知らなかったのですが、いつも非常に的確な意見を言ってくれる薜くんが、X上でCloudy Nightsで議論の情報をくれました。このページの中の2つ目のリンク先を開き、その中のさらに2つのリンクをたどると、元の論文と思われるものにたどり着きます。特に2つ目のリンクが具体的にどんな太陽の画像を使っているかも示してあり、Gram  matrix Gijと呼ばれる評価関数を使っていることが示されています。Gram  matrixは

(1) The size of the Gram matrix depends only on the number of feature maps instead of the image size.(2) The Gram matrix is only related to texture features of an image, not itsstructural content.

とのことなので、画像の特徴を表すことに適しているようです。これらを利用して、Lqualityを求め、そのLqualityがPE (perception evaluation)そのもので、そのPEとPSF (point spread functionsを表すD/r0との関係をFigure 6で示してくれています。AutoStakkertはこれを利用しているということなので、適当に評価しているわけでは全くなく、かなりしっかり評価しているようです。

その一方、ここまでしっかり評価しているのなら、高々明るさだけの違いでシーイングの評価が、ひどいレベルで完全にひっくり返ってしまうのは何なんだというのが、今の個人的な感想です。

(2025/5/10: 追記)
tentaiさんの情報によると、結局AutoStakkertはLaplacian、下に出てくるNinoxはGradientという、かなり一般的なシンプルなアルゴリズムで処理されていて、リンク先の論文にあるPE (perception evaluation)を求めるような、複雑な判別はしていないことが判明してきました。
シンプルなアルゴリズムでは、例えば輝度に依存するというような実際に判断したいものとは違う基準で判別されることも十分にありうるのかと思います。

複雑な判別とはどれくらいのものなのか、試しにサンプルコードを走らせてみました。太陽表面のHαのサンプル画像が付いていて、PE (perception evaluation)を計算してくれるみたいです。結果は0.239とかいう数字が出てきました。数字そのものの評価はまだよくわかっていませんが、問題は計算時間で、付属の1024x1024ピクセルの小さな画像でも1枚計算するのにM1 Macで1分以上かかりました。実際に撮影する数百枚や、千枚を超える画像を評価する必要があるので、トータルではちょっと計算時間がかかりすぎ、毎回これだとさすがに実用的ではなくなってくるので、結局は今のシンプルなLaplacianやGradientが現実的なのかもしれません。

記事にコメントを書いてくれたほんのり光芒さんのASの評価記事の中でがJUN1WATAさんのLaplacianを利用したserファイルのフィルターを書いた記事がリンクされていました。4月の記事で私も読んでいるはずですが、その時はまだ重要性を認識できていなかったと思います。今読むとものすごく面白くて、OpenCVを利用したコードを公開してくれているので、もし判別のためのフィルターを組みたくなったらここを参考にさせてもらうことになるかと思います。

徐々に理解が進んできていて楽しいです。コメントや情報など参考にさせて頂いたHIROPONさん、OHZAKIさん、tentaiさん、ほんのり光芒のみゃおさん、JUN1WATAさん、ありがとうございました。
(追記終り)


PIPPのNinoxアルゴリズム

ASの明るさ判断に文句ばっかり言っても仕方がないので、ここでもう一つ試します。すぐ上で試したCとDのserファイルの結合時に、PIPPの方で画質評価を適用してやります。


3:
PIPPには「Quality Options」とうタブがあり、その中の「Quality Algorithm Selection」で画質を何通りかで評価でき、各コマをその評価に従っていいものから順に並べ替えてserファイルを再度作ることができます。複数のserファイルを扱う場合でも、複数ファイルに含まれる全コマを並べ替えます。

まずはデフォルトの「Default PIPP Quality Algorithm」というのを選択して再結合したserファイルを作ります。実際にできたserファイルをSER Playerで見てみると、明るくて分解能の悪い画像が前半に来ていて、暗い分解能のいい画像が後半に来ているので、AutoStakkert!4の場合と同じような結果になっています。実際、AS!4で解析してみると、
スクリーンショット 2025-05-09 112004_cut
のように、先に分解能の悪いDから来たと思われる明るいコマをいいと評価し、後半に分解能のいいCから来た暗いコマを悪いと評価してしまっています。これを見る限り、PIPPのDefault PIPP Quality AlgorithmとAutoStakkert!4のアルゴリズムはよく似ているのかと思われます。


4:
次に、PIPPで「Quality Options」の「Quality Algorithm Selection」で「Original Ninox Quality Algorithm」を選んで、2つのserファイルC、Dから再結合したserファイルを作ります。
スクリーンショット 2025-05-09 112357_cut3

できたserファイルをSER Playerで見てみます。おっ!、今度はきちんと暗くても分解能がいいコマが先に来ていて、明るくても分解能が悪いコマが後半にきています。AutoStakkert!4でも解析してみると、
スクリーンショット 2025-05-09 112357_cut1
の灰色の線を見てもわかるように、やはり間違えて分解能のいい前半を悪いと評価して、分解能の悪い後半をいいと評価してしまっています。明るさが優先されてしまっているのがわかります。


結論

「Original Ninox Quality Algorithm」できちんと評価して、必要ない部分はPIPPの方で枚数制限をしてserファイルにして、AutoStakkert!4ではそのいいコマだけを100%利用するようにすれば、変な評価をする可能性のあるAutoStakkert!4の評価を、避けてスタックすることができます。

今回、すくなくとも、「Original Ninox Quality Algorithm」は分解能に対して期待した正しい評価を下してくれることがわかりました。まだこれが完璧なのかどうかの評価ではありませんが、今後はAutoStakkertの評価をそのまま使うことはせずに、きちんと上位画像を選択したいときは少し手間ですが、事前にPIPPの「Original Ninox Quality Algorithm」を通すことにしたいと思います。

ちなみに、Cloudy Nightsの議論一つ目のリンクがNinoxについて書いてあるとのことなのですが、見る限りリンク先は何も表示されません。興味深いのでとても残念です。


まとめ

自分で実際に確かめてみて、やっと少しスタック時の画像選択評価についてあるていど納得できてきました。

AutoStakkertでの画質評価で、いいものがを選択できるという意見も聞きますが、国内国外問わず、AutoStakkertの画像仕分けは信用できないという意見は随所に散見します。

私自身もこれまでAutoStakkertでの画質評価において明るさが関係することは、以前皆既月食で雲があり明るさが変わる悪条件のときに試したので定性的には知っていました。でもきちんとした検証はできていませんでした。実際には、今回のように撮影している最中にも明るさが変化することは十分あり得るはずで、少なくとも今回の結果で、AutoStakkertの明るさの評価が効きすぎていて、他の重要な評価が無視されることがある得るということがよくわかりました。

今回、「分解能」と「明るさ」があらかじめはっきり区別できる撮影ファイルを使うことで、PIPPの「Original Ninox Quality Algorithm」が、見かけの明るさのには惑わされずに、分解能をきちんと見て評価しているらしいことがわかりました。これは、今後も役立つ、大きな確認事項になると思います。

ただこれ以上の評価は、順位付けされたserファイル内のコマを見ても、自信をもってはっきりとどれがいいとは言えないので、なかなか難しいと思います。また余裕があったら、はっきり傾向のわかるserファイルの数を増やして、もう少し検証してみるのもいいのかもしれません。






このページのトップヘ