ほしぞloveログ

天体観測始めました。

カテゴリ: 画像処理

2月11日、せっかくの晴れなのでこの日も太陽タイムラプス映像にチャレンジです。前日に同様の処理をやっていたので、ある程度繰り返しでできます。


プロミネンスをいくつか

でもこの日も黒点はなし。小さなプロミネンスがいくつかと、南西方向と、北東方向に少し大きめのプロミネンスが出ています。まずはプロミネンスをいくつか撮影。でもシンチレーションがそこまでいいわけではないので、処理も簡単に済ませました。明らかに手抜きなところも見えますが、ご容赦ください。

13_08_26_lapl4_ap2357_IP_cut

13_09_55_lapl4_ap1048_IP

13_10_52_lapl4_ap942_IP

13_11_43_lapl4_ap879_IP

13_12_37_lapl4_ap1199_IP

13_13_25_lapl4_ap1129_IP

13_14_37_lapl4_ap1182_IP

13_15_24_lapl4_ap1977_IP

  • 撮影日時: 2021/2/11 13:09-13:20
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: Celestron C8、口径203mm、焦点距離2032mm、F10
  • エタロン: Coronado P.S.T.
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI290MM
  • 撮影ソフト: SharpCap 3.3beta (64bit)
  • 撮影条件: ser形式でgain 130-160, 1.25ms x 2000フレーム中上位60%を使用
  • 画像処理: AS3にてスタック、ImPPGで細部出し、PhotoshopCCとShapen AIで後処理

北東のカラー化したものを除いて、どれも結構淡いです。シンチレーションの成果、そこまで解像度はよくありません、それでもスピキュールくらいは見えています。
  • 面白いのは上から3番目のやつ。プロミネンスが浮かんでいます。おそらくこれ、前日に捻れてたプロミネンスが出てたので、それが千切れたのではないでしょうか。
  • 1枚目の右下のプロミネンスも淡いですがそこそこ大きくて、リング構造が見えています。
  • 一番下のはかなり淡いですが、高く飛び出しているのがわかります。
数は多いですが、どうもインパクトには欠けます。やはり黒点が待ち遠しいです。


プロミネンスのタイムラプス

続いてタイムラプス映像です。位置合わせは今回もImPPGがうまくいかず、結局Photoshoになりました。枚数も昨日と同程度なのでそこまで苦になりません。


最後にしたの方でなんどか火柱が立っています。メインのプロミネンスの動きはそれほどでもないですが、でも動画にしてみると動いているのがよくわかります。

でも今回のタイプラプス映像、1時間15分程度のものですが、撮影時間は13時半頃から14時半頃と、約3時間かけてます。でもその間に雲で遮られたり、ガイドがうまくいかなくてズレてしまったりで、その中の連続した一番長い1時間15分ぶんを切り出しています。しかも1回の撮影枚数を400枚くらいに増やしたら、1ファイルで1GB越え、これが180個くらいあって全体で200GBを超えています。一回でこれだけの量になると少し考えものです。週末の土日は晴れてましたが、新月木で夜の撮影もあるので、太陽は少し休憩です。

黒点が出たら超長時間の撮影で、黒点の変化をみてみたいです。5分おきで8時間分とかでしょうか。


2021年2月6日の太陽です。南東方向に大きなプロミネンス が出ていました。

この日の朝、ゆっくり寝ていたら朝9時過ぎ、部活に行っている子供から電話がかかってきて、
「制服忘れた、午後からサイエンススクールで制服いるから持ってきて」
とのこと。 外を見ると曇りなので「いいよ、じゃあ昼ごはんどっかで食べよう」と電話を切りました。

午前11時過ぎ、そろそろ出ようと外に出るとなんと快晴!?
「くっそー、こんな日に忘れ物しやがって」
と朝の言葉とは裏腹に、子供を恨みつつ後ろ髪を引かれながら車に乗って子供の元へ。

議論の結果早く済むCoCo壱番でカレーを食べ、頑張って早く戻りましたが、自宅に着いたのは結局14時近く。もう太陽も少し西に傾きかけてます。貴重な休日の快晴なので、早々とC8とPSTの準備をします。太陽は準備が楽ですね。極軸もどうせ取れないので、そこそこあっていればよく、初期アラインメントも太陽の反射光がきちんとシュミット補正版の真ん中にいけばそのままカメラの視野に入ってきます。準備時間は実際10分くらいでしょうか。

まずはぐるっと見渡しますが、目立った黒点はなく、南東方向に大きなプロミネンスがあるくらい。南の方にフィラメントがありましたが、そこまで大きくはないので興味は引かれませんでした。とりあえずプロミネンスを撮影。

14_35_41_lapl4_ap1177_IP3_cut


14_35_41_lapl4_ap1177_IP5_cut

撮影日時: 2021/2/6 14:35
撮影場所: 富山県富山市自宅
鏡筒: Celestron C8、口径203mm、焦点距離2032mm、F10
エタロン: Coronado P.S.T.
赤道儀: Celestron CGEM II
カメラ: ZWO ASI290MM
撮影ソフト: SharpCap 3.3beta (64bit)
撮影条件: ser形式でgain 150, 1.25ms x 2000フレーム中上位60%を使用
画像処理: AS3にてスタック、ImPPGで細部出し、PhotoshopCCとShapen AIで後処理


撮影できそうなのがプロミネンス だけで、まだ少し時間があったので、撮影ソフトをFireCaptureに移し、赤道儀をASCMO経由で接続してガイドして、連続撮影をはじめました。うまくいくとC8での初の太陽タイムラプス映像になります。

5秒で50フレームほど撮影し、55秒休むというのを繰り返す設定です。安定していそうだったのでそのまま放っておいて、前回の記事で書いたケーキ作りの材料の買い出しに行きました。帰ってからもまだきちんとガイドしていましたが、もうかなり西に傾いていて、間も無く暗くてガイドが外れ、そのまますぐに太陽が屋根にかかって撮影は終了です。後で見ると、81個の動画ファイル、すなわち81分ぶんの太陽の変化が撮れていました。

FireCaptureを使った撮影時のガイドのやり方や、太陽画像のタイムラプス映像の作り方はこちらから。


でも、残念ながらImPPGでの位置合わせがどうやっても(先に暗くして円弧を出したり、明るくして扇型にしたりなどなど)うまくいきません。焦点距離が長く円弧が滑らかになるので、うまく中心と半径が掴めないようです。コントラストで見分けて位置合わせするのもやってみましたが、やはりガタガタしてしまいます。しかたないので、81枚をPhotoshopで一枚一枚手で位置合わせしました。「ファイル」->「スクリプト」->「ファイルをレイヤーとして読み込む」ですべて最初からレイヤーにしてしまうとそこそこ楽にできます。その際「名前順で並べ替え」で読み込むようにするのを忘れないようにしてください。

あとは上記リンク先の手順で大丈夫でした。10枚を1秒で表示したので、約8秒の映像になります。出来上がったタイムラプス映像です。


久しぶりの処理なので少し時間がかかりましたが、なんとか映像までなりました。思ったより動いていることがわかります。最後のところで大きな火柱が上がるのですが、この後を撮影できてたらと思います。

各コマ50フレームちょいしか撮ってないので画質が心配でしたが、アニメにすると多少のアラは目立たなくなります。時間軸があるのでかなり補完されるみたいです。少し処理は不満なところがあるのですが、Photoshopの位置合わせをできればやりたくないので今回はこれで完成とします。

明日は休日ですが晴れるかもしれません。晴れたらまた挑戦したいです。



PixInsightのPCCが動かない!

先週撮影したM78の画像処理を進めているのですが、何日か前からPixInsightのPhotometricColorCalibration (PCC)が使えなくなるという現象が起きていました。Plate solveを使った位置決めまではうまくいくのに、色合わせのところで3回エラーが起こって止まるという問題です。エラーは

PCC

のようなものです。エラーを吐き出すhttps以下のところをブラウザにコピペして呼び出すと

No catalogue or table was specified or found.

というエラーが出ます。通常はフランスのサーバーがデフォルトなのですが、他のいくつかあるサーバーを全部試しても同じ状況でした。また、PIのMac版、Windows版で試しても同じでした。


しびれをきらしてTwitterにヘルプを

しばらくしたら直るかと思って放って置いたのですが、何日か経ってもダメ。ここでTwitterに同じ症状がいないか投げてみると、次々と同じ症状の人が。PCC事故調査委員会の再招集です。



するとすかさずnabeさんが、Gaiaデータをローカルに落とす方法があると示唆してくれました。

少し調べてみると、ここにやり方が載っていました。



そうこうする間にも、誰すのちさんから世界中で同じ状況が起こっているという情報が。




その後も、うまくいったとか、やっぱりガセだったとか、DR3だったらいいかもとか、情報が乱れ飛びます。とりあえず私もDR3で試そうとしていたので、ダウンロード完了後試してみますが、やはりダメ。そもそもローカルに落としたファイルを使えているかどうかの確証がありませんでした。

その後、まず適当なファイルをデータベースとして選択してやると、位置合わせからエラーで全く動かないことが確認できたので、少なくとも位置合わせが動くときはローカルのデータベースは使っていたことが判明。ということは、GaiaファイルはローカルなものもDR2でもDR3でもダメなことが分かりました。

ここで一旦進展が止まって悩みます。

しばらくPCCの設定画面を見ていたら、どうも位置合わせはGaiaとか使っているのですが、色合わせはAPASSというのを使っているのではと思い始めました。

結論だけ言うとこれがビンゴでした。

ラッキーなことに、APASSもDR2、DR3とアップロードされています。あとはどうローカルで使うか。手順を書いておきます。


解決法

まずはここからAPASS DR9かDR10をダウンロードしてどこかに置いておきます。ダウンロードにはユーザーアカウントとパスワードが必要になります。



その後、PixInsightに移り以下の手順でローカルに落としたAPAPPを使うようにします。
  1. Process Explorerの画面を左のタブのところにカーソルを持っていって出します。タブがない場合は「View」メニューの「Explore Windows」から「Process Explorer」を押してください。
  2. かなり下の方の「Start Catalogs」の中の「APASS」をダブルクリック。
  3. 出てきた画面の右下のスパナマーク (Preferences) を押します。
  4. 「Data release」でDR9かDR10かを選びます。先にダウンロードしたファイルに合わせてください。
  5. 「Select」を押し、ダウンロードしたファイルを選択します。
  6. 「ok」を押せば準備完了。
  7. PCCの設定画面に移り、「Photometry Parameters」の「Automatic catalog」のチェックを外し、APASSDR9_XPSDかAPASSDR10_XPSDをダウンロードしたファイルに合わせて選択します。
  8. あとは普通にPCCを走らせてください。エラーが出ることなく、最後までいき、グラフが表示されると思います。


Twitterすごい

Twitterに投稿してわずか1時間くらいで解決でした。確かに最後のAPASSまでたどり着いたのは私でマッチポンプ状態(笑)ですが、nabeさんのローカルでGaiaデータが使えると言う助言がなければ、自分だけでやっていた限り絶対こんな短時間では解決策まで辿り着けなかったと思います。誰すのちさんのフォーラムの情報にも助けられました。

nabeさん、誰すのちさん、Cooさん、だいこもんさん、あんとんシュガーさん、智さん

コメント、助言、テストなどありがとうございました。みなさん事故調査委員会のメンバーですね。私も前回のPCCの色違いの時は委員に入れなかったので、今回は委員の一員になれたのかと思うと光栄です。


(追記: 2021/1/29 復帰したみたいです。サーバー上のAPASSでうまくPCC最後まで行きます。PIをアップデートしたわけではないので、Vizierの方で対応したのかと思います。)

昨年9月に自宅に遊びに来てくれたあんとんシュガーさん。その時はまだ機材を揃え始めたばかりで、長時間の撮影はできてませんでした。その後自宅前でアンドロメダ銀河を、FS-60CBをポラリスUに載せ、FUJIFILMのX-T2で約1時間半を切るくらいの時間で撮影したそうです。撮った画像は自分自身で、時にはTwitterでの猛者たちの力も借りて、PixInsightの練習も兼ね画像処理を熱心に進めてきてました。その様子はあんとんしゅガーさんのTwitterでの投稿を見てるとよくわかり、私もいくつかコメントを返し、いつかまた一緒に画像処理やりましょうと約束してました。


直前に訪問が決まる

1月22日の金曜日「そろそろどうですか?」と聞いてみたら「それでは明日の土曜日に」となり、急遽自宅に来てもらうことに。新潟の考太郎さんも以前から参加したいと表明されていたので、声をおかけしたのですが、直前のお誘いのためにやはり仕事で都合がつかないとのこと。とても残念がってくれたので、次回こそはぜひ参加していただきたいです。


到着

久しぶりのお客さんなので、午前中少し部屋を片付けました。午後1時過ぎ、あんとんシュガーさんが到着。早速見せてくれたのが、大阪あすとろぐらふぃ〜迷人会の井戸端さん製作の自由微動雲台の改良版。

IMG_1528

以前テストしたものよりも見た目もシンプルに、より頑丈そうになっていて、動きもスムーズそうでした。ただ、星を見てのテストまではできてないので、できれば実測でテストしてみたいです。ちょうどTwitterで井戸端さんと繋がって聞いてみると、揺れを収めるための制振用の柔らかい金属を挟み込んでいるとのことでした。でもこれは後から聞いた情報で、その場で見ただけではわからなかったです。これを聞いてますます実際の星で見てみたくなりました。Twitter上でも、他に手に入れられたからの意見で「相当頑丈に固定できる」との意見が出ていたので、かなりいいものに仕上がっているのかと思います。数は出ていないと思うので、手に入れられたユーザーは多分相当ラッキーなのかと思います。末長く実用レベルで使えるのか思います。


画像処理へ

さて、会話のままに引き続き画像処理になだれ込んでいったのですが、どうやってやるかが考えものでした。あんとんシュガーさんは見事にPixInsight (PI)門下になってしまって(笑)、WeightedBatchPreprocessing (WBPP)でIntegrationしたくらいの画像までは出せるようにはなっています。ただ、それ以降の炙り出しをPIの中だけでやろうとしているため、なかなか苦戦しているようです。まずはあらかじめPIでIntegrationまでした画像を用意して、今回はストレッチまで進めるところを実際にやってもらって、その後は別のソフト(今回はPhotoshop)に移して(あんとんシュガーさんはPhotoshopは持っていないので)やり方を「見て」もらう、としました。


PixInsightにて

まずIntegrationした直後の画像は、当然ですがPI上では真っ暗です。あんとんシュガーさんは、そもそもきちんと撮影できているかどうか不安で、この画像にどれくらいの情報が入っているのか理解し切れていないようでした。なかなか細部まで出てこなかったことから来ている不安だと思います。少し安心してもらいたくて、以前Twitterに投稿された画像(JPEG)から、私の方でStarNetで分離して、少しだけ炙り出した画像をTwitterで再投稿したことがあります。

Epqa74tVEAQiGyN_ABE_DBE_back

JPEGから出したものなので、情報は既に欠落しているはずです。それでもこれくらいの淡いところまで残っているので、もう素材としては十分なものが撮れているわけです。その眠っている情報を引き出すことはやはり多少の技術がいるので、今回はそこを重点的に説明することになりました。

といってもやったことは当たり前のことで、
  • AutomaticBackgoundExtractor(ABE)、DynamicBackgroungExtraction(DBE)で周辺減光など、できるだけフラット化しておくこと。
  • PhotometricColorCalibration(PCC)で恒星の色を正しいと思われるものに合わせること。
  • 主にArcsinhStretch(AS)を使って、彩度を落とすことなくストレッチすること。
がメインです。

まずABEですが、2次と4次で個別に処理してみましたが、どちらも結果にあまり変わりはなく、銀河の周りに大きなリングが残ってしまいました。ここでABEは諦めてDBEに。今回は銀河なので、暗黒帯や広い範囲にわたる星雲もなく、DBEでのアンカーは銀河以外のところに数多く、明るさの差があるところは細かく打っていきます。その結果、ABEの時よりはかなりマシになりましたが、それでもリングはうっすらと残ってしまっています。ちょうど良いタイミングでniwaさんがDBEの面白い使い方を示してくれていました。



この情報はあんとんシュガーさんが帰ってから読んだので、今回は試せませんでしたが、これでうまくリングが消えるかもしれません。それでもDBEで相当フラットになったので、M31のかなり淡いところまで出てくるようになります。ここがまず一つ理解してもらいたかった点です。

PCCはデフォルトの12等星まででなく15等星くらいまでにすること、Apartureをデフォルトの8でなく12くらいまで増やすことで、おかしな色バランスになることを防ぎます。詳しくはniwaさんたち委員会の結果を見るといいです。ちなみに私は(どこで知ったか、もう覚えていないのですが)おまじないのように15等星までやっていたので、これまで色バランスがおかしいと思ったことはないです。




次ですが、あんとんシュガーさんは色を出すのに苦労しているようなので、ASで彩度を落とさないようにストレッチしてみます。ASにはハイライトを防ぐオプションがあるのですが、これは通常オンにしておきます。ところが今回はこれをオンにしたことで少し苦労しました。ASを何段階かに分けてかけ、最後のみScreenTransferFunctionとHistogramTransformationで微調整して以下のようになりました。

_60_30__ABE_DBE1_Sam_toPS

最大にストレッチしきる手前で止めてあります。ASのハイライト防止のオプションのために恒星がサチることはいです。この状態でStarNetをかけると、一部の恒星が銀河や星雲などととして認識され、うまく分離できないという問題が出ました。恒星としての鋭さがないことが原因です。そのため、別途ストレッチを戻してから再びSFTとHTをかけて、あえて恒星をサチらせるようにすると、きちんと恒星と背景を分離できました。ここで作った恒星部をMorphologicalTransformation(MT)でDilationをかけて少し恒星を拡大してマスクとしました。

そうそう、このときあんとんシュガーさんから「サチる」がわからないと質問されました。Twitterとかでも使われてるのをみるけど意味が分からないというのです。多分これ理系用語なんですよね。「飽和」を意味するSaturationからきていますが、実験とかして電圧が測定範囲外で上に張り付いたりするときに「あ、サチってる」とか普通に使っています。

恒星をサチらせていない上の画像と、別で恒星をサチらせて作ったマスクを、16bitのTIFFフォーマットで保存して、Photoshopで開きます。でもここからはあんとんシュガーさんがPhotoshopを持っていないので、あらかたの作業工程を見せるだけになります。


Photoshopにて

Photshop上ではアルファチャンネルを利用して星マスクをかけて、銀河部分をあぶりだし、且つ銀河以外の背景のノイズを軽減します。特に銀河部の色出しは彩度、明度をともに調整しつつ自分の好みになるように調整します。中でもCamera Rawフィルターは便利なので初心者にも使いやすいと思います。

今回は星マスクを使いPhotoshopで処理しましたが、StarNetで分離した恒星画像とその他銀河を含んだ背景画像に分けた状態で処理し、レイヤーで重ねる方法もあります。ただ、PI上でArcsinhStretchを使ったために恒星が一部分離できなかったので、今回はこの方法を取ることができませんでした。後のレイヤーでの合成をうまくできるなら、初心者にはこちらの方がやりやすいと思います。

ノイズに関してはNik CollectionのDfine2やDeNoise AIが強力です。それでもこれらツールには限界はあるのと、ときには強力すぎることもあるので注意が必要です。

_60_30__ABE_DBE1_Sam_low

Photoshopに持ってくる前の画像と比べると、銀河の色は出ていますが、どこまで淡いのが出てるかに関しては、Photoshopで処理してもそこまで変わらないのかと思います。背景は銀河の炙り出しとともに荒れてきたのでDeNoiseをかけています。本当は銀河部だけのマスクを作って、銀河だけ炙り出すようなことをやるともう少しましになるのかと思いますが、今回はそこまで時間をかけることができませんでした。


課題

それらのことを含めて、まだできそうな改善の余地をあげておくと
  • DBEでもう少し銀河回りのリングをうまく除去する
  • Pink starの除去
  • 銀河部だけのマスクを使った処理、そのための銀河以外の背景のノイズ処理
  • 最後の微調整に時間をかけること
などかと思います。

結局午後6時くらいまででしょうか、5時間くらいずっとほぼ休憩なく画像処理でした。私自身いつものように紆余曲折しながら長い時間かけましたが、こういったごちゃごちゃした過程を、丁寧に一つ一つ潰しながら、時に後ろに戻って時間をかけてやっていくということを見せたかったのです。

あんとんシュガーさんはすごく熱心なので、多分今回やったこと、見てもらったことを、また自分で繰り返してくれるのかと思います。その場でも話していたのですが、前回9月にきたときにはまだ処理する画像ファイルも無いような状態だったので、すでに今回までに相当大きく進歩しています。春になれば北陸も晴れる日が増えてくるはずなので、撮影もどんどん重ねていくのかと思います。

重要なのはせっかく撮影した画像からいかに情報を引き出してやるか。環境の良いところで長時間撮影したものは処理も楽なのですが、自宅前で撮影したようなものは、画像処理もある程度手間をかけてやらなければなかなか見栄えのするものにならないです。これからも楽しんで画像処理をすすめて頂けたらと思います。



すごい雪

もう天気があまりに悪くて、全くネタがありません。たまに昼間晴れるときや、たまに雲間から星が見える時もありますが、長くは続かず、撮影も電視観望も厳しいような状況です。それにまして雪が酷すぎます。今日あたりやっと少し溶けてきましたが、庭に望遠鏡を出すのを躊躇してしまうような雪の量でした。先週末はずっと降り続いていました。自宅周りでの積雪は1mを優に超えました。

IMG_1430


日曜、久しぶりに青空を見ました。太陽望遠鏡を出そうとも思いましたが、庭も犬走りも雪で埋まって断念。それよりも車の雪かきの方が優先です。

IMG_1441

IMG_1449


際画像処理

何もネタがないので、昔の画像の再処理をしてみました。約2年前に撮影したIC443くらげ星雲です。自宅庭撮りの一環で、QBPを手に入れて結構すぐのものです。FS-60QとEOS 6Dで、ISO3200で300秒露光、約2時間半の露光時間になります。

これがBeforeで
light_DBE1_PCC_stretched_sat_ps_denose_ps2a

これがAfter

masterLight_cut_ABE_PCC_AS_MS_STF_star_Saturation2_cut


QBPを手に入れて初期の頃の上の画像と、いろいろクセなど分かった上での画像処理を施した下の画像を比較すると、随分変わっていることがわかります。細部が出ているのはもちろん、恒星の色の再現がかなりマシになりました。恒星の肥大も防げています。Hαも赤一辺倒から、青成分、緑成分も入り階調豊かになっています。


相違点

画像処理において前回と違うところがいくつかあります。
  • 同温度のダークフレームのストックがあったので枚数を増やしたこと。
  • バイアスを枚数の多いものに変えたこと。
  • PixInsightでの処理もBPPからWBPPになったこと。
などありますが、ここら辺はあまり影響ないです。大きく違うところの一つは、ストレッチ方法が柔軟になったこと。以前はおそらくArcsinhStretchで恒星が真っ赤になって、STFだけで済ませてたのが、今回は
  • ArcsinhStretchとMaskedStretchを併用したこと、その結果恒星の色がかなり豊かになっています。
多分一番影響が大きかったのがStarNetの存在です。
  • StarNetで背景と恒星部分に分けることで、背景を思う存分いじることができます。
背景の炙り出しに集中できる状態にして、どこまで炙り出せるか限界を知ることができます。いちばんの問題は、どうやって恒星を合わせるか。Photoshopで背景と恒星を合成できますが、やはりどうしても不自然さが残ってしまいます。なので最近は恒星部分をマスクとして保存し、StarNetで分ける前の画像にPhotoshop上で適用しています。それでも星マスクをうまく適用しないと、不自然さが出てしまうので大変さは残ります。Before画像の2年前はマスクを使ったりしていなかったので、背景を炙り出し切ることができていませんでしたし、逆に恒星は肥大化してしまっています。


QBPの色について

恒星に関してですが、QBPの欠点でオレンジの恒星はやはり出にくいのは補正し切れなくて、赤い星のようになってしまっています。これはUV/IRカットフィルターを併用すると解決するかもしれません。もしくはCBPだと星のオレンジ色は出ているので、再度撮影からするときはQBPよりもCBPの方がより自然になるかもしれません。

あと、星雲の色に関しての処理も初期のQBPの時の扱いから大きく変わっています。QBPはその名の通り4つの輝線スペクトルを取り出すようなフィルターのため、カラーバランスがどうしても崩れてしまいます。PCCで恒星の色は合わせますが、そのことが星雲部の色を合わせている保証は何もないはずです。しかも、そもそも恒星の色も限られた波長から、既存のデータベースとできるだけ一致するように合わせたというだけなので、一見合っているように見えても元のスペクトルが全然違い、正しいとは限りません。とりあえずは見た目で合っている恒星の色のバランスは崩さないように、星雲の方の色バランスは結構ずらしています。具体的には
  • トーンカーブで星雲の青と緑の成分を増やすことで、階調よく見えるようにしている。正しい色はわからないので、これは自分の好みに。
と言ったところでしょうか。この方法が正しいかどうかは全くわかりませんが、少なくとも赤一辺倒の、のっぺりした色よりは(見た目だけでも)良くなるのではと思っています。


ノイズ

あと、ノイズに関しはそもそも露光時間がそこまで長いわけではないので、素材としてまだノイジーなのは否めません。
  • 今回DeNoiseを使っているので、ノイズに関してはかなり軽減できています。
それでも拡大すると分かる通り背景のノイズが取り切れてなくて、多少星雲部も不自然なところが残っています。DeNoiseは細かいノイズは得意なのですが、大きなノイズがどうも苦手みたいです。もやもやのカラーノイズのようなものがどうして残ってしまいます。Nik CollectionのDfine2を掛けてからDeNoiseを施すと比較的カラーノイズが出にくくなることもあるのですが、今回は細部が出にくくなってしまったのでDfine2は使ってません。


今後の課題

この背景のモコモコカラーノイズは課題の一つです。露光時間を伸ばすのが一番の解だと思うのですが、露光時間が稼げない時もあり、画像処理でもっとうまくなんとかならないかといつも思っています。

いまだにPixInsightでのノイズ除去や、細部出しの処理を実戦投入できていません。かと言って、使ったことがないわけではなく、毎回いろんな方法を試しています。でも今のところPhotoshopとDeNoiseなどのツールとの組み合わせに結果として勝つことができていないような気がして、結局元に戻ってやり直してしまっています。DeNoiseを使うのは少し悔しい気もするのですが、今のところまだ他の手法を確立し切れていません。


 

モニターのキャリブレーションでTStudioさんからいろいろ助言を得ました。その中の一つカラーチャートを作ってみました。

参考にしたのはこのページです。



なかなかいいフリーのチャートがないというので自分で作ったとのことです。ファイルの公開まではしていないようですが、Excelを利用したらしいので、私も同じように作ってみることにしました。VBAマクロを使えば簡単にできそうです。

上の図にはHSV空間で書いたチャートが載せてあって参考になったのですが、おそらく数値と色があってないと思います。数値から計算した正しいと思われる色をHSV空間に焼き直しました。Vが大きいところの色の違いがわかるかと思います。さらにHを360を基準に置き換え階調を切りの良い60おきになるように置き換え、彩度の段階を一つ増やしました。HSVからRGBへの変換は少し苦労しました。このページが参考になりましたが、やっとHSVの数値の定義を理解できました。

また、RGBのバーも階調を増やし、HSVと一貫性を持つために、順序を入れ替えておきました。

出来上がったカラーチャートです。PNG形式です。

colorchart_03

元のエクセルファイルもアップロードしたので、必要な方は、ここからダウンロードして下さい。ダウンロードするともしかしたら拡張子に.txtとついてしまうかもしれません。「.txt」を外すとエクセルのマクロファイルとして認識されるはずです。パパッと書いてしまったため、ソースはあまり綺麗でないので読みにくいと思いますが、ご容赦ください。

とりあえず次回フジプリで画像を印刷する時に、一緒にこのカラーチャートも印刷してみようと思います。まあ、どこまで役に立つかわかりませんが、何かしら得るものはあるのかと思います。

ところで天体写真に特化したカラーチャートってできないものなのでしょうか?例えばHα、SII、OIIIの波長をRGBに落として、さらに混合色とかも合わせてチャートを作っておけば基準になる気がするのですが。でも、波長をRGBに落とすってどうやってやるのでしょうか?

少し前にカラーマネージメントができるBenQのモニターSW270Cを手に入れたことを書きましたが、ただ既存のMacBook Proのモニターとの見た目の比較をしただけで、キャリブレーションまではしていませんでした。

一方、前回の記事でフジプリに頼んで天体画像の印刷を試してみました。せっかく手元にきちんとしたプリンタで印刷されて画像があるので、今回モニターをキャリブレーションしてみて、印刷画像と比べてみました。さてさて、実際どれくらい色が一致するのでしょうか?


使用機器

今回使ったキャリブレーターはX-Rite社のi1DISPLAY PROです。ソフトは付属(実際にはダウンロード)のi1Profilerを使いました。BenQのモニターにはPalette Master Elementというキャリブレーションソフトがあるのですが、MacBook Proのモニターもキャリブレーションして見たかったので、ソフトはより一般的なi1Profileを選びました。

USBでキャリブレーターを繋いであれば、自動でi1Profileのライセンスが認証されるようです。これは毎回立ち上げるたびにライセンス認証しているみたいで、うまくライセンスが認証されないように思っても、Macにキャリブレーターを繋いでありさえすれば、しばらく待てば認証されます。


実際にBenQ SW270をキャリブレーションしてみる

キャリブレーターとi1Profilerの細かい使い方はマニュアルや他のページに譲るとして、気づいたことを書いておきます。

1. 何はともあれ「ディスプレイのプロファイル作成」を選んでキャリブレーションを始めます。「簡易モード」と「詳細モード」がありますが、今回モードは「詳細モード」しか試していません。

IMG_1158


2. 光源タイプはBenQ、Macともに「白色LED」が自動で選択されたのでそのまま進めます。

IMG_1161


3. 最初は一般のモニターで見る場合の標準と言われている6500Kに合わせてみます。選んだところは3カ所だけ。
  • 白色点は「D65」というのが6500Kを意味し
  • 輝度は「120cd/m^2」
  • ガンマを「2.2」
とします。その他は全部デフォルト設定です。

IMG_1163

IMG_1166


4. モニターが対応している場合は調整を全部もしくは一部を自動でやってくれます。今回使ったBenQ SW207Sは自動調整に対応しているようなので「自動ディスプレイコントロール(ADC)」を選びました。

IMG_1170

手動は「ブライトネス、コントラスト、RGBゲイン」が調整できるようで、こちらも試しましたが、ブライトネスは調整でき、コントラストは調整そのものが出てこなくて、RGBゲインは調整してもなにも反応がなかったといった状況だったので、SW207Sの場合はこれ以降全て自動で調整するようにしています。(後で気付くのですが、ここが「トラブル2」のポイントでした。最後の方に解説してあります。)

IMG_1172


5. 結果は、元々見ていた設定に比べて多少赤側により、結構暗くなりました。最初は違和感がありましたが、でも不思議な物でものの数分も見ていると慣れてしまって、これが普通だと思えます。

6. 同じi1Profileの「品質検証」でキャリブレーション の結果を検証してみても(もちろんエラーバーによりますが、何度か試しても変な失敗をしない限り普通に平均ΔEが1以下、最大ΔEが2以下もしくは3以下になります)合格と出ますし、何度か繰り返してもかなり再現性がありそうです。ここまででとりあえず、目的のパラメーターにすることは可能だということは分かりました。

その後、大きなトラブルにあたり何日も悩むのですが、これについてはこの記事の最後のほうに「トラブル1」として書いておきます。興味がある方(特にMacな方)は読んでみてください。


MacBook Proのモニターをキャリブレーション

次に同じことをMacBookProのモニターでやってみます。同様にD65、120cd/m^2、ガンマ2.2です。

特筆すべきはMacBook Proの応答の線形性です。ほぼ一直線です。

IMG_1190


BenQ SW207Sは少なくとも真っ直ぐにはなりませんでした。

IMG_1174

キャリブレーションした2つの画面を比べて見ても、非常によく似た色合いになっています。一応写真に撮ったので載せておきます。iPhoneでの撮影なので、かなり色調補正され強調されてしまって元の色の再現性はできていないですが、相対的な違いはわかるかと思います。

IMG_1177

IMG_1181

ちなみに、MacBook Proで以前好みだったプロファイルだと、以下の右の画面のようになります。写真だと分かりにくいですが目で見ると相当違っていて、かなり青みがかった画面で普段作業していたことがわかります。

IMG_1193


IMG_1195


印刷用のプロファイル

次に、印刷用のプロファイルとしてD50、90cd/m^2、ガンマ2.2というのでSW270Cをキャリブレーションしてみました。輝度は議論があるところですが、「星の牧場2」のよっちゃんさんによると、90cd/m^2くらいがよく印刷結果と合うとのことなので、とりあえずこの値で試します。

と、ここでまた深刻なトラブルが。複数のプロファイルがうまく切り替えられません。こちらも最後の方に「トラブル2」として、解決策とともにまとめておきます。

同様に、MacBook Proのモニターにも同じD50、90cd/m^2、ガンマ2.2を適用します。この時点でBenQ SW207SもMacBook Proも、6500Kでも5000Kでも、目的の色になることは確認できました。i1Profileの「品質検証」で検査してもかなり再現性があります。両方のモニターを目で見比べても、どちらの色温度でもよく似た色になっています。



実際に印刷したものと比べてみる

これらの結果を、前回フジプリで印刷した結果と比べて見ます。印刷物を見るときは、本当は印字をした設定のはずのD50用のライトというのが売っていて、この光の元で比較すべきです。でもこのライトが高い!なので今回は天井の電球色と、机の位置や傾きを調節できるスタンドライトの昼光色(FHC22ED)を適当に混ぜて3つの色が同じように見えるようにして見ました。

IMG_1213

3つを比べた結果が下になります。繰り返しますが、iPhoneで撮っているので、多少画像処理が入るため、絶対的な色は派手目に出てしまっています。相対的な違いを見てください。

IMG_1200

見ている限りはそこそこ色は合っている気がします。むしろ3枚モニターがあるみたいで、印刷とモニターがここまで合うものなのかと、ちょっとびっくりなレベルです。あえて言うなら、Macが少しずれているでしょうか。でもズレ具合は6500Kの時に示した写真程度で、まあ私的には許容範囲内かと。モニター同士の色の違いは写真で撮った方が顕著になるようです。逆に印刷は目で見ると光の当たり具合の影響(見ている位置も含めて)なかなか違いが判断できなくて、むしろ写真に写した方がどれくらい合っているかわかりやすいです。

印刷した色がどれに一番近いか、モニターの元の色と6500Kと5000Kをじっくり目で見て比べると、やはり5000Kでした。もちろん環境光の影響をものすごく受けるのですが、例えば背景の色が比較的わかりやすく、明らかに5000Kが一番近いです。それでも本当に一緒の色かと言うとやはり違って見えて、印刷されたものの方が一番赤く、また色温度にあまり左右されない緑が印刷されたもののほうが一番濃かったのです。

比較のために、MacのモニターだけD65 (6500K)、120cd/m^2、ガンマ2.2に戻したのが下の写真になります。

IMG_1203

写真でもMacのモニターだけ明らかに青みがかっているのがわかります。こちらは目で見た方がもっとよくわかります。

見慣れると6500Kが一番自然な色に見えてきます。以前好きだった色はかなり青によって見えてしまいます。5000Kはやはり黄色っぽく見えてしまいますし、暗いです。なので普段使いでは6500Kにして、輝度をもう少し明るくして使うことにします。


Macの「補正」で色合わせとか...

あと、Macについている「補正」機能も試しましたが、温度とガンマを合わせてもどうも全然違う色になるようです。なのでこの機能はこれ以上使うことはないと思います。

というより、キャリブレーターを一つ持っていれば、Macでもカラープロファイルで調整できる範囲内(ADC(自動調整)を使わないソフト的なと言う意味)で十分に色合わせができます。他のハードウェアキャリブレーションがない、一般のモニターではどうなのでしょうか?結局今回はSW270Cのハードウェアの調整はしていないことになる(下の方の「トラブル2」を参照)と思うので、もしかしたら色域とかの問題はあるものの、安いモニターでもそこそこの(私くらいの素人が、印刷したものと比較するくらいのレベルでの)色合わせくらいはできるのかもしれません。


トラブル1: HDRの罠

やっている途中に大きな問題が起きました。

一旦キャリブレーションが終わって、比較しようとして以前のプロファイルにしても全然元の色には戻らず、明るすぎになってしまいます。

ところが一旦Macと接続を外したり、BenQの電源を切ったりして、再びMacBook ProとAW270Cを接続すると、明るすぎだった元の設定が、以前のようにまともに見えるようになります。そうすると今度は、キャリブレーションした設定が暗く見え過ぎてしまいます。こうなるとせっかくキャリブレーションしたプロファイルも意味がなくなってしまうので、一からやり直しです。

ここはかなり悩みました。その後、何日かいじってやっと原因がわかりました。
  • MacBook  ProをUSB-Cで繋ぐと、SW270のHDR(ハイパーダイナミックレンジ)モードが自動でオンになっていたのです。この場合、SW270Cの「カラー調整」が「輝度」「コントラスト」「シャープネス」「彩度」「色のリセット」以外は全て無効になります。SW270C上では他のカラーモードを選ぶことさえできません。
  • ところが、キャリブレーションを進める過程で、「測定を開始」を押した後にすぐ、強制的にカラーモードはHDRオフになり、その状態でキャリブレーション が進み、カラープロファイルが作成されます。キャリブレーション 後確認してみると「ユーザー1」が選ばるようです。その選ばれたモードは何かモニターを操作するまでは持続します。
  • i1Profileを立ち上げたままBenQの電源を一度切ると、i1Profileが(誤動作で)落ちる。その後、自動でHDRモードに戻ってしまい、キャリブレートしたプロファイルで見ると画面が暗く見えるなどの問題がある。
  • 一旦Macと接続を外して再度接続すると、モニターが認識されないとう問題がある。BenQの電源を一度切ったりするとモニターが認識されるが、自動でHDRモードに戻ってしまい、キャリブレートしたプロファイルで見ると画面が暗く見える。
とまあ、バグ検証のように色々やってみたのですが、結局のところHDRオンの状態でキャリブレーションをすると上記のカラーモードの強制変更の問題をどうやっても回避できませんでした。

結局どうしたかというと、HDRモードをオフにしました。でもこのHDRモードをオフにするやり方がBenQのマニュアルとかサポートなど検索しても全く出てこなくて「条件を満たせば自動でHDRモードが選択されます」とあるだけです。逆に言えば条件を満たさないようにすればHDRをオフにできるはずなので、色々探してやっと見つかりました。Macの方のの設定にそれがあります。

「システム環境設定」の「ディスプレイ」を選んで、「BenQ SW270C」の「ディスプレイ」を選ぶと「ハイダイナミックレンジ」オプションが見つかりました。これをオフにすると色々うまくいくようです。

HDRをオフにした後、カラーモードを「Adobe RGB」にして、キャリブレーションを一からやり直しました。キャリブレーションが終了するとカラーモードは「ユーザー1」になりますが、今度はUSB-Cケーブルを抜き差ししても色はキャリブレーション されたままの色で、変なことにはなりません。

でもこれ、まだ問題を抱えていることに後で気付くのですが、詳しくは次の「トラブル2」を見てください。


トラブル2: ADC(自動調整)と複数のカラープロファイル

ここでまたトラブルです。SW270Cで2種以上のカラープロファイルはほとんど意味をなさないことがわかりました。とにかくキャリブレーションするとSW270Cの中のカラーモードの「ユーザー1」にその設定が保存されます。次に別のキャリブレーションでカラープロファイルを作っても「ユーザー1」が上書きされてしまい、元のプロファイルに戻すことができなくなるのです。なのでキャリブレーション 前後の比較がうまくできません。

そこで「カラー調整」から「色設定を保存」にして、設定を「ユーザー2」にコピーします。その上で新たにキャリブレーションします。新しいキャリブレーション の設定は「ユーザー1」に入るので、元に戻したい場合には「ユーザー2」を選べばいいというわけです。でもこれ、Macの環境設定の「ディスプレイ」から行ける「カラー」のところにそれぞれのキャリブレーションで保存されたプロファイルが、全く意味をなさなくなります。どうも設定内容を全てSW270Cの設定に押し付けてしまうようです。ここら辺はもう少しやり方がありそうなので、引き続き試してみました。

解決策としては「自動ディスプレイコントロール(ADC)」も手動調整「ブライトネス、コントラスト、RGBゲイン」も両方とも選択しないことです。そうすると、調整結果が.iccのカラープロファイルの中に反映されるようです。検証しても最大許容エラーで2以下でも合格しますので、再現性もあるようです。

さらにこのことから、もう強制的に「ユーザー1」に設定が保存されることもなくなるので、最初からAdobe RGBにしておけば、色範囲が広いカラーモードでキャリブレーションができて、その設定がファイルという意味でのカラープロファイルに反映させるのかと思い試しました。狙いはバッチリで、Adobe RGBのまま、D65、120cd/m^2、ガンマ2.2もD50、90cd/m^2、ガンマ2.2も、再現性込みでカラープロファイルを選ぶだけで切り替えができるようになりました。

これでやっとまともなやり方にたどり着いたことになります(多分)。でもHDRとADCの適用範囲、ものすごくわかりにくいです。もう少し改善して欲しい気がします。


その他、細かいトラブル

もう一つ気づいたトラブルですが、キャリブレーション 最後にカラープロファイルを保存するときののファイル名を変えられない時がありました。わかりにくかったのですが、日本語入力モードになっているときでした。入力はできるのですが、保存されたファイル名は入力を無視してデフォルトのものとなってしまいます。一番の問題は日本語モードになっていても半角でファイル名がきちんと表示だけされているので、気付きにくいことです。英字入力モードにすれば普通にファイル名を任意のものにできます。

ボタンや選択が全くできなくなる時があります。多分これはバグかと思います。i1Profile、もう少しきちんと検証して欲しいと思います。

ところで、色温度を簡単に測定する方法はないのでしょうか?キャリブレーションの時に、マニュアル調整を選ぶと、調整時にその時の色温度を測定してくれて表示してくれます。それを設定値に合わせろと言うのですが、調整時でなくてただ単に測定だけしてくれるモードがあればいいのですが。今のところ測定だけという方法は見つかってません。


まとめ

長かったのですが、まとめると
  • 今回、設定を変える前の元の色、6500K、5000Kと比較しました。SW270Cでも、MacBook Proのモニターでも、設定を変えるとはっきり違いがわかります。
  • BenQ SW207SもMacBook Proもそれぞれ同じ設定でキャリブレーション すると、目で見ても見分けがつかないくらいのレベルでかなり近い色になります。
  • 自分が好きな色(元々使っていた色)はかなり青より(高い温度)だと言うことがわかりました。また、かなり明るい画面でも全く気になってなかったこともわかりました。

比較的新しいMacと、一部のBenQモニターの組み合わせの場合、気をつけることとして、
  • HDRモードにはしない、もしHDRモードになっていたらMacの環境設定のディスプレイからオフにする。
  • カラーモードはAdobe RGBを選んでおく。
  • ADC(自動調整)はオフ、マニュアル調整もオフ。
  • 一度キャリブレートしたらSW270Cの設定は弄らず、カラープロファイルのみで設定を切り替える。
というのが重要です。でもよく考えたらHDRモードが使えないというのは、ある意味惜しいことなのでしょうか?ここら辺はまだ私には謎です。

今回、トラブル記事など冗長で長くなっているだけの気もしますが、私自身後から見てもわかるようにと、他にも悩んでいる人もいるかもと思い、そのまま残しておきます。誰かの役に立ったら嬉しいな。


私の所属する富山県天文学会の写真展があるとのこと。条件はA3ノビで各自で印刷して提出です。問題は私はプリンタを持っていないので、どこかで印刷を頼まなければいけません。ずっと前、まだ星をはじめて1年も経たない2017年初めに富山市天文台で天体写真展があったときに、キタムラの店舗で印刷したことがあります。 あの時のサイズはA4でした。多分「こだわりプリント」ってやつかと思いますが、値段は1枚あたり600円だったとの記録が残っています。便利なところは、店頭なのですぐに印刷結果を手に入れることができることです。問題はサイズで、基本的にA4くらいまでなんです。今回は少なくともA3くらいまで印刷できるサービスが必要になります。

今回ネットをあさって見つけたのがFUJICOLORデジカメプリント、略して「フジプリ」だそうです。 

 

ここの「価格表」のところを見るのが一番わかりやすいのですが、「プロ仕上げ」の中の「大伸ばしサイズ」というのがほぼA3サイズ相当とのことです。しかも値段が277円(2020年11月7日)とかなり気楽に頼める金額です。提出締め切りまで5日しかなかったので、とりあえずこれで頼んでみました。

頼み方は至って簡単。「注文する」から進んでいき、A3になるのでほぼ一択の「プロ仕上げ」の中の、紙種類が「最高級レーザーペーパー プロ仕上」になります。大きなサイズでも紙種類で「ラスターペーパー(微粒面)」や「クリスタルペーパー(超光沢)」も選べるようですが、サイズが6切、4切、4切ワイドと日本規格の大きなサイズだけに制限されてしまうようです。値段はそれでも最も高いものでも1枚当たらあたり1000円以下なので、コスト的にはリーゾナブルかと思います。今回はテストの意味もあり、A3ということで安価な「最高級レーザーペーパー プロ仕上」にしてみます。

画像ファイルを適当に選びます。複数ファイルももちろん選べます。ポイントはファイルフォーマットはJPEGしか受け付けていないところでしょうか。本当は16bitフォーマットを受け付けてくれると嬉しいのですが、これは仕方ないです。

写真を登録した際の設定は至って簡単。選択肢は4種類で、
  1. 日付情報の有り無し
  2. 色調自動補正の有り無しサイズ
  3. サイズの選択
  4. 枚数
だけです。この中で特に注意を必要とるすのが「色調自動補正」です。天体写真の場合はこれは「無し(チェックしない)」にすべきです。デフォルトでは「有り(チェック済み)」になっているので注意です。複数の画像を印刷する場合には、一番下の「全画像一括指定」が楽です。

サムネイルのここの画像のところに赤い点線の枠が見えていて、これが実際の印刷範囲になります。画像をクリックすると、少し大きな画面が出て来て、この枠を変更することができます。縦横比を変えることはできませんが、位置や縮小することができます。

あとは特に迷うところはないでしょう。送料は枚数に関わらずかかりますのでご注意ください。ゆうパケットだと200円と安いのですが、サイズや枚数によってはこれだと入らずに宅急便の700円のほうになる時があります。今回はA3だったこともあり宅急便の方しか選択することができませんでした。

10月31日に頼んで11月4日には自宅に送られて来たので、実質4日で届いたことになります。締め切りの11月5日になんとか提出して間に合いました。提出したのは、色々迷ったのですが、網状星雲と、富山であまり撮影できなかったネオワイズ彗星、科学博物館の方のリクエストで天の川リフレクションズの3枚です。

IMG_1124

今回は11枚の印刷を頼んで、送料込み、税込みで3500円程度。出来上がりを見ると、少なくとも私程度のこだわりでは十分すぎるものでした。光沢も期待以上に十分あります。色も普段のMacbook Proで画像処理している時と全然遜色なく、ほぼ想像通りでした。

自分で天体写真をプリントしたことがないですし、天文雑誌に投稿したこともないので、実際どの程度のレベルのプリントなのかはよくわかりません。でも自分で額縁に入れて見ている分には全然満足です。この値段ならが相当気軽に印刷に出すことができます。

送付は、左に見えるような紙ケースで送られてきて、実際の写真は2枚のボール紙で挟まれてプラスチック袋に入っています。紙ケースには

IMG_1126

のようなシールが貼られているので、へんな風に曲がって送られることもあまりないと思います。

ところで、これで天文雑誌に投稿したらどうなのでしょうか?これで採用されている人がいるのなら、少し挑戦してみてもいいかもしれません。

何日か前、Twitterでまりもさんという方が画像処理に困っていて助けて欲しいとの呼びかけがありました。


ちょっと気になってたんですが、撮影と画像処理で疲れてしまっていてお盆の最終日になってしまいました。


Twitterで声かけ 

ちょうどペルセウス座流星群のブログの記事も書き終えて少し時間があったので、Twitterで「Zoomで画像処理やってみませんか?」と声をかけたらすぐに返事が。その後ダイレクトメールで個別に連絡を取り、16時過ぎから早速Zoomで下打ち合わせ。もうすでに誰かが助けてくれたかと思っていたのですが、聞いてみるとまだ私だけだったみたいです。天体写真に関しては大御所のような方もいらっしゃるので、私なんかがとも思いましたが、多少なりとも力になれるならと。もともと画像処理をZoomでいろいろ検討しながら進められないかと思っていたこともあるので、私にとってもいい機会でした。

さらにいろいろ聞いてみると、大学まで北海道で、就職の時に埼玉に出てきたとのことです。まだかなり若い方にもかかわらず、星歴はなんと16年。私よりずっと長いです。子供の頃からずっと星が大好きで、今はステラメッセンジャーとしてプラネタリウムとかいろんなところに顔を出しているそうです。関東に来たのもいろいろ交流できるからとか。

北海道の空はものすごく綺麗だったとのこと。天の川もごくごく普通に見えるそうで、うらやましい限りです。撮影の方は学生の時の天文部で、最後の学年の時にカメラを手に入れてから始めたそうです。今回も天の川を撮影したけれどなかなかうまく処理できないから困っていたとか、いろいろ余分なことも含めてしばらく話していました。

さて、今回の目的と状況ですが、
  • 伊豆半島の下田で撮影した天の川をうまくあぶり出したい。
  • 下田は光害はあまりなく、十分暗かったはずだが、画像処理で明るくしようとしても天の川がうまく出てこない。
  • 四隅が暗いので、直したい。
などです。

Twitterにあがっている写真を見たらずいぶん青かったので聞いてみたら、やはり青をベースにしたいとのこと。私も青い夜空は好きなので「Zoomで話しながら青をベースに天の川を炙り出す方法を検討しましょう」ということになりました。

その際、カメラやレンズの撮影状況聞いたところ、NikonのD5300に添付の18mm F3.5のレンズを使い、ISOが(多分)12800で20秒で写したとのことでした。処理ソフトはNikonのViewNX 2をつかっているとのことです。とりあえず撮影したファイルを送ってもらい、私の方でもViewNXを一度使ってみてファイルを触ってみるので、午後5時に再びZoomで再開しましょうということに。

さて、急いで準備です

まりもさんが夕方2時間くらいしか空いていないというので、5時からに設定しましたが、この時点でもう残り30分弱。どこまでできることやら、少し焦ってしまいます。

実は、うまくいきそうならTwitterで呼びかけて公開しようという話もしていました。まりもさんは全然OK、でも私の方でソフトの確認がうまくいかず、結局二人で話すことになりました。というのも、ViewNX 2というのは旧版のソフトにあたり、最終バージョンが5年前で、私のMacではインストールすることもできませんでした。後継でのViewNX-iというのがリリースされているようなのですが、インストールはできてもうまく立ち上がらず、メモリを200GB!!も食ったと出て応答無しで止まってしまいます。仕方ないので、まりもさんは持ってないのですが手持ちのPhotoshopをメインに、少しPixInsightで補足することにしました。

下田で撮影した天の川のRAWファイルを2つ送ってくれて、午後5時まである程度見たのですが、意外なほどノイズが多いです。キットレンズで明るくないにしても、通常のあぶり出しではほとんど出てきません。時間もないので、PhotoshopのRAW filterでレンズ補正で周辺減光を落とすのと、PixInsightでABEだけかけてカブリを落としました。少し出そうかなというところでもう時間です。5時ちょうどくらいに、Zoomに再びまりもさんが入ってきてくれました。


Zoomでの画像処理開始

さて、早速画像処理の解説の始まりです。

IMG_0462a
顔出しOKとのことでしたが、一応ぼかしておきました。

最初に「ノイズが思ったより多いみたいです」と少し話すと、どうも露光時間が間違っていたようで「1枚目が5秒、2枚目が10秒だった」とのことです。なるほど、確かに5秒ならあのノイズは納得です。聞いてみると、露光時間を伸ばしたら明るくなりすぎたとのことなので、おそらくISO12800が高すぎたのかと思います。とりあえず少しましな2枚目の10秒のほうで進めることにして、View NXが動かなかったことを説明して、手持ちのPhotoshopをZoomで画面共有して進めてみることにしました。

処理はまりもさんに見てもらうために、再び一から始めます。まずはオリジナルの画像。

01_DSC_0400_org

淡いですが、それでも天の川も十分に見えています。当然周辺減光もあります。周辺減光を生かして天の川をライトアップさせたように見せる手もありますが、ここではまりもさんの希望通り周辺減光をとってみます。

Photoshopで期待したのは、RAWファイルの読み込み時にレンズのプロファイルから周辺減光や歪みが補正できることです。ただ、まりもさんがPhotoshopを持っていないということなので、こんな方法がありますよという例を示すことになります。

02_DSC_0400_corner

最初のと比べると、周辺の暗いのがなくなっていることがわかると思います。

周辺減光をとったあとも、カブリが結構残っていたので、PixInsightのABE (AutomaticBackgroundExtractor)を使うと簡単にカブリがとれますよとかいうのを紹介しました。

03_DSC_0400_DBE2

特に上下の明るさの違いが補正され、さらにホワイトバランスもある程度撮れているのがわかります。

でも、最初から有料の凝ったソフトを使うのは大変なので、できる範囲で始めてくださいというは強調しておきました。重要なのは、周辺減光やカブリをとると、より淡いところが炙り出せるようになるということを知ってもらうことです。

あと、同じ画角で何枚か撮影したとのことなので、スタックするとノイズが減りますという話もしました。スタックは有料ソフトが使いやすいのですが、無料だとDSSとかもあります。固定撮影とのことなので、本当はPixInsightが星を認識して画面を歪ませて位置を合わせてくれるのでいいのですが、それに代わるものとしてSequatorでも近いことができます。ただ、こちらも最初は大変なので「まずは露光時間を30秒くらいまで伸ばして、ISOを3200くらいまで下げて撮影するだけで、かなりマシになるはずです」ということを話しました。

その他、Dfine2やDeNoiseなどのノイズ緩和ソフトも紹介しましたが、やはりカラーノイズとかが残りまくるので、試しただけで採用はしませんでした。

結局いつもやるように、いろんなことをうだうだ試していいものを残していくという、いつもやっている処理を見てもらったような形になります。小1時間なので大した処理もできなくて、結論らしい画像も仕上がらなかったのですが、そんなうだうだ過程を見てもらったのが一番だったかなと思っています。


GIMPの紹介

解説の中で、有料のPhotoshopの代わりに無料のGIMPを紹介しました。以前このブログでEOS kissで天の川を撮ろうというのを特集したのですが、

 

 

 

この時にGIMPの使い方を書いてあるので、まりもさんにも少し紹介しておきました。元々娘のNatsuのために書いた記事ですが、改めて読み直すと露光時間が短いとか、処理してもノイズが目立つとか、今回と状況がよく似ています。誰もが一度は通る道なのかもしれません。

GIMPから始めるのはいい経験だと思います。Photoshopを使った後にGIMPを使うと、さすがにPhotoshopは有料だけあるなと思うのですが、それでもGIMPでもPhotoshopでも処理の概念は基本的には同じです。GIMPが不満になったら月980円のコースを始めるのがいいでしょうか。

一つ注意点があって、GIMPはRAWファイルを直接読み込むことができません。Canonもそうだったのですが、今回NikonのRAWファイルの.NEF形式もやはり読むことができませんでした。ViewNXとか何かで別途読み込んでから.tif形式に変換して読み込むのかと思います。その際、tif形式は16ビットで保存するようにしてください。今のGIMPは16ビットの画像ファイルを扱うことができるので、淡い画像を出すのは有利です。


Zoom終了後

結局時間内では、レンズの歪み補正が悪さをして炙り出すと同心円状のノイズがでる、ABEだとカブリ除去が不十分とかで、Zoomが終わってから少し補正して、改めてまりもさんにファイルを送っておきました。これまでの上の写真も含めて、改めてZoom終了後に処理した過程なので、Zoom中に示したものよりも少しマシになっています。

ABEの代わりにDBEを使ったときのものです。

IMG_0467
天の川を避けて補正する点を打っていきます。
すみません、画面をiPhoneで撮ったので写り込みがあります。

DBEを含めて処理した最終画像です。
04_DSC_0400_DBE3

さらに少し青味をかけたものです。
05_DSC_0400_DBE3_blue

露光時間が短いのもあり、炙り出しも私のテクニックではここら辺が限界かと思います。メールの中に、次回撮影する時は露光時間を伸ばすことと、ISOを下げることを書いておきました。往々にして、きちんと撮影した画像ほど後での処理が必要なく綺麗に自然に仕上がって、条件が悪い画像ほど後での処理が大変で、ゴテゴテと不自然になっていくものです。

あと、Zoomの中でも話したのですが、画像処理は決してやっている本人がすごいのではなく、このようなツールを開発してくれた人がすごいだけで、我々はそれを無料、もしくは少しお金を払って使わせてもらっているのだというようなことも伝えておきました。


終わってみて

画像処理をZoomで中継して説明するというのは初めてのことでした。なかなか時間内には終わらなかったですが、それでもまりもさんは喜んでくれたようです。

私自身も十分楽しかったです。

次回、もう少し露光時間を伸ばして撮影できたら再びやりましょうと約束しました。勝手も多少分かったので、できれば今度はもう少し準備に時間をかけて、公開して他の方にも参加してもらってやってみたいと思います。

ネオワイズ彗星の画像処理をしていて、検証できたことが一つありました。バイアスノイズの影響です。

4連休なのに天気がずっと悪くてどうしようもないです。少しでも見えれば電視観望くらいと思っているのですが、さすがに雨が降っているようでは手が出ません。仕方ないので画像処理時少し時間を費やしました。


なぜか縦縞ノイズが残る?

まずこちらを見てください。

integration1_ABE_DBE2_STR_stripenoise_cut


初日に撮影したうちの処理途中のネオワイズ彗星を少し見やすくしたものです。炙り出しを進めると縦方向に縞ノイズがあることが分かります。このノイズ全体にあるのですが、特にダストテイルの真ん中下部が分かりやすいかもしれません。分かりにくい方は今見ているモニターの明るさをできるだけ明るくしてみてください。

この時は速報性重視で時間が勝負だったので、撮影から帰ったその夜中に、しかも朝には仕事があるにもかかわらず、PixInsightでライトフレームだけ使い、バイアス補正、ダーク補正、フラット補正をしていない状態で出てきたものです。

このノイズがあるために画像処理を控えめにして縦縞ノイズを目立たないようにしたものをブログに載せています。コメントでRAINYさんから「屏風絵のようで和を感じる」などと評価いただいたのですが、私はそんなに心の綺麗な人間ではないので、本当はもっと炙り出したかったのです(笑)。その時のコメントでこっそり書いてますが、まだまだ彗星の画像処理も未熟で迷走状態だったわけです。


縦縞ノイズの原因

原因は比較的はっきりしています。マスターバイアスフレームを炙り出したものを見てみます。

20191109_bias-6D_ISO1600_s4000_x100

縦縞の様子が似通っています。最初は何もノイズ処理をしていなかったので、取り除いていなかったバイアスノイズが出てしまったと推測されます。


真面目にノイズ処理をしみた

1回目の撮影はあまり真面目にノイズ処理をやらずに縦縞ノイズが残ってしまったので、2回目の撮影ではきちんと各種補正をしようと思い、PixInsightで
  • バイアス補正あり、ダーク補正あり、フラット補正あり
で画像処理をしました。詳しく言うと、
  1. ライトフレームISO1600、30秒露光を20枚に対して
  2. バイアスフレームはカメラにキャップをして、暗所で撮影、ISO1600で最短露光の1/4000秒を100枚スタック、ただし半年以上前に撮影したもの
  3. ダーク フレームはカメラにキャップをして、暗所で撮影、ISO1600で30秒露光を50枚
  4. フラットフレームはライト撮影時の105mmレンズを開放のF2.4にして、ISO100で1/50秒露光で50枚、ここにあるように障子の漏れ光を利用して昼間に撮影
となります。結果を見ます。

masterLight_BINNING_1_FILTER_NoFilter_EXPTIME_30_integration_DBE

全ての補正をしたのでこれでOKと思っていました。でもまだ縦縞ノイズが残るんです。なぜでしょう?ここから迷走して少し時間がかかってしまいました。

でも、鋭い方ならここの時点でピンと来た人もいるのかと思います。この時点で全てのヒントは出ているので、もし理由を考えたい方がいたらここでじっくり考えてみてください。
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.
.


縦縞ノイズが残った原因

何が問題だったか、答えを言いますとフラットフレームだけISOを100として撮影していて、その他ライト、バイアス、ダークフレームのISO1600と違っていたことが原因です。

フラットフレームを撮影する際、昼間の障子紙越しの光を使ったのですが、十分明るいのでISO100、1/50秒で撮影しました。この際のISOがライトフレームの1600と大きく違ったことが問題だったというわけです。ISO100で撮影したフラットフレームに残っているバイアスノイズが、ISO1600で撮影したライトフレームのバイアスノイズを補正できなかったのです。

その証拠にライトフレームと合わせるためにフラットのISOを1600と上げ、その代わりに露光時間を1/2000秒と短くして撮影し直し、上記で試した
  • バイアス補正あり、ダーク補正あり、フラット補正あり
で、フラットファイルだけを新しいISO1600のものに変更して処理し直したものを示します。

masterLight_BINNING_1_FILTER_NoFilter_EXPTIME_30_integration_DBE

これまで出ていた縦縞ノイズが綺麗さっぱり消えています。分かりやすいように目立つ場所の比較をしてみます。左が間違ったISO100のフラットフレームで補正した画像、右が正しいISO1600のフラットフレームで補正した画像です。

comp_center

明らかにライトフレームと違うISO100の補正では縦縞が残っていて、ライトフレームと同じISO1600では補正がうまく行っているのがわかると思います。

ここで一つ結論が出ます。

以前紹介した短時間で撮影したフラットフレームは、ライトフレームとISOを合わせる必要がある。そうでないとバイアス補正がうまくいかない。

ということです。以下のページを見て参考にされた方がいましたら、是非とも今回の結論に合わせてISOを揃えるようにしてください。





このような淡い縦縞ノイズは、相当な炙り出しをしない限りは問題にならないかもしれませんが、今回のような彗星の淡いテイルなどは確実に影響を受けます。最初シンクロニックバンドに直交するように縞が出てしまって「なんじゃこりゃ?」となったわけです。

実はこの短時間フラットフレーム撮影のISOを合わせた方がいい件、確かどなたかがコメントかTwitterで指摘してくれていたと思ったのですが、その発言を見つけることができませんでした。今回はやっとここが検証できたことになります。

これでめでたしめでたしかと思いきや、でも実はそうでもなかったんですよね。これ以降詳しく書きますが、こちらの方の検証で相当時間を食ってしまったというのが実情です。


ここからがバイアス補正の謎

さて、これまでの議論が正しければ、フラット補正やダーク補正なしで、正しいISOのバイアス補正だけをした場合も綺麗に縞ノイズが消えるはずです。ところが、ところがですが、
  • バイアス補正あり、ダーク補正なし、フラット補正なし
という状態で処理した画像を示しますが

masterLight_BINNING_1_FILTER_NoFilter_EXPTIME_30_integration_DBE

上の画像が示す通り、なぜかバイアス補正だけでは縦縞ノイズは消えないんですよね。いろいろ検証しましたが、いまだに謎です。やったことは

縞ノイズが残った場合
  1. バイアス補正なし、ダーク補正なし、フラット補正なし
  2. バイアス補正あり、ダーク補正なし、フラット補正なし
  3. バイアス補正あり、ダーク補正あり、ISOの違うフラット補正あり

縞ノイズが消えた場合
  1. バイアス補正あり、ダーク補正あり、正しいISOでのフラット補正あり
  2. バイアス補正なし、ダーク補正なし、正しいISOでのフラット補正あり
  3. バイアス補正あり、ダーク補正なし、正しいISOでのフラット補正あり
です。ここからわかることは、とにかく正しいISOでのフラットで補正でないといずれも縦縞ノイズが出てしまうということです。

繰り返しになりますが、以下の2通り
  1. バイアス補正なし、ダーク補正なし、フラット補正なし
  2. バイアス補正あり、ダーク補正なし、フラット補正なし

でバイアス補正が共にされていないという事実から、バイアスファイルに問題があるのではとも思いました。半年以上前に撮影されたものなので、もしかしたら温度とかの条件が違うからかもしれないからです。念のため、今回さらに新たにバイアスフレームをISO1600、露光時間1/4000秒で100枚撮影しました。そのバイアスフレームを使って、
  • バイアス補正あり、ダーク補正なし、フラット補正なし
で、試しますが、

masterLight_BINNING_1_FILTER_NoFilter_EXPTIME_30_integration_DBE

上のようにやはり縞ノイズが残ってしまいます。バイアスフレーム自身は直近で撮影していて流石に問題ないと思うので、むしろバイアス補正が全く効いていないような状態です。確かにライトフレーム撮影直後にバイアスフレームを撮影したわけではないので数日の時間差はありますが、それでもその程度の時間差でバイアス補正が効かないとしたら、やはりこの補正方法自体が役には立たないでしょう。

結局この新しいバイアスフレームでもいろいろ試しましたが、結果は全て上と同等で、正しいISOでのフラット補正をした場合のみ縦縞ノイズが消え、バイアス補正は縦縞ノイズに何ら関係ないとなりました。

一方、ダーク補正につても考えます。単純に考えるとフラットフレームの中にバイアスノイズが含まれているので、正しいフラットフレームならバイアスノイズを消せるはずというので理解はできます。これが正しいならダークフレームの中にもバイアスノイズは含まれていて、ダーク補正だけでも縦縞ノイズは消えるはずです。
  • バイアス補正なし、ダーク補正あり、フラット補正なし
というのも試しましたが、縦縞ノイズは消えませんでした。少なくとも今回の検証ではダークフレームに含まれるはずのバイアスノイズは、ダーク補正において縦縞ノイズに何の影響も与えていないという結果です。


うーん、何がおかしいのか?

ちなみにこの結果は、一連の状況を経験してから、改めて一から全ての処理をし直し、再確認しています。それでもなにか勘違いなどで間違いを繰り返している可能性はあります。ただ、最後はバイアスの有無だけとかなり物事をシンプルにしたので、おかしいところは相当限定されていると思います。

これまでのことから、PixInsightにおいては、バイアス補正のみだとうまく補正できていない、もしくは補正し切れていなくて、正しいフラット補正(ISOを合わせたという意味)においてのみバイアスノイズの補正がうまく行われているようだということが言えます。

もしかしたらPixInsightのバグかもしれません。でもバイアス補正はPixInsightの相当基本的なところなので、かなり検証されているはずです。

私がとんでもない勘違いをしている可能性もあります。一つの可能性が、バイアスノイズと思い込んでいるものが実はフラットフレームのみに現れる全く別のノイズかもしれないことです。でもこれもあまり正しいとも思えません。

今回の検証が本当に正しいのかどうか、もしどなたか追試していただける方がいてくれると嬉しいです。


このページのトップヘ