最近悩んでいるのが、動画スタックによる画像の分解能の限界です。まだあまりよくわかっていないのですが、とりあえず簡単なことから始めようと思います。今回知りたいことは、そもそも「動画スタックでドーズ限界を超えることができるのかどうか」。印象としてはそんなんとっくに超えてるんじゃない?と勝手に思っていたのですが、実は確かめたことはなかったので、少し検証してみました。

IMG_9336



まずドーズ限界を感覚的に知るために、木星がもしドーズ限界で制限されるとしたらどのような画像になるかを試してみました。元画像はハッブルで最近(2018/4/25)撮影されたのものです。

JupiterOpal_HubbleMasztalerz_1880

検証するには十分な解像度があります(実際の画像は上の画像をクリックして拡大して見てください)。NASAの画像は著作権を主張していないとのことで、このようにブログでも使うことができるのでありがたいです。


これを手持ちのC8の画像と比べてみます。下は去年の惑星シーズン(2017/6/8)に撮影したもの。口径200mmでASI224MCを使いました。C8としてはそれほど悪い方でもなく、ちょっと頑張ればここら辺までは出るくらいかと思います。カメラがASI224MCでカラーなので、モノクロでL画像を撮ればもう少し改善の余地はあると思います。
2017-06-08-1241_5-RGB2


まずはドーズ限界による分解能を計算します。ドーズ限界は

115.8 / D [秒]

で表され、Dは口径をmmで表したものです。C8は口径203mmなので

115.8 / 203 = 0.570秒

となります。木星の視直径は変化しますが、撮影当時の視直径は調べてみると39.6秒だとのことです。なので、木星の直径を39.6/0.570=68.4ドットで表せばいいことになります。

Hubbleの画像の木星の直径(画面全体ではないことに注意)がキリのいい68ドットになるように画像の解像度をPhotoShopで落とし(その際、見かけが近くなるように彩度を落とし、上下逆にしました。)、その後、元のドットになるようにバイキュービック法で再び解像度を上げました。その結果がこちらになります。

JupiterOpal_HubbleMasztalerz_1880_200mm2

自分でC8で撮った上のものと比較してみると、ざっくりいって、ドーズ限界と同じかもう少し悪いくらいの分解能だったことがわかります。うーん、では状況がいいとドーズ限界に近づいていくのか、それでも超えることはないのか?もう少し検証してみます。


次にC14を想定して、355mmの口径の場合で、最近の木星の視直径44.1秒を仮定してドーズ限界での画像を再現してみると

JupiterOpal_HubbleMasztalerz_1880_355mm

くらいになります。これだと木星の直径を136ドットで表すことに相当します。ところが、例えばC14で最近撮影された日本の惑星撮影で代表的な「RB星のブログ」さんの2018/4/21の画像(RB星さんのご好意で掲載許可をいただきました)

j180421s1

と比べると、明らかにドーズ限界を超えて綺麗に見えています。この日はシーイングがベストではなかったとのことですが、C14では最高峰に近い木星画像かと思います。

ちなみにドーズ限界を1.5倍くらいよくしたものが

5

になりますが、これくらいだとだいたい同じくらいか、まだ撮影した方が少しいいくらいでしょうか。高々1.5倍の解像度増ですが、見え味は相当よくなるのがわかります。ちなみに今回の場合、2倍だと明らかに良くなりすぎてしまうので、条件が整えばドーズ限界の1.5倍から、2倍くらまで迫ることが出来そうだということがわかります。

うーん、でも個人的にはドーズ限界なんかはもっとはるかに越えていけるのかと勝手に思っていました。意外に近い結果でしたが、まあ考えてみれば光学的には回折限界から来ているので、当たり前かといえば当たり前ですかね。

ただし、波長によっても分解能は違うはずで、PhotoShopでRGBにチェンネル分解し波長に応じてドーズ限界を求めて再びチャンネル統合して試してみたのですが、Rが解像度が悪くなり、Bが解像度が良くなるので、結果的には相殺しほとんど見た目の影響はありませんでした。なので、上の画像には波長の依存性は入っていません。

こうやってみると、やはり口径の効果は大です。他の素晴らしい成果を出している方々の画像を見比べてみても、C8よりC11、C11よりC14の方がより精細なところまで描写できているので、やはりドーズ限界のような光学的な限界がまだまだ効いていると言えるでしょう。ここにシンチレーションなどの効果が邪魔をしているので、現在の手法はそのシンチレーションの効果を除き、いかに光学的な限界まで迫るのかという状況なのかと思われます。

では他に何が関わってくるかというと、例えばシンチレーションの軽減には
  • 露光時間(転送速度とも関係あり)
  • スタック枚数
などが関わり、ノイズには
  • カメラの感度
が関わってくると言えるでしょうか。カメラをモノクロにしてLを撮影してさらに解像度が上がったりもしているので、感度も解像度に効いてくると思うのですが、まだそのメカニズムがよく理解できていません。また、C14くらいの口径では
  • カメラの解像度
は今回の検証から考えるとまだまだ余裕がありますが、さらに大きい口径だと解像度が効いてくるようになるのかと思います。あと大きな効果は
  • 画像処理
でしょう。特にRegistaxなどのWavelet処理は見た目の解像度に大きく影響します。

さて、モノクロカメラを買うかどうか。まだ結論は出てませんが、まずは今のカラーカメラで口径を250mmで撮影してみて、去年の結果を超えることを目標にして、その結果が出てから考えます。