ほしぞloveログ

天体観測始めました。

2021年03月

今回はおとめ座銀河団に挑戦です。はてさて、うまく写るのでしょうか?

でもなんでマルカリアンの鎖でなくておとめ座銀河団?

普通はマルカリアンの鎖 (Markarian's chain) ですよね。なんでおとめ座銀河団なのでしょうか?理由は単純で、この撮影の前にカリフォルニア星雲をFS-60CBと6Dで撮っていて、それがこの季節は22時くらいで西の空の住宅の屋根にに沈んでいくので、その後にどうしようかと全く設定を変えずに試しに撮影したからです。焦点距離350mmクラスで、フルサイズのカメラだとマルカリアンの鎖よりもかなり広い範囲になります。なので「銀河団」とタイトルにしました。

設定が同じだと、バイアス、フラット、ダーク全てが使い回しができるので、かなり楽でパフォーマンスがいいのです。というわけで、露光時間180秒、ISO800、フィルターなしです(実はカリフォルニア星雲、フィルターなしで撮影してたと思ってたのですが、CBPが入っていたことに気づいて、その後本当にフィルター無しで撮影しました。これはまた後日記事にします。)。

今回こだわったのは位置です。マルカリアンの鎖はもちろん、見栄えのいいM100をどうしても入れたかったのと、M87もM90も入れたいし、反対側はNGC4216とIC3064も入れたかったのです。でもFS-60CBに1.04倍のマルチフラットナーを入れると、フルサイズの6Dでも本当にいっぱいいっぱいです。なので、ditheringの幅は相当小さくし、端が切れないよう最低限の動きにしました(このditherの小ささは後に問題となります)。それでもシャッターの影ができることはわかっているので、そこら辺は画像処理でどうにかするしかありません。

実際の撮影は?

撮影は3日に渡って行いました。
  1. 3月17日: 23時10分から23時29分まで6枚。その後曇り。
  2. 3月18日: 22時15分から23時18分まで14枚。その後曇り。
  3. 3月19日: 22時44分から翌日4時27分まで89枚。
最初の2日は雲に悩まされ枚数をあまり稼げなかったのでもうバッサリ捨てて、結局使ったのは3日目の89枚のみ。南天越えのために一度反転しています。(この反転も後に問題の一つとなります。)

明るさ比較ですが、同じISO800と同じ露光時間3分で、3月18日21時40分頃、西に傾いたカリフォルニア星雲の撮って出しJPEGだとこれくらい、
LIGHT_180s_ISO800_20210317-22h35m53s926ms
一見、ほぼ何も写ってませんね。よーく見ると淡ーいピングがあります。

一方同じ日に同じ条件で続けて撮影した、22時20分くらいの南天前のおとめ座銀河団の撮って出しJPEGはこれくらい
LIGHT_180s_ISO800_20210317-23h10m04s723ms
ずいぶん明るさに違いがあるのが分かると思います。自宅撮影の場合、暗い東から南天の少し高いところをを含む天頂過ぎくらいまでにかけてはISO1600とか3200でもいけそうです。一方南天を過ぎて少し西に傾きかけるとISO800位に抑えざるを得ないのかと思います。

画像処理ですが、普通通りPIのWBPPでスタックです。スタックしたマスターライト画像をDBEしたものを一旦見てみますが
integration1_DBE
人様に見せるものではないですね。ゴミがひどいです。しかも南天で赤道儀を反転したために、ゴミが軸対称に同じ位置に出てしまっています。しかも大きなゴミが途中で動いたのでしょう。補正しきれていない部分と、過補正のところが出てしまっています。

これを防ぐためにマスターフラットにぼかしをかけて処理したらとか考えたのですが、まずはフラット補正なしの画像を見たら、全く補正しないと細かいゴミが全部浮き出ることがわかり諦めました。
masterLight_integration_DBE1
フラット補正無し画像を、ゴミが見えるようにDBEしたもの。
フラット補正した画像よりさらにひどく、物凄いゴミの数。 

マスターフラット画像を見てみます。ABEで見やすくしますが、

masterFlat_RGB_VNG_clone_ABE
同じような位置に、やはり相当な数のゴミがあります。

今回スタックしたライト画像にゴミが目立ったことの理由の一つが、ditherの幅が小さく散らしきれていないためです。なのでフラット補正は必須になり、補正なしではさらに細かいゴミまで目立ってきてしまいます。フラット補正をしても残ったゴミについては、もう誤魔化すしかないです。これを反省して、この後6Dのセンサー面の掃除をしたので、これはまたそのうち記事に書きます。

気を取り直して、処理を続けます。今回はシャッターの影になるところも使う必要があるので、ABEではなくDBEで細かくムラをとります。暗黒帯とかない銀河の薄い方向なので、全体が一様になる方向で進めます。PIでStarNetをかけて、恒星のマスクを作り、さらにRangeSelectionで星雲のマスクを作り、Photoshotpに渡します。

後から切り出すことを考えているので、いかに小口径を取り繕う解像度を出していくかです。今回はその目的でSharpenを使ったので、解像度に関しては少しインチキしてるといえるかもしれません。

まずは出来上がり。

「おとめ座銀河団」
up_DBE_DBE_PCC_AS_HT_all_disks_back2_rot_denoise_larage_cut
  • 撮影日: 2021年3月19日22時44分-3月20日4時27分
  • 撮影場所: 富山県富山市
  • 鏡筒: Takahashi FS-60CB + マルチフラットナー
  • フィルター: なし
  • 赤道儀: Celestron CGEM II
  • カメラ:  Canon EOS 6D(HKIR改造, ISO800, RAW)
  • ガイド: f120mmガイド鏡 + ASI120MM mini、PHD2によるマルチスターガイドでディザリング
  • 撮影: BackYard EOS、露光時間180秒x90枚 = 4時間30分、ダーク73枚(ISO3200、露光90秒、最適化なし)、フラット256枚(ISO3200、露光1/1600秒)、フラットダーク256枚(ISO3200、露光1/1600秒)  
  • 画像処理: PixInsight、Photoshop CC、Sharpen AI

Annotaionも付けます。今回、これが楽しみでこの領域を撮影しました。ものすごい数の銀河ですね。PGCなんかもういくつあるのか。でも拡大するとわかりますが、小さなものは写っていないものも多いです。ここら辺は次回以降、光学系をもう少し変えて、拡大しての撮影になるのかと思います。

up_Annotated

PGCの数が多すぎるので、PGCを抜いて少しシンプルにしたものです。

up_Annotated_noPGC


切り出してみよう!

全体像だけだと個々の銀河のインパクトがないので、いくつか見栄えのする領域を切り出したいと思います。少しでも見かけの解像度を良くするために、上の出来上がり画像を拡大します。拡大にはTopaz labsのGigapixel AIを使って2x2倍の解像度にしています。ただ、このGigapixelなかなか扱いづらかったです。恒星が多少ひしゃげてしまいます。もしかしたらPhotoshopで単純に拡大した方が良かったかもしれません。

あと、切り出したそれぞれにもAnnotationを付けます。例え分割してもまだまだ銀河がたくさんあるので、名前付けも十分情報を含んでいます。それでは行きます。


1. マルカリアンの鎖付近

言わずとしれた、一番見栄えのするところです。M87とM88まで入れてみました。
03_Markarian_all

_03_Markarian_all_Annotated

2. M99とNGC4216

M99の渦巻きがかっこいいです。右下のNGC3つの存在感があります。
05_M99_wide

_05_M99_wide_Annotated

3. M87からM91一を網打尽

縦長で、連番を全部入れました。
06_M90_wide_portrait

_06_M90_wide_portrait_Annotated


4. M99とM100
渦巻きが2つ。これもかっこいいです。
04_M100_wide

_04_M100_wide_Annotated


さらに拡大

ここからさらに拡大して、もう少し細かいところに注目します。でも公開するかどうか迷いました。さすがにこれくらいになるとアラが見えます。お見苦しい点は今後の期待とし、今回はご容赦ください。

5. M99
07_M99_small

6. M100
13_M100_small



7. M88とM91
10_M91_M88

8. NGC4216まわり
08_NGC4216_small

どうでしょうか?銀河団は大枠で撮って、面白いところを切り出しても、意外に見えるみたいです。まあ、拡大しすぎると限界はありますが、4時間半という露光時間と、画像処理でのごまかしも効いていて、あまり大きな画面で見なければなんとかなりますでしょうか。


過去画像と比較して

 さて、前回おとめ座銀河団の中のマルカリアンの鎖を撮影したのが、2017年の3月なので、4年も前のことになります。



MARKARIAN_edit2

焦点距離600mmのFS-60QとAPS-CのEOS60Dでの撮影なので、今回より範囲は大分狭いです。前のときもノーフィルターでした。というより、フィルターなんか持ってなくてノーフィルターでいいのかなと、不安になりながら撮影してたのを覚えています。でも回り回って銀河はノーフィルターの方がいいのではという結論で今に至り、今回も(でも今回は自信を持って)ノーフィルターとなりました。

4年経った、今回撮影した画像から、ほぼ同角で切り出してみました。
01_Markarian_comp
切り出しにもかかわらず、今回の方が見栄えはいいです。本質的には粗く撮影しているので、いかに画像処理で出しているかだけなのですが、よく言えば技術が進んだ、悪くいえばいかにごまかせるようになったかでしょうか。

当時はAnnotationなんていう技術は知らなかったので、手で何が見えているか書き込んでいますが、これはこれでいい思い出です。

markarian_signed_final


まとめ

銀河団は面白いけれど、細かくみないと迫力に欠けてしまいます。なので今回切り出しということを積極的に試してみました。自分では面白かったかと思うのですが、どうでしょうか?

切り出した画像はそのまま見てもいいですが、次回撮影のアングルの候補としても使えます。手持ちの機材なら、焦点距離900mmのTSA-120と6Dなんかで撮ると解像度が上がって面白いかもしれません。

一枚の画像からたくさん楽しめたので、パフォーマンスがよくてなんかもうかった気分です。
 

今回は大人気のMちゃんシリーズです。

3つの箱

今週水曜日、3つ同じものが自宅に届きました。

IMG_2034

シュミットでまとめて投げ売り状態になっているMILTOLです。さっそく1台箱から取り出してみましたが、そこそこの重量で、フードも取り付け用の足もついています。華奢かと思っていた足も、なかなかどうして、十分頑丈なようで揺れも心配なさそうです。

IMG_2035

思ったより相当しっかりと作ってあり、あまりの安価で申し訳ないくらいです。しかも3つもあれば多少加工とか失敗しても取り返しがつきます。これは使い甲斐がありそうです。


Mちゃんを誘ってみた

次の日の木曜、昼は曇りですが、夕方から晴れる予想。この日は私は休暇をとっていて、子供の用事を済ませて午後から時間があったので、Mちゃんのお母さまに連絡。

Mちゃんは富山市科学博物館の観望会で会った現在小学5年生、4月から6年生になる宙ガールで、以前自宅にもきてくれました昨年末の観望会で会った時にお母さんが「赤いカメラを欲しがってる」とか言っていて、本人に話すとどうも電視観望のようなことをやりたがっていたので、今回のMILTOLがぴったりなようです。

電話越しでお母さんの横にいたMちゃんですが、「キャーキャー」言ってるのが聞こえるので、既に興奮気味のようです。まあ電話ではなかなか伝わりにくいので、とりあえず午後3時を目処に自宅に来てもらうことにしました。

年末に貸していた「ナイトウォッチ」をもう持ってきていたので、「え、もっと持ってていいですよ」と言ったら、既に手に入れたとか。確か中古本がすごい値上がりしてたと思いますが、たまたまアマゾンで新品で定価であったみたいです。(今調べてみたら、確かに新品で出てます。増刷したんでしょうか?)結構読み込んでいるみたいで、太陽のこととか聞かれました。たまたま玄関にPST付きのC8が転がっていたので、少しだけ話しました。小学生にとっては分厚い本だと思いますが、楽しんで読んでいるようです。


なぜMILTOL

今回は、MILTOLの箱開けから、カメラとの接続、組み上げ、設置、観察まで、基本的には全部Mちゃんに手を動かしてやってもらうつもりです。でもその前に、なぜMILTOLが必要なのか、Mちゃんが既に持っているポルタの80mmの望遠鏡だとダメなのかを理解してもらわなくてはいけません。いや、せっかくの機会なのできちんと理解して、納得しながら進めてもらいたいのです。

さてさて、小学生に焦点距離と口径とF値のことをきちんと理解してもらうのはなかなか大変です。実際聞いてみると、焦点距離と口径については意味は分かっていたようですが、F値はやっぱり理解できていなくて、焦点距離と口径の関係も理解できていませんでした。なのでまずは焦点距離から入ります。焦点距離というよりは、倍率ですね。鏡筒の焦点距離をアイピース の焦点距離で割ったものが倍率になるということは、きちんと理解していました。

まず倍率1倍というと、目で見ているのと同じです。何も拡大していなくて、全体が見えます。簡単のため目で見えるとして180度の視野があると仮定します。そうすると倍率が2倍になると視野が半分になるはずなので、90度の視野になるはずです。その分その狭い視野を拡大して見るということになります。3倍だと60度、10倍だと18度と計算していってもらいます。と同時に、直感的に両腕を狭めていってどれくらいの範囲を見ているのかを理解してもらいます。結果として、焦点距離が長い鏡筒ほど見える範囲が狭くなることを理解してもらいます。ここらへんは全然問題なく、最初から分かってるような感じでした。

次に口径です。Mちゃんの持っているポルタの口径80mmを基準に考えます。口径が倍の160mmになったら明るさは何倍になるかという問題です。これは円の面積を考えれば簡単ですね。と思って話を進めたら、いまいちピンときていないみたいです。どうやら円周のことはわかっていても円の面積がわかっていないみたいでした。調べて見ると円の面積は6年生で習うみたいですが、でもMちゃんはまだ5年生。「勉強しておけばよかった」と悔やんでましたが、まあその場で理解してもらいます。円をいくつもの扇型に分けるような円の面積の求め方の原理を少し説明して、あとは正方形で考えてもらったらかなり実感したようです。正方形でも一辺の長さを倍にしたら面積は4倍と同じですね。これで、口径を倍にしたら4倍の明るさ、3倍にしたら9倍の明るさということがわかったようです。

もう一つ重要なことは、同じ口径で焦点距離を2倍伸ばしたら明るさは4分の1になり、焦点距離を半分にしたら明るさは4倍になることです。これは見える面積を考えてもらったらすぐにピンときたようです。焦点距離が長くなると、狭い範囲を引き伸ばしてみるので、その分暗くなるということです。

ここまでくるとF値は簡単です。焦点距離と口径の比ですが、F値の大きな細長い鏡筒と、F値の小さなずんぐりムックリの鏡筒のイメージを持ってもらうのと、焦点距離とか口径を知らなくてもF値そのものが鏡筒の性能を表す指標になるというイメージを持ってもらいました。例えばFが小さいと明るい、Fが大きいと暗いとかです。

ポルタが口径80mmで、簡単のため焦点距離800mmと考えます。今回のMILTOLが口径5cmで焦点距離200mmです。F値が10と4なので、本質的にMILTOLの方が明るいことと、ポルタで4/3インチサイズのASI294MCを使って見るのと、MILTOLで1/3インチサイズのASI224MCを使って見るのは同じ範囲を見ることになります。これは実際にセンサー面積をASI224MCとASI294MCと見て実感してもらいました。初心者がいきなりセンサー面積の大きいASI294MCに行くことはなかなか厳しいので、まずは小さいサイズのセンサーで始めてもらう。そのために短い焦点距離のMILTOLが必要だったと、やっとMちゃん本人とお母さんにも理解してもらいました。

おもしろかったのが、Mちゃんが「時間と速度と距離の関係と似ている」と言っていたことです。確かに口径とF値をかけると焦点距離になるのは、時間と速度をかけると距離になるのに似てますね。


MILTOLの組み立て

さて、一応頭では色々理解できてきたので、次は実際の組み立てです。まずはMちゃんに新品のMILTOLの箱を開けて、中身を取り出してもらいました。最初恐る恐るでしたが、もう全然壊してもらってもかまいせん。むしろ、使い込みすぎて故障したくらいの方が嬉しいくらいです。

MILTOLは一見カメラレンズのようなので、じゃあカメラにつけてみたらと言って、下の子が使っているEOS Kiss X5に取り付けてもらいました。そもそも一眼レフカメラに触るのも初めてなので、これも恐る恐るです。(私の中ではデフォルトの)マニュアルモードで、露光時間とISOを調整して外の景色を何枚かとってもらい、その際ピント合わせが必要ということを理解してもらいました。

次にCMOSカメラとして今回はASI224MCを使ってもらうことにしました。いくつか候補はあったのですが、安価なSV305-SVは借り物ですし、ASI178MCは感度では負けます。ASI224MCは惑星でも使いますが、最近ASI462MCを手に入れたので、しばらくは必要ありません。ASI224MCなら最初の頃私も電視観望で使っていたので、十分使えることもわかっています。

まずはPCにドライバーをインストールしカメラを認識させることをやってもらいました。あ、PCだけは自分の家から持ってきてもらいました。聞いたらお父さんと一緒に使っているものだそうです。カメラが認識されたことを確認するために、ASIStudioも一緒にインストールしてもらいました。ドライバーとかソフトはZWOのページなのですが、小学生なので当然英語は読めません。でもEdgeに翻訳機能があるんですね、十分理解できるような日本語になっていました。

IMG_2040

カメラ単体で、ASILiveで明るさが変わってカメラに反応しているのが見えたので、カメラ部分はOK。次にMILTOLとの接続です。今回購入したMILTOLはCanon EFマウント用ですが、そのEFマウント部分は回すと取り外せるようになっていて、外すとT2ネジ(M42、075mmピッチ)のオスネジが出てきます。ASI224MCにはT2ネジのメスが切ってあるので、ここに直接取り付けることができます。とりあえずMILTOLとASI224MCはくっつきましたが、これはまた後でピントが出ないというトラブルになります。

鏡筒をどう固定するかは初心者にとって難しい問題なのかと思います。市販の既製品ならいいですが、自分で色々組み合わせる場合は大変です。多くの初心者が最初に持つ経緯台は、ほとんどはVixenのアリミゾになるのかと思います。最初からVixenアリガタが鏡筒に付いていればいいのですが、特に短焦点を探り出すとカメラレンズの方向になり、普通は足も何もついていません。MILTOLの場合はラッキーなことに、リングと、アリガタではないですが足がついていました。なのでここに必要な規格のプレートを取り付ければOKです。

IMG_2043

手持ちで余りのアリガタプレートがいくつかあったのですが、穴が合いません。そもそもMILTOLのねじ穴がインチ規格なので、ネジも手持ちでは長さが限られてしまいます。1/4''のネジがハマるのを確認しましたが、これだとプレートの穴がM6で微妙に小さくて通りません。

なのでMちゃんにドリルで穴を広げてもらうことにしました。M6.5のドリルを使い穴を広げてみます。ドリルはお父さんが日曜大工も好きで、一緒に使ったこともあるみたいなので、ほとんど問題なく進みました。無事に穴も空きましたが、二つの穴でネジを止めようとすると、もう一つ最初から穴を開けなければならないので、とりあえず一つだけで固めにネジを固定して、まずは使ってみようということになりました。


さあ、見えるかな?

アリガタをつけることができたので、Mちゃんのポルタの三脚と経緯台を車から出してもらって、取り付けてみます。この時点で17時くらいでしょうか、まだまだ明るいのでどこか遠くの景色を見てみます。

と、ここである程度予測はできていたのですが、やはりバックフォーカスが足りなくてピントが出ません。T2で接続しているのでT2の延長筒とかあればいいのですが、なかなか都合がいいのは手持ちではなく、その代わりに一度Canon EFのアダプターをつけて、さらに手持ちのZWOのCanonマウントからT2へのアダプターを間に挟むことにしました。これでやっとピントが出ました。

IMG_2046

まだ明るいですが、空もかなり雲が無くなってきて、白い月が顔を出しています。じゃあさっそく月を見ようということになりました。でもやはり、経緯台での導入はかなり大変です。原因の一つがセンサー面積が小さいことで、それを解決するために短焦点のMILTOLを選んだのですが、それでもなかなか月さえも入りません。ここは少しだけ手伝いました。私がある程度のところまでアタリを持っていって、あとは微動ハンドルで振ってやると、月を捉えることができました。

ピントを合わせて、経緯台なので当然自分で追っかけて行かなければならなくて、でもよっぽど嬉しかったのか、地面に膝を立てて夢中で操作をしています。この時も最初はASILiveを使ったのですが、やはり英語で苦労しているようです。調べてみたら、ASICapは日本語化されいるようです。惑星が主な用途ですが、月なので明るくてもちろんぴったりです。早速ASICapに変えてみて、日本語になったらずいぶん楽になったようでした。見てるとありとあらゆる機能を試していて、みるみるうちに操作はマスターしたようです。

IMG_2047

この間に3回くらい「椅子に座った方がやりやすいよ」と声をかけたのですが、私の声は全く届かず、ひたすら自分の世界に入っていました。お母様も苦笑い。どうやらいつものことのようです。

しばらく月を操作して、画像も保存できて、やっと満足したみたいです。お腹が空いたとのことなのでいったん食事をとってきてもらい、まだ続けたいというので再び夜に戻ってきてもらうことにしました。いました。その間に私も食事です。


暗くなってからが本番

戻ってくると辺りは既に真っ暗。と言っても月齢12日の月が出ているので、かなり明るいです。早速再開し、M42オリオン大星雲に挑戦です。今度は最初から全部自分で導入です。最初リゲルを探していましたがちょっと方向が違いそう。そのうち明るいのが見えて、多分三つ星の一つだとわかりました。位置的にはアルニタクなのでそのまま下にいけば見えるはずです。そうこうしてると明るい領域が一瞬通り過ぎて「あーっ」と言って戻すと、ヤッター!見事オリオン大星雲です。

IMG_2049

ASICapのパラメータをいじって、ある程度見栄えが良くなることを確認して、ノイズを落としたくなったので、次はASILiveに戻ります。ASICapで慣れたのか、今度は操作もそこまで迷いません。ライブスタック関係だけが新しい機能でした。それでも見てると全部の機能を試しているようです。どうしてもわからないとたまに聞いてくるので、その場で答えるとすぐに吸収してしまいます。画像保存、ライブスタック、Brightness contrast saturationをいじってのあぶり出し、ヒストグラムをいじってのあぶり出し、とまあ、本当にあっという間に一通り学んでしまったようです。子供はとんでもないくらいに吸収が早い早い。びっくりするようなスピードです。私はほとんど何もいうことがないので、もう楽で楽で、途中お母さんと雑談してるのですが、Mちゃんの耳にはやはり全く入っていないみたいです。

トラブルといえば、露光時間も調整しましたが、1秒か、せいぜい2秒が限界です。なぜかというと、経緯台で追尾も何もしていなので2秒でも流れ始めてしまうからです。

次に、燃える木と馬頭星雲に挑戦。上のほうに行って、アルニタクを目印に燃える木はすぐに見えましたが、露光時間が伸ばせなくて馬頭星雲がどうもわかりません。月が明るいのでこの日はここらへんまででしょうか。

再びM42に戻って、少し余裕が出たのか「きれーい...」とため息混じりにうっとりしていました。今までずっとポルタだけで、見えるものは多分見尽くして、星雲が見えないことに悔しくて悩んで、やっと自分で組んだシステムで見えたわけです。多分私が想像するより、ずっと楽しいんでしょう。このころしか味わえない楽しさだと思います。私はそれを見てるだけで幸せです。

21時頃になりました。とにかくこれで最低限、自分で楽しめるはずです。そのまま一揃い持って帰ってもらいます。ASI224MCはあまり使ってないのでいつか返してもらえればいいです。MILTOLはこのために買ったようなものなのでずっと使ってもらえればと思います。ZWOのキャノンアダプターは必要なので、T2の延長など代替品を探します。

アップグレートもいろいろ考えられます。
  • マニュアル導入ならファインダーがあるといいのですが、でもどうやって取り付けるか。何処かに穴を開けてタップを切るかでしょうか。
  • 穴と言えばアリガタ固定の穴をもう一つ追加した方がいいでしょう。
  • Mちゃんの自宅は私のところより街中なので、かなりの光害地です。QBPがあるとさらに見えるのかと思います。
  • 銀河とかまで見るのなら、自動導入もあった方が楽でしょう。AZ-GTiなら小学生でもお年玉とかで買える範疇に入ると思います。
こうやって性能を追求していくのもまた楽しいと思います。

そうそう、お母様から「MILTOLのお金を払う」と言われたのですが、今回は私の趣味も入っているので断りました。それよりも「もし余裕があるならAZ-GTiの予算に回してあげてください」と伝えました。この日、Mちゃんが喜んでいるのと、導入で苦労しているのを見ていて、早いうちにあった方がいいと理解してくれたみたいで、納得してくれました。でもそこで、SkyWatcher製品が軒並み入荷遅れになっていることを思い出しました。

そもそも、Mちゃんは熱中しすぎるのでしばらく天文中断命令が出ていたらしいです。やっと春休みになって、長時間集中できる時間が取れるので今回のお誘いはちょうど良かったとのことです。なのでAZ-GTiもこの春休みにと最初思ったらしいのですが、いまの遅延だと数ヶ月のオーダーでかかりそうです。まあ必要なら私のを持っていけばいいのですが、まずは今のセットを使いこなしてからですかね。

そうそう、CP+の中継、Mちゃんも1時間遅れくらいで見てくれたそうです。中継時には習っている剣道の最中だったみたいです。面白かったと言ってくれました。あまり小学生が見ることは考えてませんでしたが、理解してくれたみたいで嬉しかったです。


前回の6Dのユニティーゲインの記事ですが、難しいという話を聞いたので、できるだけわかりやすく解説してみようと思います。




コンバージョンファクター


IMG_2032

何はともあれ、まず重要なのはコンバージョンファクター (conversion factor) とか、gain (ややこしいのですがISOに相当するgainとは全然の別の意味です。以下区別するために、コンバージョンファクターの意味ではgainやゲインという言葉は使わず、ISOの意味でのみgainもしくはゲインと書きます。)とか呼ばれている、センサーで発生する電子の数と出力信号のカウント数を変換する係数で、単位は[e/ADU]になります。eは電子1個の単位、ADUはADC (Analog to Digital Converter) でカウントする1カウントの単位です。発生する電子の数は後で書きますが、検出される光子の数と比例するので、ここではとりあえず光子の数と言ってしまうことにします。

このページの結果によるとEOS 6Dの場合、例えば、ISO100のとき、コンバージョンファクターは5.6413 [e/ADU]で、光子が6個近くセンサーの1素子に入ってやっとADCのカウントが1増えます。6Dの場合14bit = 16384なので、5.6413 x 16384 = 92427個の光子が1素子に入ると、その素子のカウントは一杯になり「飽和」状態になります。このブログでは「サチる」とか、「サチった」とかいう表現をしています。これは「飽和」の英語Saturationから来ています。

例えば、ISO400のとき、コンバージョンファクターは1.4178 [e/ADU]となり、光子が1.5個くらい入るとADCのカウントが1増えます。

この表から考えると、ISO575くらいが実現できるなら、コンバージョンファクターは1 [e/ADU]となり、光子が1個入るとADCのカウントが1増えます。このときのゲインをその名の通り、ユニティーゲイン(unity gain)と呼びます。ユニティーは1という意味ですね。ISOなので、ユニティーISOとか読んでもいいでしょう。呼び方はまあどうでも良くて、重要なのはセンサーで検出される光子1個がADCを1カウント増やすという、1対1の関係です。

CMOSセンサーの解析はこのコンバージョンファクターの値を求めるところから全てが始まります。


コンバージョンファクターの原理

ではコンバージョンファクターを求めるためにはどうしたらいいのでしょうか?まずは原理式を理解してみましょう。CMOSセンサーをある出力ゲインに固定して測定した信号\(S\mathrm{[ADU]}\)とそのときのノイズ\(N\mathrm{[ADU]}\)には以下の関係があります。

\[(N\mathrm{[ADU]})^2=\frac{S\mathrm{[ADU]}}{f_{\mathrm{c}}\mathrm{[e-/ADU]}}+\frac{(N_{\mathrm{read}}\mathrm{[e-]})^2}{(f_{\mathrm{c}}\mathrm{[e-/ADU}])^2}\]

このとき\(N_{\mathrm{read}}\mathrm{[e-]}\)は読み出しノイズ、\(f_{\mathrm{c}}\mathrm{[e-/ADU]}\)がコンバージョンファクターです。

右辺2項目の読み出しノイズは十分小さい仮定として、簡単に

\[(N\mathrm{[ADU]})^2=\frac{S\mathrm{[ADU]}}{f_{\mathrm{c}}\mathrm{[e-/ADU]}}\]
を考えます。

画像を撮影して、その1ピクセルの明るさ\(S\mathrm{[ADU]}\)を測り、その1ピクセルの明るさがどれくらいバラけているかを多数プロットしてやればいいのです。

この式自身の証明はこのページの最後のおまけの部分を見てください。ちょっととっつきにくいと思うかもしれませんが、ショットノイズの関係式だけから数学的に綺麗に出てくるので、話としては至極単純です。逆にこの関係式があるので、多数の点数をとってくれば統計的にコンバージョンファクターが確定するというわけです。多数の点をとってくるのは、画像ファイルが多数の点でできていることを考えると十分可能で、アイデア次第で多くのサンプルを取り出すことができるわけです。この関係式をものすごくうまく利用してますよね。

多くのサンプルを取り出すのはいろいろな方法があります。
  1. 一画面内に暗いところから明るいところまで写っている、同じ画角の景色などを多数枚撮影し、ある位置のピクセルに注目し、その平均値とバラけ具合を多数枚にわたって見る。多数のピクセルに対して同じことをする。
  2. フラットに近い画像を露光時間を変えて何枚か撮り、一枚のある100x100くらいのエリアの平均値とそのバラけ具合を見る。露光時間ごとにプロットする。
  3. 星などの適当な画像を2枚撮影し、その2枚の画像の差を取り(信号を消して、ノイズの2乗和のルートをとるということ)、その中の明るさが一定のエリアの平均値とバラけ具合を見る。明るさの違う領域で、同じことをしてプロットする。
などがあります。私が一番最初に学んだ方法は1.でした。SharpCapは2.の方法をとっています。最初に紹介したページ(大元はこのページです)やPixInsightでは3.を使っています。3.が撮影枚数が2枚と少なく、一番簡単でしょうか。工夫次第でまだ測定方法はいろいろ考えることができると思います。

PixInsightでの測定方法はNiwaさんが秀逸なタイトルをつけて詳しく解説してくれています。




実際の測定例

実際に信号とそのバラつきをプロットしたグラフを見てみましょう。まずは2.の例のSharpCapで測定した場合です。6Dの計測の時にグラフを写真に取り損なったので、ASI294MCの測定の時の写真を示します。

IMG_3262

一番右が、横軸明るさS、縦軸ノイズNの2乗でプロットしたものになります。測定点を結ぶと一本の線になり、その傾きの逆数がコンバージョンファクターになります。この場合、横軸が5000くらいの時に縦が1300くらいなので、傾きは0.26、その逆数は1/0.26=3.85[e/ADU]くらいになります。すなわち、光子3.85個入って、やっとADCのカウントが1進むということです。

次の例は自分で画像を撮影して測定した時の結果です。SharpCapがやる過程をマニュアルでやったような形になります。すなわち、同じゲインで露光時間を変えて何枚か撮影し、あるエリアの明るさとバラけ具合を測定すると言うものです。画像解析はMaltabを使ってやりました。Matlabを使ったのは、画像読み込みが楽なのと、平均や分散などの統計解析が揃っているからです。別に一枚一枚Photoshopとかで解析しても原理的にはできるはずです。センサーはASI290MMでモノクロのCMOSカメラです。モノクロはきちんとメーカー値とも合うのですが、いまだにカラーの場合でうまく計算できたことがないので、もうここ2年ほど悩み続けています。

Conversion_Factor_ASI290MM_std

同様に横軸が明るさで縦軸がノイズの2乗のN^2になります。測定点が一直線で近似できるのがわかると思います。そのグラフの傾き0.306の逆数1/0.306=3.26がコンバージョンファクターになります。

一眼レフカメラの例は、このページに出てますね。「Details of measurements at each ISO setting」のところからの一連のグラフになります。このようにISO(出力ゲイン)を変えて、順次ISOごとのコンバージョンファクターを測定していきます。コンバージョンファクターが1になるところが「ユニティーゲイン」「ユニティーISO」「ユニティーゲインの時のISO」(言葉だけを知っていても意味がないです、逆に意味をきちんと理解していれば、言葉が多少違っても通じますね)ということになります。

ところが上にも書きましたが、SharpCapではISO(ゲイン)を変えて各コンバージョンファクターを測定することをサボっています。どうせ、コンバージョンファクターはゲインに比例するので、一番低いISOのコンバージョンファクターだけを測って、あとは出力ゲインで割ってやることで、測定回数を劇的に減らしています。これは測定の自動化をするために考えた苦肉策(良く言えば簡単に測定できる方法)といえるでしょう。


読み出しノイズ

これまでのどのグラフでもそうですが、傾きの逆数がコンバージョンファクターになり、信号Sが0の時の切片がその時のISOの読み出しノイズになります。ただし、読み出しノイズに関してはこのページでも書いてあるように
but, for the readout noise it is preferable to measure directly the deviation on a bias image - the result is more precise
と書いてあるように、バイアスファイルから直接測定せよと書いてます。奇しくも、ノイズ会議の時に議論したバイアスと読み出しノイズは同じかというというに対する回答になっていて、やはりバイアス(オフセットとかいう概念と同じ)ファイルで測定されるノイズは読み出しノイズと考えて良さそうです。

読み出しノイズの測定は、カメラにキャップをして最小光量で、時間と共に大きくなるダークノイズを無視するために最小時間で撮影した画像を使います。やはりバイアスの撮影と同じですね。こうやって撮影された画像は読み出しノイズに支配されています。読み出しノイズの直接的な測定についてはこのページを参照してください。
 


測定からいろいろなことがわかる

一連の測定の結果から、非常に重要な幾つかの結論が出ます。例えば、このページで言っている主要なことは
  • Unity gainはISO575のところにある。
  • これは個々のISOについてコンバージョンファクターを測定した結果から来ている。
  • コンバージョンファクターの測定方法は、各ISOで2枚撮影して、その差分から明るさとノイズの関係を評価した。
  • 読み出しノイズはISO6400までは減ってきていて、それ以上のISOでは一定値。なので、暗い天体はISO6400を使うのがベスト
  • 飽和容量は13235ADUと考える(と書いてあが、根拠は不明。14bitだから16348ADUと思ったら、それより小さいので何かかから測定したのか?)。
  • ダイナミックレンジはISO400までは一定で、それ以降は減り始める。なので明るい天体はISO400以下で撮影するのがいい
  • 中間ISOは使うな!例えばISO1000はISO800と同じ読み出しノイズでかつダイナミックレンジは小さい。
ということです。


コンバージョンファクターやユニティーゲインは何の役に立つのか?

答えを一言で言うなら、コンバージョンファクターという(ゲイン依存の)変換係数があるおかげで、ADCの値を読むだけでありとあらゆるものを電子の数で考えることができるようになるので、「単位が揃って便利」だということです。

例えば飽和電子容量(full well)です。本来の飽和電子容量の測定の仕方は、十分にサチレーションを起こすくらい明るい光をカメラに入射し、その時のADCの値の平均値を読み取り、それをコンバージョンファクターで電子の数に変換してやります。コンバージョンファクターが分からなけれが飽和「電子」容量とは言えずに、飽和「ADC」容量とかになってしまいますね。

読み出しノイズの測定もそうです。バイアスファイルは読み出しノイズに支配されています。この時の各素子の明るさのばらつき具合が読み出しノイズになるのですが、当然のことながらこれらの測定は全てADCの出力を見ているので単位は [ADU] で出てきます。こんな時に先に測定したコンバージョンファクターがあると、あーら不思議!なんと電子の数 に変換することができ、普通の読み出しノイズの単位[e-]になります。

逆に言えば、どれだけ画像ファイルからADCでカントされた数を数えることができても、コンバージョンファクターがないと、電子、光子のところまで持っていくことができません。と言うわけでコンバージョンファクターがいかに大切かおわかりいただけましたでしょうか?

では、ユニティーゲインがどうして必要かと言うと、実はそこまで重要な値ではないんですよね。ADU1カウントと測定された電子1個が等しいと言うくらいです。まあ、目安ですね。


電子数と光子数の関係

さらに光子の数sと、センサーで数える電子の数nが、定数で変換できます。この定数をシステム効率ηなどと呼び
\[\eta=\frac{n}{S}\]
と表すことができます。通常はシステム効率は1以下の値をとりますが、ここでは簡単のため1としています。

ポイントはこのシステム効率が内部回路のゲインや積分時間などによらないということです。なので、出てきた電子の数を数えるということは、幾つ光子が入ってきたかが直接わかるため、重宝されるというわけです。

その一方、ADCのカウント数とセンサーで出てくる電子数の関係は内部回路のゲインに依存してしまうため、便利でないのです。

ISOと実ゲインの関係

前回測定していまだに腑に落ちないISOと実ゲインの測定ですが、同様の測定例がどこを探しても見つかりません。ISOとコンバージョンファクターのグラフはすぐに見つかります。これってもしかしたらISOの線形性がほとんどないから出回らないのでしょうか?だとしたら、前回示したグラフは何か失敗しているかと思ったのですが、逆に貴重なのかもしれません。

自分でも各ISOのコンバージョンファクターを測ってみるのが次の課題でしょうか?少なくとも3種類の測定の仕方は考えられるので、それぞれで違いが出るかとかも興味があります。そこで測られたコンバージョンファクターは、やはり実ゲインに比例しているはずなので、もし前回の測定結果のように実ゲインがISOに比例しないなら、どこに矛盾があるか突き止めていくのもまた面白そうです。


おまけ: Unity gainで撮影する意味

unity gainで撮影することには、ほとんど何の意味もないです。これは測定される電子数とADCのカウントの比を表している単なる係数に過ぎません。

たまにunity gainで撮影することが有利だとかいう話を聞くことがありますが、根拠が全くありません。その際によく話されるのが、ADCの1カウント以下で電子(光子でもいい)を測定できないからとかだとかが理由とされますが、そもそも光子を1個だけ数えるのは(量子力学で考えるとあたりまえですが)原理的に不可能です。多数の(単位時間あたりに数にばらつきのある)光子が測定され、統計的に平均値をとると何個の光子が来ていたと言えるだけです。

なので、unity gainに拘らずにISOを決めていいのですが、原理的に考えると最適なISOはDynamic Rangeを損なわない最大のISOということになります。もちろんこれは対象の明るさによってきちんと考えるべきで、明るいもの(昼間の景色や恒星など)がサチるのを避けたいならばISOを下げたほうがいいですし、暗いものを撮影するときはダイナミックレンジを犠牲にしてでもISOをあげた方がいい時があります。


まとめ

コンバージョンファクターについて、できうる限り簡単に書いてみました。みなさん理解できましたでしょうか?わかりにくいところとかありましたら、コメント欄にでもお書きください。

もう少し6D測定を続けてみたいと思います。他の結果と矛盾がないのか、それとも何か間違っているのか?どのような設定で撮影すればいいかの根拠になっていくので、これはこれでかなり楽しいです。



とうとう念願のEOS 6Dのユニティーゲイン(unity gain、電子とADCの1カウントが等しくなるゲイン)を測定してみました。といってもまだ思うところもあるので、暫定的な結果です。


これまでの経緯

使ったのはSharpCapで、昨年9月ころの3.3βから一眼レフカメラをサポートし出したため、もしかしたらLive view機能でシャッタを切り続ければ、センサー解析機能を使って一眼レフカメラのセンサーも解析できるのではと思ったからです。



ShapCapを使ったセンサーの解析手法についてはASI294MCなどを測定していて、メーカー値とかなり一致することがわかっています。





6Dでの測定

さて、実際に6DをSharpCapに繋いで、「センサー解析」を使用してみましょう。使ったSharpCapは2021/3/10リリースの最新の4.0.7493.0(BETA)の64bit版です。

ところで、なんでわざわざカギ括弧付きでセンサー解析と書いたかというと、メニューとカメラ制御の部分の日本語化に貢献しているからです。いのさんと智さんも貢献してくれました。特にいのさんは私の拙い訳をかなりまともな用語に直してくれました。

さて、まずセンサー解析を立ち上げますが、やはりどうも「ライブビュー」モードにしないとそもそも機能しないみたいです。逆にいえばライブビューモードにさえしておけば、あとはほとんどCMOSカメラと同じ操作になりました。

まず大事なのは光源の明るさ設定。目標はBrightnesのとこの50%付近に鋭いピークが立つこと。私は以前と同様にiPadのColor Screenというアプリを使い、Hue0、Saturation0、Brihgtness 32となるようにして、6Dのレンズを外しそのままiPadの上にセンサー面が向くように置きました。エリア選択がありますが、選択範囲内で周辺減光など光のスロープがあるとノイズが必要以上に大きく出てしまうので、センター付近の比較的狭いエリアを選びます。円状のレチクルを出して、その一番小さい円に内接するように正方形のエリアを決めました。あとは初期の光の量がまずいと怒られるので、ISOを100、露出時間を250msとしたら解析スタートの許可が出たので、そのまま進めます。

IMG_1980
セットアップの様子。

あとはひたすら待つだけです。CMOSカメラと違い、1フレームづつ撮っていくので時間とコマ数がかかります。終了まで約1時間ちょっと、1000回弱のシャッターを切りました。SharpCapからASCOMを通じて6Dの露出時間とISOを随時切り替えてシャターを切ります。ただしSDカードに記録はしないため、バッテリーは1000枚撮影したあともまだフルゲージ残ってました。

IMG_1972
下にフレーム数と時間が出ています。

今回測定したゲインはISO100からISO500までの8段階でした。それぞれのゲインで、センサーの読み取りから、暗すぎたりサチったりしないように適当に露出時間にフィードバックして適した露出時間を決めるため、それだけで何度もシャッタを切るので、どうしてもシャッター回数が多くなってしまいます。

一眼レフカメラのシャッター回数は寿命に繋がるので、無駄な機械シャッターを切らないように少なくとも何度かCMOSカメラで練習することをお勧めします。

以前のバージョンの測定の時には、この適した露出時間がなかなか決まらなくて長くしたり短くしたりを永遠と繰り返すバグなどもありましたが、今回はそのようなことはなかったです。ただし、測定中に露出時間も同じでISOも同じなのに撮影した画面に出てくる明るさがあからさまに変わって、安定しないような時がありました。原因はわかりませんが、ここは少し結果に対して不安要素となっています。

途中ダークノイズの測定のためにキャップをしたり、終わったら外したりしますが、それらは指示に従えばいいでしょう。 


測定結果

結果を見てみます。

IMG_1977

Gain Valuee/ADURead Noise (e)Full Well (e)Relative GainRel. Gain (db)Dynamic Range (Stops)
1005.6927.18931441.000.0011.74
1254.4526.69730541.282.1111.42
1603.2912.66730541.734.7412.06
2002.4911.87407922.287.1711.75
2501.9011.393107239.5411.41
3201.365.77223064.1812.4111.92
4000.954.99155525.9915.5511.60
5000.744.87121217.6817.1111.28

グラフ化しておきます。一番下のグラフは読み出しノイズをADUで表した場合です。ISO300くらいまではゲインが上がると共にe-単位での読み出しノイズが小さくなっていくのでほぼ一定で、ISO300を超えるとADUで見て読み出しノイズが上がってきます。これはISO300を超えると実際の画像で見て読み出しノイズが大きく見えてくるということを示しています。

6D_gain_graph_cut


これだけみていると、unity gain (unity ISO)は e/ADUが1になるところなので400を切るところ程度と読めます。ところがこの値は少し疑問が残ります。

Read noiseについては3段階に分かれているようなので、ここから3種のアナログゲインがあるのではとかの推測ができます。さらに、細かいゲインについてはデジタルゲインの可能性が高いと言えます。


考察

まずはこちらのページを見てください。


6Dのセンサーについて測定しているページです。このページではunity gainはISO575であると言っています。今回自分で測定したISO400弱とというのとは1.5倍くらいのズレがあります。

わかりやすくするために上記ページの表のISO800までをお借りします。

ISOgain[e-/ADU]read noise[e-]DR[dB]
505.641327.4868.7
1005.691127.5868.7
2002.773213.6668.6
4001.41787.5367.9
8000.72914.4566.7

Read noiseについてはISO100、200、400、800にアナログゲインが入っていると考えられるので、今回測定した結果と矛盾ないと考えられます。

gain[e-/ADU]については少なくとも今回測定した値の中でISO100のところはgainもread noiseも上の測定結果とよく合っていると言っていいと思います。ところがそれ以外のISOのところは全て1.5倍くらいずれています。これはどういうことなのでしょうか?

この違いは、今回SharpCapが簡易的な測定をしていることに起因します。先に示して表の中で、実際に測定しているところを赤くしてみます。

Gain Valuee/ADURead Noise (e)Full Well (e)Relative GainRel. Gain (db)Dynamic Range (Stops)
1005.6927.18931441.000.0011.74
1254.4626.69730541.282.1111.42
1603.2912.66539621.734.7412.06
2002.4911.87407922.287.1711.75
2501.9011.393107239.5411.41
3201.365.77223064.1812.4111.92
4000.954.99155525.9915.5511.60
5000.744.87121217.6817.1111.28

この赤いところ以外は実測ではなく、実測した値から計算しているに過ぎません。例えば
  • e/ADUのISO100の5.69以外のところは、5.69を単にRelative Gainで割った値に過ぎません。
  • Full Wellも同様で、ISO100のところの93144を単にRelative Gainで割った値に過ぎません。
  • Dynmic Rangeは計算値のFull Wellを実測のRead Noiseで割ってbitで表しただけです。
こうやってみると、Dynmic Rangeが今回測定した範囲の中であまり変わらないのも理解できます。なぜなら、Read Noiseがアナログゲイン(ISO)に比例してよく下がってくれている範囲内だからです。今回の測定範囲外は上記ページを見てもらえばよくわかります。ある一定値以上のISOでは、これ以上いくらアナログゲイン(ISO)をあげても、Read Noiseが他の要因である一定値に制限されてしまう一方、Full Wellは下がっていくために、ダイナミックレンジが小さくなっていきます。

また、Dynamic Rangeで考えたら、最大値とほとんど変わらないISO1000位までまではISOを上げたほうが得。Dynamic Rangeの落ちを1bitまで(半分になるということ)許容するとしたら、ISO1600までは許容範囲で、ISO3200だとそれよりほんの少し損をするといったところでしょうか。なので私がもし使うならISO800か1600、もう少し明るさが欲しい場合はぎりぎりISO3200ということにするのかと思います。


今回の測定の問題点

さてここで、今回実測したRelative Gainのところに注目します。通常はISO100を基準にISO200なら2倍、ISO400なら4倍になるはずですが、結果はISO400で2.3倍、ISO800で6倍でどうも1/1.5倍程度小さく測定されてしまっているようです。しかも線形性もあまりないという冴えない結果です。先に、測定中に撮影した明るさが一定にならないと書きましたが、これが悪さをしている可能性があります。もしISOと実際のゲインが理論値で一致しているなら(ISO200なら2倍、ISO400なら4倍とかいうこと)unity gainはISO569になるはずで、上記ページの結果ともほぼ一致します。

SharpCapでの測定方法は、CMOSカメラが前提のためにシャッター回数を気にしなくてため、何枚も画像を撮り、それらの同じエリアを使うことで、時系列でずれたようなデータを使い解析しています。一方、1枚の暗いところから明るいところまで含まれるような画像を撮影し、その画像の中で空間的にずれたようなデータを使うことでも同様の解析ができます。

というか、普通は後者の方が素直なやり方で、SharpCapは測定を自動化するために時系列のデータを使っているというわけです。最初SharpCapのやり方を見た時に「上手いやり方だなあ」と思いましたが、測定してみると簡易的な方法であることはすぐに認識できて、しかも今回一眼レフカメラのシャッター回数のことを考えると、やはり1枚の画像で解析した方がいい気がしてきました。

明るさのところをもう少し改良して、もう一度くらいなら測定したいと思います。シャッターの寿命が10万回としたら、1回の測定でシャッター寿命の約1%を使ってしまう計算なので、SharpCapで測定するのは最小限に抑えておいたほうがいいでしょう。

むしろISO100の結果だけは正しく測定していて、結果も矛盾なく正しく得られていると思われるので、あとは自分で別途ゲインを測定したほうがマシそうです。


ISOと実ゲインを実測

というわけで、ISOと実際に撮影できる明るさを実測してみたいと思います。

測定方法はSharpCapで測った時と同様に、iPadのアプリColor Screenを使い、そこにカメラを載せて、ISOを変えて撮影します。ただし、SharpCapでの測定がばらついたのでその反省を生かし、外光の影響ができるだけないのようにしました。まず、Color Screenの明るさを32から128の4倍にします。さらに、Color Screenの上に薄い紙を一枚敷きiPadの表面の反射の影響をなくすようにします。先の測定ではレンズなしのセンサー面を暴露しての測定でしたが、これもレンズをつけてレンズの先の光だけがセンサーに入るようにしました。

露光時間を1/50秒に固定して、ISOを800から100まで下げて撮影していきます。というのはISO800でサチらないように気をつけるためです。

測定は、撮影した各画像の中心の100x100ピクセルの平均の明るさ。RGB個別に取り出してます。中心を選ぶ理由は、縁のほうに行くと周辺減光が影響してくるからです。また、ADCの値に何らかのオフセットが加わっている可能性があるために、レンズに蓋をして明るさを測りましたが、レンズを開けた時に対して0.5%程と測定にほぼ影響はないので今回は無視しました。

これだけやったのですがやはり結果は変わらず、ISOと実際のゲインは全然合いませんでした。結果を示します。ISO100の時のゲインを1としています。
6D_ISO_gain
普通はISO800ならISO100の8倍の明るさになるはずです。グラフの点線に近くなるはずです。ところが実測は4-5倍程度しかないどころか、線形性(測定点を結んだ線が真っ直ぐになること)さえもありません。

測定はかなりしっかりやったつもりです。いったい何がおかしいのでしょうか?一つの可能性は、ヒストグラムのピークが一定の場所になるように露光時間を変えるなど調整しながら、その露光時間ぶんを補正してISOを変えて測定するとかでしょうか?ちょっといろいろ不明で、そろそろ力尽きたのでここは次の課題とします。


今回の結論

はっきりとした結論は出ませんでしたが、まとめます。
  • SharpCapのセンサー解析機能を使うことで、EOS 6DのISO100についてのコンバージョンファクター(Gain)はきちんと測定できたようです。
  • ですが、それ以外のところは1.5倍ほどずれていると考えられます。
  • その原因は、ISOを変えることに対して明るさが期待通りにならないことから来ていると思われます。
  • なので、unity gainに関しては保留とします。
  • 他の場所ではunity gainはISO600を切るくらいと、複数確認できるのと、ISOとゲインの関係さえしっかりしたら今回の測定でもそのくらいになるので、おそらくunity gainはISO600を切るというのが正しいと思われます。
今ふと思ったのですが、もしかしたら持っている6Dのゲイン設定がおかしくなっていて、本当にISOとずれているのかもしれません。こうなったら修理コースなので、もう少しいろいろ試してから結論を出したいと思います。


I heard some people are wathign Youtube video for CP+ EAA broadcasting. They can use realtime translator function but mayby my voice is sometimes difficlut to be translated.

I hope it will be some help to understand my talk for non Japanse speakers, I translated my slids into English.

If you are interested in, please see the slids blow with Youtube;




Slides

slide1

slide2

slide3

slide4

slide5

slide6

slide7

slide8

slide9

slide10

slide11

slide12

slide13

slide14

slide15

slide16

slide17

slide18

slide19

slide20

slide21

slide22

slide23

slide24

slide25

slide26

slide27

slide28

slide29

slide30

slide31

slide32



Please enjoy!

How was it? It was the first time to me to transrate my hobby's slides.  I am glad if you are really interested in EAA, and if you try it farway from Japan.

If you have any qestions or if you succeeded in, please let me know to leave your comments on this blog.

Enjoy it!

前回撮影したカリフォルニア星雲ですが、1時間半ほどの露光とそこまで長くないので、それ相応のあぶり出しはできていて、そこまで不満はないです。それでも淡い部分、例えば画面の右下あたりに分子雲があるようなのですが、少なくとも前回の画像を見る限りノイズとほとんど見分けがつかなくて、はっきりしません。




ISOを増やしてみる

今回の目的は、露光時間は同じでISOだけを上げた場合に淡い部分が出てくるかどうかです。ISOを4倍の3200にして、同じ露光時間の3分で、他の部分は出来る限り同じようなセットアップで撮影します。例え恒星がサチっても気にしないとします。さすがに4倍もISOを変えてやれば、淡いところならば何か違いが見えるのではないかという狙いです。

撮影は2021年3月10日。まだ前回のセットアップをほとんど崩していなかったので、準備も楽なものです。撮影できた枚数は33枚、合計1時間39分なので、前回の1時間48分と大体同じです。光害地で高ISO、長時間露光で撮影しているので、画像は相当明るくなってしまいます。撮影時はこんな感じで、ヒストグラムも相当右側に行ってしまっています。

BYE01

通常はここからスタックをして画像処理に進むわけですが、前回からの違いを比較しやすいように、前回の画像と今回の画像を、Photoshopに渡す直前(PixInsightでABEとDBEをかけて、PCCで色合わせ、ArcsinhStretchまで終えた状態)まで持っていきます。Stretchの欠け具合で見え方が変わってくるので、最後に直接比較ができるようにSTFでAutoStretchをかけた状態にします。


実際の比較

前回のISO800のときと
masterLight_integration_DBE_DBE_rot_PCC

今回のISO3200のとき
masterLight_integration_ABE_ABE_cut_DBE_RGB_PCC

まず大きく違うのは、恒星の周りのにじみです。前回はかすみがあったのでしょうか?それとも黄砂?いまだに理由はわかっていません。特に、真ん中の一番明るい星の左にある明るいにじみは謎です。前回のスタック前の各画像を改めて見てみると、ditherで恒星の位置が動いても、このにじみは動いていなかったので、たまたまにじみの真ん中にあるように見える恒星はおそらく関係ありません。一番明るい恒星の何処かでの反射でしょうか?

と思って調べていたら、もう一つ決定的なミスに気づきました。なんと前回と今回の撮影、ノーフィルターかと思っていましたが、実はCBPフィルターが取り付けてありました。Sh2-240を撮影した時にCBPを入れたのをすっかり忘れてしまっていて、フィルターが入ってないと思い込んでいました。というわけで、フィルターでの反射で起きたゴーストの可能性もあるかと思ったのですが、それでも前回も今回もフィルターは入っていて、前回のみ出て、今回消えた理由にはならない気がしています。

ISOの違いがこのにじみに関係しているのか?これもよくわかりませんが、おそらく関係ないだろうと思っています。

さてにじみはとりあえず置いておいて、ここからが重要です。一見わかりにくいですが、右下のほうに恒星が見えにくい暗黒体のような部分があります。ここが今回一番比較したかったところです。わかりやすいように拡大してみました。

左がISO800、右がISO3200です。
comp

ここはISOの違いで思ったよりも差が出たところでした。画像処理の違いも多少聞いているかもしれませんが、同じパラーメータのABE、DBEを適用しています。右のISOが高い方が明らかに暗黒体を分離できていて、左のISOの低い方は暗黒体と思われるところがノイズときちんと分離できていません。もちろん(時間帯はほぼ同じですが)日にちを変えて撮影しているので天気の条件は違います。左の方が天気から来るかすみか何かが効いている可能性も否定しきれません。

ですが、この暗黒体のような淡い天体に関しては、スタックによって軽減するスカイノイズ、ショットノイズなどは関係なくなっていき、最後はシャッター枚に必ず加算される読み出しノイズとの戦いになります。高いISOもしくは高いゲインでは入力換算で考えたときの読み出しノイズは小さくなることは一般的にわかっていて、今回のようにISOで4倍の差だと、特にISOが低いところではノイズが4分の1になります。ISOが大きいところだと、読み出しノイズは一定値に漸近していくため、その効果は小さくなります。EOS 6Dで測定された読み出しノイズを調べてみると、ISOが800から3200の場合は4.45e-から2.30e-に下がるそうなので、約2倍程度よくなるようです。

このように、見たい対象が暗くて読み出しノイズと同程度の場合にはISOを上げることが効果がある場合があります。逆に言えば、ISOを上げようが下げようが、明るい星雲とかでは差はほとんど分からなくて、差が顕著になるはずの相当暗い部分にいったっても、高々これくらいの差しか出ないわけです。

と、一応理屈通りに見える結果は出ました。というか、最初にISO800で見えるはずの暗黒体がなんか見えているような、見えていないような状態だったので、同じ露光時間で飽和しない限界のISO3200で何か効果が見えるのではないかと思ってやってみたわけです。でも、先にも書きましたが、天気の差の可能性も捨てきれないので、もう少し検証が必要かと思います。


最後まで仕上げてみる

さて、今回撮った画像を仕上げてみます。

Image66._ASx2_HT2

  • 撮影日: 2021年3月3日20時23分-22時15分
  • 撮影場所: 富山県富山市
  • 鏡筒: Takahashi FS-60CB + マルチフラットナー
  • フィルター: SIGHTRON CBP
  • 赤道儀: Celestron CGEM II
  • カメラ:  Canon EOS 6D(HKIR改造, ISO3200, RAW)
  • ガイド: f120mmガイド鏡 + ASI120MM mini、PHD2によるマルチスターガイドでディザリング
  • 撮影: BackYard EOS、露光時間180秒x33枚 = 1時間39分、ダーク39枚(ISO3200、露光90秒、最適化あり)、フラット128枚(ISO3200、露光1/800秒)、フラットダーク128枚(ISO3200、露光1/800秒)  
  • 画像処理: PixInsight、Photoshop CC、DeNoise AI

恒星に関しては明らかに今回の方が変なにじみもなくまともです。また暗黒体も上で見た途中経過だけでなく、仕上げた時でもやはり前回よりはっきり出ました。それと同様の効果でしょうか、星雲部の淡い部分もやはり前回よりも明らかに自然に出ています。前回はノイズに埋れているところを無理やり出した感満載でしたが、今回は少しはましになっています。

逆に唯一前回よりもダメだったことは、恒星の中心部の飽和が増えたことでしょうか。前回はほとんど気にならなかったのですが、今回は途中ピンクスターを除去する処理を加える必要がありました。


まとめ

前回、今回と、ISOを変えて他はできるだけ同条件で撮影してみました。

結果としては、やはり淡い部分を出したい場合には、読み出しノイズが効くようなレベルであれば、理論通りISOを上げた方が得するようです。今回は自分が思っていたたよりも違いが大きく出ました。

もちろんこの結果が全てと言うわけではなく、条件によって有利不利はあるかと思います。特に読み出しノイズに制限されていないような状況や、一枚の画像の中でも明るい部分などは、差はほとんど出ないでしょう。

また、今回の結果も天候に依存する可能性もあり得るので、ISOがどこまで効くのかというテーマについては、もう少し結論は先延ばしにしたいと思います。


このページのトップヘ