回転花火銀河M101を撮影してみました。この天体は電視観望では何度か観たことがありますが、撮影は初めてです。自宅からですが、富山特有の北の明るい空です。さて、どうなることやら。
今回はもう少し北側のM101に挑戦です。挑戦と言う意味ですが、富山は日本海側のため基本的に北が市街地になっているので、北の空はどうしても明るくなってしまい、これまでも撮影は避けてきました。
前回、三つ子銀河の自宅からの撮影がQBPを入れたまま知らずに撮影してしまうというアクシデントのおかげか、思いの外うまくいったので味をしめてしまいました。これならもう少し明るい領域でもなんとかなるのではと思い、この季節北東から真北に動いていくM101にしました。
機材セットアップは三つ子銀河の時と全く同じで、TSA-120にQPDでASI294MCProです。撮影自身は順調。ガイドもほとんどズレなしです。透明度はというと、三つ子銀河の時よりは悪かったと思います。見た目でもわかるくらい三つ子さんの時は細かい星まで散りばめられていましたが、M101のこの日の空は、悪くはないですが、まあそこそこと言ったくらいでしょうか。普通に星は見えますが、細かい星まではあまり見えません。
撮影はStickPCを利用したリモート撮影です。いったんセットして撮影が始まってしまえば、あとは部屋からヌクヌク状態でモニターすることができます。予定では3時間以上の露光時間を狙います。ところが、天頂越えまでまだ少し時間がある頃、部屋からリモート接続のでダウンロードされる画像を見ていると、星が流れて出していることに気づきました。おかしいと思い、外に出てチェックしてみると、天頂越え直前でカメラが三脚の当たって止まってしまっていました。これまでこんなことあまりなかったのですが、鏡筒が長いと天頂近くになるとカメラ側が脚に当たってしまうこともあるのがわかりました。こんなことならAPTで赤道儀の反転テストを試せばよかったです。赤道儀が明らかにずれてしまったのと、もうしばらくすると月も出てくるので、この日はこれで終了としました。5分露光で30枚なので2時間半分の撮影です。
ガイドのズレを見るためにいつものように2時間半分の画像を動画にしてみます。

今回は1方向に動いているわけではなく、一度左に行って、右に戻ってきているような感じです。APTのDithering Distanceで4としてあるのですが、このランダムな動きがその4というので動いているのかもよくわかりません。1方向のドリフトではないのですが、まだたわみか何かが原因で動きすぎている気がします。
上の動画は明るさを規格化してしまっていますが、一番最初と一番最後ではヒストグラムで見ると明るさが1.5倍くらい違います。なぜかだんだん暗くなっていきます。最初北東にあったM101が高度を上げながら真北へ向かっていくくらいまでを撮影したのですが、普通に目で見ても北の方が明るいのは確かです。高度が上がっていくから暗くなるのか、夜中になり町の明かりが減っていったから暗くなっていったのかはわかりませんが、(QBP有り無しで高々3倍の明るさの違いなので)1.5倍は無視できないくらいの違いです。2時間半分あるのですが、淡いところだけを出すのなら後半のみ使うくらいの方がいいのかもしれません。今回は、結局画像処理をやっている過程で、最初の30分を使うのをやめました。そのため淡い部分がもう少し出るようになった気がします。
今回結構色々学びました。特にAPTはまだまだ経験不足で慣れていないことも多いので、癖を知っておく必要がありそうです。
1. light frame
撮影した画像を見てみると、どうもホワイトバランスが根本的に取れてません。QBPのせいでしょうか?赤がどうしても強くなってしまいます。でも、後のフラットで逆に赤が暗くなったことを考えると、QBPのせいでもない気がします。
SharpCapの場合はカラーバランスをソフト側でとることができて、fitsファイルにもそれが反映されてます。APTの場合にはカラーバランスを調整できる場所がありません。いや正確には見かけのカラーバランスは調整する場所はあるのですが、画面だけに反映され、fitsファイルにはそれは反映されないようです。
2. dark補正
今回はdarkの補正の時にアンプグローをうまく差っ引くために、前回のUTOさんのアドバイスを元にOptimizeオプションをオフにして処理しました。 オンとオフで比べてみます。
最初BatchPreProcessで設定場所が見つからなかったので、ImageCalibrationの中でOptimizeをオフにしてバッチ処理でなくその後もマニュアルでやったのですが、後にBatchPreProcessの右側のグローバルオプションのところに設定できる場所があることを見つけました。これでバッチ処理で手間をかけずに進めることができるようになりました。
ちなみに、ダークだけをものすごく炙り出してみるとこんな風になります。
右上が目立ちますが、左上にもそこそこのアンプグローがあり、よく見ると右下にも少しあります。3箇所もあるので大変そうですが、ダーク補正でOptimizeをオフにすることで解決できるので、もうそれほど大きな問題ではないのかと思います。
3. bias補正
最初bias補正をすると画面が暗くなりすぎてしまいました。これはbais frameの撮影時のbiasの値(オフセット)が大きすぎたことと、次に書くフラット補正がうまく行っていなかったことが原因かと思われます。
ligh frameの撮影時、APTでのbias設定が40でした。そのためbias frameの(オフセットの意味での)bais値は撮影時に40以下にしています。最初オフセットを30にしてSharpCapdで0.0032msで撮影したのですがまだ十分下げ切れていませんでした。それに合わせてflat frameのカラーバランスも合っていなかったせいで、赤が過補正のため青と緑が相対的にオフセットを引かれすぎた状態になってしまって、出来上がり画像の青と緑が暗すぎてしまったのかと思います。
そのため改めてbiasを撮影して、その際オフセットを20に下げ、今度は念のためAPTで撮影しました。一応これでうまく行きましたが、実際にはbias値を下げたからよくなったのか、後述のフラットのバランスが取るように対策したからなのかは不明です。
4. flat補正
その中でも、今回の撮影では特にflat補正で学ぶことが多かったです。TSA-120の口径が大きすぎて、いつもやっているようなiPadでのフラット撮影は出来ませんでした。手持ちのiPadでは画面が小さすぎてはみ出てしまうのです。その代わりにMacbook Proのモニターをフラットパネル代わりに使ってやりました。使ったツールは天リフさんのこのページです。
このページはカラーバランスを整えることができるので、非常に便利です。
短時間露光のflat frameなので、最初はディスクへの画像取り込み時間が速いのでSharpCapで撮影していたのですが、条件をそろえる意味で途中からAPTでの撮影に切り替えました。ゲインはlight frameと同じ220、露光時間は以前の検証から100msです。枚数は50枚程度ですが、これも以前の検証からこれくらいの枚数で十分だと思われます。
ここから色々不思議なことがあり、まだ完全に解決できていません。あいからわらずフラットは謎が多いです。
上の「1. light frame」のところでも述べましたが、APTでlight frameを撮影すると赤色が一番強調して撮影されます。上のスナップショットでヒストグラムのところを見ると、赤が青や緑に比べて1.5倍くらい明るいのがわかります。
このflat frameを使いフラット処理をすると、もともと1.5倍明るい赤が、2分の1位の暗さの赤で割られるので、その結果赤が3倍くらい明るいlight frameが出来上がることがわかりました。そのため少なくともPIでは、light framとflat frameのカラーバランスは、そこそこ同じようにする必要があることがわかります。実際にはMacの画面のカラーバランスを、あらかじめ赤が3倍くらい明るいものにして、それを撮影することで、そこそこlight flameと同じカラーバランスの取れたflat frameを作ることできるようになりました。
もう一つ問題がありました。撮影したflatの画面のうち赤色だけ様子がおかしいのです。RGBに分解してみてやると、青や緑はいたって普通に見えますが、赤色だけはセンサーの長手方向に蝶形になるような、形が現れてきて、変に見えます。
とりあえず軽減する方法は見つけました。どうもフラットパネル(今回はMacbook Proのモニター)で撮影することが悪さをしているようです。まず、フラットパネルを使わずに、昼間にスーパーの袋を二重に重ねてflatを撮影してみると、この変な形は随分とマシになります。カラーバランスはその時に入る光に依るので、少し赤っぽい、実際には電球色の光を入れています。
画像を見ても少しマシになっていることがわかると思います。でもマシになっただけで、やはり同じような形は残っています。
で、結局最終的にやったことはというと、flat補正をしないという選択肢を取りました。どう見てもこれが一番マシなのです。そもそもカメラがフォーサーズ相当で周辺減光があまりないので、それほどフラット補正にこだわる必要はないのかもしれまん。
でもここで不思議なのは、同じ鏡筒で同じ条件で撮影しているのに、なんで普通のlight frameの撮影の方では、こんな変な模様が見えてこないかです。まだflat frameの撮影方法に問題があるような気がしています。ここらへんは時間があったらもう少し試してみます。
5. 仕上げ
フラット補正なしにしてスタックした画像がまともになるとやっと、その後の仕上げの画像処理に困ることはなくなりました。ちなみにこれ以前のフラットが合っていない時の画像処理は熾烈を極め、時間も相当かけてしまいました。ちなみに最後のフラット無しの結論に至るまでに、PixInsightでのフルスタックの画像処理の回数は11回。そのうちPhotoshopに移って最後まで処理を進めたのが4回。下処理がきちんとしていればいるほど、画像処理にかける時間も少なくなりますし、出来上がった画像もいいものになります。
画像処理の段階で色々紆余曲折はしましたが、そこそこ満足のいく仕上がりになりました。透明度の差もあるのでしょうか、三つ子銀河の時ほどくっきり出すのは難しかったですが、アンプグローが軽減できたのと、フラットがマシになったぶんもあり、淡い部分をより炙り出すことができていると思います。
自宅でこれなら、まあ十分ではないでしょうか。これも一度暗いところへ行って撮影してみたい対象です。一体どれくらい変わるのか、真ん中のしわしわの部分をもっときれいに出せたらと思います。
その一方、富山の北の空でこれだけ出るのなら、もう少し自宅で時間をかけていろんな銀河を探っていきたくなりました。自宅からなら、天気さえ良ければ平日でも比較的気楽に試すことができます。
天体の名前入りの画像です。こちらも定番になりそうです。
前回の三つ子銀河は全面縦横ズレなしだったのですが、今回は右はあっていても左側が斜めになっています。北の空だからでしょうか。座標に対しては画面が歪んで写るんですね。
TSA-120の自宅での撮影第2段。QBPのおかげもあり、北の空の銀河でもそこそこ写ることがわかりました。銀河の撮影も楽しくなってきました。TSA-120での撮影を今しばらく続けていきたいと思います。
その一方、まだ画像処理では理解不足なところがあります。特にflatはいまだにミステリーです。きちんとしたflat撮影方法をもう少しきちんと考える必要がありそうです。
銀河部分を大きくみるために最終結果を切り出したものです。
撮影
今回はもう少し北側のM101に挑戦です。挑戦と言う意味ですが、富山は日本海側のため基本的に北が市街地になっているので、北の空はどうしても明るくなってしまい、これまでも撮影は避けてきました。
前回、三つ子銀河の自宅からの撮影がQBPを入れたまま知らずに撮影してしまうというアクシデントのおかげか、思いの外うまくいったので味をしめてしまいました。これならもう少し明るい領域でもなんとかなるのではと思い、この季節北東から真北に動いていくM101にしました。
機材セットアップは三つ子銀河の時と全く同じで、TSA-120にQPDでASI294MCProです。撮影自身は順調。ガイドもほとんどズレなしです。透明度はというと、三つ子銀河の時よりは悪かったと思います。見た目でもわかるくらい三つ子さんの時は細かい星まで散りばめられていましたが、M101のこの日の空は、悪くはないですが、まあそこそこと言ったくらいでしょうか。普通に星は見えますが、細かい星まではあまり見えません。
撮影はStickPCを利用したリモート撮影です。いったんセットして撮影が始まってしまえば、あとは部屋からヌクヌク状態でモニターすることができます。予定では3時間以上の露光時間を狙います。ところが、天頂越えまでまだ少し時間がある頃、部屋からリモート接続のでダウンロードされる画像を見ていると、星が流れて出していることに気づきました。おかしいと思い、外に出てチェックしてみると、天頂越え直前でカメラが三脚の当たって止まってしまっていました。これまでこんなことあまりなかったのですが、鏡筒が長いと天頂近くになるとカメラ側が脚に当たってしまうこともあるのがわかりました。こんなことならAPTで赤道儀の反転テストを試せばよかったです。赤道儀が明らかにずれてしまったのと、もうしばらくすると月も出てくるので、この日はこれで終了としました。5分露光で30枚なので2時間半分の撮影です。
全体の流れ
ガイドのズレを見るためにいつものように2時間半分の画像を動画にしてみます。

今回は1方向に動いているわけではなく、一度左に行って、右に戻ってきているような感じです。APTのDithering Distanceで4としてあるのですが、このランダムな動きがその4というので動いているのかもよくわかりません。1方向のドリフトではないのですが、まだたわみか何かが原因で動きすぎている気がします。
上の動画は明るさを規格化してしまっていますが、一番最初と一番最後ではヒストグラムで見ると明るさが1.5倍くらい違います。なぜかだんだん暗くなっていきます。最初北東にあったM101が高度を上げながら真北へ向かっていくくらいまでを撮影したのですが、普通に目で見ても北の方が明るいのは確かです。高度が上がっていくから暗くなるのか、夜中になり町の明かりが減っていったから暗くなっていったのかはわかりませんが、(QBP有り無しで高々3倍の明るさの違いなので)1.5倍は無視できないくらいの違いです。2時間半分あるのですが、淡いところだけを出すのなら後半のみ使うくらいの方がいいのかもしれません。今回は、結局画像処理をやっている過程で、最初の30分を使うのをやめました。そのため淡い部分がもう少し出るようになった気がします。
画像処理
今回結構色々学びました。特にAPTはまだまだ経験不足で慣れていないことも多いので、癖を知っておく必要がありそうです。
1. light frame
撮影した画像を見てみると、どうもホワイトバランスが根本的に取れてません。QBPのせいでしょうか?赤がどうしても強くなってしまいます。でも、後のフラットで逆に赤が暗くなったことを考えると、QBPのせいでもない気がします。
rawファイルをカラーバランス補正なしでオートストレッチした画面。
ヒストグラムを見ても赤が支配的です。
ヒストグラムを見ても赤が支配的です。
SharpCapの場合はカラーバランスをソフト側でとることができて、fitsファイルにもそれが反映されてます。APTの場合にはカラーバランスを調整できる場所がありません。いや正確には見かけのカラーバランスは調整する場所はあるのですが、画面だけに反映され、fitsファイルにはそれは反映されないようです。
2. dark補正
今回はdarkの補正の時にアンプグローをうまく差っ引くために、前回のUTOさんのアドバイスを元にOptimizeオプションをオフにして処理しました。 オンとオフで比べてみます。
デフォルトのOptimizeがオンのまま。右上にひどいアンプグローが残っています。
ダーク補正の際のOptimizeをオフにした場合。
アンプグローは相当マシになります。
アンプグローは相当マシになります。
最初BatchPreProcessで設定場所が見つからなかったので、ImageCalibrationの中でOptimizeをオフにしてバッチ処理でなくその後もマニュアルでやったのですが、後にBatchPreProcessの右側のグローバルオプションのところに設定できる場所があることを見つけました。これでバッチ処理で手間をかけずに進めることができるようになりました。
ちなみに、ダークだけをものすごく炙り出してみるとこんな風になります。
右上が目立ちますが、左上にもそこそこのアンプグローがあり、よく見ると右下にも少しあります。3箇所もあるので大変そうですが、ダーク補正でOptimizeをオフにすることで解決できるので、もうそれほど大きな問題ではないのかと思います。
3. bias補正
最初bias補正をすると画面が暗くなりすぎてしまいました。これはbais frameの撮影時のbiasの値(オフセット)が大きすぎたことと、次に書くフラット補正がうまく行っていなかったことが原因かと思われます。
カラーバランス補正をしてオートストレッチすると青と緑が暗すぎてしまう。
バイアス補正でオフセットが引かれ過ぎていると考えられる。
バイアス補正でオフセットが引かれ過ぎていると考えられる。
ligh frameの撮影時、APTでのbias設定が40でした。そのためbias frameの(オフセットの意味での)bais値は撮影時に40以下にしています。最初オフセットを30にしてSharpCapdで0.0032msで撮影したのですがまだ十分下げ切れていませんでした。それに合わせてflat frameのカラーバランスも合っていなかったせいで、赤が過補正のため青と緑が相対的にオフセットを引かれすぎた状態になってしまって、出来上がり画像の青と緑が暗すぎてしまったのかと思います。
そのため改めてbiasを撮影して、その際オフセットを20に下げ、今度は念のためAPTで撮影しました。一応これでうまく行きましたが、実際にはbias値を下げたからよくなったのか、後述のフラットのバランスが取るように対策したからなのかは不明です。
4. flat補正
その中でも、今回の撮影では特にflat補正で学ぶことが多かったです。TSA-120の口径が大きすぎて、いつもやっているようなiPadでのフラット撮影は出来ませんでした。手持ちのiPadでは画面が小さすぎてはみ出てしまうのです。その代わりにMacbook Proのモニターをフラットパネル代わりに使ってやりました。使ったツールは天リフさんのこのページです。
このページはカラーバランスを整えることができるので、非常に便利です。
短時間露光のflat frameなので、最初はディスクへの画像取り込み時間が速いのでSharpCapで撮影していたのですが、条件をそろえる意味で途中からAPTでの撮影に切り替えました。ゲインはlight frameと同じ220、露光時間は以前の検証から100msです。枚数は50枚程度ですが、これも以前の検証からこれくらいの枚数で十分だと思われます。
ここから色々不思議なことがあり、まだ完全に解決できていません。あいからわらずフラットは謎が多いです。
上の「1. light frame」のところでも述べましたが、APTでlight frameを撮影すると赤色が一番強調して撮影されます。上のスナップショットでヒストグラムのところを見ると、赤が青や緑に比べて1.5倍くらい明るいのがわかります。
これは有意なずれで画像処理に影響を与えるくらいかなり大きな差です。最初QBPのせいで赤くなっているのかなと思っていたのですが、不思議なことに鏡筒とカメラの設定を全く状態を変えないでMacのモニターでホワイトバランスをとったものをflat frameとして撮影すると、今度は赤が一番暗くなるのです。青や緑に比べて2分の1以下くらいの明るさです。
このflat frameを使いフラット処理をすると、もともと1.5倍明るい赤が、2分の1位の暗さの赤で割られるので、その結果赤が3倍くらい明るいlight frameが出来上がることがわかりました。そのため少なくともPIでは、light framとflat frameのカラーバランスは、そこそこ同じようにする必要があることがわかります。実際にはMacの画面のカラーバランスを、あらかじめ赤が3倍くらい明るいものにして、それを撮影することで、そこそこlight flameと同じカラーバランスの取れたflat frameを作ることできるようになりました。
もう一つ問題がありました。撮影したflatの画面のうち赤色だけ様子がおかしいのです。RGBに分解してみてやると、青や緑はいたって普通に見えますが、赤色だけはセンサーの長手方向に蝶形になるような、形が現れてきて、変に見えます。
赤だけ変な形が現れる。
とりあえず軽減する方法は見つけました。どうもフラットパネル(今回はMacbook Proのモニター)で撮影することが悪さをしているようです。まず、フラットパネルを使わずに、昼間にスーパーの袋を二重に重ねてflatを撮影してみると、この変な形は随分とマシになります。カラーバランスはその時に入る光に依るので、少し赤っぽい、実際には電球色の光を入れています。
蝶のような形はなくなったようにみえます。
画像を見ても少しマシになっていることがわかると思います。でもマシになっただけで、やはり同じような形は残っています。
で、結局最終的にやったことはというと、flat補正をしないという選択肢を取りました。どう見てもこれが一番マシなのです。そもそもカメラがフォーサーズ相当で周辺減光があまりないので、それほどフラット補正にこだわる必要はないのかもしれまん。
でもここで不思議なのは、同じ鏡筒で同じ条件で撮影しているのに、なんで普通のlight frameの撮影の方では、こんな変な模様が見えてこないかです。まだflat frameの撮影方法に問題があるような気がしています。ここらへんは時間があったらもう少し試してみます。
5. 仕上げ
フラット補正なしにしてスタックした画像がまともになるとやっと、その後の仕上げの画像処理に困ることはなくなりました。ちなみにこれ以前のフラットが合っていない時の画像処理は熾烈を極め、時間も相当かけてしまいました。ちなみに最後のフラット無しの結論に至るまでに、PixInsightでのフルスタックの画像処理の回数は11回。そのうちPhotoshopに移って最後まで処理を進めたのが4回。下処理がきちんとしていればいるほど、画像処理にかける時間も少なくなりますし、出来上がった画像もいいものになります。
結果
画像処理の段階で色々紆余曲折はしましたが、そこそこ満足のいく仕上がりになりました。透明度の差もあるのでしょうか、三つ子銀河の時ほどくっきり出すのは難しかったですが、アンプグローが軽減できたのと、フラットがマシになったぶんもあり、淡い部分をより炙り出すことができていると思います。
- 撮影日: 2020年4月16日21時29分-4月17日0時20分
- 撮影場所: 富山県富山市下大久保
- 鏡筒: Takahashi TSA-120
- 赤道儀: Celestron CGEM II
- カメラ: ZWO ASI294MC Pro
- 撮影条件: ゲイン220、温度-15℃、露光時間300秒x24枚 = 2時間0分
- フィルター: サイトロン QBP (48mm)
- PixInsight、StarNet++、Photoshop CC、DeNoise AIで画像処理
自宅でこれなら、まあ十分ではないでしょうか。これも一度暗いところへ行って撮影してみたい対象です。一体どれくらい変わるのか、真ん中のしわしわの部分をもっときれいに出せたらと思います。
その一方、富山の北の空でこれだけ出るのなら、もう少し自宅で時間をかけていろんな銀河を探っていきたくなりました。自宅からなら、天気さえ良ければ平日でも比較的気楽に試すことができます。
Annotation
天体の名前入りの画像です。こちらも定番になりそうです。
前回の三つ子銀河は全面縦横ズレなしだったのですが、今回は右はあっていても左側が斜めになっています。北の空だからでしょうか。座標に対しては画面が歪んで写るんですね。
まとめ
TSA-120の自宅での撮影第2段。QBPのおかげもあり、北の空の銀河でもそこそこ写ることがわかりました。銀河の撮影も楽しくなってきました。TSA-120での撮影を今しばらく続けていきたいと思います。
その一方、まだ画像処理では理解不足なところがあります。特にflatはいまだにミステリーです。きちんとしたflat撮影方法をもう少しきちんと考える必要がありそうです。












コメント
コメント一覧 (16)
Optimizeの件は私も最初オンでやってましたが、オフで良くなりましたね。
しかし、実際にOptimizeをオンでもダークが綺麗に引ける写真もあったりと意味不明なんですよね。
たぶん24枚も撮影されていたら何枚かオンでも綺麗に引けるものが混じっていると思います。というか引ければこっちの方が綺麗だと体感感じました。
APTのバグでOptimizeが引ける写真が正しいのか間違っているのか難しいです。
難しいけど頑張っていきましょう
みおさん、情報ありがとうございます。
私の場合は相対的には明らかにOptimizeを入れた方がいい結果でしたが、Optimizeを入れない場合が許容範囲外かというと、それはそれで判断が難しいです。そういった意味では、どこまで炙り出すかに依ってどこまで除去すればいいかという程度問題なのでしょうかね?
もちろんアンプグローなんてない方がいいのですが、ASI294MC Proはカラーですが感度が良く値段的にも許容範囲で替え難い存在なので、しばらくはこれでいくと思います。本当はモノクロのアンプグローのないのに手を出したいのですが、値段的になかなか手が出ません。ナローとかも楽しそうなんですが。
DarkにはBIASが含まれてますので。
ダーク白点は時間に比例して輝度が増加していきます(冷却によって減少、基礎理論本では-7℃で半分ですが、センサ特性によりけり。MaxImDLではヘッダの冷却温度、露光時間の情報よりダークを伸長するAuto-Scaleという項目があります)Optimizeは、DSSやMaxImDLも含めて多くのソフトで実装されてますが、何をやってるのかというと、BIAS画像をベース(Offset)として、白点のダークは、y=ax+b
y:ダークノイズ a係数:露光時間 b:BIAS(Offset)
で計算できるので、BIASフレームさえ撮っておけば、実は、ダークフレーム減算は、冷却温度や同じ露光時間といった縛りから開放されるのです。
実際、過去の冷却CCDカメラでは、転送時間が遅いためにノイズの影響を受けて同じ露光時間のダークフレームを減算してもマッチングしない問題もあったのですが、AutoOptimize機能により、より高品位の天体写真を作ることができました(CCD機のデジカメE-300でも上手く機能)
ところが、CMOSは、AMPノイズが存在し、BIASがフラットではありません。
Optimize機能が有効に働くのは、先に述べた通り、y=ax+bの数式が通用するときで、BIASがフラットではない(ムラがある)と、そりゃ、正常に機能しませんよね・・(ソフトによりけり、ですが、ダーク起因の白点除去については問題ないかと)
したがって、冷却CMOSでは、同じ露光時間・冷却温度で複数枚撮像し、できれば、MedianないしSigmaCripで合成したライブラリダークが必要になると思います。
ただ、AMPノイズはムラ扱いできそうなので、これって上手くムラだけ抽出すれば、フラット補正と、いう言い方は良くないですね、、、除算で打ち消すこともできそうな気がしますが、、、このあたりは、あぷらなーとさんあたり、実験してくれないかなあ・・。上手くやれれば、結構手間な補正データを端折った上でより高精度に補正できるようになるのですが!(でも、パナセンサだと強烈なAMPノイズではないんで、、普通になんとかなっちゃう・・)
ダークライブラリの温度と露光時間からの簡略化は魅力ですが、アンプグローという落とし穴があったとは。でもこれも確かにうまくするとアンプグローだけ別で除くことはできそうですよね。
一方、Optimize使わないとbias補正不要とのことですが、どこかでPIではbias必須という記述を見た記憶があります。でもきちんと検証してないので、ここも一度きちんと理屈と実際の検証で試してみたいです。UTOさんのいう通り、darkにはbiasも当然含まれていますから情報量としては十分で、あとは処理のアルゴリズムをどうするか、間違った処理をしていないかだけだと思います。
でも色々考えると、ノイズが温度と露光時間でシミュレートできる限界もありそうな気もしてきました。ダークみたいに素直なものもあれば、ここで挙がったアンプグローみたいに全然素直でないものが他にも無いとは限りません。それならば、「冷却そのもの」というよりは冷却機能で「温度を固定」し、露光時間も条件によって数種類に固定してしまった方が、楽なのかもしれません。これなら必要なダーク の種類も限られるので現実的です。もしPIのアルゴリズムがbiasを前提にしているのだとしたら、そちらも素直にbiasを入れるのでいい影響になるかもしれません。
アンプグローがないなら、対応も変わってきて、ダークライブラリをオンとと露光時間から解放してやって柔軟性をとった方が得策かもしれませんが、最近のZWOのいいカメラは高くって...。
CMOSのトモエも、2秒露光で運用してる(空の明るさで制限されるとのこと)ようで、きっとこちらも、ダーク引いてないんじゃないかな・・
天体写真の画質向上のヒントは、やっぱり僕は天文台の運用方法に学ぶことがあるのではないかと思ってはいます。
これまた、余談なのですが、15年前のスターライト・エクスプレス社の冷却CCDはダーク無しを推奨してました。冷却するけれど、温度制御できなかったんです。(その後、他社仕様に押されてか、SXVR系以降、温度制御できるようになりましたが)
高QE,低ノイズのSXV-H9は、たしかにダークフレームの必要性がなかったです。
一つ、書き忘れました。天文台冷却CCDでBIAS補正が不要なのは、CCD不感帯で、平均値を取得して、生データから、平均値を引いて、計算するので、計測機として正常に機能するのです。
トモエゴゼンのセンサー開発時の資料を読んでいるのですが、バイアスを引いていないが、限界等級にバイアスノイズが明らかに影響していて、今後は考慮する必要があるという記述がありました。また、同じトモエゴゼンの別の解析ではバイアスを除去しているという記述もありました。現在のデフォルトの解析がどうなっているのかはわかりませんが、少なくとも影響は当然認識していて、状況に応じて定量的にバイアス補正が必要かどうか検討しているかと思われます。
天文台に倣うというのは賛成で、そういった意味でも、アマチュアレベルでも必要な補正かどうかをきちんと検証して適用するかしないかを決めるという姿勢が大事なのだと思います。
ケニ屋さん、まだ観望会できますか!?富山は最近急激に感染者が増え、ほぼすべての行事がストップです。ちょっと前まで感染者が出ていないと油断していたしっぺ返しが今来ているような状況です。
電視観望でもモニターのまわりに人が集まります。観望会の形をたとえ電視観望にするにせよ、遠くからでも見えるように大型のモニターを用意するなど、くれぐれもあまり密にならないようにお気をつけください。観望会から感染が広まったとかになってしまうと、ただでさえ奇異に見られない兼ねない(笑)天文屋さんの肩身がますます狭くなってしまいます。
都会と地方ではまだ温度差もあるかもしれませんが、くれぐれも油断せずに、ご判断ください。今やっている対策は、感染期間を考えると2週間くらい経ってやっと効果が見えてくる状況です。
私はcanonのデジカメですが、処理を何もしていないRAW画像をDebayerすると緑色になります。その後フラットをすると赤色になります。そして色ごとの輝度の最大最小がズレて星の真ん中がピンクになってしまうので、ChannelExtraction→LinearFit→ChannelCombination
として揃えて処理してます。
なにかの役に立てばと思って書いておきました。
Rambさんこんにちは。
RAW画像に関してはPIにしろSIにしろ難しいと思います。SIの言いぶんではカメラメーカーがきちんとした情報を出さないから色が決まらないようなことでしたが、実際にホワイトがホワイトいならずに緑に寄ってしまった事は何度も味わいました。その一方、PIに関してはこれまでそういった不満はなく、今回初めて迷っています。でもこれは撮影側の問題がまだ十分に考えらるので、まだ結論は出さないことにします。
一方、輝度情報の揃え方の情報ありがとうございます。私はSTFを利用していましたが、LinearFitの方が他にないもいじらないので素直そうです。
画像処理がよくわかっていない素人が言うのもなんですが、
スカイフラットはともかくフラットパネルは、灰色になるように撮ったものを用いたのではだめなのでしょうか?
私は青空を灰色になるように各色感度をいじって色合わせして数ミリ秒露出で撮影したものをフラットに使っていますが(さらにコントラストを変えたものを数種類用意して)、とりあえずの周辺減光低減やゴミ取りには間に合っています。これで良いのかどうかはわからないのですが・・・。
そんな...、YAMASHITAさんが素人なら私なんか赤ちゃんですよ。
フラットは灰色だとやはりダメなんですかね。
そうか、夜空が灰色に写る -> 夜を明るくしたら青空で、それが灰色になるように調整するというのですね。なるほど!一理ありそうです。
私はずっと灰色の画面が灰色に写ると思い込んでいました。
これは試してみなければ。
https://sky.ap.teacup.com/clsky/129.html
これから、ブログタイトルに因んで、Mr Clear Skies(晴れ男)で投稿します。
Mr Clear Skiesさん、新ハンドルネーム改めましてですね。富山も大変ですよね。早く落ち着いてくれればいいのですが。今年は晴れの日が多くなりますように晴れ男さんに願掛けしたいです。
私もAnnotationはnabeさんという方のページを見て真似しただけです。昔マルカリアンチェーンを撮影した時に手作業で名前を入れたことがあります。
http://hoshizolove.blog.jp/archives/18860190.html
これに比べたら遥かに楽で正確です。