ほしぞloveログ

天体観測始めました。

過去の縞ノイズでも試してみる

もしかしたら、flat補正の効果が今回の撮影だけの特別な場合だった可能性もあります。なので、過去の画像で縞ノイズが出たファイルを再処理してみます。使ったのは、2年以上前のPixInsightを最初に使い始めた頃に撮影したM33。

シンプルにするためにフラットの有無だけで比較します。撮影条件は
  • 鏡筒: タカハシFS-60Q、焦点距離600mm
  • 赤道儀: Celestron Advaned VX
  • カメラ:  ZWO ASI294MC
  • ガイド: ASI178MCと50mmのCマウントレンズをPHD2にて
  • 撮影条件: SharpCapでゲイン270、温度-15℃、露光時間300秒x25枚 = 2時間5分
  • ディザー: なし 
  • ファイル保存形式: RAW16bit、fits形式
です。本質的なところではカメラは常温ですが同じ、長時間、ディザーなしというのでよく似た条件です。Flat frameの内容はというと、記録から
  • flat frame: light frame撮影後すぐに、鏡筒に状態でスーパーの白い袋を2重に被せて撮影。ゲイン270、露光時間300秒、常温で、3枚撮影。
となっているので、これも撮影後すぐにとったとか、枚数が少ないとかの条件も同じです。この似た条件というのが鍵になる可能性がありますが、まずは時期的にも違うという点で検証して一般性を見ます。

まずはflat補正あり。やはり以前と同じように縞ノイズは盛大に出るので再現性もあります。

light-BINNING_1

次にflat補正なし。ゴミの跡とかは目をつぶってください。当然周辺減光も出ますし、アンプグローも残ります。その代わりに、バラ星雲の時と同じで縞ノイズは消えます。厳密に言うとバラ星雲の時も今回のM33の時も同じで少しの縞ノイズは残っています。でもflat補正のあるなしで、いずれも劇的な違いがあることはわかります。

light-BINNING_1

この時点で、PIに限られますが違う画像でも起きているので、一般的にも十分あり得る話だということがわかります。


PixInsight以外では?ステライメージで確かめてみる

もしかしたらこれ、PIのflat補正のアルゴリズムに問題があって、PIだけの問題という可能性があります。他のソフトの代表で、ステライメージ8で確かめてみました。

そう言えば最近Windowsを入れ直してステライメージまだ入れてませんでした。久しぶりに再インストールして、M33を使ってflat補正をしてみました。自動処理モードは使わずに、詳細編集モード(マニュアルモード)で試しました。自動処理モードはこれまでもほとんど使ったことがないのと、一応は試したのですがうまく色が出なかったからです。

最初の結果がこれです。

light

「お、縞ノイズないじゃん!なんで?PIだけの問題か?」と思ったのですが、よくみるとゴミの跡も残っていてフラット補正全くされていないみたいです。自動処理モードでやっても結果は変わらず、flatファイルが悪いのかとか色々疑ったのですが、原因はステライメージのバグ。バージョン8をディスクからインストールしたてで、アップデートしていなかったことが原因でした。現行のバージョン8.0hにして試してみると、

light

ちゃんとflat補正もされて、縞ノイズも盛大に出るようになりました。なので、PIだけの問題でないということが分かります。

ちょっと蛇足です。久しぶりにステライメージ触ったのですが、随分といろんなことを忘れていました。今回サボりましたがflat darkとかも本当は撮らないとダメ(flat darkあるなしで縞ノイズに影響がないことは確かめています)なんですよね。その代わりにbiasファイルを撮らなくていいとか、今思うとPIとはだいぶん違います。

初心者向けの自動処理モードも「ほとんど何も設定出来ない」との批判も多いですが、私はこれでいいと思います。多分ステライメージは、初心者にとっては天体画像処理ソフトとしては唯一の選択肢です。日本語で操作できて、マニュアルも(十分ではないかもしれませんが)日本語で読むことができてという意味で、敷居がずいぶん低いはずです。初めて天体写真に挑む人は、一番最初は本当に何も分からず手探りでやるので、自動モードもこれくらい簡潔にしておくのはある意味正しいと思います。自動モードで理解できてきたら、詳細モードに行って、詳細モードでいろんな操作をして理解して、その上で不満が出たらより高機能なPixInsightという手もあるかと思います。

ステライメージで一つ不満があるとしたら、「ベイヤー・RGB変換」のところでしょうか。バッチ処理が無いので、一枚一枚手で変換しなくてはダメなんですよね。ALTキーでI、ALTキーでYで、Enterで処理、マウスで最小化ボタンを押して次の画像というのを繰り返し、出来るだけ楽に進めてます。今回20枚程度でしたが、100枚とかはやりたくないです。最近はPIで1000枚とかの処理もする時があるので、これだとステライメージでは現実無理です。せめてコンポジットやホット/クールピクセル除去機能みたいにバッチ処理ができるようになるといいのですが。


ついでにDSSでも

あと日本で流行っているスタックソフトの残りは、惑星用除いたらあとは、DSS(DeepSkyStacker)とRAP2くらいでしょうかRAP2は有料で持っていないので試せませんが、DSSはフリーなので試すことはできます。DSSは星を始めた4年前にまだ有料ソフトに手を出す前に、フリーだからと少し試しただけくらいの経験しかありません。もう久しく触っていませんが、いい機会なので試してみます。

昔はものすごく複雑だった印象があるのですが、機能自身は今思うとまあ一直線で素直ですね。少なくともPIに比べるとはるかにシンプルです。特に困ったところは2箇所だけで、一つはRegisteringのところで進まなくなってしまったところ。これは検出する星の数が多すぎたことが原因で、「Register Setting」の「Advanced」タブの「Star Detection Threshold」を増やして、検出する星の数を減らすことで解決しました。もう一つは一度最後まで処理をしたのですが、モノクロのままだったので、メニューの「RAW/FITS Settings」の「FITS Filters」できちんとdebayerしてやることでした。

さて結果です。フラットもうまく補正されたようです。

light

あー、ダメですね。やはり縞ノイズ出ますね。

と言うわけでflat補正問題、PixInsightだけの問題でもなく少なくともステライメージとDSSも含めて、同様に縞ノイズを発生させることがわかりました。日本で使われている3大スタックソフト(惑星用除く)で同じ状況というので、flat補正が縞ノイズに与える影響はかなり一般的と言っていいかと思います。


とりあえず、今回の記事のまとめ

他のデータでも、他のソフトでも同様の傾向で、flat補正の影響はあると言えそうです。

ただしやはり気になるところは、flatの撮り方が2例とも撮影後すぐに同露光時間、同ゲインで、スーパーの袋をかぶせて空で撮っていることです。露光時間が長いので、明るさ的に足りないことはないと思います。ただし、カラーバランスはかなり黄色っぽくなってしまっています。また、枚数が足りない可能性もあります。

次回以降はここら辺のflat frame自身についてもう少し検討できたらと思っています。実は今回の謎の答えもう出ています。今検証を進めているところです。乞うご期待です。



多分このシリーズ、長くなります。普段の記事を全然長いと思っていない私が長くなると思っているので、多分本当に長くなります。試したいことがありすぎるので、書けるとこまで書きます。途中で力尽きたらごめんなさい。

今回縞ノイズの一つを、多分特定しました。最初に断っておきますが、限られた条件でのことかもしれません。この記事を読んで試してみても、全然効果がなかったと言う方もいるかもしれません。ですが幾らかの悩んでいる方の解決にはなると思います。私自身、他の方の環境でどうなるか興味があるというのもあります。

comp

この比較写真のように違います。左がこれまでの縞ノイズ、右が無くなった(実際には軽減された)場合です。以下、詳しく説明します。


バラ星雲で出た縞ノイズ

この間のEVOSTAR 72EDでのバラ星雲の撮影で、ディザーをしなかったために縞ノイズが出たという報告をしました。

integration_DBE_PCC_AS_cut


その後、上記の縞ノイズを可視化した記事を書きました。この動画は結構反響が大きかったので、ご覧になった方も多いかと思います。






なぜか突然縞ノイズが消えた!?

この後、もう少し縞ノイズの検証をしてみようとファイルをいじってみました。とりあえずシンプルなところからと思って、rawのlight frameをDebayerしてStarAlignmentだけして縞ノイズを再現しようとしたのです。ところがところが、縞ノイズが綺麗さっぱりなくなっています。

integration

拡大です。
integration_cut

え?
なんで?
全然縞ノイズ出てないじゃん!
せっかく縞ノイズの解析しようと思ってたのに!

さあ、ここからが戦いの始まりです。


PixInsight用語

今回、PixInsight (PI)用語がたくさん出てきます。PIに慣れていない方のために、簡単に解説しておきます。
  • PixInsight: 世界的に有名な天体画像処理ソフト。英語でものすごくとっつきにくいが、高機能。
  • BatchPrepocessing: 撮影したファイル(light, bias, dark, flatなどの各frame)を掘り込んでおけば、スタックまでボタン一発でやってくれる便利な機能。
  • master: bias, dark, flatなど、他数枚の補正ファイルを一度処理すると、スタックされた一枚のmasterというファイルをそれぞれ作ってくれる。以降はそれを使うと処理時間を削減できる。
  • ImageCalibration: BatchPrepocessingのような自動で処理する以外に、マニュアルでもっと細かくオプションを指定しながら処理する方法がある。これはbias, dark, flatなどの補正をマニュアルでする機能のこと。
  • Debayer: 同様にマニュアル処理の一つ。モノクロのBayer配列のRawファイルをカラー化すること。
  • StarAlignment: マニュアル処理の一つ。多数枚数の画像の星位置を合わせること。PIでは平行移動、回転にのみならず、画面を歪ませて星の位置をそれぞれ合わせることができる。
  • ImageInteglation: マニュアル処理の一つ。他数枚の画像をスタックすること。
  • ScreenTransferFunction: 簡易的にストレッチ(明るくすること)をする機能。見かけの表示のみをいじるので、ファイルには何の手も加えない。見かけを適用したい場合はHistgramTransfomationを使う。
  • Auto Stretch: ScreenTransferFunctionの一機能。あぶり出しのすんでいないまだ暗い画像などを、そこそこ見やすいように自動でストレッチする機能のこと。超便利。
  • DynamicBackgroundExtraction (DBE): 背景の被りや周辺減光などをソフト的に除去する機能。任意の補正点を指定できるので、星雲部分の補正を避けるなど細かい補正が可能。超便利。
  • AutomaticBackgroundExtraction (ABE): 背景の被りや周辺減光などをソフト的に除去する機能。細かい補正はできないが、大局的に補正してくれるので簡単で便利。
  • TVGDenoise: PI場で最強と言われているノイズ除去機能。

比較条件

今回検証するRAWファイルは全て同じです。他に共通撮影条件は
  • 鏡筒: SkyWatcher EVOSTAR 72ED + x0.72レデューザー、焦点距離300mm
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • ガイド: ASI178MCと50mmのCマウントレンズをPHD2にて
  • 撮影条件: SharpCapでゲイン220、温度-15℃、露光時間300秒x20枚 = 1時間40分
  • ディザー: なし 
  • ファイル保存形式: RAW16bit、fits形式
  • フィルター: サイトロン QBP(アメリカンサイズ)
となります。

今回の検討を始める前までに、縞ノイズが出た時の処理と、出なかった時の処理の違いを書いておきます。処理は全てPI上でやっています。
  • 縞ノイズあり: BatchPreprocessingでbias補正、dark補正、flat補正を適用し、走らせた。
  • 縞ノイズなし: マニュアルでDebayer、StarAlignment、ImageInteglation。
この中に決定的な違いがあるはずです。以下、各補正ファイルの条件です。全てSharpCap上で撮影していて、最初の処理でmaster fileができるので、以降はそれを利用。
  • bias frame: ゲイン220、露光時間が最小の0.032ミリ秒で、100枚撮影。
  • dark frame: frat frame撮影後、片付けの後すぐに、家の中で撮影。ゲイン220、露光時間300秒、-15℃で、28枚撮影。
  • flat frame: light frame撮影後すぐに、鏡筒に状態でスーパーの白い袋を2重に被せて撮影。ゲイン220、露光時間300秒、-15℃で、7枚撮影。

処理結果に大きな違いが出ていて、検証材料も全て揃っているので、何が違いに影響しているのか順に検証していきます。


検証過程

ここからはほぼ実際にやった手順です。
  1. まず、再度BatchPreprocessingとマニュアル処理で再現性を確認。->きちんとBatchPreprocessingのときには縞ノイズ出て、マニュアル処理では出ないです。再現性はきちんとあります。
  2. 次に、一番怪しくないと思ったflat frameのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「うーん、あんまり関係ないよな。」
  3. 次、一番怪しそうなbias framaのみを適用させBatchPreprocessingで処理 -> 縞ノイズ消えた!「そりゃbias必要でしょ。」
  4. 次、flatとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ます。「あれ?flatあまり関係ないはずなのに。」-> ところが、ここでやっと思い違いに気づきます。今回、何も補正していない方が縞ノイズが出なくて、補正した方が縞ノイズが出たのでした。と言うことは、bias関係なしで、flatで縞ノイズ有無が決まっていることになります。え、本当?
  5. 確認で、darkとbias frameを適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「えー、ホントにdarkもbiasも関係ないよ!?」
  6. 念のため、darkのみ適用させBatchPreprocessingで処理 -> 縞ノイズ出ません。「確かにdark関係なし。」
  7. さらに念のため、master flatを使うのではなく、改めて個々のflat frameを使ってBatchPreprocessing処理 -> 縞ノイズ出る。「やっぱりflatが原因だ!」
  8. さらに、BatchPreprocessingが何か悪さをしている可能性も考えて、マニュアルのImageCalibrationを使ってflat処理だけしてみます->縞ノイズあり。「少なくともPIで処理する限りflatが悪さをしているのは確定でよさそう」


Flat補正をしない場合、本当に改善されているのか

確かに上の画像で見た通り、flat補正をしないと縞ノイズは無くなって見えているのですが、本当でしょうか?それぞれSTFでオートストレッチをしているのですが、本当に正確な比較をしているのか疑問になってきました。オートストレッチは星雲を含む背景の最大の輝度と最小の輝度から適用範囲が決まります。例えば、flat補正をしていない周辺減光のある画像ではあぶり出しも中途半端で、周辺減光のない平坦に近い画像では極限まで炙り出すことをするので、細かい差(この場合縞ノイズも含めて)をより浮き出させてくれます。

ここでは公平に比較するために、それぞれの画像にAutomaticBackgroundExtraction (ABE)を適用し、周辺減光の影響をできるだけ少なくして比較してみます。flat補正をしたものでもまだ明暗のばらつきは無視できないほど存在していて、ABEを適用することで多少の変化があります。それぞれABEをしてから、STFでオートストレッチをしています。

まず、flat補正ありの画像。

light_BINNING_1_integration_ABE

light_BINNING_1_integration_ABE_cut
これまで通り、縞ノイズは盛大に見えています。

次にflat補正しない場合。
integration_ABE

integration_ABE_cut

結局、周辺減光がABEで補正できる範囲を超えてしまっているので全然補正できていません。そのためオートストレッチ後、少し補正して目で見て、拡大部分の明るさをそこそこ合わせています。多少公平性は欠けてしまいましたが、それでも不公平になる程の違いは無いくらいにはなっているでしょう。結果はというと、flat補正なしであからさまに縞ノイズは改善されていますが、よく見るとやはり完全に無くなりきってはいないです。「相当軽減する」くらいは言っていいでしょうか。

この比較から、flat補正は縞ノイズの影響を悪化させていることは確からしいですが、完全には撮りきれないことから、それだけが原因というわけでもなさそうです。

実際の画像処理では背景はもう少し暗くなるので、flat補正なしにして、この程度の縞ノイズになるのなら個人的には許容範囲でしょうか。


Flat frameについて

でもここでふと我に返ります。でも今回使ったflatってそんなに変なの?

確認してみる限りごくごく普通のflatだと思います。master flatをAuto Stretchしたものです。(blogに載せるためのファイルサイズ制限で、bayer配列を無理にjpegにしているので、偽色が出てしまってノイジーに見えてしまっています。)
flat-BINNING_1

拡大です。pngなので、偽色とかは出ていないはずです。(画像サイズが小さいのでpngでもファイルサイズが大きくなり過ぎず、blogでもアップロードできます。)
flat-BINNING_1_cut

見ている限り、極々ノーマルで、ノイズが特別多いようにも思えません。

でも、master flatをdebayerしてAuto Stretchしてみると少し正体が見えてきます。
flat_BINNING_1_integration_RGB_VNG

拡大です。
flat_BINNING_1_integration_RGB_VNG_cut

カラー化すると結構ノイジーなのがわかります。なんだかカラーノイズと言われているものに似ています。これが固定ノイズとなって、星像を止めたときには逆に、この固定ノイズが流れるのでしょう。

でも本当にこれくらいのことであんなに盛大に縞ノイズが出てくるまで画像を悪化させるのでしょうか?だって直接処理しているのはlight frameの1枚1枚で、それに対してflat frameは枚数少ないとは言え7枚です。それが流れて見えるので、スタックした20枚:7枚でなく、1枚:7枚の比で比較してもいいような気がします。ここは少し疑問が残ります。


flat frameのノイズを改善してみたら?

本当にflatが効いているのか確認するためにもう少し試します。master flatにPI上でTVGDenoiseでノイズを減らしたflat frameを適用して処理してみました。その結果がこれです。
integration

拡大です。
integration_cut

わかりますでしょうか?多分拡大していない方がわかりやすいと思いますが、細かい縞ノイズが消えて、大きな構造の縞ノイズが出てきています。

この結果から考えられることは、flat frame自身でのノイズ除去があまりうまくいっていなくて、細かいカラーノイズが大きな構造のノイズになってしまったからです。

少なくとも、これらの結果からflat frameが縞ノイズに影響を与えているのは間違いないでしょう。ただし、あくまでこれも限られた環境、限られた条件下での話の可能性もあります。ここら辺は次回以降に検討してきます。


とりあえずのまとめ

どうも聞いていると、縞ノイズに困っている人と困っていない人がいるみたいです。なので、一概に今回の結果が正しいとは言えないと思いますが、flat補正の影響は私と同じような状況の人には朗報となるかもしれません。でもflatが原因の全てだなんていうことを言う気は全くありません。あくまで原因の一つであるのではないかということです。

いろいろ検索してみましたが、flat補正が縞ノイズの原因だとバッチリ書いてあるところは見つかりませんでした。むしろこれまで思っていた通り、flat補正をきちんとすると縞ノイズが解決できるはずだと書いてある記述はたくさん見つかりました。普通だとこちらのセンスの方が正しといと思ってしまうのは、ある意味ごくごく普通でしょう。そもそもなんでflat補正が縞ノイズに対してダメなのか、まだよくわかっていません。これからいろいろ検証していきたいところです。

今回、縞ノイズに対する根本的な解決策を示したわけではありませんが、状況によってはflat補正を外して画像処理することで、縞ノイズを軽減できる可能性があることがわかります。その上で、PIのABEやDBE、FlatAidProなどを使ってカブリや周辺減光を減らすことで対応する必要もあるでしょうか。この場合、ゴミやアンプグローなどは除去できません。

もう一つ重要なことはは、きちんとディザーをして散らすことでしょうか。多分縞ノイズって複合原因なんです。1方向に流さないようにすること。これが重要なのは変わりません。ディザーはおそらく根本解決の方法の一つです。


この記事まだまだ続きそうです。今回はバラ星雲での撮影のみ取り上げましたが、次回は過去に出た縞ノイズの場合なども検討してみたいと思います。

 

縞ノイズが出る理由の一つとして、ガイド時における鏡筒とガイド鏡の相対的なたわみが考えられます。TSA-120用にガイド鏡を取り付けることを考えていましたが、できるだけ撓が少なくなるように、市販の部品を使ってガイド鏡の固定を補強することにしました。


ガイド鏡について

ガイド鏡は昨年の胎内星まつりでBlac Pandaさんのところで先行販売されていたこれ。焦点距離128mmです。最近シュミットさんで販売が始まったようですが、星まつりだったので当時特価で購入できました。

IMG_7908


レンズ部分が筒部分と同じ長さだけあるので、すごく引き出せます。そのためカメラ位置の範囲にかなり余裕ができるため、台座兼アイピースホルダーを外しても焦点を合わせることができるなど、随分と応用範囲が広いです。

IMG_9840

この台座ですが、一本持ちなので少し心許ないです。今回のように撓みをできるだけ無くしたい場合は、できるだけ高さを低くすること、2点支持した方がよさそうです。


どうやって固定するか

もう一本、同じような台座を探してもいいのですが、なかなかいいのがありません。なのでこれを外してしまい、もう少し低くできる固定方法を模索しました。実際、台座部分を外してもネジ径が同じで、ASIカメラのアダプターの径と同じを直接取り付けることができます。

IMG_9845

カメラをねじ込みにすると、回転方向を任意に調整できないと困ることがありそうです。問題はガイド鏡を任意に回転させることができつつ、この円筒部分をどうやって固定して、TSA-120につけたアルカスイスプレートに固定するために、アルカスイスクランプにどうやって持っていくか。

今回はアマゾンでこんなパーツを見つけました。バイク部品のようですが、かなり頑丈で直径54mmまでのパイプに取り付けられるようです。ガイド鏡の円筒部分の外径が45.5mmなのでちょうどいいくらいです。Lサイズが2個1組なのですが、最初LサイズとMサイズが一つづつ届きました。でも、そのことを販売店に知らせたらすぐに対応してくれて、多分最速で新しいものを送ってくれました。間違って配送されたものも、配達員がそのまま引き取ってくれたので楽でした。

それと、安価な120mm幅のアルカスイス互換のクランプです。

IMG_9846

注意する点は、アルカスイ互換スクランプの裏側からネジ止めをするために、丸ネジや通常のキャップネジだと頭が出過ぎてプレートに取り付ける時にぶつかってしまいます。そのため今回は6角の皿ネジを一緒に注文しました。長さは12mmでぴったりでした。

これで加工なしで固定できます。

IMG_9848

裏から見るとこんな風になっています。

IMG_9849


鏡筒に取り付けてみる

鏡筒側にアルカスイス プレートをつけてあるので、直接取り付けることができます。実際TSA-120につけてみるとこんな風になります。プレートも長いので、ある程度前後させることもできます。

IMG_9850

うーん、かっこいい。(自己)満足です。

実際揺らしてみてもほとんど動きません。これで相当頑丈になったはずです。

次回晴れたらテストしてみます。

前回の記事の月の撮影をする、少し前に撮影したM42の内容です。今回は人様に見せるような記事ではなく、自分用のメモです。


35フラットナー

TSA-120での同じような内容のM42は以前記事にしましたが、今回の第一の目的はTSA-120用の35フラットナーと呼ばれるフラットナーのテストです。具体的には
  • フラットナーが使えるかどうか、星像がどこまで改善するのか見てみたい。
  • フラットナーでCMOSカメラを接続したらどうなるか?
  • トラペジウムを四隅の星像の崩れなしで撮っておきたかった。
  • 1秒露光のラッキーイメージングで上位画像だけを撮ったら分解能に効果があるかどうか調べたい。
くらいでしょうか。

撮影と画像処理

ガイドは用意までしたのですが、オリオン座が沈むまでに時間が限られていて準備が間に合わす、結局今回もノータッチガイドです。 
 
機材はTSA-120をCGEM IIに載せて、カメラはASI294MC Proを-15℃、間にQBPを入れてあります。撮影条件はSharpCapで1秒露光、ゲインは320。撮影中にダーク補正だけは64枚をリアルタイムでしました。約1513枚撮影し、FITS形式で保存しました。

まあ、結論だけ言うとシンチレーションがあまりに悪くて、前回のM42の撮影時は写っていたE星、F星も撮影時から全く見えず、ほとんど最初から諦めモードでした。そのせいでしょう、1500枚のうちAutoStakkert!3で上位25%だけスタックしたものと、PixInsightで1500枚全部インテグレートしたものを比較しても、トラペジウムの写りはほとんど差がなく、枚数差で背景ノイズが滑らかになるかどうかの違いが見えただけでした。 

1000枚を超える処理は、PixInsightだと結構時間がかかるので、ラッキーイメージングのような短時間露光の時はser形式でRAW動画として保存して、AutoStakkert!3の方が楽そうです。一応AutoStakkert!3はFITS形式も読めるのですが、その前にdebayerしてカラー化しないとダメで、debayerをPixInsightでやると.xisf形式になってしまい直接は読めないので、さらにTIFF形式とかへの変換が必要になります。ただ、ser形式にすると、クールピクセル処理とかはできなくなりそうなので、これもまた考えものです。一度手法をきちんと確立する必要がありそうです。

しかも、ノータッチガイドで少し流れたので、縞ノイズやらカラーノイズが結構出てしまい、あまり画像処理をする気にもならないレベルでした。


撮影結果と四隅の具合

とりあえず結果だけ。

integration_ABE_PCC_STR_all_PS_2nd

背景がノイジーなので、全然炙り出せません。暗いままです。トラペジウムも前回よりボヤボヤです。天体画像としては不十分ですが、元々の目的のフラットナーの評価だけはできます。肝心の四隅だけ見てみます。

integration_ABE_PCC_STR_all_PS_2nd_cut9


それでも元々が1秒露光なこともあり、写っている星の数が少ないので評価しにくいです。例えば右下を見るとやはり少しだけ流れているように見えます。これは、フラットナーとカメラセンサーの距離がきちんと調整されていないことが一つの原因かと思います。少し分解能は落ちるかもしれませんが、早めに一眼レフカメラに移行して、きちんとしたバックフォーカス長で撮影した方がいいかもしれません。

ちなみに、フラットナーなしの場合はこうなります。

integration2_cut9

比較して見ると、四隅は当然ですがフラットナーなしの時よりは全然マシになっています。でもトラペジウムの解像度や、中心部の星雲の解像度は前回の方が全然上ですね。同じ機器でもこれだけの違いが出ます。ピントは今回もかなり気を使ったのですが、シンチレーションの差は如何ともし難いです。


まとめと来シーズンへのの課題

結論としては
  • フラットナーを一応使うことができた。焦点も出るし、星像も改善される。
  • CMOSカメラだと少し流れている。フラットナーからの距離の調整が必要かもしれない。
  • オリオンももう季節終わりで、トラペジウムベンチマークもまた来シーズン。 
  • 1秒露光は長時間になると結構大変になってくるので、もう少しやり方を考えた方がいいかもしれない。
とかでしょうか。特に最後の長時間のラッキーイメージはどうするかは課題です。分解能を稼ぐために新ちれションが悪いところを省きたいのですが、
  • 例えばLiveStackで枚数を減らすか?でもそれだと上位画像を選べない。
  • serフォーマットで撮るか?でもそれだとクールピクセル除去ができない。-> ディザー?
  • ガイドは必須。
  • でもティザーは?何分かおきにやるのか?
など、検討すべき点がたくさんあります。 他にも
  • バローを入れる。
  • 赤外の方がシンチレーションの影響が少ないか?
とかも興味のあるところです。

大元の目的がM42をトラペジウムのF星よりも分解能よく撮りたいというものです。来シーズンまた挑戦します。
 


昨晩TSA-120のフラットナーのテストの一環で、月齢10.1日の月を撮影しました。


月のテスト撮影

シンチレーションも悪くなく、シャープな月が撮影できました。TSA-120に35フラットナーをつけ、焦点距離880mm。これをASI294MC Proで撮影しています。パラメータとしては露光時間75ms、ゲイン0で1000枚をserフォーマットで撮影して、500枚をAutoStakkert!3でスタック、Registax6でWavelet変換しています。

あ、実は先のM42の撮影のセッティングがそのままになって、月の撮影は実はついでです。そのため、48mmのQBP(Quad Band Passフィルター )が入っているのと、カメラを-15℃で冷却していますが、月の撮影で両方ともあまり意味はありません。

元の画像の画質が良いので、今回はRegistaxでの細部出しはかなり抑えています。あくまで自然に、軽くシャープさを上げるだけにとどめています。最後にPhotoshop CCで少しだけ暗い部分を炙り出しています。また、周りの黒い部分が大きいので少しだけトリミングしています。

20_51_08_lapl5_ap2162_RS

さすがTSA-120とも言うべきでしょうか、細かい描写まで含めて、かなりシャープにしかも自然に出ています。


ん?収差?

とまあ、ここまでは至って順調である意味普通なのですが、 Photoshopで画像処理をしている時にあることに気づきました。どうもよく見ると上部(北)が青色、下部(南)が赤色の収差があるのです。目の錯覚のレベルではありません。
upper_blue

low_red

画面でわかりますでしょうか?ごくわずかですが、月と背景の境目が、上は青、下は赤になっています。

ここで、以前スターベースでS君と話したことを思い出しました。「収差があるとクレームが来る鏡筒は意外なことにTOAやTSAの高性能屈折鏡筒に多い。基本的に鏡筒が持っている収差はほとんど出てこないため、大気収差が目立って見えてしまい、それを鏡筒が持っている収差と勘違いする場合がある。」とのことです。このことを聞いてはいたのですが、「もしかして調整ミスとかもあり得るのでは!?」と考えてしまったのが今回の記事の始まりです。


実際の収差量の見積もり

さてこの収差、いったいどれくらいの量なのか実際に撮影した画像から見積もってみました。PhotoshopでチャンネルをRGBに分けて、下側にずれている赤色を上にずらしてみます。でもほんの1ピクセル上にずらしただけで今度は赤が上に出過ぎます。TSA-120とASI294の解像度から考えると1ピクセル当たり1.08秒なので、1秒以下、まあ大雑把に言って0.5秒くらいの収差があることになります。

この量は大気によって起こっている分散で説明できるのでしょうか?これまで月を撮影してこんな収差が気になったことはありません。もしかしたらこの量は大きすぎで、鏡筒の調整不足から来ていたりすることはないのでしょうか?


大気分散の計算

大気収差は正式には大気分散と言うそうです。大気分散の計算は、多少複雑な式に見えますが、微小量を無視すればわりと簡単に計算することができます。「大気分散」で検索すれば数式は探せば各所で見つかるのですが、今回は色の違いでの大気分散が知りたいので、波長の依存性を考慮した式を使う必要があります。でも簡単に見つかるうちのいくつかが(論文レベルなのに)どれも間違いがあったので、注意が必要です。大元の式を論文に載せる際に、タイポで写し間違えたものと考えられます。全部書くと長いので、0次オーダーの簡略化した式を書いておきます。

まず、「大気差」Rというのは「天体の見かけの高度」から「天体の真の高度」を引いたものとして定義されています。大気差Rは以下の式で計算されます。

R=(n01)tan(90V)[rad]

[deg]は見ている天体の見かけの高度です。n0は屈折率で、
\[(n_0-1)=C(\lambda)\frac{P}{T}\times10^{-8}\]
\[C(\lambda)=2371.34+683939.7(130-\frac{1}{\lambda^2})^{-1}\]
と表されます。このCが波長に依存する部分です。

ここで、Tは温度[K]なので15°Cとして288K、Pは気圧[hPa]で1013hPaとしました。λ[μm]は対象の波長で、ここでは赤色が0.65μm、青色が0.45μmとしました。赤色の場合のRrと青色の場合のRbの差が今回求めたい収差となります。撮影時の月の高度が69°で、大気差を求めると、ラジアンと分角、秒角に注意して、Rrが21.52秒角、Rbが21.82秒角となるので、その差は0.31秒角となります。

撮影した画像から評価した0.5秒角くらいなので、オーダーでは結構あっています。それでも上の計算はかなり簡略化された式を使ったので、誤差も大きいです。簡略化されていない式を使って、もう少しまじめに計算すると0.600秒角となります。こちらのほうは実際の画像から見積もった(1ピクセルズレだと大きすぎ、0.3ピクセルズレとすると小さすぎという感じです)評価に相当近いです。

エクセルで計算した過程をここにアップロードしておきました。簡略化していない式で計算してありますので、ここを見るとどんな計算過程かもわかるかと思います。興味がある方はご覧ください。


考察

実際の画像から評価した赤色と青色の収差が、大気分散と仮定して計算した値とほぼ一致したので、今回見えた収差は大気によるものと考えて良さそうです。鏡筒の調整不足なんてことは考えなくていいということがわかりました。

さて少し考えたいのは、なぜ今回この収差が「初めて」気になったのかです。以前撮った月の画像を見てみました。まずFS-60CBとASI178MCで撮っていたものだと、分解能不足で大気収差を認識することはできていません。同ページのC8で撮ったエッジを見ても、収差らしき色はほとんどわかりません。スーパームーンの時にFS-60CBで撮ったものでも同様です。

かなりシャープな像が特徴のVC200Lで撮った満月の画像を見てみると、確かに少し赤と青がわかるかもしれませんが、エッジを出しすぎていたせいもあり、当時は全く気付くことはありませんでしたし、気にもなりませんでした。

今回TSA-120でこの収差が気になったのは、やはり鏡筒の性能がいいということと、もう一つはRegistaxでのエッジ出しを控えたこともあるのかと思います。でも0.5ピクセルというと0.5秒角ということになり、既に口径120mmのレイリー限界の1秒角を超えているようなものです。まあ、色での判断という大局的な話なので、実際の分解能があるということには直接はなりません。また、レイリー限界というのもある意味ただの指標なので、カメラの分解能、画像処理での炙り出しによってはそれ以上に見えることはあり得る話です。ただ、ここまで鏡筒の原理性能に迫ることができるTSA-120は、やはり高性能の鏡筒というということなのでしょう。

もう一つ、QBPの影響についても少し述べておきます。月の前の撮影のセッティングがそのままでQBPが入ったままでした。今回の収差は、上部が赤で下部が青なのと、計算値ともほぼ合うことから明らかに大気分散と言えると思います。なので、QBPで変な収差が起こっているようなことは基本的に無いと言っていいでしょう。少なくとも、大気収差が気になるレベルで見ても何の影響もないということで、撮影レベルでも安心してQBPを使えるのかと思います。では、QBPが逆に大気分散をより炙り出したと言う可能性はあるでしょうか?これはもう少し追調査が必要です。少なくとも、QBPで余分な波長の光はカットされているので、コントラストが上がりより見やすくなったと言うのはあり得るのかと思います。


まとめ

結局、鏡筒の性能を一瞬でも疑った私がバカでした。タカハシ高性能屈折鏡筒恐るべしです。

スターベースのS君の話は多分誇張でもなんでもなく、本当にクレームが来るのでしょう。そのことを聞いていて、金星を見た時も大気収差と疑わなかった私でも、今回はもしかしてと疑ってしまいました。

こんな大気収差の描写と議論ができるくらいのきちんとした設計と、それを引き出すタカハシ工場の職人芸的な調整には感服しました。


TSA-120の取り回しが完成しつつあります。

アリガタプレート変更


2月前に購入した直後は星まつりで100円で買ったVixenのアリガタを使っていたのですが、ちょと前の記事で書いたように、タカハシ純正の鏡筒バンドにMORE BLUE製のLosmandy規格のプレートを付けました。これでも実際には十分な強度だと思います。

IMG_9771

タカハシ の鏡筒バンドの裏側には、直径5cmくらいの円状の高さ1mmくらいの出っ張りがあり、そこがタカハシ製の赤道儀にピッタリはまるようになっています。そのため上の写真のようなプレートに取り付けると、その5cm円の面のみで接触します。揺れや剛性などは一番細いところで決まってしまうので、結局一番小さいこの円の面積が支配的になります。タカハシ純正の赤道儀だと、ちょうどピッタリハマるので、鏡筒バンドの軸の太さと赤緯体の太さが同じになり、弱いところがなくなるのがメリットです。


セパレート式鏡筒バンド

赤道儀はCGEM IIを使っているためVixenかLosmandy規格のアリガタになり、タカハシ鏡筒バンドはタカハシ赤道儀のようにはうまくくっつきません。最初の頃、Vixen規格のアリガタで固定していた時は、ピント合わせなどの時に結構揺れていました。Losmandy規格になり少しマシになりましたが、やはりもう少し剛性が欲しくて、セパレート式の鏡筒バンドにしようと思っていました。

鏡筒バンドはこれまでFS-60QやFC-76で使っていたK-ASTECのものにしようと思っていたのですが、結局MORE BLUEのものにしました。

IMG_9772

決めては値段と、重量、そして底プレートからの高さが低いことです。実際にどれくらい効くかはよくわかりませんが、鏡筒の重心位置が赤経中心数cmのオーダーで近づくことになります。

また、鏡筒バンド間の距離をできるだけ大きくとったので、剛性として相当増しているはずです。実際に星を見て、ピント合わせ時などでも多少改善されることを期待しています。


汎用のアルカスイス プレートの取り付け

次は鏡筒バンド上部。今回は汎用の300mmのアルカスイス プレートを少し加工して取り付けました。

IMG_9808

元々端の方にあったたくさんのM3穴のうち4つを、M10まで広げています。使っているネジはM6ですが、元々の穴が鏡筒バンドのねじ穴と少しずれていて、多少大きめな穴を空けなければ、鏡筒バンドのネジ穴までアクセス出来なかったからです。

このプレートは持ち手がわりにもなりますが、鏡筒との間の距離が短いので指が完全に入らないです。もしかしたらMORE BLUEで販売されている専用スペーサーを上側だけに入れるかもしれません。もしくは別のハンドルをつけてしまってもいいかと思っています。

ただ、このプレート少し厚いので、もっと薄いプレートにしてもいいのかもしれません。その際は、M6用の穴をきちんとした位置で空けるのかと思います。


ファインダーやガイド鏡の取り付け

上部をアルカスイス互換プレートにしたので、ここにいろんなものを簡単に取り付けれるようになります。今回試しに用意したのは、光学ファインダーと電子ファインダー、ガイド鏡です。こんなふうに取り付けます。

IMG_9788


光学ファインダーがこうなった経緯

これまでずっと電子ファインダーが主だったので、FS-60Qなどの付属光学ファインダーは実際ほとんど使っていなくて、鏡筒からは基本取り外して保管箱にしまいこんでいました。 

でもTSA-120の場合、眼視で使うことも多いので光学ファインダーって結構使ってるんですよね。問題は、光学ファインダーがでかいこと。ケースに収める時も苦労したので、まずは取り外し式にしたいというのがありました。

取り外し式にする時に問題になるのが、台座をどうするか。タカハシのファインダー台の取り付け穴って、鏡筒軸に対して垂直にねじ穴が二つ開いていて、しかもそのねじ穴の幅が27.5mmと微妙に広すぎるんです。手持ちでそこらへんにあったVixen用のファインダー台座とかを取り付けることができません。アルカスイス クランプに取り付けるにしても、この幅が仇になり、なかなかうまいこと固定することができません。

既製品をいろいろ調べたのですが、3種類くらいがすぐに見つかりました。
  1. まずはタカハシ純正のFQR-1ですが、対応品の中にTSA-120が出ていないので不安なのと、少し大きいのがマイナスポイントです。あと、タカハシというだけあるのでしょうが、1万円程度と台座だけにしてはちょっと高価です。
  2. 他にNorthern Crossのものがすぐに見つかりました。Vixen互換でタカハシ鏡筒にも対応しているというもので、幅広のタカハシ規格のために爪の真ん中に切り込みを入れてあり、2つになった爪を2つのネジでそれぞれ締めるようになっています。2つネジは安定になりそうなのですが、少し冗長な気もします。
  3. Northern Crossのように切り書きが入っているのですが、ネジが片側だけにしかついてないものもありました。これはこれで固定に不安も出てきます。
結局のところ、そもそも巨大なTSA-120純正の光学ファインダーを使うのはやめて、手持ちで転がっていたもっと小さい、普通サイズの光学ファインダーを使うことにしました。そうするともはや元々の光学ファインダーの位置にこだわる必要もなくなります。

IMG_9805

いくつかある手持ちの光学ファインダーの中で選んだのが、上の写真です。古いもののようで、どこのメーカのかもわかりません。多分どこかの星まつりで買ったもので、手作りと思われるアルミ製のホルダーと台座がついている結構しっかりした物です。レンズとか少し汚れていましたが、分解して掃除したらまともに見えるようになりました。これにアルカスイス互換クランプを取り付けることで、鏡筒上部のアルカスイス互換プレートに簡単に取り付けられるようになりました。


まとめ

今回の鏡筒バンド周りのセットアップで、着々と撮影の準備ができてきました。次はいよいよ専用フラットナーを取り付けてみます。


縞ノイズを時間的に見てみる

もしかしたら興味がある人もいるかと思い、縞ノイズを時間的に可視化してみました。先のバラ星雲の1日目のディザーなしで撮影した失敗画像約2時間ぶんの24枚を使っています。中心あたりの一部を拡大して見ています。といってもやったことは簡単で、ディザーなしで撮影した画像を、PixInsightで動画にしただけです。

Blink

これはガイドをしていても、たわみなどでガイド鏡と撮影鏡筒の相対的な視野が一方向にずれてしまうために起きます。それでももしノイズが完全にランダムなら、このように流れるようには見えないはずです。ノイズが流れて見えるということは、ノイズに時間的なコヒーレンスがあるということです。うーん、結構ありますね。あれだけの縞ノイズになるのもわかる気がします。

integration_DBE_PCC_AS_cut



縞ノイズ動画の作り方

さて、この動画の作り方です。今回縞ノイズを時間的にみる目的でしたが、このやり方覚えておくと色々応用が効きそうです。基本的に、PixInsightを使います。
  1. 普通にBatchPreprocessing 処理などで進めます。
  2. master以下のregsteredフォルダに入っている、位置合わせまで終わって、Integrationする寸前のファイルを使います。ここまでは普通にDebayerしてStarAlignmentでも構いません。
  3. Blinkでそれらのファイルを開きます。
  4. とりあえずは、デフォルト機能の再生ボタン(右三角)を押すと確認できますが、順に動画のようになるように見せるだけです。オートストレッチもできるのでみやすくなります。カラーバランスが悪い場合は、RGBのリンクをオン/オフする「鎖マーク」のアイコンを押してください。
  5. Previewで一部を切り取るとその部分だけ拡大して見えます。
  6. それをBlink画面の右下の一番右端の撮影開始マークアイコンで動画にします。
  7. ffmpegがない場合は別途インストールしてください。
  8. ffmpegがインストールされていても、実行ファイルをフルパスで入れないとダメでした。/usr/local/bin/ffmpegとかいうことです。
  9. オプションは秒20コマのgifファイルにしたかったので、 -y -r 20 -i Blink%05d.png Blink.gifとしました。
このように結構簡単に動画を作ることができます。


M42の場合

もう一つ例です。TSA-120でM42を撮影した時のものです。約30分くらいの撮影時間で、枚数は14枚です。これはディザーもそうですが、ガイドさえもしてないので赤道儀の極軸の精度が悪くてずれていってしまっているものです。上のバラ星雲のように画像の一部ではなくて、ほぼ全体像を示しています。解像度はこのブログにアップできるように(一画像当たり5MBが制限)落としてあります。

Blink

縞ノイズの原因となるクールノイズなどに混ざって、おそらくバイアスノイズに相当する縦線のように見えるノイズも流れていることがわかります。基本的にランダムでないノイズは、全て縞ノイズになり得るだろうことがわかります。

これを普通にスタックすると下のように縞ノイズが盛大に出てくるわけです。

integration



バラ星雲のもそうですが、時間的にこれだけ明らかに変化しているのがわかるのなら、なんとか分離してペラっと一枚皮を剥ぐようにこのノイズだけ取れないですかね?

今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。(2020/4/16 追記: APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。また、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。)
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


シュミットさんからお借りしているEVOSTAR 72EDですが、前回のおまけ記事で最後と思っていたのですが、せっかくなのでレデューサーを使っての撮影をし、画像処理までしてみました。




カメラ選択

カメラをフルサイズ一眼にするか、CMOSカメラにするか迷ったのですが、 結局ASI294MC Proにしました。理由は2つあります。

元々の焦点距離が420mmで0.72倍のレデューサーを入れると約300mm。これだと結構広い画角となるので対象が限られてきてしまいます。パッと思いつくのが
  • カリフォルニア星雲
  • カモメ星雲
  • 勾玉星雲
くらいです。複数天体もありとすると
  • オリオン大星雲と馬頭星雲まで
  • 馬頭星雲からバーナードループの一部まで
  • モンキー星雲とクラゲ星雲を一緒に
などですが、やはり一画面に二つの中くらいの天体だとインパクトに欠けそうです。他にもSh2-240もありますが、さすがに自宅からだと暗すぎます。マルカリアンチェーンもありですが、後述のQBPを使いたいので、銀河は今回はパスです。結局この画角だと対象が思ったより少ないので、少し画角を絞る意味でフォーサーズ相当のASI294MC Proにしました。

もう一つの理由が、31.7mmのアメリカンサイズQBP(Quad Band Pass) フィルターで撮影レベルできちんと試してみたかったことです。Black Pandaさんにせっかく作っていただいたQBPですが、これまでは元々の目的である電視観望でのみ試してきました。CMOSカメラに取り付けた状態で、もっと条件の厳しい撮影レベルで使えるかどうかの判断をしてみたかったのです。

ASI294MC Proとの組み合わせだと、対象天体も一気に増えてきます。冬だけでも
  • オリオン大星雲
  • 馬頭星雲と燃える木
  • モンキー星雲
  • クラゲ星雲
  • バラ星雲
  • 魔女の横顔
夏のことまで考えるとやはりこの画角が一番楽しそうです。その中で今回は、最初の星像チェックで見事に失敗したバラ星雲をリベンジしたいと思います。

一方、撮影時に気付いたのですが、ASI294MC Proにしたことにより、接眼部に取り付けるアダプターの選択肢が少ないために、レデューサーからのバックフォーカス長が長くなってしまっています。長くする方向には差し込み部分を少なくて調整し星像の違いを試したのですが、短くする方向に試すことができませんでした。長くする方向では星像は改善しなかったので、アダプターをもう少し考えて短くする方向を探る必要があるかと思います。


撮影

実はバラ星雲の撮影、4日間にわたっています。
  • 1日目は2時間ぶんの画像を撮ったのですが、ガイドなしで撮影してみてやはり縞ノイズが盛大に出てボツ。
  • 2日目は30分ぶんの画像を撮影したのですが、後からみたら透明度が悪くてボツ。
  • 3日目は準備して撮影を始めたら、1枚だけ綺麗に取れて、2枚目以降雲が出て全くダメでいやになってボツ。
  • 4日目にして2時間撮影して、人工衛星(流れ星?)が盛大に写っているのを除いてやっとまともな撮影画像を得ることができました。
おかげで4日目はセッティング開始から撮影を始めるまでにわずか20分ちょい。もう全部組んであるので、外に出すだけです。19時半ころから玄関にある赤道儀と鏡筒を庭に運び、極軸をとって、バラさん導入。PHD2でガイドを始め、20時前には撮影を開始していました。今回は露光が5分と長時間撮影の範囲になります。撮影ソフトはディザーをしながらガイド撮影をしたいので、今回初めてAPT (Astro Photography Tools)を使いました。PHD2との組み合わせで、ほとんど何も考えることなくうまくディザーまでできました。これについては後日、別記事で扱います。

また、恥ずかしながら今回初めて冷却してまともな撮影をしてみました。冷却のテストはしてたのですが、撮影したことなかったんですよね。ダークノイズが減るのはもちろんいいことなのですが、ダークフレームを撮るときに温度を一意に固定できることにありがたみを感じました。これまで6Dで撮影した後は、カメラを冷蔵庫に入れたりしてダークフレームを撮っていたので、それに比べたら随分効率がいいです。

実際の撮影ですが、そもそも開始時から結構西の空の方なので光害であまりいい方向ではありません。それでも4日目は透明度が良かったせいもあり、そこそこの画像を20枚得ることができました。約2時間の撮影後は近所の屋根に隠れてしまうような状況でした。


画像処理

画像処理はいつも通りのPixInsight (PI)です。1日目の画像はディザーなしで縞ノイズでいろいろ頑張ったけど今回もやはりどうしようもなかったので、4日目に撮った画像のみ20枚を使っています。フラットは撮ったのですが、うまく合わなかったので諦めてPIのDBE (Dynamic Backgroud Extraction) で済ませました。アンプノイズのところは適当にごまかしています。ダークフレームは-15℃で28枚、バイアスフレームは同じゲインであることに気をつけ、温度に依存しないはずなので常温で最短露光時間で100枚撮っています。

BatchProcessでスタックされた画像まで出した後、DBEとストレッチまでPIで済ませてTIFFで保存。それをStarNet++で恒星と背景に分けてPhotoshop CCに渡してあぶり出します。今回はDeNoiseは(試用期間が切れてまだ購入していないこともあり)無しです。DeNoiseを使うと綺麗になりすぎるので、淡いところとかの評価をしにくくなります。でも本当の理由は今月はお小遣いがないのでただの負け惜しみです。素直に使ってもっと綺麗にしたいです(笑)。ただし、NikCollectionのDfine2は使っています。

結果です。

「バラ星雲」
light_BINNING_1_integration_DBE_DBE_DBE_STR_all_PS5a
  • 撮影日: 2020年3月26日20時2分-21時59分
  • 撮影場所: 富山県富山市下大久保
  • 鏡筒: SkyWatcher EVOSTAR 72ED
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • 撮影条件: ゲイン220、温度-15℃、露光時間300秒x20枚 = 1時間40分 
  • フィルター: サイトロン QBP(アメリカンサイズ)
  • PixInsight、StarNet++、Photoshop CCで画像処理

淡いところの諧調がまだ不十分で少し不満ですが、2枚玉アポ入門機で、自宅での撮影、しかも季節終わりの西の空でここまで出れば十分と言えるのではないでしょうか。光害を軽減し撮影時のコントラストを上げるという意味で、QBPの効果も大きいです。以前心配していたハロなども何も気になるところはありませんでした。アメリカンサイズのQBPも撮影レベルで十分な性能を発揮できていると思います。

その一方、やはりレデューサーを入れても最周辺には星像の歪みがどうしても残ってしまっています。撮って出しではほどんど目立たなかったと思っていたのですが、その撮って出し画像もよくみるとAPS-Cサイズでも僅かながら歪んでいることに気づきました。今回のCMOSカメラではバックフォーカスが長くなってしまい調整し切れていないので、接眼部を改良しバックフォーカスを短くすることで星像はまだよくなる可能性は残されているはずです。今回はその歪みがあぶり出しによっって目立ってしまっているようです。といっても、本当に一番外側だけで、少し中に入るだけで一気にマシになるので、周辺を多少トリミングするつもりで最初から画角を決めるのがいいのかもしれません。


恒星の出し方

あと、個人的には今回のポイントは恒星の処理です。StarNet++で恒星と星雲画像を分けるのですが、恒星画像の結合時にできるだけ境目が目立たないように、一部の明るい星をのぞいてサチらないように、色の特徴が残るように仕上げてみました。今年の目標課題の一つでしたが、少し時間をかけて探ることができたので記録がてら手法を書いておきます。

レイヤーは「覆い焼き(リニア)加算」にします。「比較(明)」とか他にもいろいろ試しましたが、恒星の色が失われずに残るのと、境目が変に段になったりせずに滑らかになるので、これが一番いいみたいです。多分、StarNet++で作った星雲画像から、恒星だけの画像をPhotoshopで作るときに「差の絶対値」で作るので、くっつけるときは「和」である加算の方が素直なのだと思います。

ただし、名前の通り「加算」なので星雲背景が明るいと、構成部分の明るさのためにすぐにサチってしまいます。この場合は恒星レイヤーをCamera Rawフィルターのハイライトを下げることで、サチらない範囲まで持っていきます。ただしこのフィルター、レイヤーのみを表示しながらしか調整できないので、元の画面に戻って効果を確認するなど、何度も往復して微調整をする必要があります。

あと、個々の恒星の外周と背景のつなぎ目の諧調が飛ぶ場合があるので、その場合はCamera Rawフィルターの黒レベルで調整します。ここら辺に気をつければ、あとは彩度で色を出そうが、多少何をしても破綻するようなことはないようです。


まとめ

元々、前回の記事でもう終わりにしようと思っていたのですが、せっかくの鏡筒だったのでバラ星雲を再度撮影し、画像処理まで進めてみました。アメリカンサイズのQPDの撮影での実力も見えたので良かったです。こちらはやると言っていてなかなかできていなかったので、やっと少し肩の荷がおりました。

周辺の歪み改善にまだ少し課題を残しましたが、結構綺麗に出たのではないかと思っています。これだけの画像を残せるなら十分なコストパフォーマンスであると言えるのかと思います。正直いうと、後1時間くらいかけて淡いところをもう少し出したかった気もしますが、季節ギリギリなのでまあこれくらいが限界かと思います。

少し前の記事で書いたように、タカハシの新マルチフラットナーを持っている方は、フルサイズのカメラで同程度の画角になるはずです。周辺像が気になる方はこちらで試してみてもいいでしょう。

今回の撮影を通じで、必要に迫られてですが、やっとAPTでのディザーもうまくできたので、今後CMOSカメラでの撮影にも力を入れていこうと思います。



最近、望遠鏡関連の機材が増えすぎて困っています。購入した時のままで使う分にはいいのですが、普通はそんなことはなく、部品を交換したり、結構改造したりもします。

特に鏡筒はアダプターの類いが最初からいろいろついていて、取り外したり、他の鏡筒のアダプターを持ってきたりするので、もともとどれがどの鏡筒についていたのか分からなくなってしまいます。しかも各メーカー、それぞれ好みのネジの規格があり、また同一メーカーでも何種類もの規格のネジを使っているため、どれがどこにハマるのかだんだん分からなくなってしまいます。

例えば最近困ったのが、SkyWatcherのEVOSTAR 72EDのレデューサーのアダプターのネジがM56で、タカハシのマルチフラットナー もM56なので、そのままハマるかと思ったら、ピッチが1mmと0.75mmで一見締まるのに途中で止まってしまうなどです。

こんな状況はさすがもう嫌になってきました。なので、テプラを使ってこんなふうにネジの規格を印刷して、かくアダプターに貼ることにしました。

IMG_9754

IMG_9755
TSA-120のアダプターも分からなくならないうちに。

どんなことを書いているかというと、
  • 元々どの機材についていたかの機材名
  • 矢印でどちらからアクセスできるか、ネジはどんなのか
  • 矢印無しは内部のネジ
  • 矢印の後のがネジのサイズ、Mがミリネジ、インチサイズのスリーブ、UN規格など
  • 次のMかFでオスネジかメスネジか
  • 最後の数字はネジの長さ
などです。

これ結構便利です。もう昔の付属品なんかどれがどれやら分からなかったのですが、だいぶ整理できてきました。フィルターをつける時も迷わなくなります。また、どんなネジが使われているのか把握することができてくるので、星まつりのジャンク市でどんなアダプターを手に入れておけばいいのかの指標になりそうです。
 

ところでですが、うちにはなぜかテプラがあります。しかも当時の最上位機種。実はこれ、もう10年近く前のうちの奥さんへの誕生日プレゼントです。なぜかいつもプレゼントを渡すときは「かわいくない」とか言って、結構ムッとするんですが、1年くらいするとしみじみと「あー、あのプレゼントよかったわー」と言ってくれます。テプラは今でも大活躍です。

IMG_9764

ちなみに今年の誕生日プレゼントはテプラのテープ詰め合わせ。例によってあまり喜んでいませんでした。でもまたいつかそのうち...。

このページのトップヘ