ほしぞloveログ

天体観測始めました。

タグ:RGB

前回のM45に引き続き、SCA260でのお気楽拡大撮影の第2弾、今回はC49: ばら星雲の中心部です。

 


2度目の拡大撮影

2022/10/20の木曜、実は前日の水曜から天気が良かったのですが水曜は疲れ果てていて泣く泣く寝てしまいました。反省して、この日は早めにセッティングです。今回のターゲットのバラ星雲中心部ですが、前回の拡大撮影同様に、通常撮影の後の余り時間で撮影しています。今回は月が出るまでメインでアイリス星雲を撮影していて、その後に撮影を開始しています。

実際の撮影を始めたのは午前1時過ぎ。5分露光で月の影響があまり無いうちにBGRの順で、その後ナローでOASの順で撮影します。撮影枚数は各フィルターにつき4-6枚、6種類なので合計約3時間です。天文薄明開始前の午前4時過ぎ頃に撮影終了予定ですが、平日ということもあり、撮影が始まると1枚だけ確認しあとはベッドに入って寝てしまったので、結果がどうなったかはわかりません。

画像処理のために確認すると、風のせいでしょうか何枚かはぶれたりしていますが、ほとんどはよく撮れています。20日ほど前に撮影したフラット画像にホコリの跡があり使えないことがわかったので、休日の土曜日にフラットとフラットダークを撮り直します。今回は外が雨になりそうだったので、部屋の中の白い壁を使って、外の光と蛍光灯の光を壁に当てて撮影しました。


画像処理

土日を使って画像処理です。RGBの他にAOOを試したのですが、OIIIが暗くてイマイチでした。SAOも試しましたが、こちらもOIIIとSIIが暗いせいで採用する気になれませんでした。結局、RGBのLをHαで置き換えて細部を出すことにしました。もう月が出ている時間でしたが、Hαは流石にコントラスよく撮れています。

今回少し工夫した(インチキした?)のはRGB合成をした時点でStarNetで背景と恒星を分離し、Hαも同様に単独でStarNetで背景と恒星を分離し、背景だけでRGBのLをHαで置き換え、恒星はRGBのみのものを使い、後で背景と恒星を合成しました。理由はHαの恒星が小さすぎて、恒星込みでLを置き換えると恒星の形も色も全然バランスが取れないからです。まあお気楽撮影なので、画像処理もあまりこだわらずに好きなようにやってみるかという方針です。

結果は以下のようになります。

「C49: ばら星雲中心部」
Image97_RGB_ABE_ABE_PCC_bg_ARGB3 _cut
  • 撮影日: 2022年10月21日1時26分-4時00分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB、Hα
  • 赤道儀: Celestron CGX-L
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 120、露光時間5分、RGBHαそれぞれ4枚の計16枚で総露光時間1時間20分
  • Dark: Gain 120、露光時間5分、温度-10℃、32枚
  • Flat, Darkflat: Gain120、露光時間 RGB:0.05秒、Hα:1秒で、それぞれ128枚
  • 画像処理: PixInsight、Photoshop CC
Hαが効いているせいもあり、ものすごい構造が出ています。恒星に関してはまだシャープさが十分でないと思います。鏡筒の性能なのか、シンチレーションなのか、画像処理が不十分なのか、

月が出ている自宅での撮影で、各色20分
、合計露光時間わずか1時間20分。口径26cmの大口径ということもあるかとは思いますが、メイン撮影の後のお気楽撮影でここまででるわけです。明るい天体ならもうこれで十分いい気がしてきました。

ちなみに下が画像処理5分で仕上げたSAOです。SIIがどうしようもなく、ノイズ処理をかなりきつめにしてもこれくらいです。Sの淡いところはほとんど階調が飛んでしまっています。
Image07



まとめ

お気楽拡大撮影、あくまでついでの撮影なので労力に対するパフォーマンスがめっちゃいいです。メインの撮影画像より気軽に処理できるので、仕上がるまでも速いです。

次は燃える木を狙おうと思ってます。アルニタクが画面内に入ってくるので、新しくしたBaaderのSIIフィルターでゴーストが出なくなるかどうか検証する予定です。


ゴールデンウィーク中に遠征(30-40分くらいなので近征?)してSCA260とASI294MM Proで撮影したカラス座にあるアンテナ銀河の画像処理についてです。CGX-Lを持ち出したのでかなり大変でしたが、ここで大型赤道儀で外でも撮影できる目処が立ちました。

撮影時の詳しいことはすでに記事にしていて、近場のいつもの場所、


それと、牛岳で2日分です。




画像処理

撮影は計3日間ですが、初日の撮影分は風が強すぎて使い物にならなく、結局牛岳の2日分だけを画像処理に回しました。

露光時間は10分でBaaderフィルターでのRGB撮影です。確かこの撮影の頃にフィルターホイールを1.25インチの8枚のものにしたはずなのですが、まだLは撮ってないです。処理に使った枚数はRGBそれぞれ15枚、9枚、9枚の計5時間30分です。

フラットは撮影から帰った日の5月6日に、夕方の自宅の外で鏡筒に白い袋を被せて撮影したのですが、これは結局うまく合わずに、以前馬頭星雲の時に撮影したフラットを使い回しました。袋を被せたフラット撮影はFS-60CBの頃にやっていて、うまくいってたのですが、大口径ではまだうまくいったことがありません。普段フラットは晴れ、もしくは曇りの日の部屋の中の白い壁で撮影しています。これまで撮影のたびに毎回撮影していましたが、今回の結果を見るとどうも使い回しができそうな雰囲気です。使いまわすためには大きなホコリが入るとおそらくダメになるので、接眼部に着いているカメラなどの機器の取り外しは出来る限り避けたいです。

画像処理はWBPPまでは5月のうちに終わっていて、3ヶ月も放っておいたことになります。その間何度か仕上までトライしたのですがいまいち気に入らなくて、結局前回のM104の決着がつくまで落ち着いて進めることができませんでした。昨日からやっと仕上げにはいりました。

これまでに何度かに分けてPixInsightでストレッチやマスク作りまで終わっていたので、昨日からの作業はほとんどPhotoshopです。何度かやり直してもアンテナ部分がかなり淡く、マスク処理は多少複雑になりました。そのためマスクを作り直すなどの作業は少しありましたが、なんとか炙り出すことはできたかと思います。

「NGC4038: アンテナ銀河」
Image196_pink_deconv4
  • 撮影日: 2022年5月4日21時14分-5日0時5分、5月5日21時14分-6日0時51分
  • 撮影場所: 富山県富山市牛岳
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB
  • 赤道儀: Celestron CGX-L
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 120、露光時間10分、R: 15枚、G: 9枚、B: 9枚の計33枚で総露光時間5時間30分
  • Dark: Gain 120、露光時間10分、29枚
  • Flat, Darkflat: Gain120、露光時間 RGB: 0.07秒、RGBそれぞれ64枚
  • 画像処理: PixInsight、Photoshop CC

出来上がった画像を見ると、まだ恒星サイズが大きいのではと思いました。露光時間が長くて揺れが出たのかと。やはり10分露光でなく、5分露光位に抑えておいた方がいいかもしれません。

下のアンテナ部は先っぽの巻き巻きも含めてそこそこ出たと思います。それでも上のアンテナの先端の広がりがあるはずなのですが、そこまでははっきりとは写りませんでした。

あと銀河の細部がもう少し出てくれてもよかったかと思います。銀河の下部にアンテナ部との境があるように見えて、最初画像処理のせいかと思いましたが、どうもリアルにあるようです。

いつものAnnotationです。

Image196_pink_deconv4_Annotated

少し斜めになってしまっています。もうなにも記憶はありませんが、あまり真面目に回転角を合わせていなかったようです。


まとめ

牛岳という、少なくとも普段撮影する自宅よりは十分暗い場所で、結局2日にわたって5時間半のアンテナ銀河の撮影でしたが、それでもアンテナ部分はかなり淡かったです。マスクを駆使してやっと出ましたが、結構大変でした。特に銀河もう少し解像度が出るかと期待していましたが、シンチレーションと露光時間によるのかと思います。またいつか機会を見て撮影してみたいと思います。

さて、さらに溜まっている画像処理を進めることにします。

3月3日にSCA260で撮影した馬頭星雲。



作例として仕上げるために、合計6晩も撮影を続けました。 


目的

今回の目的は、
  1. ある程度振動対策を施したSCA260で、3分露光で多数枚スタックしてどこまで恒星が点像に迫れるか見る。
  2. 馬頭星雲の、特に本体の暗黒帯部分で、細部がどこまで出るか見る。
  3. 近くのアルニタクのゴーストを抑えることができるか?
  4. 馬頭星雲のすぐ下のNGC2023の青がどこまで出るのか見る。
などです。


長期間撮影

さて6日に渡って撮影を続けた理由ですが、この時期のオリオン座は早い時間に西の低い空に傾き、高い位置で撮るには時間が限られてしまうからです。実際、6晩のうち前半3晩は、曇っていたりでセットアップに時間がかかり、撮影開始時刻が21時とか22時以降になってしまい、かなり低空での撮影からになってしまいました。後から見返すと低空の霞や雲のせいか、背景が明るすぎて星雲本体が淡くしか出ていなかったり、画面にムラがあったりしたため、3晩分の画像はほぼ全て処理には使えませんでした。


アルニタクとの攻防

特に不思議だったのが、最初の2晩にだけアルニタクのゴーストが顕著に出てしまったことです。というより、最初にゴーストを見たときに、これをどうやって除去したらいいのか真剣に悩んだのですが、フィルターなど設定を全く変えることなく後半の撮影ではゴーストが消えていました。やはりかすみのせいなのでしょうか?これはいまだに理由がわかっていません。

Image101
上部に大きな輪っかのようなゴーストが出てしまっています。

さらに、アルニタクの周りに青い光芒が見えますが、これは高度が高い場合には出ることがなくなりました。こちらは低空の霞で散乱されて出てきていたのかと推測します。

光条線は最後まで残ってしまいました。だいこもんさんが光条線を短くする方法を提案してくれてましたが、これくらい輝度差がある恒星が画角近くに入ってくる場合は試す価値がありそうです。




振動について

今の赤道儀CGEM IIに重いSCA260を載せると振動はどうしても残ってしまいます。これまで鏡筒の軽量化を中心にいろいろ振動対策はしてきましたが、やはり露光時間1分程度が実用範囲、今回のように3分露光だと採用率がかなり下がってしまいます。風がほとんどない場合でも揺れは残るので、風が強い日はほぼ全滅です。ただ、揺れの方向はある程度ランダムになっているので、多少星像が歪んでしまっても多数枚のスタックで平均化され、仕上がりはマシになると思います。


画像処理処理に使った枚数

撮影枚数は、使わなかったものを含めると
  • R: 48枚、G: 66枚、B: 61枚、Hα: 58枚
となります。3分露光なので、
  • R: 144分、G: 198分、B: 183分、Hα: 174分で、合計11時間39分
とかなりの長時間になります。そのうち、ある程度まともで使おうとしたものが
  • R: 22枚、G: 31枚、B: 31枚、Hα: 35枚
となります。落とした画像のほとんどは6晩のうちの前半3晩のもので、撮影開始時間が遅くて低空の霞などのためです。前半3晩は撮影枚数、採択率も散々で、わずか
  • R: 0/12枚、G: 3/10枚、B: 3/10枚、Hα: 4/22枚
というものでした。後半の3晩は、前半の反省から早い時間に準備したため、一気に撮影枚数と採択率があがり、
  • R: 22/36枚、G: 28/56枚、B: 28/51枚、Hα: 31/36枚
となりました。後半使わなかった画像の多くは、やはり時間が遅くなり低空になってしまったものです。それとは別に、揺れてしまって使えないものがありましたが、それらの率はそこまで多くありません。

さらにですが、使おうとした枚数とPixInsightで実際に使われた枚数は少し違って、
  • R: 22枚、G: 30枚、B: 22枚、Hα: 23枚
枚でした。registeredフォルダを見ると実際にスタックされた枚数が判明します。BとHαがかなり落とされてしまいました。今まで気づいたことがなかったのですが、スタック時など特に位置合わせがうまくいかない時に弾かれるようです。なので今回は合計時間は思ったより少なくて、合計291分で4時間51分でした。パラメータをいじることでもう救い上げることができそうなのですが、もしかしたらこれまでの作例でもPIに登録した枚数より実際にスタックされた枚数のほうが少なかったケースがあるのかもしれません。


西の低空の影響

少し西の低空の影響がどれくらいあるのか見てみます。

1. まず、3月9日の19時13分と22時41分をB画像で比べてみます。19時のをオートストレッチにかけて、同じパラメータを22時のものに適用しました。

19時13分のB画像。
2022-03-09_19-13-08_IC 432_LIGHT_B_-10.00C_180.00s_G120_0005

22時41分のB画像
2022-03-09_22-41-21_IC 432_LIGHT_B_-10.00C_180.00s_G120_0004
明らかに22時台のほうが明るくなり、馬頭星雲が薄くなります。一番のポイントはNGC2023の写る範囲がせまくなっていること。

2. 続いて、3月10日のRを20時16分と22時53分で比較します。

20時16分のR。Bより馬頭星雲がクリアに出ているのはわかりますが、星の数が全然増えています。
2022-03-10_20-16-58_IC 432_LIGHT_R_-10.00C_180.00s_G120_0000

22時53分のR。この日は西が相当明るかったようです。
2022-03-10_22-53-37_IC 432_LIGHT_R_-10.00C_180.00s_G120_0009

これをオートストレッチしただけだと同じような明るさで比べることができます。
2022-03-10_22-53-37_IC 432_LIGHT_R_-10.00C_180.00s_G120_0009_STF
明らかに淡いのとともに、画面にムラがあるのが分かります。薄い雲のせいでしょうか?

3. その一方、同じ3月10日のHαだと背景に差があまり出ません。

19時45分と
2022-03-10_19-45-11_IC 432_LIGHT_A_-10.00C_180.00s_G120_0000

22時21分です。
2022-03-10_19-45-11_IC 432_LIGHT_A_-10.00C_180.00s_G120_0000

あまりに背景の明るさが変わらないので、最初ミスかと思って再確認しましたが、やはりきちんと19時のパラメータで22時のもストレッチされてました。背景光の影響があまり出ないのはやはりナローバンドの威力と言っていいのでしょうか。背景光の明るさに差はなくても、細部ので方はきっちりと差が出ていて、やはり高度のある19時台の方が細かいです。あと、恒星の数がRに比べてかなり少なく、GやBと同程度です。波長から考えたらRに近い数が出ると思ったのですが、Hα以外の赤い領域でも多く光っているためRと差が出たということなのかと思います。

赤に比べて波長の短い青は低空でより散乱しやすいので、やはり青を出したいときはできるだけ高度が高いところで撮影するのが良さそうです。また、RでもHαでも細部の出方は結構違うので、こうやってみるといずれにせよ高度のあるところで撮るのが有利なのがわかります。


7nm Hαフィルターの効果

実はナローバンドフィルターをRGBと混ぜたのはまだほとんど経験がなくて、M33の赤ポチで混ぜたくらいです。そこで、ちょっと蛇足ですが今回使った7nmのHαフィルターを使うとどれくらい得するか、簡単に見積もってみたいと思います。

可視光が400-750nmと仮定して、光量が波長によらずに平均的に広がっていると仮定します。Hαが7nmなので、波長だけで単純にフィルターなしの場合と比較すると7/350 = 1/50と背景光は50分の1程度になるわけです。フィルターなしで撮影する場合に同程度のクオリティーにしようと思うと、50倍の時間をかける必要があります。

これは次のように考えることができます。シグナルに当たるHαはフィルター有り無しで変わらないとして、背景光が50倍だとしたらスカイノイズはルート50~7倍程度増えます。Hαフィルターをつけた場合に比べて、フィルターなしの時は、背景光ノイズに関してはルート50倍ノイジーだと言うことです。ルート50倍ノイジーなものを、同程度にするためには50倍の露光時間にする必要があり、そうすると信号は50倍ノイズはルート50倍になるので、S/N(Signal to Noise ratio)では50/ルート50 となり、ルート50倍得するというわけです。

Redフィルターの透過範囲が600nmから700nm程度なので、それとHαと比べても100/7で15倍程度となり、背景光に関してはRフィルターで15倍程度の時間をかけて、今回のHαと同程度となります。うーん、これはかなり大きな差ですね。この明らかにS/NのいいHα画像をどうやって混ぜ込んでいくかがキーになるのかと思います。


画像処理

RGBの画像処理はこれまでと特に変わりはありません。PixInsightのWBPPです。

初日の画像だけで処理した低い空のものはこのページの一番上の画像なんですが、強度のすとれっちをかけてあるので、普通のオートストレッチで見てみます。
Image101_STF
赤が弱く、アルニタクのゴーストと青い光芒が目立ちます。その一方、NGC2023の青が不十分です。

次はここまで使ったRGBをほぼ捨てて、オリオン座が高い空の時にRGBをほぼ全部を撮り直した場合です。NGC2023がかなりはっきりしてきました。アルニタクのゴーストが(なぜか)消え、青の光芒もなくなりました。赤もはっきりしてきました。結構いい感じですが、左下辺りにどうも緑のムラがあります。

Image17_PCC

ちょうどこの時期にPixInsightの1.8.9へのアップデートがあり、WeightedBatchPreprocessing Scriptにlocal normalizationが加えられたとのこと。local normalizationはこれまで使ったことはありませんでしたが、薄雲越しのムラができやすい撮影や、複数の日にまたがり条件が変わる撮影などの場合に、状態を合わせてくれる処理のようです。WBPPの中で自動で行われるとのことなので、実際にオプションをオンにして試してみました。

アップデート前(上)と後(下)でG画像を比較してみます。
masterLight_BIN-2_EXPOSURE-180.00s_FILTER-G_Mono

masterLight_BIN-2_EXPOSURE-180.00s_FILTER-G_Mono_1
他は特に何もしていませんが、明らかに違いますね。ムラがかなりきちんと撮れてストレッチに伴い細部がかなり出ています。このG画像を使ってRGB合成した結果は以下のようになり、かなりまともになってきました。

Image34_PCC

まだBに少しムラがある気がしますが、B画像はアップデート前後でほとんど違いが出ませんでした。とりあえずまだ不明な点も多いのですが、今後理解していきたいと思います。

RGB画像はPixInsightでストレッチまでして、Starnet++ Ver.2で恒星と背景を分離して、Photoshopに引き渡します。Hα画像もストレッチまでして、同様に恒星と背景を分離します。

恒星に関してはPCCを施したRGBの色が正しいと仮定して、Hαの恒星は捨てることにしました。Photoshop上でHαg像をレベル補正を使いRに変換し、それを「比較(明)」でレイヤーとして重ねます。元のRをを調整することで重なり具合を調整できますが、Hαの細部の暗い部分が鈍ってしまう可能性があるので、もう少しいい方法を見つける必要がありそうです。もちろんPixInsightの段階で重ねてもいいのですが、後に微調整をしたくなることを考えると、現段階ではPhotoshop上で処理してしまった方が楽そうです。


結果

最終的にできた画像が以下になります。

「IC434: 馬頭星雲」
Image34_PCC_AS_HT5a_cut
  • 撮影日: 2022年3月3日22時46分-23時7分、3月4日22時4分-22時14分、3月8日21時58分-23時06分、3月9日19時13分-22時25分、3月10日19時45分-22時2分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB, Hα:7nm
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド:  f120mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 120、露光時間3分、R: 22枚、G: 30枚、B: 22枚、Hα: 23枚の計97枚で総露光時間4時間51分
  • Dark: Gain 120、露光時間3分、128枚
  • Flat, Darkflat: Gain 120、露光時間 RGB: 0.08秒、Hα: 1秒、それぞれ128枚
  • 画像処理: PixInsight、Photoshop CC

まだHαからの赤が強い気がします。もう少し落としてもいいかも。馬の頭の中を含めて、細かい模様はそこそこ出たと思います。NGC2023は青色は出ましたが、もう少し細部が出てもいい気がします。画像処理の腕がまだまだなのかと思います。恒星の星像はスタックするとかなり真円に近くなりますが、少し同一方向に延びています。これは赤道儀特有の揺れが残ってしまった部分かと思います。

それでもそこそこ撮れたので、まあ満足かと思います。


まとめ

かなり長い期間かかって、やっと画像処理までたどり着けました。最初に撮影した分だけで処理したときは、ゴーストもあれば、色は全然出ないで、どうしようかと思いました。低空での撮影が問題だとわかってやっと目処が立ってきました。

SCA260での撮影は、今の赤道儀ではどうしても振動が取り切れません。同じ日の夜半過ぎからM100とM101を撮影してあり、まだその処理が残っています。今回のような画面全体で見るような星雲とかはまだいいのですが、小さい系外銀河などでは揺れによる星像の悪化がどうしても目立ってしまうことがわかってきました。撮影した銀河の処理を見てからの判断ですが、赤道儀をもっと頑丈なものにしていく必要がありそうです。

あ、今回の馬頭星雲、暗黒帯の中の模様も出てきたので結構満足して妻に見せました。でも中の模様のせいか馬の頭とは全く認識できないみたいで、首のない進撃の巨人にしか見えないとのことです。あーぁ、画像処理は奥が深いです...。


久しぶりのSCA260の記事です。M33のLを撮影したところまで書いたのでしょうか。

 

そのあとに小海の星フェスがあったり、月食があったりで、SCA260のことはほっぽらかしでした。でも何もしていなかったわけではなくて、上のように11月初めにM33のLを撮影した後、星フェスの前にはRGBをそれぞれ撮影していたりしました。その後、ダークやらフラットやらも星フェス前には撮影し終えていたのですが、その後の画像処理に時間がかかってしまい、今の記事になってしまいました。

あと、ちょうこくしつ座のNGC253も撮影してあるのですが、こちらはまだ全然未処理で、まとまったら記事にするつもりです。


RGBの撮影

さてRGBの撮影ですが、記録を見ると11月5日で、もうかなり前のことなので色々思い出さなくてはいけません。撮影は一番出にくいBが天頂の頃にと思い、0時ころまではRGBの順で、0時頃にLを撮り増しして、さらにBGRの順で撮影しようとしました。でもやはり揺れと、さらには途中ピントを変えたことによるピンボケで大量に無駄にし、時間も押して最後のGRは撮影できませんでした。

結局使えたのがR: 11/64枚、G: 24/70枚、B: 58/117枚と、相当な率の低さです。ただし、ピンボケを除くとR: 11/31枚、G: 24/30枚、B: 58/60枚となり、R以外はそれなりに好調です。Rは風が少し強かったのだと思います。それでもGBも実はかなり妥協して残して、今の赤道儀では1分でもどうしてもある程度は揺れてしまうようです。今のところ3分露光だとほぼ全滅なので、露光時間を伸ばすためにもなんとか解決策を考えなくてはいけません。

おっきな赤道儀を購入できれば一発解決なのですが、鏡筒を買ってすぐなのでまだしばらくは予算がありません。ここは今後少し考えます。


画像処理

まずはLを処理します。スタックされた画像を見るともう明らかに分解能が出まくりです。以前撮影したTSA-120よりもかなり分解しています。今回は星像がまだ揺れている段階での結果でこれなので、SCA260のポテンシャルはまだまだありそうです。

次にRGBを個別に処理します。特に今回Rの枚数が極端に少ないので心配だったのですが、ほとんど問題なさそうでした。それよりもBが枚数は多いのですが、おそらく雲のせいかと思いますが、RとGに比べてムラが多いのです。これは後の画像処理でかなり苦労することとなりました。このムラ少し不思議で、M33の腕の後に沿ってある様も見えますし、たまたまなのか四隅のうち左上と左下がまるで周辺減光があるかの様にも見えます。元の個別の画像に行ってもある程度の枚数にその様に見えているので、もしかしたらそのムラが正しくて、ムラのなさそうに見えているのが雲なのかもしれません。

RGB合成後はPCCをかけて、一旦恒星の色を合わせておきます。この時点で先のBのムラで全体にバランスがズレた部分が見えたので、DBEをかけて(ABEではM33自身も補正しようとしてしまい太刀打ちできませんでした)ある程度補正します。


初のLRGB合成

一応RGBとLが用意できたので、今回初のLRGB合成に挑戦しましたが、これがまた結構難しいです。

まず、RGBをストレッチや色バランスまで含めてある程度の画像処理を進めてからLを合成すればいいとのこと。Lもストレッチまである程度進めておきます。

LRGB合成はPixInsightのLRGBCombinationを使いました。問題は、LとRGBのストレッチの度合いです。両方ともオートストレッチでフルに炙り出してから合成すればほとんど問題ないのですが、私はストレッチし切る前にPhotoshopに渡したいので、それだとうまく合成できないのです。具体的にはLが明るいと、色がほとんどなくなりモノクロに近くなります。Lが暗いと、(おそらく出来上がった画像の暗部が切られてしまって)カラーバランスがおかしくなります。

なのでもうLを捨てて、RGBだけで処理を進めようかとも思いましたが、せっかくのLの撮影時間が勿体無いのと、やはりLの方が細部まで出ている様に見えるので、今回は出来上がりを見ながらLのストレッチ具合を何度も調整して合成しました。これ他に何かスマートな方法はないのでしょうか?

いずれにせよ、ここまでできてしまえばあとはいつものように炙り出すだけです。


結果

今回は1枚撮りだけみても、そもそも分解能がかなり出ています。撮影時間は3時間ほどですが、大口径のこともありノイズもあまり大したことがありません。なので伸び伸びと気軽にあぶり出しをすすめることができました。以前ほど青紫に寄せることもしなくてよく、真ん中の飽和も適度に抑える方向で進めました。結果は以下のようになります。

「M33:さんかく座銀河」
Image111_DBE_PCC_ASx2_PCC3_bright
  • 撮影日: L: 2021年11月2日23時51分-11月3日1時6分、11月6日0時58分-2時10分、R: 2021年11月5日23時43分-23時59分、G: 2021年11月6日0時1分-0時43分、B: 2021年11月6日2時21分-3時33分、
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: SHARP STAR製 SCA260(f1300mm)
  • フィルター: Baader RGB
  • 赤道儀: Celestron CGEM II
  • カメラ: ZWO ASI294MM Pro (-10℃)
  • ガイド: f120mmガイド鏡 + ASI120MM mini、PHD2によるマルチスターガイドでディザリング
  • 撮影: NINA、Gain 200、露光時間1分、64枚、R:11枚、G:24枚、B:58枚で総露光時間3時間1分dark: Gain 200、露光時間1分、L:88枚、flat: Gain 200、露光時間0.2秒(L)、0.5秒(RGB)、L:256枚、RGB各:128枚、flatdarkはLRGB共通: Gain 200、露光時間0.2秒、128枚
  • 画像処理: PixInsight、Photoshop CC

今回Hαは撮っていないので、俗にいう赤ポチはそれほど目立っていませんが、多少わかる範囲で既に出ています。あと、銀河の様子をシアンを目立たせる形で入れています。青ポチですかね。

SCA260ですが、はっきり言って非常に満足です。TSA-120と比べても、ここまであからさまに分解能が出るとは思っていませんでした。シンチレーションがいいかというと、間を空けた日での撮影なので特別いいというわけではなく、ごくごく普通の日だと思います。今のところ1分露光だと明らかに揺れていて、かなり妥協して画像を使っているので、もう少し改善する余地があるはずです。今回の撮影ではまだまだSCA260ポテンシャルを引き出せたとは全然言い難いです。それでもここまで出せるのなら、今後大いに期待できそうです。

おまけのAnnotationです。

Image111_DBE_PCC_ASx2_PCC3_bright_Annotated

広角だと縦横の線が歪むのですが、ここまで拡大するとほぼ直角になるようです。


TSA-120との比較

M33に関しては今年の10月と、かなり最近TSA-120で撮影しています。



というか、TSA-120での結果があったので直接比較できるかと思い、今回M33にしたというわけです。

その時の結果を同画角にして改めて示しておきます。
TSA120

今回よりもかなり派手ですね。これも嫌いではありませんが、細部を出したいこともあって今回はかなり控えめにしています。


揺れに対して

最後に、揺れに関して今後の方針を書いておきます。まだ変更になる可能性もあります。

指で赤道儀を弾いた時の様子を見ると、赤緯体の揺れはまだ許容範囲で、赤経体の揺れが目立ちます。よく揺れると言うことは共振周波数が低くなってしまっているということです。共振周波数は慣性モーメントで決まり、慣性モーメントは距離の2乗で効きます。

赤緯軸では鏡筒の前後の真ん中を中心に回るのでまだ慣性モーメントはそこまで大きくありませんが、赤経では鏡筒全体とウェイトも合わせて軸から離れているために、慣性モーメントはかなり大きくなっているので、共振周波数が低くなりよく揺れるのはある意味当たり前の結果です。

今一つ考えているのは、赤経軸から最も離れている鏡筒のトッププレートを外すこと。測ってみるとこれだけで900グラム以上あります。さらにガイド鏡も700グラム程度あり、トッププレートの上に置いていたため、赤経軸から離れています。軸から遠いものを合計1.6kgを外してしまえば、慣性モーメントとしてはかなり得することになります。

例えば、赤経軸から見て下部プレートと上部プレートの位置は距離にして3倍近くあります。仮に2.5倍だとしても、慣性モーメントで考えると上部プレート1枚外すことは下部プレート6枚外すことと同義です。実際にはウェイト位置も内側に来るので、その分も得するはずです。ガイド鏡の代わりはオフアキを使おうと思っているので、軽く、赤経軸からの距離は少し短くなり、有利になるはずです。

今回の画像に、さらにHαを撮り増しして足したいと思っているので、トッププレートを外してから同じ1分という露光時間で撮影して、どれだけ生き残るか比べれば、ある程度効果はわかるのではと思っています。


まとめ

今回のM33は、SCA260としての初作品になります。揺れにかなり悩まされましたが、結果には大満足です。TSA-120からここまで変わるとは、正直思っていませんでした。揺れに対しては、上にアイデアを挙げたようにまだ改善すると思います。赤道儀も欲しくなってきましたが、もう少し足掻いてみます。

SCA260を購入して1ヶ月、徐々にですが使えるようになってきました。また未処理画像も残っています。今回LRGBはなんとかなったので、今後はSAO撮影とかにも挑戦していきたいと思います。


ASI294MM Proで試したかった高解像度撮影です。対象はM57です。


とうとうモノクロ撮影に

実は今回が初のまともなモノクロセンサーを使った撮影になります。一応ASI290MMは持っていて、太陽とかはもちろん本当のモノクロ撮影なのですが、モノクロセンサーにフィルターというので最後のカラー化まで仕上げたのは今回が初めてです。

ASI294MMProを使いたかった理由の一つが、ピクセルサイズの小ささです。Bin1モードのピクセルサイズ2.3μmは、これまで持っていた最小のASI178MCの2.4μmよりも小さく、しかもモノクロなので単純にはさらに半分のピクセルサイズと同等。ASI294MC Proから見たらBin1モードとモノクロで一辺4分の1、面積にしたら16分の1のピクセルサイズと同等です。手持ちのASI290MMのピクセルサイズ2.9μmと比べてもまだ有利になりそうです。

その一方、今回はM57と小さい惑星上星雲なので、広視野はあまり得をしませんが、それでもASI290MMのセンサーサイズの1/2.8インチと比べると、一辺で約4倍、面積で約16倍(実際は13.9倍)です。これくらいあると比較的大きな天体まで狙えることになります。小さな天体はROIで撮影時にカットしてしまえばいいので、こちらは大は小を兼ねるになっています。

その代わりBin1モードはダイナミックレンジと感度は落ちるので、そこをどううまく回避していくか、適材適所で使う必要があります。


小さなM57を綺麗に出したい

実はM57ですが、随分以前から分解のベンチマークとも言える挑戦を続けています。今までの最高がVISACとASI178MCでの撮影で、もう2年ほど前のことになります。

 

ブログの記事にはしてませんが、その後もちょくちょく、2020年にはTSA120やVISAC、ASI178MCやASI290MM+RGBフィルターなどを色々組み合わせて撮影を続けてました。2021年の今年に入ってからも5月と6月にVISACとNeptune-CIIやASI294MM Pro+RGBフィルターで撮影していたのですが、いずれもシンチレーション が悪かったり、雲が途中から出てRGB全部撮れなかったりで、すべてボツになっていました。たとえ仕上げたとしても2年前のものを全く超えられそうになかったのです。

梅雨が明けてからしばらく、かなりシンチレーションがいい日が続いていて、これは分解能をためすまたとないチャンスです。鏡筒はVISAC。ただしやはりこの鏡筒はじゃじゃ馬の呼び声高く、星像がどうしても落ち着きません。


撮影

撮影の様子は7月17日の記事に書いてあります。重なるところもありますが、改めて書いておきます。

今回は初のモノクロ撮影ということで、RGBフィルターで試してみることにしました。もう何年も前にKYOEI Tokyoで特価で売っていたBarderのRGBフィルターをずっと持っていたのですが、やっと日の目を見ることができました。あと、ZWOの1.25インチフィルターが5枚入る電動ホイールもかなり前にKYOEI Tokyoの店舗で買ったものです。もう東京にしばらく行っていなくて最近はネットでの注文ばかりですが、たまにはやはり店舗で色々話ながら購入したくて、懐かしくなってしまいます。

IMG_2825

写真にはオフアキ用にASI178MCが付いていますが、これはまだ試していなくてとりあえず付けてあるだけです。

今回はL画像は撮影せずにRGBだけにしてみました。Lは全波長入ってくるので、この解像度だと色収差と大気収差が気になる可能性があるからです。



このように収差に関してもモノクロセンサーは有利になるはずです。これもASI294MM Proを試したかった理由の一つです。

今回は分解能狙いなので、露光時間10秒のラッキーイメージライクにしてみます。実際に撮影時の画像を何枚も見ていると、10秒露光でさえもいい時と悪い時が相当変わるので、シンチレーションの影響が効いているのでしょう。この中から比較的星像が小さくキリッとしているものを後で選ぶことになります。

これまでの結果から、短時間露光では星像が多少は小さくなること、その代わり長時間露光に比べて微光星の写りが悪くなり暗い星が写りにくくなることがわかっています。



なので今回は分解能は出ても、淡いところは長時間露光にかなわないため、M57のさらに周りの淡い部分や、近くにあるIC1296は難しいと思います。

露光時間はR、G、Bそれぞれ30分。その中からいいものを選ぶのでトータルでは1時間半を切ることになり、そこまで長い撮影とはならないです。それでも10秒と短いので各色180枚、トータル480枚となってそこそこの枚数と容量になります。その代わり、ASI294MM Proのフルサイズで撮影するのではなく、ROIで一辺を2分の1にしたので、画像サイズとしては4分の1になります。

撮影にテストで見てみると、Rはキリッと出ても、Gは結構ぼやける、Bはさらにぼてっとするようです。ピント位置のせいかと思い合わせ直したりもしましたが、劇的な改善はしなかったので、今回はRでピントを合わせて、GとBのピント位置はそのままいじらずに撮影しました。そもそもフィルターが同じ厚さなのでピント位置はそのままでいいのか、鏡筒に色収差が多少なりともあるはずなので、やはり合わせ直した方がいいのか、今後もう少し検証する必要があるかと思います。

IMG_2823


後日、 flatやdarkの撮影

撮影後、日を置いてflat、flatdark、darkの各フレームを撮影しました。

flatはフィルターがRGBとそれぞれ違うので、それぞれに128枚撮影しました。ただ、少し失敗してしまい、ゲインを220で撮影時と同じにして、露光時間を明るさによってRが20ms、GとBが50msとしたのですが、GとBの露光時間がflatdarkの露光時間と違ってしまい、PixInsightで最初flatdarkが当たらないというトラブルがありました。一応あらわにflatdarkを指定してやることでことなきを得ていますが、もしかしたらflatdarkも別個に撮った方がいいのかもしれません。

そんなこともありflatdarkはゲイン220、(気づかずに)20msで共通で128枚です。さらにですが、もしかしたらflatdarkの枚数が少なかったかもしれません。flatのトータルが384枚なので、せめて倍の256枚か、512枚の方が良かったかもです。

darkはlightと同じ設定、ゲイン220、露光時間10秒、温度-10度で256枚です。最初少しでも暗いところと思い、箱の中に突っ込んでおいたら熱くなったので、再度もう1セット取り直しました。256枚でも1時間弱なので、楽勝です。


初めてのRGB画像処理

RGBの画像処理も初めてです。実際には去年ASI290MMでM57を撮影した時に少しだけ試したのですが、その時はまだテスト撮影みたいなもので、なぜか色バランスが無茶苦茶になったなど仕上げる価値なしと判断しました。なので、まともなRGBでの画像処理は今回が初めてになります。

各lightフレームはPixInsightのBlinkで読み込んで、見た目でだめそうなものを弾きました。SubFrameSelectorもかけたのですが、ある程度は見た目と結果が一致するのですが、明らかに目で見てだめなのに、数値で見るとよく見えてしまうものなどがあったからです。でもこれからするWeighted Batch Preprocessing(WBPP)ですが、処理中に内部でSubFrameSelectorを呼び出してウェイトをつけて判断しているみたいです。もしかしたらきちんと注意してみてやらないとダメなのかもしれません。

実際のWeighted Batch Preprocessing(WBPP)ですが、RGBをいっぺんに放り込んでも処理してくれるものなのでしょうか?まあわからなかったので最初はR、G、Bをそれぞれ処理することにしました。


スタック時の位置決めがうまくいかない!?

まず困ったのが、しょっぱなのRの処理の時から位置合わせがうまくいきません。3枚くらいしか位置合わせできないとエラーを吐かれました。

原因はおそらく星の数が少ないことと、星像が丸ではないことです。過去のVISACの撮影の時も同様なことがありました。今後もこのままだと使い物にならないので、別途StarAlingmentを走らせて、回避する方法を探りました。

この問題2つに分かれます。

1. まずは星を星として認識にない場合。
IMG_3066
のようなエラーが出ます。この場合はStarAlingmentの中の「Log(sensitivity)」を-2.00とかまで下げます。もしくは「Peak response」を0.9とか1.0まで上げると効果的です。

2. 次にうまく位置が認識されない場合は
IMG_3069
のようなエラーが出ます。ここは「Star Matching」の「RANSAC tolerance」の歪許容量を上げることが効果的です。

でも難しいのはここからで、位置が認識されないエラーがでる場合でも、どうも星自身が認識されていないことが原因の場合がある時です。こんな時は「Star Detection」の「Noise reduction」が劇的に効くことがあります。ここを1または2くらいまであげてください。また、「Detection scale」が効くこともあります。こうやって考えると、位置決めの時も星がきちんと星として認識されているかどうかが重要であるのがわかります。むしろ、位置決めがうまくいかないと最初から出た場合、RANSAC toleranceをいじるよりもNoise reductionを増やした方が解決になることも多いです。まずはこちらを試すのがいいのではと思います。

その他のパラメータは色々試しましたが、ほとんど効かないか、効いてもごく僅かでした。

これらのStarAlignmentでの経験をWBPPに反映させます。いじるのは「Lights」タブの「Image Registration」です。StarAlignmentとよく似たパラメータがありますが、StarAlingmentほど細かくありません。とりあえずは一番効果のあるNoise reductionを増やします。これで一応Rは全て位置合わせができてスタックまで完了しました。

ところがです、G(緑)がまだダメなんですよね。Gでは結局WBPPのNoise reductionを2、Detection scaleを6、Log(sensitivity)を-2.00、Peak responseを0.9までして、やっと全枚数スタックされました。

さらにところがです、B(青)はWBPPでは全然ダメなんです。どうパラメータをいじっても数枚しかスタックされませんでした。ところが、StarAlignmentではRANSAC toleranceをあげることができ、そうするとうまく位置決めができます。今回は結局WBPPでは諦めました。WBPPでどうしてもダメでもStarAlignmentの方がもう少し足掻くことができるということは覚えておいてもいいのかもしれません。


縞ノイズ(縮緬ノイズ)が出てる!? 

出来上がったR画像を見てやると、縦方向に縞ノイズが入っています。縮緬ノイズとも言われているやつです。

integration

よくよく調べると、WBPPの振る舞いが少し変わったようで、そのままだとbiasが使われない設定になっていました。理由はdark frameにflat frameにもbiasが含まれてるので撮影したbias frameは使わなくてもいいということのようです。

私はこれが気に入らなくて、master flatを作る際にbiasを使うようにしました。これはイコールflatdarkを使わないということになります。これが問題だったようです。以前flat補正をする際に縞ノイズが乗っかるのはフラットが何かしらで汚くなる(その時は撮影時間が短くてノイズが載るという理由だった)というのを示したことがありますが、flat frameのダーク補正をしないと、残ったダークノイズが縞ノイズを作るということが今回改めて示されました。こたろうさんが以前この件について言及されていたと思います。

というわけで、biasの代わりにflatdarkを使うと次の写真のように縞ノイズは無くなりました。


RGBの合成前の画像

RGB合成前の画像を示しておきます。

まずはR。かなり鋭い星像となっています。縮緬ノイズも消えているのがわかります。
masterLight_BIN-1_EXPOSURE-10.00s_FILTER-Red_Mono

Greenは以下のようになりますが、Rに比べると明らかに暗い星が少なく、星像も甘いです。
masterLight_BIN-1_EXPOSURE-10.00s_FILTER-Green_Mono

Bはさらにその傾向が強く、星像もかなり大きくなっていて、明らかに星の数も少ないです。
integration

このような傾向は普通のことなのでしょうか?それともピントがずれているのでしょうか?でもテストで画面を見ていた限り、ピントをどう合わせてもRがいつも鋭くてBは散々でした。

また、これらのズレは画像処理に影響がないのでしょうか?


Linear Pattern Subtraction

さて、上の画像をみると、横縞が結構多く残っているので、WBPPの新機能のLinear Pattern Subtractionを試しました。結果だけ言うと、あまりうまくいきませんでした。いくつかの横縞は目だたなくなるのですが、下のようによりハッキリした横縞となぜか縦縞が余分に加えられてしまうようです。

masterLight_BIN-1_EXPOSURE-10.00s_FILTER-Red_Mono_c3

今回はまだあまり試していないですが、一旦ここではLinear Pattern Subtractionを使わないで、次に進みます。


RGB合成とBanding noise除去

これでやっとR,G,Bのスタックしたものが出来上がりました。ただ、これらをそのままChannelCombinationなのでRGB合成しても星の位置がずれてしまいます。そのため、StarAlignmentで改めてこの3枚を位置合わせしました。これでやっとカラー画像が出来上がりました。

Image04_clipped

でもR画像で見たときのように、やはり横の線が気になります。なので今回はRGB合成後、ScriptのUtilitiesからCanonBabdingReductionを使いました。これはかなりよかったです。いくつかパラメータを試しましたが、Active Previewはほとんど役に立ちませんでした。値を変えて何度か試した方が良さそうです。デフォルトの1でもほとんど大丈夫でした。0.2だとノイズが消しきれません。また、2だとノイズが加えられるような感じです。0.5と比べると1の場合は少し黒い部分が残っている感じがしました。結局最後0.7としました。要するに大きすぎても小さすぎてもダメなので、いくつか試すといいということです。結果は以下のようになります。

Image04_clipped_banding

かなり良くなりました。


ここからはカラーでの画像処理

ここまで来れば、あとはこれまでのカラーの画像処理と同じです。

まずカラーバランスが滅茶苦茶なので、念のためDBEで少しカブリをとってからPCCでカラーバランスを整えます。PCCで恒星の色はそこそこまともになりました。ただ、鋭さがR>G>Bの順でかなり差があるので、鋭いRとボケたBの差で、赤が強いところは赤ハロが、青が広がってしまっているところは青ハロがあるようにも見えます。逆に言えば恒星の色がよく出ているようにも見えます。

その一方、PCCをかけてもどうしても背景が青く見えます。これはヒストグラムを見て理由がわかりました。背景のノイズが青が一番多いのです。おそらくRGBの感度に差があり、Rが一番感度がいいためノイズが少なく、次がG、Bは感度が低いためノイズが大きくなるのかなと推測していますが、実際のところはよくわかりません。もう少し検証が必要かと思います。

いずれにせよ今回はPhotoshopに持っていった際に、背景のRGBのヒストグラムを合わせる事でカラーバランスを整えることにします。


星像に苦労

あとは、ArcsineStretchなどでストレッチしてPhotoshopに渡すのですが、よく見ると星像がガタガタです。

特に短時間露光の場合に多いのですが、VISACの星像にはいつも苦労します。今回はなぜか4方向に尖って見えます。しかもスパイダーの方向ではなくて、なぜか45度傾いた方向です。MophologicalTransformationで少し整えますが、星マスクが必要です。

この星マスクも苦労しました。ストレッチ後、StarNetで恒星と背景を分離しようとしても、星の3割ほどしか分離できません。分離できない理由は、星像が汚い、中心のピークが出ていない、明るすぎる、暗すぎるなどです。きちんと丸になっていて、中心がサチり気味の方がうまく分離できるようです。そのため、今回は
  1. ストレッチ前のカラー画像をL画像にしてから
  2. いったんSTFでオートストレッチして
  3. HistgramTansformationで適用、
  4. その後ExpornentialTransformationでPIPのOrderを1.5にして適用、
  5. STFで真ん中の三角をを右に移動して暗くする
とい過程を取りました。4、5は2回繰り返しました。これにStarNetをかけることでM57の中にある以外の恒星は全て救い上げることができました。M57の内部にあるいくつかの恒星は分離できませんでしたが、こちらは別途RangeSelectionでうまく分離します。

こうしてできた星マスクを適用して、MophologicalTransformationで十字型にDilationで伸ばし、X字型にErosionで縮めることで円に近づけていきます。これでやっとPhotoshopに引き渡しです。


Photoshopでの仕上げと結果

今回はPhotoshopではほとんどたいしたことはしていません。ノイズ処理もなしです。ノイズ処理をすると背景がボテボテになり、星像の鋭さと合わなくなってしまうからです。

Image04_clipped_banding_DBE_PCC_AS_HT2_MT_PCC_ok
  • 撮影日: 2021年日7月17日1時16分-2時51分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: Vixen VC200L
  • フィルター: Bardar RGBP
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO AIR294MM Pro -10℃
  • ガイド: なし
  • Light: SharpCap、Gain220、 露光時間: 10秒 x 461枚(R:163、G129、B169 x 19枚) = 1時間16分50秒
  • Dark: Gain220、10秒 x 256枚
  • Flat: Gain220、R:20ms x 128枚、G:50ms x 128枚、B:50ms x 128枚
  • Flat Dark: 20ms x 128枚
  • 画像処理: PixInsight、Photoshop CC

2年前のVISACとASI178MCで撮ったものと比べます。左が以前のもの、右が今回のものです。

comp

今回は自己ベストかと思ったのですが、分解能だけ見たらもしかしたら以前の方がいいかもしれません。いやこれは画像処理のやりかたのせいで、見栄えをよくしようとした前の方が一見よく見えているだけかも。

もし以前の方がいいというなら、機材は今回の方が圧倒的に有利なので、これは完全にシンチレーション勝負になると思います。2年前の時はよほどシンチレーションがよかったのを覚えています。その他星の色、星雲の自然さ、背景の素直さなどは今回の方が格段に上でしょうか。

そういえば、この撮影の後になってVISACの光軸調整をしたのでした。その結果は反映されてないので、今一度シンチレーション のいい日を狙うとかでしょうか。


まとめ

初のRGBフィルターでの撮影と画像処理。いろんな新しいことがあってブログ記事が長くなってしまいまた。次回はもう少し早く処理できそうです。

分解能に関しては、やっぱり最後はシンチレーション なのでしょうか。リアルタイムで露光時間を1秒以下にして見てても、明らかに揺らいでいて、10秒ではこれくらいになってしまいます。次は揺れない日を狙うことになるのかと思います。

どうやらM57はAOOでもそこそこ色が出るみたいなので、次はナローのもしかしたら逆に長時間露光で、淡いところに挑戦するかもしれません。


おまけ

もう一つ、PixInsightの細かいテクです。projectファイルを保存して、ファイルのフォルダ名を変えたり、ファイルの場所を変えたりした時に、WBPPのインスタンスを右クリックして「Excecute in the global context」から再度開こうとすると、以下のようなエラーが出ることがあります。

IMG_2922

この場合、WBPのインスタンスををダブルクリックして出てきたMD5 checksumを消してやって、再びインスタンスをPI内で保存。それを右クリックのExcecute in the global contextで開くと普通に開けるようになります。


久しぶりのブログ更新

梅雨でなんのネタもなくて、仕事など他でもいろいろ忙しかったので、ずーっとブログ更新をサボってました。こんなに長い間書かなかったのは初めてです。

と言っても天文関連のことを何もやってなかったかというと、そうでもなくて、来週必要なスライド作りなんかは結構進みました。特に富山市で廃止になってしまった天文台に関しては色々議論や実作業もあり、かなりの時間を割いていました。ここら辺のことについてはいつか書ける時が来たら書きますね。

ブログを再開する気分になったのは、昨晩7月16日の夜遅くにとうとうまともに晴れたからです!しかも金曜なので休日前。月齢6日なので23時頃には月も沈みます。実は22時に外に出た時はまだかなり雲があって、SCWの予報も雲が多そうだったので諦めてたのですが、気楽に「脱力タイムズ」を見てる途中に外に出てみたら、天頂がかなり晴れてます。10分くらい見てたら下の方のガスってたのが消えはじめ、白鳥座の羽の先も見えてきました。天頂は天の川もうっすら見え始めたので相当透明度が良さそうです。


久しぶりの望遠鏡

IMG_2822

これは望遠鏡を出さないわけにはいきません。今回のターゲットはVISACでのM57です。もうかなり前に到着したASI294MM Proをやっと試せます。今回はRGBで撮影するので、フィルターホイールをVISACに取り付けます。ZWOのアメリカンサイズが5枚入るフィルターで、カメラのUSB端子を利用してカメラに付属のUSB2の短いケーブルで繋ぎます。
IMG_2827

オフアキ用のカメラがついてますが、これは今は穴塞ぎのためだけで、将来のためです。

さてさて、久しぶりの極軸合わせをして、その後ベガでCGEM IIの初期アラインメント。さらにカメラの回転角をベガを画面上で左右に移動することで合わせます。その後M57を自動導入します。どうやら、一見しただけでもかなりシンチレーションが良さそうです。

実はASI294MM Proのファーストライトは1ヶ月以上前で、6月10日に同じM57を試しています。でもシンチレーションがメタメタで、雲も多くて結局Redを撮った後、Greenを撮っている途中で曇ってしまい、お蔵入りにしました。その時の画像と比べても、この日はあからさまに星が小さいです。M57の中心星も余裕でくっきり見えています。

でも星像がまだいまいち決まりません。一応副鏡の調整を六角レンチでしましたが、どうしても斜め方向に十字のようなものが残ります。四隅だけでなく中心部でも同じ状況が見えるので、接眼側を合わせる必要がありそうです。これは至急の課題なので、土日の昼にでもやってしまおうかと思います。

とりあえず星像に関しては諦めて、ピントを合わせます。今日はモノクロ撮影の手始めなので、RGBフィルターを使って撮影してみようと思います。でまずはフィルターホイールでRedに合わせ、M57のすぐ近くにある2つの星を使ってピントを合わせます。これがよく分離できるようなところに合わせました。


久しぶりの撮影

撮影方法はSharpCapで、露光時間10秒、Gain220のラッキーイメージングです。短時間撮影なのでオートガイドもなしです。撮ってる画像を見ていると、星像が小さいものと、流れてしまうなもの、大きくなっているもの、同じ10秒でも一枚一枚で相当差があります。この中の良いイメージのみを採用するつもりです。

Redを30分、180枚を撮影。その後Greenに移って同じく30分撮影しますが、Redに比べて恒星が明らかに少ないです。これは緑の恒星はほとんどないことから納得です。さらにBlueも30分。Blueの恒星はもっと少ないです。これだとほとんど赤い星になってしまいそうですが、こんなんでホントに良いのでしょうか?

01_16_15_Capture_00054 01_25_22_Red
Redの10秒1枚どり。オートストレッチしただけです。

Blueを取り終わったところでちょうど午前3時前。薄明の始まる時間です。空を見上げたら、白鳥座の羽の先まで凄くはきり見えます。それどころか、白鳥座あたりから西の低い方はそれほどでもないですが、北の方向へ、冬の天の川までかなりはっきり見えました。1年に数回しかないレベルの透明度です。星を見つつこの日は撤収。

RGB処理はほぼ初めてなので時間がかかりそうです。画像処理は土曜以降。まずはブログの再開からです。処理が終わったらまた書きます。


ASI294MM Pro

ASI294MM Proにした理由ですが、まず第一はASI294MC Proを持っていること。これにMMが加わると、カラーでRGB、モノクロでLなどができます。さらに、最も大きな理由が、ピクセルサイズがMMだと半分になることです。同じマイクロフォーサーズですが、MCはピクセルサイズが一辺4.63μmで、4144×2822、MMはBin1モードにすると一辺2.32μmで、8288×5644まで解像度が上がります。そもそもカラーからモノクロにした時点で解像度が倍、さらに特殊なBin1モードで倍なので、一辺4分の1になるわけです。これまで1ドットで表されていたのが、実行的に16ドットで表すことができるようになります。これは分解能を出したい時には条件次第で相当有利になるはずです。その代わり、ダイナミックレンジはMCの14bitあったものが、MMでは12bitになってしまいます。また、IMX294系の最大の欠点アンプグローはMMのIMX492になってもそのまま残るようです。

なので多少の欠点は存在するものの、ASI294MC Proと併用することもあり、解像度の点でASI294MM Proを選びました。

普段太陽撮影にはASI290MMを使っていますが、こちらのピクセルサイズが2.9μmなので、こちらもASI294MMに置き換えることを考えてます。290よりもピクセルサイズが小さいため、C8 +PSTとの組み合わせで、十分明るい太陽ではかなり鏡筒の限界まで迫ることができるので、シーイングさえ良ければ分解能がさらに上がる可能性があります。面積はどうせPSTのエタロンの平行度の限界から、一部しか使えないので、ROIでバッサリ切ってフレームレートを上げてしまえばいいかと思います。


まとめ

久しぶりのブログなので、土曜の朝なのに起きてぱっと書いてしまいました。この日も朝から晴れなので、太陽撮影です。あ、どうせ朝から赤道儀出すなら片付けなければよかった...。

(土曜朝に追記:  暑すぎです。午前中に太陽撮影しようとしたら、C8が外に置いているだけで熱くなります。撮影まで心配なので鏡筒前面に蓋をしておくのですが、その黒い蓋が既にもう熱い。気付くとCGEM IIも撮影用のPCもかなりの温度でした。PSTはC8の影になっていて、外して触ってみても熱くなかったので大丈夫だとは思いますが、ちょっと熱さ対策ができるまで怖いのでC8での撮影はストップします。)

モニターのキャリブレーションでTStudioさんからいろいろ助言を得ました。その中の一つカラーチャートを作ってみました。

参考にしたのはこのページです。



なかなかいいフリーのチャートがないというので自分で作ったとのことです。ファイルの公開まではしていないようですが、Excelを利用したらしいので、私も同じように作ってみることにしました。VBAマクロを使えば簡単にできそうです。

上の図にはHSV空間で書いたチャートが載せてあって参考になったのですが、おそらく数値と色があってないと思います。数値から計算した正しいと思われる色をHSV空間に焼き直しました。Vが大きいところの色の違いがわかるかと思います。さらにHを360を基準に置き換え階調を切りの良い60おきになるように置き換え、彩度の段階を一つ増やしました。HSVからRGBへの変換は少し苦労しました。このページが参考になりましたが、やっとHSVの数値の定義を理解できました。

また、RGBのバーも階調を増やし、HSVと一貫性を持つために、順序を入れ替えておきました。

出来上がったカラーチャートです。PNG形式です。

colorchart_03

元のエクセルファイルもアップロードしたので、必要な方は、ここからダウンロードして下さい。ダウンロードするともしかしたら拡張子に.txtとついてしまうかもしれません。「.txt」を外すとエクセルのマクロファイルとして認識されるはずです。パパッと書いてしまったため、ソースはあまり綺麗でないので読みにくいと思いますが、ご容赦ください。

とりあえず次回フジプリで画像を印刷する時に、一緒にこのカラーチャートも印刷してみようと思います。まあ、どこまで役に立つかわかりませんが、何かしら得るものはあるのかと思います。

ところで天体写真に特化したカラーチャートってできないものなのでしょうか?例えばHα、SII、OIIIの波長をRGBに落として、さらに混合色とかも合わせてチャートを作っておけば基準になる気がするのですが。でも、波長をRGBに落とすってどうやってやるのでしょうか?

あぷらなーとさんはじめ何人かの方がMatlabを購入し画像処理に活用し始めましたようです。



私もMatlabは学生の頃から使っていて、今調べてみたら一番古いファイルは1998年でした。なので20年以上使っていることになりますが、 これまで画像処理に使ったことはありませんでした。

あぷらなーとさんが指摘しているように、確かにMatlabは行列を容易に扱えるので、2次元が基本の画像処理は向いているはずです。最近過去のコードをpython化したりしてるのですが、pythonは2次元だと必ず繰り返し処理が入るので、コードが冗長になりがちです。私も少し試してみたのですが、どうやら画像処理に関してはMatlabの方がコードがかなりシンプルになり見通しが良くなるので、有利というのは正しそうです。とうわけで、遅ればせながら私もMatlab画像処理に参画します。

Matlabを使ってまず手始めに試したのが、昨年3月依頼謎が解けなくて止まってしまっているASI294MC Proのノイズ解析の続きです。

 


最初にごめんなさいと謝っておきます。今回の記事はかなり細かくてめんどくさい話で、ほとんどの人には役に立たないです。しかもうまくいかなかったという結果なので、ほんとに興味のある方だけ読んでみてください。

Matlabで画像処理を始めてみたいという人がいたら、もしかしたらコードが参考になるかもしれません。


以前のおさらい 

ざっとおさらいしてみます。ZWO社のASIシリーズは性能を示すデータを公開してくれています。例えば広いセンサー面積を利用した電視観望や、撮影にも十分に使うことができるASI294MC Proのページを見ていくと、下の方にいくつかグラフが出てきます。このグラフ、一見分かりそうで分かりにくいところもあるので、以前その読み方を解説しました。



上のページでも解説している通り、SharpCapを使うとZWOのページにあるようなデータを測定することができます。冷却バージョンのProも



で実際に測定した記事を書いています。特にGain[e/ADU]の値はコンバージョンファクターとも呼ばれて、設定gainが0の時のコンバージョンファクターはユニティーゲインなどにも直結するような非常に重要な値になります。少しコツは必要ですが、SharpCapのスクリプトでCMOSカメラの特性を実測すると、ZWOにあるような値に非常に近いものを測定することができます。2つのツールで同様のデータが取れているということはかなり信頼が置けるはずです。さらにもう一歩進めて、このようなツールでのスクリプトでなく、実際に自分でノイズを撮影して解析してみようと試したのが、昨年3月までの一連の記事になります。

ところが、実際に撮影して解析してみるとどうしてもZWOのデータやSharpCapでの解析結果と合いません。

SharpCapで撮影した時の撮影条件は限りなく再現させたと思っています。具体的には撮影対象の明るさ、カメラのゲイン、露光時間です。明るさは同等のものが撮れているので、撮影に関しては問題ないと思います。問題はノイズです。明るさとノイズの関係からコンバージョンファクターを求めるのですが、撮影された画像の明るさのばらつきが、想定していたものよりかなり大きいと出てしまいます。

具体的には標準偏差を用いるとノイズが大きすぎると出てしまい、苦肉の策で(ノイズが小さいとでる)平均偏差を使うと、大体ZWOとSharpCapの測定と一致するという結果でした。

ヒントになるかと思いモノクロのASI290MMで測定したら、標準偏差で計算してもZWOやSharpCapと一致した結果を得ることができました。ということはやはりカラーの場合も平均偏差などを使わずに標準偏差を用いるのが正しいのではと推測することができます。

そんな折、あぷらなーとさんがRGGBを一素子づつ解析したCFA(Color Filtr Array)で評価した場合と、RGBにdebayerした場合では、debayerの方が標準偏差で考えて0.75倍とか0.79倍程度に小さくなることを示してくれました。



それでもdebayerで計算してもまだZWOやSharpCapでのノイズの少なさには辿りつきません。

いろいろやっていて結局行き着いたところはこの画面で、

IMG_6436

小さいと思われるRGBの標準偏差よりも、Lの標準偏差の方がなぜかさらに小さいことがSharpCapの一枚の撮影で出てしまっていることです。いまだにSharpCapが内部でどうやって計算しているのかよくわかりません。このLの標準偏差を仮定するとノイズはかなりZWOもしくはSharpCapのスクリプトで測定した結果に一致します。言い換えると、これくらい小さい標準偏差くらいのばらつきになっていないと結果は一致しないということです。


Matlabでの画像処理の実際

やっと前振りが終わりましたが、今回Matlabで以前のpythonコードを書き直すかたらわら、どうしたら一致した結果を出せるか、なぜSharpCapのLがノイズが小さく出ているかを念頭に置きながらいろいろ試してみました。

Matlabを初めて使う人が一番面食らうのは、配列の表記法かと思います。これが独特なのですが、この独特な表記によりコードがシンプルになるので避けるわけにもいきません。私が書くよりももっといい説明がたくさんあるかと思いますが、今回の画像処理に必要な最低限だけ書いておきます。

まず2次元の配列、Matlabだと行列といっていますが、例えば2行x3列の配列Aを

>> A=[1 2 3;4 5 6;]

A =
     1     2     3
     4     5     6

と作ります。例えば第2行,第1列成分を見たい場合には

>>A(2,1)

と打つだけです。答えは

ans = 4

と出ます。これは至って普通です。独特なのは:(コロン)の使い方で、例えばAの1行目すべてを見たい場合は

>>A(1,:)

と打ちます。答えは 1 2 3となります。:はどこからどこまでを意味し、

>>A(1,1:2)

だと

ans =     1     2

となります。:(コロン)だけだとその次元の最初から最後まで全部という意味です。これがMatlabで絶対理解しておかなければならない表記法の一つです。

今回は画像を扱うのに4次元の配列を使っています。1、2次にy座標とx座標。左上からyは向かって下に、xは右に移動していきます。3次目はRGBやCFAのインデックス。RGBなら3つ、CFAなら4つとっています。 4次目は何枚目の画像かを表しています。今回8枚の画像を使っていますが、その何枚目かを表します。あと成分を表す数字は1から始まることにも注意です。0からではありません。 

例えば、AにRGBで別れた画像が8枚入っているとすると、5枚目のG画像を表す時は

A(:, :, 2, 5)

と表します。:が2つあるのはy、x座標それぞれ全部を表しています。"2"はRGBの2番目と言う意味です。Bなら3ですね。"5"は5枚目と言うことです。

例えばサンプルコードの最初の方にある

 Raw(:, :, i) = fitsread(ファイル名);

はi番目の画像にfitsファイルを読み込んで、1次目にy座標のデータ、2次目にx座標のデータを全部入れていきなさいと言うのをわずか1行で表記したものです。

これらの表式は慣れるしかないのですが、ここらへんを感覚的に理解できるとコードもすらすら読めて、シンプルなコードを書くことができるようになるのかと思います。


モノクロセンサーASI290MMの場合

とりあえずMatlabでやってみた画像処理を説明していきます。まずはモノクロのASI290MMの結果です。

ASI290MM
このグラフを出したMatlabのソースコードをアップロードしておきます。使用した画像も(サイズを切り詰めるために中心部のみ切り取ったものですが)一緒に入れておきましたので、すぐに走らせることができると思います。もしMatlabを持っていて興味があったら走らせてみてください。

ASI290MM.zip 


結果は前述したとおり、平均偏差ではなく一般的な標準偏差を使っています。メーカー値はコンバージョンファクターが3.6程度、ユニティーゲインが110程度ですので、グラフ内の数値と比較してみるとそこそこ一致していることがわかります。なので、カラーでも標準偏差を用いる方向を探りたいと思います。

また、以前pythonで書いたコードと比較して同等の結果を出すことできています。

Conversion_Factor_ASI290MM_std

Maltabでもこれまでと同様のことができることがわかり、かつ遥かにシンプルに書けることがわかりました。


カラー版ASI294MC Proの場合: CFAで解析 

さて、Matlabでの画像処理にも慣れたところで問題のカラーのASI294MC Proの解析です。

結論から言うと、結局今回も謎は解けずじまいでした。

まずはシンプルなCFAの方から。RAW画像からCFAへ分離するところはビルトインの関数とかはないようなので自分で書いてみました。以前は平均偏差(mad)で無理やり答えを合わせましたが、今回ASI290MMの結果なども含めていろいろ考えた末に、結局諦めて標準偏差(std)を使うことにしました。

ASI294MCPro_CFA

各測定点はそのまま解析した結果を表示していますが、フィッティングは無理やり合うように補正してます。考え方としては、謎な部分をunknown factorとしてフィッティングするところで無理やり補正するというやりかたです。今回のCFAの場合、unknown factorはノイズ(標準偏差の2乗)を2分の1とすることでZWO、SharpCapの結果と一致することがわかりました。

ちなみにメーカー値はコンバージョンファクターが3.9程度、ユニティーゲインが117程度です。繰り返しますが、CFAで測定されたノイズを無理やり半分にすることでメーカー値に近くなります。

先に説明したように、SharpCapでLのノイズが小さく出ている理由がわからなかったので、もうこのように無理やり合わせてしまうしかなかったという苦肉の策です。これはあぷらなーとさんが示してくれた、CFAとRGBで標準偏差で0.75倍違うというのを考慮してもまだ少し足りません。

まあ、このやり方に言いたいことはたくさんあるかと思いますが、とりあえず先に進むことにします。


カラー版ASI294MC Proの場合: RGBで解析

次はRGBでの解析です。

最初はMatabビルトインのdemozaicという関数を使ったのですが、これだと中で何か変に処理しているのかノイズが話にならないくらい大きくなりすぎました。仕方ないので自分でRGBに落とすコードを書いています。そこそこまともそうな値は出たのですが、ただしこのコードまだ未完成です。なぜかというと、センサーアレイはRGGBなのでG(グリーン)が二つあるのですが、その応答が少し違うことに起因します。Gを2つ使って求めると強度の山が2つでできてしまい、ばらつきが大きくなりすぎるからです。そのため今回は2つあるG素子のうち1つだけを使うことにしました。

ASI294MCPro_RGB

RGBになりあぷらなーとさんが示してくれた通り、CFAの時よりもばらつきは少なくなることがわかりました。それでもまだノイズが大きすぎるのでCFAの時と同様にunknown factorとしてフィッティングするところに無理やり入れました。RGBの場合、unknown factorはノイズ(標準偏差の2乗)をルート2で割ってやることでZWO、SharpCapの結果とかなり一致することがわかりました。


考察

ASI294MC Proで使ったファイルもアップロードしておきます。よかったら参考にしてください。

ASI294MCPro.zip 

今回はまだ苦肉の策で、無理やり答えを合わせるように測定結果を割っているだけなので、考察と呼べるようなものにはなりません。CFAの場合出てきたノイズを半分に、RGBの場合ルート2でわってやるとSharpCapやZWOの結果とかなり近い結果になりましたが、その理由は全然わかっていません。

前回のpythonコードを使った時はCFAやRGBの変換はPixInsightを使いました。でも今回はRAWファイルから直接計算してCFAもRGBも取り出しています。ここら辺はMatlabに移ったことでやりやすくなったところだと思います。このように今回はかなり噛み砕いてブラックボックスがないように進めてきたつもりです。撮影した画像はSharpCapのスクリプトで撮影したものと同等と仮定していいかと思います。これでも結果が一致しないということは、
  • ZWOもSharpCapも何か特殊なことをやっているか
  • もしくはまだ私が馬鹿なミスを犯しているか
です。とにかく怪しいのがZWOのLのノイズが小さく出過ぎていること。この謎が解けない限り進展がない気がします。


まとめ

週末を結構な時間費やしましたが、コンバージョンファクターに関しては結局昨年から進展がなかったので疲れてしまいました。それでも得られた成果としては、
  • Matlabでの画像解析の手法に慣れることができた。
  • あぷらなーとさんが出してくれた、debayerの方がCFAよりもノイズが0.8倍程度と小さくなることを確かめることができた。
ことくらいでしょうか。でも全然だめですね。これ以上は時間の無駄になりそうなので、一旦ここで打ち切ることにします。

それでもMatlabが使いやすいことは分かったので、今後の画像解析はMatlabで進められそうな目処はついたと思います。

元々この解析はダークノイズ解析につなげたいとか、EOS 6Dのユニティーゲインを測定したいとかで始めたのですが、なかなか進みません。いつ実現できるのかまだまだ未定ですが、諦めることはしたくないのでまたいつか再開する予定です。

連休ですが、富山は相変わらず天気はよくありません。こんな時はたまっていた課題を片付けます。


CMOSセンサーを顕微鏡で見るとどうなる?


事の発端は、小海の星と自然のフェスタでスタベのアルバイトのK君がASI294のセンサー面を実体顕微鏡で見てみたいと言った事です。ASI294は電視観望用に持っていますが、うちにはたまたま実体顕微鏡もあります。下の子Sukeの自由研究のために2017年の原村星まつりで買ったものです。これならなんとかなりそうです。

ところがシベットさんからコメントで実体顕微鏡では倍率が低すぎるのではという指摘がありました。なぜかうちには倍率の高い生物顕微鏡もあります。これも同じく下のSukeの自由研究のために2016年の原村星まつりで購入しています。というわけで、必要なものはそろっているので実際に見ることにしました。果たして何が見えるのか?

IMG_9068


まずは実体顕微鏡

手持ちの実体顕微鏡は対物レンズが4倍、接眼レンズが10倍で、40倍のものです。ここにASI294を置いてやればいいのですが、カメラ本体が大きすぎでレンズに近づき過ぎてしまいピントが出ません。仕方ないので、今回はもっと奥行きの短いASI224MCで試すことにします。K君、ごめんなさい。

ASI224MCのセンサーサイズは4.8×3.6mm、解像度は1304×976で一素子のサイズは3.75×3.75ミクロンとのことです。

IMG_9091

センサーは思ったより小さく、周りに金色の線がたくさんつながっています。これを40倍の実体顕微鏡で見てみました。とりあえずiPhoneのカメラで撮ってみます。

IMG_9036

よく見えていますが、センサー面はのっぺりしているだけでやはり全然倍率が足りないことがわかります。

でも実体顕微鏡は簡単には倍率を変えることができません。いろいろ考えて、手持ちのアイピースを利用することにしてみました。接眼レンズを片方外します。31.7mmのアメリカンサイズは径が大き過ぎたので、昔の1インチタイプのものを使いました。手持ちは20mmと12.5mmと9mmの3つ。

IMG_9071

最初に20mmのもので見てみます。1インチサイズだと今度は径が小さすぎるので、とりあえず固定せずに穴に入れるだけです。

IMG_9039

もともとついていた10倍のレンズより少しだけ大きく見えます。

IMG_9037

10倍レンズは焦点距離25mmとか30mmくらいなのかと思います。この時点で50倍とか60倍相当かと思います。当然これだけだとまだ倍率は不十分なので、さらに倍率を上げるために12.5mmレンズを取り付けます。

IMG_9041

これも穴に入れただけで固定していませんが、まあとりあえずそこそこ安定して見えるものです。像はというと、

IMG_9029

接続線は大きく見えてきましたが、センサー面はほとんど変化なしです。最後9mmを試します。

IMG_9043

IMG_9061

ここでiPadのLEDで光を当てたこともあり、基板のパターンが見えてきました。しかもピントを調整してセンサーの端をよく見ると目盛りのようなものが見えます。

IMG_9064

小さな目盛り10個につき大きな目盛りがあり、大きな目盛りを数えると長辺で14個、短辺で10個程度あります。センサーサイズが4.8×3.6mmなので、大きな目盛り2個で1mmはないくらいということがわかります。上2枚の写真のセンサーの枠の太さは同じなので、遡っていくと全体サイズまで直接比較することができると思います。

これで倍率は手持ちの1インチアイピースでは限界です。最終倍率は120倍程度かと思われますが、それでもセンサー面の構造は全く見えてきません。やはりもっと倍率の高い生物顕微鏡が必要なようです。


生物顕微鏡なら見えるか?

IMG_9094


さて、生物顕微鏡に移ったのですが、ここで問題が発生しました。ASI224MCでも奥行きがあり過ぎて、ステージを一番下に下げても対物レンズの間に入らないのです。

IMG_9093


最初はセンサーがついている基板を外そうかと思いました。

IMG_9092

ですが、基板の右側についているコネクタをうまく外すことがどうしてもできなくて、泣く泣く諦めることにしました。ちなみに左上についている赤い検品シールは触るとすぐに崩れるタイプで、ネジを緩めるとシールが簡単にとれてしまいます。改造したかどうかのチェックを兼ねている様です。なのでこのカメラはもうメーカーのサポートは受けることができないと思っておいたほうがよさそうです。もし個人で分解する際は気をつけてください。

結局今回は仕方ないので、下の写真の様に顕微鏡のステージを取り外すことにしました。

IMG_9076

ステージに置くことができないので、CMOSカメラを手で持ちながら見ることになります。バランスが悪いのですが、何度か撮影すればいい位置とピントで写ることもあり、何とかなりそうです。

倍率は対物レンズが4倍、10倍、100倍。接眼レンズが10倍と15倍のものがあります。

とりあえず対物4倍と接眼15倍で目で見てみます。明かりがもっと欲しかったので、先日中身を取り替えたパワータンクの強力LEDで照らすことにしました。この状態で目で見てみると、手でカメラを押さえながらですが、何とか見ることができます。

ここで秘密兵器登場。今回の撮影のために、SVBONYの顕微鏡の差込口に挿すことができるアダプターを買っておきました。

IMG_9089

これはT2ネジが切ってあるので直接ZWOのASIカメラに取り付けることができます。

IMG_9084

これを生物顕微鏡の接眼レンズの代わりに取り付け、直焦点撮影をします。

最初はASI294MC Proを撮影用のカメラとして使いました。まずは最低倍率の4倍の対物レンズで撮影します。撮影はMacのASICAPを使いました。

2020-01-12-0626_0-CapObj_0001

すでに先ほどより大きく写り、遥かに精細に写っています。だんだん楽しくなってきました。

対物レンズの倍率を4倍のものから10倍のものに上げます。

2020-01-12-0607_4-CapObj_0000

おお!とうとうセンサー面の構造が見えてきました。

もっと倍率をあげたいのですが、100倍の対物レンズはセンサー面に相当近づけなければならなく、保護カバーを外さなければピントが合わなさそうです。さらに、かなり暗くなることがわかっているのであまりやりたくありません。いろいろ考えて、ASI294MCよりも一素子のサイズが小さくて分解能の高いASI178MCを使ってみることにしました。その結果がこちらです。

もうセンサー面の構造もはっきりと見えます。

2020-01-12-0634_3-CapObj_0000

でも構造は見えますが、RGBフィルターとかの影響がわかりません。目盛りがついているところから少し中に進むと紫のエリアがなくなる境目があるのですが、わかるのはこれくらいです。この頃になるとカメラの固定方法の工夫でかなりピントも合わせやすくなってきました。下はピントや撮影カメラのゲインを相当合わせ込んだ場合です。

2020-01-12-0636_7-CapObj_0000

かなりはっきり見えて、センサー10素子で目盛りが一つ進むこともわかります。なので目盛りはセンサーの数を表していたんですね。でも、これでも全部同じ素子のように見えてしまっています。

どうやっても進展がないので、ここでかなり悩みました。最後にとった方法が、わざとカメラを回転させて素子を45度傾けてみること。理由ははっきりとわかりませんが、これでやっとうまく見ることができました。最終結果です。

2020-01-12-0702_0-CapObj_0000

見事にRGGBフィルターの配列を見ることができます。これを見て改めて思うのですが、これだけの微細構造を作る技術は見事なものです。これが民生レベルで安価に購入できるというのはなんと幸せな世の中なのでしょう。

最後に、その時の撮影風景です。

IMG_9083


考察

とりあえずセンサー面の構造とRGGBフィルターの存在を確認することができました。対物レンズの倍率を上げ、十分な灯りを用意することができれば、もっと微細な構造を見ることができるかもしれません。

RGGBフィルターがかかっている部分と、かかっていない部分の境目もはっきりとわかります。RGGBフィルターは全面にかかっているわけではなく、センサーの端の方はフィルターはないことがわかります。


問題はここから何を引き出すかです。K君と話した時、サッポロポテト現象を解明したというようなことを言っていた気がします。サッポロポテト現象はあぷらなーとさんも困っているようです



サッポロポテト現象は各素子についているマイクロレンズ効果が原因のようですが、はっきりとした解決策はあまりないようです。今回はやっとCMOSセンサーの素子の構造が見えたくらいなので、まだゴールまでは程遠いと思います。

今回の結果をどう活かすのかが今後の課題でしょう。


まとめ

こんなふうに工夫でどんどん見えてくるような実験は超面白くて大好きです。

とりあえず今回分かったことは、
  • 実体顕微鏡ではCMOSセンサーの構造を見るには倍率が低すぎる。
  • 生物顕微鏡を使うことでCMOSセンサー面の構造、RGBフィルターの様子を見ることができる。
  • センサー1素子そのものを十分な解像度で見るには至らなかったが、まだ拡大率を上げる手は残されているので、1素子をもう少しはっきり見ることもできるかもしれない。

課題としては
  • センサーを置く架台をしっかりしたほうがいい。
  • センサー面についている保護ガラスを外して、高倍率で撮影してみる。
  • 動画撮影でスタックするとさらに解像度が上がるかもしれない。
  • ASI294MCのセンサー面を見てみる。
ことくらいでしょうか。あー、今回も面白かった。


K君、遅くなってすみませんでした。やっとなんか見えるくらいにはなってきました。

K君、次は何を見てみたいですか?


このページのトップヘ