ほしぞloveログ

天体観測始めました。

2020年03月


縞ノイズを時間的に見てみる

もしかしたら興味がある人もいるかと思い、縞ノイズを時間的に可視化してみました。先のバラ星雲の1日目のディザーなしで撮影した失敗画像約2時間ぶんの24枚を使っています。中心あたりの一部を拡大して見ています。といってもやったことは簡単で、ディザーなしで撮影した画像を、PixInsightで動画にしただけです。

Blink

これはガイドをしていても、たわみなどでガイド鏡と撮影鏡筒の相対的な視野が一方向にずれてしまうために起きます。それでももしノイズが完全にランダムなら、このように流れるようには見えないはずです。ノイズが流れて見えるということは、ノイズに時間的なコヒーレンスがあるということです。うーん、結構ありますね。あれだけの縞ノイズになるのもわかる気がします。

integration_DBE_PCC_AS_cut



縞ノイズ動画の作り方

さて、この動画の作り方です。今回縞ノイズを時間的にみる目的でしたが、このやり方覚えておくと色々応用が効きそうです。基本的に、PixInsightを使います。
  1. 普通にBatchPreprocessing 処理などで進めます。
  2. master以下のregsteredフォルダに入っている、位置合わせまで終わって、Integrationする寸前のファイルを使います。ここまでは普通にDebayerしてStarAlignmentでも構いません。
  3. Blinkでそれらのファイルを開きます。
  4. とりあえずは、デフォルト機能の再生ボタン(右三角)を押すと確認できますが、順に動画のようになるように見せるだけです。オートストレッチもできるのでみやすくなります。カラーバランスが悪い場合は、RGBのリンクをオン/オフする「鎖マーク」のアイコンを押してください。
  5. Previewで一部を切り取るとその部分だけ拡大して見えます。
  6. それをBlink画面の右下の一番右端の撮影開始マークアイコンで動画にします。
  7. ffmpegがない場合は別途インストールしてください。
  8. ffmpegがインストールされていても、実行ファイルをフルパスで入れないとダメでした。/usr/local/bin/ffmpegとかいうことです。
  9. オプションは秒20コマのgifファイルにしたかったので、 -y -r 20 -i Blink%05d.png Blink.gifとしました。
このように結構簡単に動画を作ることができます。


M42の場合

もう一つ例です。TSA-120でM42を撮影した時のものです。約30分くらいの撮影時間で、枚数は14枚です。これはディザーもそうですが、ガイドさえもしてないので赤道儀の極軸の精度が悪くてずれていってしまっているものです。上のバラ星雲のように画像の一部ではなくて、ほぼ全体像を示しています。解像度はこのブログにアップできるように(一画像当たり5MBが制限)落としてあります。

Blink

縞ノイズの原因となるクールノイズなどに混ざって、おそらくバイアスノイズに相当する縦線のように見えるノイズも流れていることがわかります。基本的にランダムでないノイズは、全て縞ノイズになり得るだろうことがわかります。

これを普通にスタックすると下のように縞ノイズが盛大に出てくるわけです。

integration



バラ星雲のもそうですが、時間的にこれだけ明らかに変化しているのがわかるのなら、なんとか分離してペラっと一枚皮を剥ぐようにこのノイズだけ取れないですかね?

今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。(2020/4/16 追記: APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。また、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。)
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


シュミットさんからお借りしているEVOSTAR 72EDですが、前回のおまけ記事で最後と思っていたのですが、せっかくなのでレデューサーを使っての撮影をし、画像処理までしてみました。




カメラ選択

カメラをフルサイズ一眼にするか、CMOSカメラにするか迷ったのですが、 結局ASI294MC Proにしました。理由は2つあります。

元々の焦点距離が420mmで0.72倍のレデューサーを入れると約300mm。これだと結構広い画角となるので対象が限られてきてしまいます。パッと思いつくのが
  • カリフォルニア星雲
  • カモメ星雲
  • 勾玉星雲
くらいです。複数天体もありとすると
  • オリオン大星雲と馬頭星雲まで
  • 馬頭星雲からバーナードループの一部まで
  • モンキー星雲とクラゲ星雲を一緒に
などですが、やはり一画面に二つの中くらいの天体だとインパクトに欠けそうです。他にもSh2-240もありますが、さすがに自宅からだと暗すぎます。マルカリアンチェーンもありですが、後述のQBPを使いたいので、銀河は今回はパスです。結局この画角だと対象が思ったより少ないので、少し画角を絞る意味でフォーサーズ相当のASI294MC Proにしました。

もう一つの理由が、31.7mmのアメリカンサイズQBP(Quad Band Pass) フィルターで撮影レベルできちんと試してみたかったことです。Black Pandaさんにせっかく作っていただいたQBPですが、これまでは元々の目的である電視観望でのみ試してきました。CMOSカメラに取り付けた状態で、もっと条件の厳しい撮影レベルで使えるかどうかの判断をしてみたかったのです。

ASI294MC Proとの組み合わせだと、対象天体も一気に増えてきます。冬だけでも
  • オリオン大星雲
  • 馬頭星雲と燃える木
  • モンキー星雲
  • クラゲ星雲
  • バラ星雲
  • 魔女の横顔
夏のことまで考えるとやはりこの画角が一番楽しそうです。その中で今回は、最初の星像チェックで見事に失敗したバラ星雲をリベンジしたいと思います。

一方、撮影時に気付いたのですが、ASI294MC Proにしたことにより、接眼部に取り付けるアダプターの選択肢が少ないために、レデューサーからのバックフォーカス長が長くなってしまっています。長くする方向には差し込み部分を少なくて調整し星像の違いを試したのですが、短くする方向に試すことができませんでした。長くする方向では星像は改善しなかったので、アダプターをもう少し考えて短くする方向を探る必要があるかと思います。


撮影

実はバラ星雲の撮影、4日間にわたっています。
  • 1日目は2時間ぶんの画像を撮ったのですが、ガイドなしで撮影してみてやはり縞ノイズが盛大に出てボツ。
  • 2日目は30分ぶんの画像を撮影したのですが、後からみたら透明度が悪くてボツ。
  • 3日目は準備して撮影を始めたら、1枚だけ綺麗に取れて、2枚目以降雲が出て全くダメでいやになってボツ。
  • 4日目にして2時間撮影して、人工衛星(流れ星?)が盛大に写っているのを除いてやっとまともな撮影画像を得ることができました。
おかげで4日目はセッティング開始から撮影を始めるまでにわずか20分ちょい。もう全部組んであるので、外に出すだけです。19時半ころから玄関にある赤道儀と鏡筒を庭に運び、極軸をとって、バラさん導入。PHD2でガイドを始め、20時前には撮影を開始していました。今回は露光が5分と長時間撮影の範囲になります。撮影ソフトはディザーをしながらガイド撮影をしたいので、今回初めてAPT (Astro Photography Tools)を使いました。PHD2との組み合わせで、ほとんど何も考えることなくうまくディザーまでできました。これについては後日、別記事で扱います。

また、恥ずかしながら今回初めて冷却してまともな撮影をしてみました。冷却のテストはしてたのですが、撮影したことなかったんですよね。ダークノイズが減るのはもちろんいいことなのですが、ダークフレームを撮るときに温度を一意に固定できることにありがたみを感じました。これまで6Dで撮影した後は、カメラを冷蔵庫に入れたりしてダークフレームを撮っていたので、それに比べたら随分効率がいいです。

実際の撮影ですが、そもそも開始時から結構西の空の方なので光害であまりいい方向ではありません。それでも4日目は透明度が良かったせいもあり、そこそこの画像を20枚得ることができました。約2時間の撮影後は近所の屋根に隠れてしまうような状況でした。


画像処理

画像処理はいつも通りのPixInsight (PI)です。1日目の画像はディザーなしで縞ノイズでいろいろ頑張ったけど今回もやはりどうしようもなかったので、4日目に撮った画像のみ20枚を使っています。フラットは撮ったのですが、うまく合わなかったので諦めてPIのDBE (Dynamic Backgroud Extraction) で済ませました。アンプノイズのところは適当にごまかしています。ダークフレームは-15℃で28枚、バイアスフレームは同じゲインであることに気をつけ、温度に依存しないはずなので常温で最短露光時間で100枚撮っています。

BatchProcessでスタックされた画像まで出した後、DBEとストレッチまでPIで済ませてTIFFで保存。それをStarNet++で恒星と背景に分けてPhotoshop CCに渡してあぶり出します。今回はDeNoiseは(試用期間が切れてまだ購入していないこともあり)無しです。DeNoiseを使うと綺麗になりすぎるので、淡いところとかの評価をしにくくなります。でも本当の理由は今月はお小遣いがないのでただの負け惜しみです。素直に使ってもっと綺麗にしたいです(笑)。ただし、NikCollectionのDfine2は使っています。

結果です。

「バラ星雲」
light_BINNING_1_integration_DBE_DBE_DBE_STR_all_PS5a
  • 撮影日: 2020年3月26日20時2分-21時59分
  • 撮影場所: 富山県富山市下大久保
  • 鏡筒: SkyWatcher EVOSTAR 72ED
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • 撮影条件: ゲイン220、温度-15℃、露光時間300秒x20枚 = 1時間40分 
  • フィルター: サイトロン QBP(アメリカンサイズ)
  • PixInsight、StarNet++、Photoshop CCで画像処理

淡いところの諧調がまだ不十分で少し不満ですが、2枚玉アポ入門機で、自宅での撮影、しかも季節終わりの西の空でここまで出れば十分と言えるのではないでしょうか。光害を軽減し撮影時のコントラストを上げるという意味で、QBPの効果も大きいです。以前心配していたハロなども何も気になるところはありませんでした。アメリカンサイズのQBPも撮影レベルで十分な性能を発揮できていると思います。

その一方、やはりレデューサーを入れても最周辺には星像の歪みがどうしても残ってしまっています。撮って出しではほどんど目立たなかったと思っていたのですが、その撮って出し画像もよくみるとAPS-Cサイズでも僅かながら歪んでいることに気づきました。今回のCMOSカメラではバックフォーカスが長くなってしまい調整し切れていないので、接眼部を改良しバックフォーカスを短くすることで星像はまだよくなる可能性は残されているはずです。今回はその歪みがあぶり出しによっって目立ってしまっているようです。といっても、本当に一番外側だけで、少し中に入るだけで一気にマシになるので、周辺を多少トリミングするつもりで最初から画角を決めるのがいいのかもしれません。


恒星の出し方

あと、個人的には今回のポイントは恒星の処理です。StarNet++で恒星と星雲画像を分けるのですが、恒星画像の結合時にできるだけ境目が目立たないように、一部の明るい星をのぞいてサチらないように、色の特徴が残るように仕上げてみました。今年の目標課題の一つでしたが、少し時間をかけて探ることができたので記録がてら手法を書いておきます。

レイヤーは「覆い焼き(リニア)加算」にします。「比較(明)」とか他にもいろいろ試しましたが、恒星の色が失われずに残るのと、境目が変に段になったりせずに滑らかになるので、これが一番いいみたいです。多分、StarNet++で作った星雲画像から、恒星だけの画像をPhotoshopで作るときに「差の絶対値」で作るので、くっつけるときは「和」である加算の方が素直なのだと思います。

ただし、名前の通り「加算」なので星雲背景が明るいと、構成部分の明るさのためにすぐにサチってしまいます。この場合は恒星レイヤーをCamera Rawフィルターのハイライトを下げることで、サチらない範囲まで持っていきます。ただしこのフィルター、レイヤーのみを表示しながらしか調整できないので、元の画面に戻って効果を確認するなど、何度も往復して微調整をする必要があります。

あと、個々の恒星の外周と背景のつなぎ目の諧調が飛ぶ場合があるので、その場合はCamera Rawフィルターの黒レベルで調整します。ここら辺に気をつければ、あとは彩度で色を出そうが、多少何をしても破綻するようなことはないようです。


まとめ

元々、前回の記事でもう終わりにしようと思っていたのですが、せっかくの鏡筒だったのでバラ星雲を再度撮影し、画像処理まで進めてみました。アメリカンサイズのQPDの撮影での実力も見えたので良かったです。こちらはやると言っていてなかなかできていなかったので、やっと少し肩の荷がおりました。

周辺の歪み改善にまだ少し課題を残しましたが、結構綺麗に出たのではないかと思っています。これだけの画像を残せるなら十分なコストパフォーマンスであると言えるのかと思います。正直いうと、後1時間くらいかけて淡いところをもう少し出したかった気もしますが、季節ギリギリなのでまあこれくらいが限界かと思います。

少し前の記事で書いたように、タカハシの新マルチフラットナーを持っている方は、フルサイズのカメラで同程度の画角になるはずです。周辺像が気になる方はこちらで試してみてもいいでしょう。

今回の撮影を通じで、必要に迫られてですが、やっとAPTでのディザーもうまくできたので、今後CMOSカメラでの撮影にも力を入れていこうと思います。



最近、望遠鏡関連の機材が増えすぎて困っています。購入した時のままで使う分にはいいのですが、普通はそんなことはなく、部品を交換したり、結構改造したりもします。

特に鏡筒はアダプターの類いが最初からいろいろついていて、取り外したり、他の鏡筒のアダプターを持ってきたりするので、もともとどれがどの鏡筒についていたのか分からなくなってしまいます。しかも各メーカー、それぞれ好みのネジの規格があり、また同一メーカーでも何種類もの規格のネジを使っているため、どれがどこにハマるのかだんだん分からなくなってしまいます。

例えば最近困ったのが、SkyWatcherのEVOSTAR 72EDのレデューサーのアダプターのネジがM56で、タカハシのマルチフラットナー もM56なので、そのままハマるかと思ったら、ピッチが1mmと0.75mmで一見締まるのに途中で止まってしまうなどです。

こんな状況はさすがもう嫌になってきました。なので、テプラを使ってこんなふうにネジの規格を印刷して、かくアダプターに貼ることにしました。

IMG_9754

IMG_9755
TSA-120のアダプターも分からなくならないうちに。

どんなことを書いているかというと、
  • 元々どの機材についていたかの機材名
  • 矢印でどちらからアクセスできるか、ネジはどんなのか
  • 矢印無しは内部のネジ
  • 矢印の後のがネジのサイズ、Mがミリネジ、インチサイズのスリーブ、UN規格など
  • 次のMかFでオスネジかメスネジか
  • 最後の数字はネジの長さ
などです。

これ結構便利です。もう昔の付属品なんかどれがどれやら分からなかったのですが、だいぶ整理できてきました。フィルターをつける時も迷わなくなります。また、どんなネジが使われているのか把握することができてくるので、星まつりのジャンク市でどんなアダプターを手に入れておけばいいのかの指標になりそうです。
 

ところでですが、うちにはなぜかテプラがあります。しかも当時の最上位機種。実はこれ、もう10年近く前のうちの奥さんへの誕生日プレゼントです。なぜかいつもプレゼントを渡すときは「かわいくない」とか言って、結構ムッとするんですが、1年くらいするとしみじみと「あー、あのプレゼントよかったわー」と言ってくれます。テプラは今でも大活躍です。

IMG_9764

ちなみに今年の誕生日プレゼントはテプラのテープ詰め合わせ。例によってあまり喜んでいませんでした。でもまたいつかそのうち...。

久しぶりの晴れ、TSA-120の5th (フィフス) ライトです。トラペジウムE星、F星の撮影時のバローとの比較記事が元で、宮地泉さんからお借りすることができたPower MATEを試すことができました。




TSA-120の環境改善、ロスマンディー規格のアリガタ

メインのバロー比較の前に、TSA-120の改良について少しだけ。下のプレートが少し進化しました。ロスマンディー規格の304mm長のアリガタをMORE BLUEから購入しました。ヤフオクの方のみにある特価品みたいです。届いたものは多少傷がありましたが安かったので不満はありません。

実際にTSA-120に取り付けて、赤道儀に固定してみるとずいぶん安定化しました。どれくらいかというと、数値的には何も比べていないので感覚でしかないです。というより、落下の不安から解放された方が大きいかもしれません。CGEM IIのVixen規格のアリミゾは深さがあまりないので、いつも落下の不安が拭えません。

IMG_9763

鏡筒バンドをどうするか、まだ迷っています。K-ASTECと思っていたのですがMORE BLUEに傾きつつあります。安いのと軽いのと、思ったよりカッコ良さそうなことです。上のプレートとハンドルも色々考えています。


まずはシリウスで本日のシーイングチェック

さて、実際の比較に入る前にもう一つ、今日のシーイングチェックです。シリウスを導入して、この前見ることのできたシリウスBを見ることができるかチェックです。



15分くらいは粘ったでしょうか、この前はあんなに簡単に見えたシリウスBですが、全く同じ設定のPENTAXのXW3.5mmで結局見ることができませんでした。途中フッと「あ、もしかしたらこれ?」というのはありましたが、最後まで確証は持てませんでした。

焦点内像(フォーカサーが短くなる方向、でいいんですよね?)方向からジャスピン位置に迫ると、その間中ずーっと綺麗なリングが見えていて、リングがどんどん小さくなります。最後に点近くに収束して行きジャスピン位置ではディフラクションリングが見えます。この日は多分シーイングがそこまで良くはないのでディフラクションリングは多少揺れています。

ところが、そのまま焦点外像方向に進めると、内蔵で見えていた綺麗なリングとは程遠いグチャグチャな像になり、さらに外像方向に進めると再び綺麗なリングになり、そまま大きくなってます。外像から内像に進めても、外像側の一瞬グチャグチャになる様子は必ず見えるため、再現性もありです。これって正しい振る舞いなのでしょうか?ここら辺もまだまだよくわかっていないので、これから色々考えていこうと思います。

さて、この日のシーイングの確認も終わり、前回ほど良いというわけではないけれど、ディフラクションリングの揺れ具合から見て、そこまで極悪というわけでもないという状態で、トラペジウムに移行します。


トラペジウムでのバローレンズ比較

今回、TSA-120の直焦点撮影を2回とバロー系レンズ4種類の、計6回の撮影を比較しました。基本的に撮影は鏡筒がTSA-120にASI294MC Pro(常温で使用)を取り付け、赤道儀としてCGEM IIをに載せています。

撮影条件と画像処理ですが基本的に露光時間が100msでser形式の動画で撮影。そのうちの上位35%をAutoStakkert!3でスタックしてます。それをPixInsightで一旦オートストレッチして、E星、F星が一番みるように少しいじっています。なので出来上がり画像の明るさなどは多少違いがあります。

バローレンズごとに変わるパラメーターですが、一つはフレーム数。基本500フレーム撮影していますが、一部ファイルはミスで100フレームとか200フレーム程度になっています。ただ、フレーム数の違いは今回の結果にはほとんど影響していないと思いまう。もう一つのパラメーターがSharpCapでのカメラのゲイン設定です。バローを使わない直焦点撮影の時にSharpCap上のゲインを320にしました。バローの倍率によって暗くなるので、その分の補正をゲインを上げることでしています。

どの撮影も露光時間は100msのまま触っていなくて、例えば2倍ならゲインを60上げる、4倍なら120上げる、5倍なら140上げるとかです。Gainの200が20dB=10倍に相当するので、これで同等の明るさになるはずです。

ちなみに、10倍は20dB、2倍は6dB、3倍は10dBくらいまではよく知られていると思いますが、5倍が14dBはすぐに出ますでしょうか?考えればすぐにわかりますが、これきちんと考えて納得しておくと役に立つ時が多いです。答えは最後の方に書いておきます。

試したバローレンズは下の通り。

IMG_9658

  • TeleVue製PowerMATE 4倍: 宮路泉さんにお借りしたものです。言わずと知れた高級機です。
  • Scientific Explorer社製 5倍: ずっと前にKYOEIで買ったもの。あまり使ってません。
  • Celestrons製 3倍: 惑星用にC8と組み合わせてよく使ってます。
  • Vixen製 2倍: 一番最初に買ったバロー。当時のスターショップ(旧誠報社)で買った低価格のもの。
となります。


19時52分: TSA-120直焦点撮影

0.1秒を100フレームほどの撮影です。そのうち35枚をスタックしたことになります。

19_52_29_lapl2_ap1_ST

直焦点撮影のうち、トラペジウムが写っているほぼ中心部を切り出しています。画像が小さいですが、100x85ピクセルしかありません。ブログ上で大きく表示しようとすると解像度を上げる必要があり、解像度を上げるとどうしてもピクセル間が補完されてしまいなめらかになって客観的でなくなります。なので実際に見ている画面上で拡大などしてみてください。

E星ははっきりと、F星もかろうじてですが分離しています。ただし、ASI294MC Proの解像度だとピクセルサイズが4.6umと大きいこともあり、1ピクセルで約1秒角。C星とF星の中心感の距離はわずか4.5秒なので、分解能不足がたたってF星の分離がそこまでうまくいっていないようです。


20時11分: PowerMATE 4倍

次に一番試したかった、宮路泉さんにお借りした4倍のPowerMATEです。こちらの結果は面白いです。0.1秒を100フレーム撮影し、35%使ったので35フレーム分です。

20_11_11_lapl2_ap5_ST

CMOSカメラ側の分解能が足りていなかった直焦点撮影に比べて4倍に拡大しているので、カメラの分解の不足の制限からは解放され、鏡筒本来の性能に迫っています。F星の分解のが明らかに上がっていることがわかります。また、4倍のレンズを入れたことによる弊害もほぼ何も出ていないと思われます。さすがPowerMATEと言ったところでしょうか。

TSA-120の口径が120mmなので、レイリー限界はほぼ1秒角。直焦点撮影の場合のASI294MC Proの1ピクセルが約1秒に相当するので、4倍のPowerMATEで1秒を4ピクセルで表現することになります。スタックしているのと、ピクセルあたりの分解能がレイリー限界より4倍ほどいいので、画像を見る限りレイリー限界以上に分解しているようです。ここらへんの話は、以前ピクセルサイズと光学的分解能の話を検討しています。



一番明るいC星とその隣のF星の距離は約4.5秒。なので、PowerMATEによってこの距離を18ピクセルくらいで表現しているので、かなり余裕が出たということが言えます。結論としては、PowerMATEは分解能向上に明らかに貢献し、変な収差なども追加しない、評判通りの非常に高性能な拡大レンズだということがわかります。


20時23分: Scientificn Explorer 5倍

次はテレセントリック設計のScientificn Explorer 5倍バローレンズになります。こちらは倍率がさらに高いので、期待大です。500フレーム撮影して、175枚使っています。

ところが、期待していたにもかかわらず、撮影時からPowerMATEに比べて明らかに見え具合は悪かったのです。結果です。

20_23_53_lapl2_ap9_ST

E星は分離できていますが、F星の分離が厳しくなっています。星像も明らかに肥大しています。ピントズレの可能性も否定はできませんが、相当気を遣っていたのと、あと少しシンチレーションが悪くなってきている気がしました。それでも先の撮影からわずか12分後くらい、そこまで大きな変化はないと思っていて、それらマイナス要因を差っ引いても星像の悪化は無視できません。


20時31分: Celestron 3倍

前回も試したCelestronの3倍のバローレンズです。惑星で一番使っているものです。500フレーム撮影して、175枚使っています。

20_30_11_lapl2_ap5_ST

E星はOKですが、ほとんどF星が分離できていません。前回と同じような結果なので、ある程度再現性はあるのかと思います。上の5倍の時の見え具合とと同等か、少し悪いくらいでしょうか。


Vixen 2倍バロー

星を始めた最初の頃に、簡易的なバローと言われた上でお試しで買ったものです。値段的にも5-6千円だったと記憶しいて、今回の中では一番安価です。こちらも500フレーム撮影して、175枚使っています。

20_35_11_lapl2_ap1_ST

E星もボケ気味、F星分離できていないですね。

ここまでで「まあ予測された性能とまあ大体一致した結果かな」と思っていたんです。ところが、です。次の結果で色々覆されました。


20時41分: 直焦点再び

どうも、シンチレーションが悪くなってきたようなので、念のために直焦点でバローなしの場合を今一度撮影しておきました。撮影枚数は200枚です。処理後少し考え方を改めました。

20_41_09_lapl2_ap1_ST

50分前にはきちんと分離できていたF星はおろか、E星さえもほとんど分離できていません。シンチレーションが実際にどれくらい変わったかを、GIFアニメにしてみました。一コマが0.1秒露光に相当します。

まずは19時52分:
19_52_29_cut_F001-102
E星、F星も分離できていますし、そもそも星がほとんど動いていません。

次に20時41分の動画です:

20_41_09_cut_F001-225

トラペジウム全体の揺れ幅も大きくなっていますが、一つ一つの恒星のビヨビヨした歪み具合もすごいです。ピントの影響はないとは言えませんが、これだけみると明らかにピントというよりはシンチレーションが悪化したといえるでしょう。

ついでに、トラペジウム周りの星雲を少しだけ炙り出してみました。

シンチレーションの良かった19時52分:
_19_52_29_lapl2_ap1_ST_Preview01

シンチレーションが悪化した20時52分:
_20_41_09_lapl2_ap1_Preview01

前者と後者を比べると明らかに星雲部分の分解能も落ちていることが分かります。これは今後の撮影において、大きな指標となりそうです。すなわち、星雲の分解能を出そうと思ったらシンチレーションのいい日を選んだ方があきらかに有利だということです。


比較結果の考察

今回の結果は色々と示唆に富んでいます。まず、シンチレーションの影響はものすごく大きく、製品比較の結果を左右するくらいであったこと。なので、安価だからと言って撮影結果から安易に性能が悪いとは言い切れません。また、撮影枚数の影響も避けきれません。ピントの再現性がどこまであるのかも客観的には検証できていません。

ただ、それらを差っ引いても、PowerMATEの性能の素晴らしさが突出しています。TSA-120単体ではもともとある焦点距離と一般的なカメラセンサーの分解能から、その性能を引き出しきれているとは言い難いです。バローレンズは明らかにその性能の引き出しに貢献すると言えるでしょう。その際のPowerMATEの精度は少なくとも実際の撮影において十分に鏡筒の性能を劣化させずに引き出すものであるということは、今回なんとか示せたかと思います。

一方、その直後に見た5倍のバローは時間の経ちかたから言ってそこまでシンチレーションが悪くなっていたとは言えず、PowerMATEに比べて性能に差があったように思えます。

今回自信を持っていえるのはそこらへんまでかと。これ以上は環境の変化の影響が大きかったということで推測になってしまうので、結論は出さないことにします。

画像処理に関しては、撮影してスタックした画像はその時点でもう引き出せる情報はある程度決まっていて、どのようにストレッチ加減をいじっても、分離できているものはすぐに分離できるし、分離できていないものはどういじっても分離できないということが分かりました。Wavelet変換相当のことをすると(今回は適用していません)もう少しエッジを立てたりして見栄えは良くなりますが、撮影した画像の順位を変えるには至りません。例えば今回示した6つの撮影画像の背景の暗さが多少違いますが、一番分離できるところに合わせているため、肥大していると背景が暗くなっていたりします。シンチレーションは順位に関係すると思いますが、そのシンチレーションで撮影された画像は、どう明るくしても暗くしても順位はわかることはありませんでした。

あと気になることとして、どの画像にも右斜め上に青ハロ、左下に赤ハロが出ていますが、これは直焦点撮影にも僅かにですが見えているので、大気収差によるものでしょう。前回セレストロンの3倍バローに青ハロが出ていると言いましたが、もしかしたら大気収差が強調されてしまっているものだった可能性があります。ただし、直焦点撮影に比べて明らかにE星、F星が見にくくなったことは確かなので、青ハロのせいというよりは、やはり分解能を悪化させる原因が少なからずあるものと思われます。時間的に悪くなっていった可能性は否定できません。

一つ面白い小話を。TSA-120のセカンドライトで金星を見た時の話をスターベースでしていたのですが、「せっかく鏡筒を買ったのに収差が見える」と意外に苦情が来るのがTOAとかTSAの高性能鏡筒なんだそうです。性能がいいので大気収差が普通に見えてしまい、それを鏡筒の収差と間違えてしまうそうです。大気収差はいつも方向が同じなので、そこが鏡筒による収差とは違うところですね。


まとめ

多くの機材を一度に比較するのは難しいということを実感しました。同じ環境を用意するのがいかに難しいかということです。シンチレーションは時間とともに自分が思っているより大きく変わっているようです。

シンチレーションがいいか悪いかは、シリウスやトラペジウムを直接見ることである程度把握できるようになってきました。シンチレーションのいい時間帯は貴重だということでしょう。もしいい時間帯があったら無駄にせずに、分解能の必要な撮影をしていけたらと思いました。

また、たかだか口径12cmの鏡筒の性能を引き出すだけでも相当大変だということがわかってきました。機材そのものの性能もそうですし、オプションの機材にも気を使う必要がありそうです。カメラの分解能もよく考えないと、せっかく鏡筒が高性能でももったいないです。あと、シンチレーションという運が一番重要で大変だということもよく分かりました。今回の結果を、今後の撮影に活かせたらと思います。

今回も楽しかったです。単に見るだけでなく色々比較することで、推測だけではわからなかったこともだんだんと見えてきます。こんなテストを自分でできるのも、天文趣味の醍醐味なのかと思います。

宮路泉さん、PowerMATEお貸し頂き、本当にありがとうございました!試すまでに時間がかかってしまって申し訳ありません。とても有意義なテストとなりました。今回の結果で、このクラスのものを手に入れておく必要性を感じました。購入を考えたいと思います。返却に関しては、またダイレクトメッセージの方で連絡します。よろしくお願いいたします。




最後はおまけです。

倍率とゲインとdBの関係

あ、最初の方に書いた5倍が14dBというのの考え方ですが、こんなふうに考えるとすぐに出ます。

5倍は10倍の2分の1です。10倍は20dB、2分の1は-6dBなので、20-6で14dBとなります。

この考え方を身に付けておくと、0.2もすぐにわかりますね。 0.2は5分の1なので、10分の1の2倍ということになります。-20dBと6dBで-14dBですね。他にも理解しておくといいのは
  • 4倍は? 2x2なので6+6=12dB。
  • 6倍は? 2x3なので、6+10=16dB。
  • 8倍は? 2x2x2なので6+6+6=18dB。
  • 7倍は6倍と8倍の間でざっくり17dB。
  • 9倍は8倍と10倍の間なのでざっくり19dBです。 
  • ルート2倍は? 2のルートなので対数の6dBだと半分になって3dB、すなわち約1.4倍が3dBですね。
  • 5dBは10dBの半分なのでルート3、すなわち約1.7倍
これくらいでしょうか。わかりにくい残りは1dB(1.1位)、2dB(1.2位)、4dB(10dB-6dBなので、3/2=1.5位)、7dB、8dB、9dB(1.4の3乗なので2.8というのはレンズを触っている人には馴染みがあるかも)11dB、13dB、15dB(1.73の3乗=3x1.7=5.2です)くらいだと思います。

重要なのはこれらを覚えることではなく、こういった導き方もあるということを理解しておくこと。この考え方を身につけておけば、いざという時に覚えていなくても導き出すことができます。

dBに10をかけたものがZWOシリーズのカメラのゲインになりますので、これは覚えておくといざという時に楽にゲインを合わせるとかできて便利でしょう。 例えばゲイン0は0dBで1倍、ゲイン60は6dBなので2倍、ゲイン400は40dBなので、100倍とかです。
 

以前、星像切り出し用のコードをPythonで書いたのですが、




Matlab用に少し書き直したので公開します。結果はすでにここ最近の記事で使っているので、これまでに見ている方も多いかと思います。デザインはピンとくる方もいるかと思いますが、スターベース東京のブログの作例の切り出し画像のフォーマットに合わせてあります。

ファイル選択ですが、以前選んだフォルダを覚えるようにしました。以下のページを参考にしました。ありがとうございました。
前回の対応フォーマットはJPEGだけでしたが、今回はMatlabのimreadコマンドでサポートする画像ファイルに対応しています。なので、かなりのフォーマットに対応するはずです。実際に全部試したわけではないので分かりませんが、
  • BMP、JPEG、PNG、CUR、JPEG 2000、PPM、GIF、PBM、RAS、HDF4、PCX、TIFF、ICO、PGM、XWD

に対応するらしいです。天文で関連するのは主にJPG, PNG, TIFFくらいでしょうか。RAWファイルはあまり対応できないのですが、個別にFITS形式だけ対応させておきました。

カラーの8bit、16bitに対応しています。32bitには対応していません。あと、グレー画像は多分ダメです。結果はファイル名に”_cut25”というのが足されて、元のファイル形式と同じ形式(例えばjpgならjpg、tifならtif)に書き出されます。


7bc22bb9_cut


あまり綺麗でないですが、ソースコードです。 コピペして、Matlab上で走らせてみてください。上のような画像が出てくるはずです。簡単なコードなので、各自で希望に応じて適当に書き換えてみてください。3x3マスとかも簡単にできるはずです。

clear; %%% Paramters CS = 300; BW = 5; % File select if ispref('MyPreferences','LastUigetfileFolder') folder = getpref('MyPreferences','LastUigetfileFolder'); if ~ischar(folder) folder = '/Users/'; % for mac. if windows use 'C:\'. end else folder = '/Users/'; % for mac. if windows use 'C:\'. end [file,path] = uigetfile({ '*.*', 'All files(*.*)'}, 'Pick a file','MultiSelect', 'on',folder); if ~isnumeric(path) setpref('MyPreferences','LastUigetfileFolder',path) end % Reading image with size and class (full size) [filepath,name,ext] = fileparts(file); if extractBefore(ext,5) == '.fit' Img = fitsread(fullfile(path, file)); else Img(:,:,:) = imread(fullfile(path, file)); end [y, x, l] = size(Img); if isa(Img,'uint16') cv = 256; else cv = 1; end % Size of ASP-C ay = round(size(Img,1)/1.6); ax = round(size(Img,2)/1.6); % empty cut image CutImg = zeros(5*CS+6*BW, 5*CS+6*BW, 3, class(Img)); % Orange area CutImg(:,:,1) = 235 *cv; CutImg(:,:,2) = 170 *cv; CutImg(:,:,3) = 80 *cv; % Blue Area BA = CS+BW+1:4*CS+5*BW; CutImg(BA,BA,1) = 50 *cv; CutImg(BA,BA,2) = 50 *cv; CutImg(BA,BA,3) = 80 *cv; % Define areas in cut image C = zeros(CS,5); for i = 1:5 C(:,i) = (i-1)*CS+i*BW+1:i*(CS+BW); end % Area in original image IX(:,1) = 1:CS; IX(:,2) = round((x-ax)/2)+1:round((x-ax)/2)+CS; IX(:,3) = round((x-CS)/2)+1:round((x+CS)/2); IX(:,4) = round((x+ax)/2)+1:round((x+ax)/2)+CS; IX(:,5) = x-CS+1:x; IY(:,1) = 1:CS; IY(:,2) = round((y-ay)/2)+1:round((y-ay)/2)+CS; IY(:,3) = round((y-CS)/2)+1:round((y+CS)/2); IY(:,4) = round((y+ay)/2)+1:round((y+ay)/2)+CS; IY(:,5) = y-CS+1:y; % Filling cut image by original cut for i = 1:5 for j = 1:5 if ( ((j==1)||(j==5)) && ((i==2)||(i==4)) ) || ( ((j==2)||(j==4)) && ((i==1)||(i==5)) ) CutImg(C(:,i),C(:,j),:) = 256 *cv; % fill with white else CutImg(C(:,i),C(:,j),:) = Img(IY(:,j),IX(:,i),:); end end end %image(CutImg); if extractBefore(ext,5) == '.fit' fitswrite (CutImg, fullfile(path, [name,'_cut25',ext])); else imwrite (CutImg, fullfile(path, [name,'_cut25',ext])); end




途中からいろいろ簡略化しているのでわかりにくいと思います。% Define areas in cut image以降を、以下のコードに置き換えるとまだわかりやすいかと思います。

% Define areas in cut image C1 = 0*CS+1*BW+1:1*CS+1*BW; C2 = 1*CS+2*BW+1:2*CS+2*BW; C3 = 2*CS+3*BW+1:3*CS+3*BW; C4 = 3*CS+4*BW+1:4*CS+4*BW; C5 = 4*CS+5*BW+1:5*CS+5*BW; % Area in original image IX1 = 1:CS; IX2 = round((x-ax)/2)+1:round((x-ax)/2)+CS; IX3 = round((x-CS)/2)+1:round((x+CS)/2); IX4 = round((x+ax)/2)+1:round((x+ax)/2)+CS; IX5 = x-CS+1:x; IY1 = 1:CS; IY2 = round((y-ay)/2)+1:round((y-ay)/2)+CS; IY3 = round((y-CS)/2)+1:round((y+CS)/2); IY4 = round((y+ay)/2)+1:round((y+ay)/2)+CS; IY5 = y-CS+1:y; % Filling cut image by original cut CutImg(C1,C1,:) = Img(IY1,IX1,:); CutImg(C2,C1,:) = 256 *cv; CutImg(C3,C1,:) = Img(IY3,IX1,:); CutImg(C4,C1,:) = 256 *cv; CutImg(C5,C1,:) = Img(IY5,IX1,:); CutImg(C1,C2,:) = 256 *cv; CutImg(C2,C2,:) = Img(IY2,IX2,:); CutImg(C3,C2,:) = Img(IY3,IX2,:); CutImg(C4,C2,:) = Img(IY4,IX2,:); CutImg(C5,C2,:) = 256 *cv; CutImg(C1,C3,:) = Img(IY1,IX3,:); CutImg(C2,C3,:) = Img(IY2,IX3,:); CutImg(C3,C3,:) = Img(IY3,IX3,:); CutImg(C4,C3,:) = Img(IY4,IX3,:); CutImg(C5,C3,:) = Img(IY5,IX3,:); CutImg(C1,C4,:) = 256 *cv; CutImg(C2,C4,:) = Img(IY2,IX4,:); CutImg(C3,C4,:) = Img(IY3,IX4,:); CutImg(C4,C4,:) = Img(IY4,IX4,:); CutImg(C5,C4,:) = 256 *cv; CutImg(C1,C5,:) = Img(IY1,IX5,:); CutImg(C2,C5,:) = 256 *cv; CutImg(C3,C5,:) = Img(IY3,IX5,:); CutImg(C4,C5,:) = 256 *cv; CutImg(C5,C5,:) = Img(IY5,IX5,:);







このページのトップヘ