ほしぞloveログ

天体観測始めました。

2018年01月

志摩でご一緒したAさんが自宅に遊びに来ました。これまで観望会で星が好きな子供がくることはよくあったのですが、よく考えたら星で知り合った仲間が自宅に遊びにくるのは初めてかもしれません。

写真も好きだという長野のAさんは、撮影旅行で今福井なのですがという連絡が金曜にありました。福井、能登半島と回って、富山に寄ってくれたみたいです。大雪の中心配だったのですが、土曜日夕方に無事に富山に到着しました。 

自宅では機材を見たり、お決まりの星談義で盛り上がって、時間はあっという間に過ぎます。外はまだ雪で道路も厳しそうなので、外食は諦めて夕食は家でキムチ鍋。もともとうちではキムチを食べる習慣はあまりなかったのですが、志摩でAさんにチゲ鍋を作ってもらってからキムチの美味しさに目覚めて、ちょくちょくキムチ鍋を食べるようになりました。特に娘のNatsuはキムチ大好きっ子なのですが、下のSukeは辛くて食べれないため、今回はキムチはお好みで後入れです。でも後半からSukeもちょっと食べれるようになり、キムチを鍋に入れて煮込んで食べることができましたが、意外や意外、後入れの方がキムチが冷たくてシャリシャリして美味しかったりしました。

外は雪は止んでいたのですが、一面曇り空で撮影とかは流石に無理です。なので夜は画像処理で星マスクの練習でもやろうとか喋っていたのですが、Aさんが子供に付き合ってくれてトランプやらオセロやらで、あっという間に時間が過ぎてしまいました。もともと五箇山か白川郷に夜からライトアップが終わった合掌造りの撮影に行こうと考えていたみたいなのですが、結局夜遅くなってしまい泊まって行くことに。ただ、冬場で自宅に布団が余っていないので、結局持参した寝袋で寝てもらってしうことになってしまい申し訳なかったです。 

IMG_3512
かまくら作りに精を出すAさんと子供二人。私はサボってブログ書きに。

昨日の晩のゲームに続き、朝起きても子供二人のかまくら作りに付き合ってもらい、逆にすっかりお世話になってしまいました。今朝は富山にしては珍しく気温がかなり低くて、雪が固まらないのでバケツで水をかけていました。出来上がったかまくらは5人は入れる大きなもの。Aさんお疲れ様でした。

目的の画像処理もできなかったのですが、来月に八ヶ岳でまたお会いする予定なのでまあいいかと。初めての星仲間のお泊まりでしたが、改めて考えると星を始めてから1年半くらいで新しい知り合いが物凄く増えました。この歳になると仕事を変わるでもしない限りなかなか知り合いは増えないのですが、同じ趣味だと盛り上がってすぐに友人になれるので、新しい趣味というのもいいものだと実感しています。


 

長時間露光で問題になる縞ノイズの考察です。

  • ガイドのズレと同じ方向に縞が出る。
  • RGBと黒の4色。
  • 太さは一枚のコンポジットされた画像の中ではだいたい一定。でも画像によって細かったり太かったりします。太さは、ずれの長手方向に垂直な方向のずれの大きさに一致している?
  • クールピクセル説が強い。でも本当にこんなに前面にクールピクセルが広がっているのか?
  • カラーセンサーでクールピクセルが一つあると、上下左右のみでなく、斜め方向にも影響が出るので、ある程度の太さになる。
  • 不思議なのは、ガイドでずれたのを比較明合成した星像のずれの長さよりも、縞一本の長さの方が全然長く見えるのです。ずれの長さの3倍くらいは長く見えます。でもRGBと黒の4色しかないので、たまたま同じ色の線が繋がっているのが目立っているだけに見えなくもないです。ある色があった時2色繋がるのが4分の1で、3色繋がるのが16分の1。長いのは目立つのと、短いものも存在するので、長く見えるというのは説明できそうです。
  • 10分単位くらいに分けてコンポジットし、それをさらにコンポジットしてもダメだという報告あり(自分では未確認)。
と、ここら辺まで書いてあぷらなーとさんのコメントとブログを見て、やっとクールピクセルが原因というので納得してほぼ解決したのですが、せっかく自分でも途中まで考えてはいたので、そこまでだけでも書いておきます。


まず試したのは、簡単にするためにクール補正も、フラット補正もダーク補正もせず、三つ子銀河のIntegrationをすることでした。ImageCalibrationがなぜかうまくいかなかったのでStarAlignmentで代用。その結果がこれです。

nocosmetic


赤とか青とか緑とかのかすれた線が無数にあります。全部クールノイズだと思われます。前面に散らばっています。もっとわかりやすくするために、位置合わせをしないただの比較明合成をします。

nocosmetic_nocalibration_integration_a


クールノイズが点になって無数の輝点になって見えます。この時点で、やっとクールノイズの可能性が高そうだと思い始めました。

今度はクール補正をかけたものの比較明合成です。

cosmetic_nocalibration_integration_a


クールピクセルがなくなってかなりましに見えます。これなら変なノイズとかでなさそうなので、これで位置合わせを行います。

cosmetic_calibration_integration_a


でも結果はなぜか縞ノイズが出てしまいます。この理由が最初全くわかりませんでした。ところがIntegrartionの時にAverageを使わずにMaximumを使うと理由がかなりはっきりしました。

cosmetic_calibration_integration_Maximum_a


Maximumなので一番明るいものが残っています。形をよく見ると縞ノイズとかなり一致しているように見えます。Maxmumで見えるということは、このような明るい輝点はまだ存在していて、飛び抜けたもの含んで無理やりIntegrationの時にAverageで平均化したりすれば、さすがにそこにムラができるのは不思議ではありません。ImageIntegrationの時にPixel rejection(1)で「Rejection Algorithm」を「min/max」にすると多少は改善できることもわかりましたが、それでも縞は残ります。

あと、Maximumは星像が歪むという弊害があることもこの時気づきました。昨晩はここで終わって寝てしまいました。


その後、あぷらなーとさんからのコメントに答える形で前々回のページに書いたのですが、今日になってあぷらなーとさんのブログの過去記事を見るとここら辺のようなことがすでに見事に検証されていて、さらに輝点を加算するという解決法まで示してくれています!しかもぴんたんさんがすでにFlat Aide Proにその手法を実装してしまったとは!

カラー画像でもうまく輝点が出ないようにコンポジット前の画面を補正してしまえばいいと思いますが、あぷらなーとさんがやったようなモノクロならまだしも、やはりカラーだとちょっと難しそうです。


HUQさん、あぷらなーとさん、Scopioさんクールノイズにいつまででも納得できなくて色々説明してもらって申し訳ありませんでした。そして、こんな私に付き合っていただいてきちんと説明してくれて本当にありがとうございます。

自分で納得でないないと気が済まないのですが、今回の話は最初からアプラナートさんの2017年の9月くらいの記事を読んでおけば済む話でした。でも自分で試すという方向性はやめたくないので、また変なことを言うかもしれませんが、初心者のたわごとと思って温かい目で見ていただけるとありがたいです。


 


 

PixInsight(以下PI)の続きです。今日はLinear Stageについて書いておきます。

さて今日の材料は、しし座の三つ子銀河、通称トリプレットを3分露光で60枚、計3時間ぶん撮ったものです。FS-60QにASI294MCのセット、Advanced VXにPHD2でガイドなどは前回M33のときと同じです。これらをPIのバッチ処理でインテグレート(コンポジット)までしました。M33と同じく斜めの縞ノイズも、多少はマシですが見えてしまっています。比較合成したものを見ると、やはりガイドがずれていってしまっています。

light-BINNING_1_max

ズレは前回より小さくて、3時間で30秒程度でしょうか。縞ノイズは嫌なので、前回のように「Maximum」、「No normalization」でIntegrateしたものを使用します。

一応縞ノイズを比べます。デフォルトの「Average」、「Aditive with scaling」でIntegrationしたものと
light-BINNING_1_DBE_STF


「Maximum」、「No normalization」でIntegrateしたもの
light_BINNING_1_Maximum_No_normalization_DBE_STF3


です。やはり今回も縞ノイズに関してはあからさまに違いが見えていて、後者の方が圧倒的にいいです。それに加えて前者ではアンプノイズがまだ結構目立つくらいに残っています。このアンプノイズはASI294MC共通の欠点らしくて、どの個体もこの位置にアンプノイズが存在するようです。でもこの前者の画像を見ていると、ダーク補正が本当にうまくできているか疑問に思えてきました。違いはIntegrationのところだけのはずなので、ダークフレームによる補正の違いはないはずなのですが...。いずれにせよ、かなり差があるのでこれ以降は後者の方を使います。


Linear Stageでやるべき主なことは3つ、
  1. バックグラウンドを平らにする、カブリ補正のようなもの。
  2. ホワイトバランスを揃える。
  3. 色のキャリブレーションをする。
です。それぞれについてやりかたは何通りかあるみたいで、
  • 1と2は「Process」->「BackgraoundModelization」->「AutomaticBackgroundExtraction」もしくは「Process」->「BackgraoundModelization」->「DynamicBackgroundExtraction」
  • でまとめてできます。
  • 2として「Process」->「ColorCalibration」->「BackgraoundNeutralization」をする方法もあるみたいなのですが、うまくいく場合とうまくいかない場合があるので、今では使っていません。
  • 3は「Process」->「ColorCalibration」->「ColorCalibration」や「Process」->「ColorCalibration」->「PhotometricColorCalibration」などです。

DynamicBackgroundExtraction(DBE)が結構簡単で優秀みたいなので、今回はこれを使ってホワイトバランスまでを処理します。
  1. まずIntegrationした画像を開きます。次にメニューから「Process」->「BackgraoundModelization」->「DynamicBackgroundExtraction」と選んで、設定画面を出します。
  2. その状態で画像の星や星雲などがない暗い点を10から20個くらい選びます。設定画面の上の左右の矢印で選んだところのプレビューが出るので、あまりにおかしいところは赤いxじるしで選択から外します。
  3. DBEの設定画面の中の「Target Image Correction」で「Subtraction」を選びます。これを選ばないと出来上がった画面が出て来ません。
  4. DBEインスタンスを画像に放り込むか、下のチェックマークをクリックして実行します。
その時の画面が下になります。左がIntegration後すぐの画像、右の上の画面が適用後。右の下が補正分です。もともと青にかなり酔っていたので、青の補正がされているのがわかります。フラット補正はしてあったので被りや周辺減光に相当するのはほとんど目立っていません。出来上がった右上画面のバックグランドがホワイト化されているのもわかります。

IMG_3470


出来上がった画面をHistgramTransformation (HT)で見てやるとホワイトが揃っているのを確かめることができます。必要ならばこの後にBackgraoundNeutralizationをするのもいいみたいなのですが、今回は省きます。


上のDBEをするのに必要だと思われるPixInsightの特殊な操作方法について書いておきます。
  • 処理を実行するのに、下の丸ボタンを押してもいいのですが、Instanceを作る左下の三角じるしをドラッグして適用したい画像に放り込むと、その効果が適用されます。でもうまくいくときとうまくいかない時があります。xが出たり、何も出ないとうまくいかなくて、チェックマークが出るとうまくいきます。どうやったらうまくチェックマークになるのか未だによくわかりません。パッと入れるとうまくいくことが多いのはなぜでしょうか?
  • ScreenTransferFunction(STF)で簡易的にトーンカーブをいじって見やすくしてまずは把握する。この見やすくするというのは、SharpCapのヒストグラムの稲妻ボタンでトーンカーブをいじって電視観望で見やすくするのと同じ概念です。というより多分PixInsightからヒントを得てSharpCapに移植したみたいに思えます。試しに、HistgramTransformation (HT)画面とSTFバー画面を出しておいて、STF画面の放射能マークみたいな「Auto Stretch」ボタンを押してから、左下の三角じるしをドラッグして、インスタンスをHT画面の一番下の三角と四角と丸があるラインらへんにドロップすると(ものすごくわかりにくい操作方法です!)、トーンカーブの形がSharpCapのオートボタンを押してできるトンカーブとほとんど同じ形になることが確認できます。
  • STFは見かけ上の画像処理なので、Auto Stretchをした画像を保存しても、元の画像のままです。
  • ちなみにSTFの効果を効かせた状態で画像を保存するためには、上に書いたようにHistgramTransformation (HT)画面を出して、STFのインスタンスをHT画面の一番下の三角と四角と丸があるラインらへんにドロップして、さらにHTのインスタンスを画像にドロップして初めて実際の処理がなされます。それを保存すればやっとSTFを適用した画像を保存するということができます。
  • 各処理画面の下のところに白丸がある場合、Real-TIme Previewを見ることができます。プレビューで効果を確認して、パラメーターが決まったらプレビューを閉じて、オリジナルの画面にインスタンスを放り込むというやり方が主流のようです。

次が色のキャリブレーションです。今回はPIの最近のバージョンでの目玉機能と言われているPhotometricColorCalibration(PCC)を試してみます。これは複数の恒星をPlate Solvingでマッピングして、登録されている恒星の色情報から正しいと思われる色に合わせてくれるという、とても客観的な色合わせ機能です。早速試して見ましょう。

  1. 「Process」->「ColorCalibration」->「PhotometricColorCalibration」で操作画面を出してから、「Image Parameters」の「Search Coordinates」で写っている天体を探します。ここでは「M65」とかです。
  2. うまく座標が入ったら、「Observation date」に撮影した日にちくらいまで入れます。時間は適当でいいみたいです。あとは「Forcal length」に撮影時の焦点距離を、「Pixel size」に使っているカメラの素子のサイズをマイクロメーター単位で書き込みます。ここもかなり適当でいいみたいですが、5割違うとダメだと書いてありました。
  3. 「Background Neutralizatio」を選択します。「Regeon of interest」にチェックをつけて、Previewエリア(下に説明あり)を選んで、そのPreviewを「From Preview」から選択します。Upper limitはPreviewタブを押してPreview画面を開いてから暗い部分の値を、Readout modeで読んでやり、その付近の値を入れますが、デフォルトのままでも結構うまくいくみたいです。
  4. 三角じるしのインスタンスをDBE処理した画像に放り込むと処理が始まります。
  5. 結構進んだ最後の方で、実行した時に星が見つからないとか言われてうまくいかない時は、「Photometry Parameters」の「Limit magnitude」の「Automatic limit magnitude」のチェックを外し、「Limit magnitude」をデフォルトの12から15くらいまで暗くするとうまくいくことがあります。
IMG_3496


うまくいくと上の画像のように、グラフの表示とともに画像に今回の結果が適用されます。グラフはまだ何を言っているのかよくわかりませんが、検出された星をカタログ値の色にフィットしているのでしょうか?ここでCtrl+zやCommand+zでUndoすると、以前の画像と比較することができます。今回は少し赤みがかっていたのが補正されてよりホワイトになったことがわかりました。

PixInsightのとても特徴ある操作の説明です...。なんでこんな操作になるのか...、この記事が誰かの役に立ってくれると信じて書きます。
  • Previewという概念が特殊です。画像を開いている時に、上のアイコンの中の左から12番目くらいのフォルダのような形の「New Prview Mode」を選ぶと、画面の中の一部を選ぶことができます。プレビューもどの状態で画像の一部を選択すると、「Previwe01」とかいう領域が選ばれるとともに、左横のタグに同じ名前のものができます。この状態になって、初めて画像処理の画像の一部の選択、例えばバックグラウンドの領域選択などでこのプレビューを選ぶことができるようになります。
  • Readout modeは上のアイコン群の左から7番目にあり、デフォルトのモードになります。結構便利で、このReadout modeの時に画像の上で左クリックすると、拡大して画像を表示してくれて、マウスポインタが指している場所の色などを数値で出してくれます。Preview画面でもこのReadout modeは使えるので、Previewで暗い部分を選んで、さらに拡大して暗い部分の値を読み取ることができるわけです。
今回のところまでで、やっとPixInsightの全機能の1割くらいでしょうか。摩訶不思議な操作方法は、いろんな意味でもう「僕は嫌だ」状態です。とりあえずここまでで疲れ果てたので、Photoshopに持っていって簡単に仕上げてみました。

light_BINNING_1_Maximum_No_normalization_DBE_PCC
富山県富山市, 2018年1月20日0時19分
FS-60Q + ASI294MC+ Advanced VX赤道儀
f50mm + ASI178MC +PHD2による自動ガイド, 露出3分x60枚 総露出3時間0分
Pixinsight, Photoshop CCで画像処理


少し飛んでいるところもあったりしてまだ色々PIを使いこなすに至っていません。3秒露光の画像も撮ってあるので、HDR合成とか星マスクとかやって、もう少し時間をかけて仕上げてみたいですが、気合が続くかどうか。

次はNon-Linear Stageに挑戦ですが迷っています。Linear ProcessingまではあからさまにPixInsightは面白い機能が目白押しのはわかりました。Non-Linear Processingを含めて最終仕上げまで全てをPIでやることも可能みたいですが、Non-Linear ProcessingになったらPhotoshopなどに任せてしまってもいい気がします。PIの有利な点はマスクを簡単に作れるところでしょうか。これは結構魅力で、ここで作ったマスクをPhotoshopに持っていくのとかでもいいのかもしれません。

あ、あとPixInsightのライセンスを購入しました。まだ試用期間も残っていて、230ユーロと結構な値段ですが、その価値はありと判断してです。
 

さて今回M33を撮影したので、Pixinsightのバッチ処理に挑戦しました。ちょっとややこしいですが、多少癖がわかったのか、前回ほど戸惑うことはないです。

バッチ処理は「Script」メニューの「Batch Processing」->「BatchPreprocessing」を選ぶことから始まります。下のAddボタンを押してLightフレーム、Darkフレーム、Flatフレームなどを登録していきます。ここら辺まではいいのですが、最初はやはりなかなかうまくいきません。迷ったところをこれまた全部書いておきます。
  • Debeyerできない -> 右側のCFAimagesにチェックを入れるとできるようになる。
  • Cosmetic CorrectionのTemplate iconが選べない。-> これは特に分かりづらかったです。BatchPreprocessingに入る前に、あらかじめ「Preprocessing」の中から「CosmeticCorrection」を選び作っておく必要があります。前回の記事で説明したように、ファイルを選んで実行までしてから、(2018/3/22変更)CosmeticCorrectionでホットピクセル除去やクールピクセル除去のやり方を指定するだけでよく、ファイルまで選ぶ必要はありません。その後、CosmeticCorrection画面の左下の三角をクリック枠の外に出すと「Instance」が作成されます。これをBatchPreprocessingで指定するみたいです。「CosmeticCorrection」できたファイルを消したりしてしまうと、たとえインスタンスだけ残っていてそれを指定しても、エラーが出ます。
  • 「CosmeticCorrection」で一部の枚数だけ使って処理したインスタンスを使って、多数枚のLightフレームは処理できるのか? -> 問題なくできるみたい。でも、これで本当に全部のファイルのhot/coolピクセルが処理されているかは未検証です。念のため全Lightフレームを使って処理するようにしました。(2018/3/22変更)そもそもCosmeticCorrectionでホットピクセル除去やクールピクセル除去のやり方を指定するだけでよく、ファイルまで選ぶ必要はありません。
  • 一旦バッチファイルの画面を閉じてしまうと、選択したファイルも全てリセットされる。インスタンスを残しておいても、スクリプトファイルのソースみたいなのが出てくるだけで、元の画面が出てこない。 -> 仕様みたいです。何か回避策はあるのでしょうか?(2018/3/22追加)-> 左下の三角を枠外にドラッグ&ドロップしてインスタンスを作って置けば後から再度開くことができることがわかりました。ただ、開く時にインスタンスを右クリックして「Execute in the global context」を選ぶと物と画面に戻ることができて編集を再開できます。
  • ImageRegistrationのDrizzleの意味がわからない。 -> とにかくチェックしないとファイルが出力されない。最終画像も出ない。 (2018/3/22追加)->普通のDrizzleの意味で、解像度を上げるのですが、そのためのデータを出力するだけで、実際に出力ファイルの解像度が上がるわけではないみたいです。なので、チェックは外してもいいとのことですが、チェックしないとファイルが出力されないこともあったので、とりあえずチェックしてあります。
  • 星像が流れていないかなど、撮影後のfitsファイルの確認がしにくい。-> Canonカメラでの撮影の場合JPEGも残しているのと、RAWファイルのCR2形式はWindowsでもMacでも簡単にプレビューできるので便利。その一方、fits形式のプレビュー的なアプリはなかなかなく、今の所Pixinsightで全て開くしかない。 (2018/3/22追加) -> メニューの「Batch Processing」「SubframeSelector」というバッチ処理で星像の肥大度と偏心度などをみて自動判別するとても便利な機能があります。そのうちに解説します。
  • Lightフレームだけではダメみたいで、少なくともDarkかFlatかBiasが一枚はないとダメみたいです。
  • 右側の「Registration Reference Image」は必ず一枚Lightフレームを選ばなくてはならない。
  • Output Directoryも選ばないと怒られる。
  • Biasフレームは必要? ->  (2018/3/22変更) 冷却CCDとかでは必要みたいです。常温のCMOSカメラは?PixinsightではBiasは必ず取った方がいいみたいです。明らかに処理に差が出るようです。今回はとりあえず、よくわからないので撮ってません。調べてみるとBiasフレームとは、レンズにキャップをした状態にし、ライトフレームと同じISO感度かつ「最短シャッタースピード」で撮ったもののようです。簡単そうなので、次回撮影では撮ってみます。
  • Flatフレームもダークで補正されたほうがいいはずなのですが、実際に補正はされるのでしょうか?できたファイルからだけではよくわかりません。→ biasはFlatにもダークにも適用されます。FlatdarkはPixInsightでは必要ないそうです。
  • 実行前に「Diagnostics」ボタンを押すと、問題があるかどうかわかる。準備ができたら「Run」ボタン。
これで待っているとコンポジットされた画像が無事にできます。これ以降のバックグラウンドの処理などのLinear Stageの解説は次回に続きます。

今回も疲れてしまったので、ここからはいつも通りSteller Image8やPhotoShopなどで処理しています。

さて今回の処理はM33ですが、機材はFS-60QにASI294MCをつけて、Advanced VXをASI178MCと50mmのCマウントレンズを使い、PHD2でガイドしたものです。撮影はSharpCapで行いました。ASI294MCのゲイン270、各露光時間は5分間で合計25枚、計2時間5分になります。

そこそこの長時間露光になっているのですが、これを処理すると「縞ノイズ」が盛大に出てしまうことがわかりました。

light-BINNING_1


上の画像は、Pixinsightでバッチ処理でコンポジットした画像をSteller Image8に送り、「オートストレッチ」でホワイトバランスを整えてから、「チャンネルパレット」の「σ(1,3)」を押しただけの画像です。画像をクリックすると縦方向に少し斜めの線がたくさん見えると思います。実はこれまでも長時間撮影で何度か遭遇してボツにしてきた経緯があるのですが、そろそろ向き合わなければならない時期にきたみたいです。

この縞ノイズというのは、長時間露光の際に一般的に出てくる問題で、ガイドをしていても機材のたわみなどで少しづつ星像がずれていってしまうために起こるものです。実際、比較明合成で見てみると、縞ノイズの方向とずれの方向が一致しているのがわかると思います。

integration_maxtraced


ちなみに、Pixinsightで比較明合成をするには、原理的にはバッチ処理の中の「Image Registration」の過程を抜いてIntegrationすれはいいので、今回はバッチ処理でできたoutputファイルがあるディレクトリの中のcalibrated/light/debayeredの中のファイルを全て「Process」メニューの「Preprocessing」の「Image Integrartion」でコンポジットします。そうすると、上に示したような比較明合成画像が出来上がります。

さて、この縞ノイズをなくすには機材のたわみなどを極限までなくし、ガイドの精度を上げることなのですが、今回のズレも画像から計算すると2時間でわずか約40秒と決して悪いわけではありません。精度を上げる方向で攻めるのは普通は難しいので、ディザリングなどで撮影時にわざと規則的に画角を繰り返しずらしていくことで、縞ノイズの影響を少なくするような方法をとることができるようです。ここで一つ問題が出ます。今回の撮影でも使ったSharpCapだとディザリングは難しいみたいなのです。撮影の合間にずらして揺れが落ち着くまで少し待つということを繰り返すのですが、SharpCapの撮影は基本的に連続で、ずらしている間に露光を止めることができないようなのです。手持ちのEOSを使う場合はBackYard EOSとPHD2の組み合わせでディザリングももんだいなくできるようですが、CMOSカメラだとAPT(Astro Photography Tool ) などを使う必要があるみたいで、お気に入りのSharpCapが使えません。

ディザリングはおいおい考えるとして、Pixinsightで比較明合成の仕方を探る時に色々試していて面白いことに気づきました。Image Integrationのオプションの違いで明らかに縞ノイズの出方が違うのです。関係するオプションは2つで、「Combinarion」と「Normalization」です。全部のオプションを試したわけではないですが、Combinationでは「Average」と「Maximum」で明らかな違いがありました。またNormalizationではデフォルトの「Aditive with scaling」と「No normalization」でもCombinationと合わせると明らかな違いがありました。結果を画像で示しておきます。

まず、2つ上の画像と同じものですが、デフォルト設定でCombinationは「Average」、Normalizationは「Additive with scaling」となります。

light-BINNING_1
「Average」、「Additive with scaling」

次に、Combinationを「Maximum」に変えます。画像処理は上と同じでSteller Image8のオートストレッチとチャンネルパレットのσ(1,3)のみです。

integration_Maximum_Additive_with_scaling
Maximum」、「Additive with scaling」

明らかに縞ノイズが減っているのですが、少しわかりにくいかもしれません。

次にデフォルトの設定からNormalizationを「No normalization」にします。Combinationは「Average」のままです。に変えます。

integration_Average_No_normalization
「Average」、「No normalization

これは一見ほとんど同じに見えるかもしれません。

最後に両方ともデフォルトから変えて、Combinationを「Maximum」に、Normalizationを「No normalization」にします。

integration_Maximum_No_normalization
「Maximum」、「No normalization」

それでも縦縞はまだ残っていますが、こちらはパッと見ただけでわかるくらい縦縞が減っています。

比較した画面です。

comp

こうやってみると、元の画像に細かいノイズがのっかただけのように見えないこともないです。それでもその後の処理では大きく違うこともわかりました。実際に「Average」、「Additive with scaling」とMaximum」、「No normalization」を比較する意味で、真面目に画像処理してみました。画像をクリックして拡大してみると結果は一目瞭然です。(追記: 次の日見たら後者の方がぼかしてあり比較するのにあまり適していなかったので、処理を同じようなものに合わせました。)

light-BINNING_1_SI3
「Average」、「Aditive with scaling」


integration_Maximum_No_normalization3c

「Maximum」、「No normalization」

処理をしていても、デフォルト設定の「Average」、「Additive with scaling」方は縞を消さなくてはいけないと思い、かなり不自然な処理になってしまっています。それでもまだ全然消しきれていません。一方、Maximum」、「No normalization」の方は処理中も縞をほとんど気にすることなく、画像処理に集中できます。もちろん完全に縞ノイズが消えているわけではないです。また、他のパラメーターでさらに改善する可能性もあるかもしれません。


Pixinsightはまだ使い始めたばかりで右も左も分からないので、今回の試みがごくごく一般的なテクニックなのか、それともあまり知られていないものなのかもよくわかりません。洋書の「Inside PixInsight」は買ってあるので、該当する箇所を読んでみたのですが、大したことは何も書いていなくて、Combinationに関しては「Averageを使え」だけです。Nomalizatioinに関しては、ある章では「バイアスを履かすのを保つためにNo normalizatoinを選べ」とかいてあって、別の章では「Additiveは少なくとも使え、Scalingは露光時間が違う場合は使ったほうがいい」とあるくらいで、ほとんど中身の説明はありません。ヘルプのドキュメントをよく読めとも書いてあったので読んでみました。ヘルプの方が確かに少しマシですがそれでも「Averageは一番いいS/Nになる」くらいと、「NormarizationはバックグランドをScalingはばらつき具合を合わせる」というくらいのことしか書いてありません。「ScalingはS/Nを良くする」とも書いてあるので、もしかしたらS/Nを良くするというところの処理が悪さをして、縞ノイズが出る出ないに関わっているのかもしれません。何れにせよアルゴリズムは不明なので、どのような処理をやっているかがわかるようなレベルではないです。

それにしてもPixInsight奥が深すぎます。かなりブラックボックスです。まだしし座のトリプレットの未処理画像が残っているので、引き続きもう少し触ってみます。








ASI294MCでのバーナードループの固定撮影の続きです。

さて、5秒、100枚のスタックですが、三脚にASI294MCを取り付けるだけのお手軽固定撮影のために、時間とともに画面の中で星が動いていきます。歪みが全くないレンズならば問題ないのでしょうが、そんなレンズは存在しません。なのでそのままスタックすると中心と端の方で、どうしても位置にズレが出てきてしまいます。Steller Imageは基本的に並進と回転のみで位置合わせをしているので、このような画面にひずみのようなズレがある画像をうまくスタックすることは苦手なようです。PixInsightはこんなひずみもうまくコンポジットしてくれるとのことなので、今回初めてPixinsightを使ってみました。とりあえずは無料の45日制限のお試し版です。無料といってもフル機能使えるので、試して気に入ったら購入するつもりです。

処理するものはSharpCapでASI294MCを使って5秒露光での撮影で得られた100枚のファイルです。撮影中にダーク補正もフラット補正もしてしまっています。RAW16モードでfits形式で保存したものです。


まず思ったことは、PixInsigtはものすごくとっつきにくいです。ある程度噂では聞いていましたが、これほどとは。とにかくメニューが多すぎて何がどこにあるかわからない。どれがどの機能を指しているのかよくわからないといった状況です。とりあえず迷ったところ全部書いておきます。この方法が正しいかどうかもまだよくわかっていません。かろうじてコンポジットまでできた経緯です。同じように迷えるどなたかの役に立てばという思いです。

  1. まず、ファイルをどうやって開けばいいのかわかりません。「File」メニューから「Open」は意味がありません。「Process」メニューの「Preprocessing」の中のメニューを選択して開くことが大事です。ここまでわかるのに一苦労でした。Preprocessingという言葉はSteller Imageで言うコンポジットまでの一連の処理のことを指すみたいです。
  2. その「Preprocessing」の中からまずは「CosmeticCorrection」を選びます。ホット、クールピクセルの除去などができるようです。「Add Files」ボタンを押して、今回撮影した複数の「.fits」を全て選択して開きます。次に「Output」から保存したいフォルダを指定します。フォルダを指定しないと同じフォルダにファイルが追加されていきます。「Use Auto Detect」にチェックして、「Hot Sigma」も「Cool Sigma」もチェックします。下の左の黒丸を押して実行します。問題があればここでエラーダイアログが出ますが、特に問題がなかければテキストベースのコンソール画面のようなものが出てきて、処理が進んでいくのが見えます。
  3. これまたわかりにくいのですが、それぞれの処理画面の左下の三角をクリックして、クリックしたまま枠の外に出すと「Instance」というものが作成されて、アイコンができます。このアイコンは作業のリンク(ショートカット)のようなものと理解しています。画面を消してしまっても、このアイコンをダブルクリックするとまた同じ画面が出てきます。
  4. 次に再び「Process」メニューの「Preprocessing」にいき、今度は「Debayer」を選びます。白黒の画像をカラー化します。先ほど処理してできた「_cc.xisf」という拡張子がついたファイルを「Add Files」ボタンを押して全て開きます。ここで左下の黒丸ボタンを押してエラーが出て悩みました。この解決方法は一番上の「Bayer/mosaic pattern」を「Auto」から「RGGB」に変更します。どのパターンにするかは事前に調べておいたほうがいいです。SharpCapの方でDebayer方式をかえて、変な色にならないものを見つけました。これで黒丸が押せるようになり実行できます。まだ、黒丸と黒四角の違いはよくわかりません。もし確認したければ、ここでできた「_cc_d.xisf」ファイルを「File」のメニューの「Open」から選んでみると見事カラーになっているのがわかります。ここでも左下の三角を押してInstaceを作っておくといいでしょう。
  5. 再び「Process」メニューの「Preprocessing」にいき、「StarAlignment」を選びます。位置を揃えてコンポジットするための事前計算です。この事前計算は「ImageCalibration」でもできるみたいですが、それぞれの画像で歪んでいるような場合はこちらの「StarAlignment」がいいみたいです。(2018/3/22追記: ImageCalibrationはダーク補正やフラット補正をするプロセスです。本来Debayerの前にする処理です。今回は撮影時にダーク補正もフラット補正もしているので、簡単のため割愛します。)ここも普通に「Add Files」からすぐ上で作ったカラー画像「_cc_d.xisf」ファイルを全て選びます。一つだけ違うのは、さらに基準となるファイルを一番上の「Reference Image」で選ばなければならないことです。「Add Files」で選んだうちの一枚を選びます。すぐ横の「VIew」を押して、「File」を選んで、さらに右の三角を押せば選択できます。色々オプションが選べるみたいですが、よくわからないのでまずはそのままの設定でやってみました。あとは左下の黒丸を押して実行します。
  6. 最後は「Process」メニューの「Preprocessing」の「ImageIntegrartion」でコンポジットです。同じく「Add Files」で最後にできた「_cc_d_r.xisf」ファイルを開きます。ここも色々オプションがありますが、全てデフォルトです。まだ細かいことはよくわかりません。黒丸を押して待つとやっとコンポジットされた画像が出来上がります。画像が2枚出てきて、一枚はコンポジットしたもの、もう一枚は暗い除かれたものみたいです。コンポジットされたものを「File」メニューの「Save As」で適当なファイル形式を選び保存します。同じfits形式でも色々互換性とかの問題があるみたいなので、とりあえずPixinsight標準のxisf形式で保存して、あとは色々な形式で試して目的のソフトで開くことができるか確認するといいかもしれません。Steller Imageでも開くことができるものは限られていました。
  7. ここからPixinsight語で言う「Linear Process」(Steller Imageで言うカブリ補正やレベル補正) に入っていきます。この際Screen Transfer Function (STF)というのを使ってレベル補正に相当することをしていくようなのですが、最初レベルを変えるSTFバーの出る画面がどうしても見つかりませんでした。中途半端に「Image」メニューの「Screen Transfer Function」に色々あるのがわかりにく原因で、バーを出したい場合には「Process」メニューの「IntensityTransformations」のところにある「Screen Transfer Function」を選ばなければいけません。メニューとオプション多すぎです。ここらへんで力尽きました。
ところで、以上の行程はバッチ処理での自動生成もできるみたいですが、今回はダークとかフラットが別のファイルになっていないので、理解する意味も含めて一つ一つ手でやってみました。バッチ処理はかなり便利とのことなので、次にまた試してみようと思います。


さて、比較のためにSteller Image8でも同様にコンポジットしてみました。まずSteller Image バージョン8の売りの「自動処理モード」だと、SharpCapで保存されたfitsファイル(RAW16)が白黒のままコンポジットされてしまい、コンポジットされた画像もカラー化することができませんでした。結局いつものように「詳細編集モード」で100枚を開いて、一枚一枚「ベイヤー・RGB変換」するしかありませんでした。「Altキー+I、Altキー+Y、Enter」で多少早くできますが、それでも100枚を一枚づつ手動で変換しなくてはならないことには変わりありません。この手間だけは冴えないですが、あとはバッチ処理でほぼ自動でできます。

できた画像を比較してみます。まず興味のある中央と四隅を拡大してみます。

cut
Steller Image8(左)                                 Pixinsight (右)


左がSterller Image8、右がPixinsightです。中央はそれほど変わりませんが、四隅を比べるとやはりSteller Image8だと流れたりぼけたりしてしまっています。Pixinsightも少し流れているように見えますが、これはレンズのせいで、一枚一枚の個々の画像ですでに流れてしまっています。f1.4のレンズを一段絞ってf2.0で撮影したのですが、ピクセル等倍で見るとまだ流れが目立つので、もう一段絞ったほうがよさそうです。

つぎに、全体の比較も面白いので見てみます。上がSteller Image8、下がPixInsightです。

Capture 23_35_59_00001-00101_23_36_01

integration

驚異的なのが、Steller Imageの方は、固定撮影のために空が流れていってしまい撮影できていない枚数が少ないところは普通に暗くなっているのに対し、PixInsightの方は撮影できていない部分も枚数で重み付けして明るさを復元していることです。

やはり噂通りPixInsightのコンポジットはかなり強力なようです。


 今回初めてPixinsihgtを使ってみました。確かに高機能で、性能もいいです。でもなぜ日本でSteller Imageがメジャーなのか?やっとわかりました。Steller Imageの方がはるかに簡単だからです。慣れの問題もあるでしょうし、Steller Imageは?なところも多少ありますが、日本語ですし、操作は想像がつきますし、ある程度一本道だし、マニュアルなどもしっかりしています。簡単にできるということは思っていた以上にありがたいことだと実感しました。


今回もコンポジットまではPixinsihgtでやりましたが、それ以降のカブリや周辺減処理、デジタル現像に相当するものはPixinsightでもできるはずですが、まだ手が出ません。PixInsightは疲れたのでしばらくはここからはいつも通りSteller Image8で続けることにします。

integration4

富山県富山市, 2018年1月13日23時36分
NIKKOR NC 35mm f1.4 + ASI294MC 固定撮影
露出5秒x100枚 総露出8分20秒
PixInsight + Steller Image 8、Photoshop CCで画像処理


最後の仕上げにSteller Image8とPhotoshopCCで続きの処理をした画像が上になります。さすがに5秒露光の100枚だとトータル10分もないので厳しいです。画像処理でかなりごまかしています。それでも馬頭星雲あたりは見えていますし、目的のバーナードループも見えています。他にもバラ星雲もなんとか見えますし、うっすらとですがエンゼルフィッシュも少しは出ているみたいです。

自宅の庭で、赤道儀も使わない、ポンと適当に置いた三脚に固定での、わずか10分のお気楽極楽撮影
なら、まあ十分ではないでしょうか。この方法だと部屋の窓際に適当に置くだけでいいので、かなり楽かもしれません。

今の制限は、一回の露光で星が流れないという5秒からきているので、ちょっとめんどくさくなりますが、ポタ赤でも使ってもう少し長い露光時間でやってみるのも面白いと思いました。



週末の金曜日、岐阜方面の山側が晴れていたので、富山ももしかしたら今日は晴れるかなと期待しながら、夕方仕事帰りに自宅近くまで来ると、雲はないはずなのになぜか一面のすごい濃霧。たまたま雲がない日になんでまたこんな霧が...と思いました。

あまりの天気の悪さに、ずっとネタ切れでブログの更新も止まっていたのですが、今回はいくつか新しいことがありました。まず夕飯を終えて自宅でのんびりしていると、この間落札した35mm f1.4のNIKKOR -NC Autoレンズが届きました。目的は主に電視観望用ですが、味のある写りらしいので普通の撮影に使っても意外に面白いかもしれません。NIKKORのオールドレンズは50mmに続きこれで2本目になります。


IMG_3430
NIKKOR NC Auto 35mm f1.4


この前シグマの10mm-22mm f3.5をASI294MCに使ってみたのですが、もう少し明るいものが欲し買ったのと、同じく50mm f1.4のNIKKORもASI294MCで試したのですが、これよりもう少し広角が試したかったからです。ASI294MCはセンサーサイズがフォーサーズとASI224MCより大きくなっているので、CマウントやCSマウントレンズが使えません。カメラ用の明るいレンズは焦点距離が短くなって来ると非常に高価なので、どうしても古いものになってしまいます。APS-C用のシグマの35mm f1.4も考えたのですが、フルサイズでも使えるものと思い、オークションで出ていたものを落としました。

手にれたレンズは相当昔のもので、俗にいう「アトムレンズ」、別名「放射能レンズ」「トリウムレンズ」とかいうものとのことで、かなり「黄変」といって黄色くなってしまっています。

IMG_3433
PCの画面を白くして撮って見ました。明らかに黄変しています。

そう思って見て見ると、以前買った50mmの方も気にしていなかったのですが、今見るとやはり黄変しています。どうせホワイトバランスは画像調整で整えるのであまり気にならないのですが、透過率が悪いのはもったいないです。紫外線で透明に戻るという情報もあるので、そのうちに試してみようと思います。あと、途中のレンズにアイリスの羽根の跡が少し残っているのが気になりましたが、撮影にはほとんど影響ないみたいです。いつか分解した時に掃除しようと思います。少し調べてみるとこのNCというのは1973-1976年に製造されたもののようで、今から40年以上前のレンズです。今では珍しいと思われる、金属製のフードがついています。

さて、レンズ到着の時に外に出てみると、霧もすっかり晴れて本当に久しぶりに星空が広がっていました。早速届いたレンズを試してみます。このレンズで試したかったことが、前回あまりうまく見えなかったバーナードループです。しかもガイドなしどころか、赤道儀も追尾もなしの、カメラ三脚にASI294MCを取り付けて、玄関先にポンと置いただけの完全固定撮影です。どこまで手を抜いて撮影ができるかです。

レンズの見え味は、まあ予想の範囲内。50mm f1.4をそのまま少し広角にしたような感じです。f1.4でフルに開放すると星像がぼやけてしまったので、一段階だけ絞ってf2にしました。これでぼやけ具合は気にならない程度です。

今回は試しなので5秒露光で100枚撮ってみました。露光8秒あたりから、拡大すると星が流れ出すのが見えるようになったのでもう少し短い時間にというのが5秒の理由です。ヒストグラムのピークをそこそこ右に持って来るために、ゲインは相当高く400/570にしています。 

一枚一枚はこんな感じです。うっすらバーナードループが見えているのと、左上にバラ星雲が薄く見えています。

IMG_3429

電視観望と違い、撮影になるので今回始めてSharpCap上でフラット補正とダーク補正もしてみました。フラットフレームの撮影はこんな感じになります。

IMG_3426


後ろの画像が撮影したフラットフレームですが、撮影時と同じパラメータで、10枚撮って平均化しています。レンズにスーパーの袋を被せたのですが、なぜか赤っぽくなってしまっています。フラット撮影時にダーク補正が必要なのかどうかよくわかりませんでしたが、今回はダーク補正はせずにフラットだけで試しました。ダークも含めて何枚くらい取る必要があるか、ゲインと露光時間はいいのですが、他にカラーバランスやガンマ、ブライトネスなど、どのパラメータが効いてくるのかもう少し検証が必要そうです。ただ、フラットはに関してはやるとやらないでは、不完全でもやったほうが周辺減光の影響は大きく軽減されることがわかりました。

固定撮影の場合、スタック処理はこれまでのSteller Imageだとずれてしまってうまくできないみたいなので、今回始めてPixinsightと戦っています。


次の記事に続く。

SharpCapのツールのカメラの性能評価機能を使い、手持ちのZWO社のCMOSカメラ
  • ASI224MC
  • ASI178MC
  • ASI294MC
の3台について測定、比較してみました。測定結果に示す各値の意味については以前の記事が参考になると思います。ASI294MCについては今回新たに測定し直していますが、結果はReadNoiseがよりダークな環境で測定することに気をつけたためか、多少良くなっている点を除いては、かなり一致しているので、そこそこ信頼がおける結果になっているのではないかと思います。



測定方法

まず、測定方法を簡単に書いておきます。SharpCapにカメラを接続し、認識させてから、「Tools」メニューから「Sensor Analysis」を選びます。下の方に出てきた測定エリアの指示に従えばいいのですが、いくつか気づいた点を書いておきます。 

まず、映している画面の中で、赤い四角で囲まれているところのエリアのみ測定します。なので、例えば画面中央部と4角では結果が違う可能性があります。選んだエリアが暗すぎたりすると、下の写真のようなメッセージが出ます。

IMG_3257


ある程度は自動でゲインや露出時間を変えて測定してくれますが、基本的には次の写真にあるように、ピークが一本ピンと立っているような状況がいいみたいです。その一方、精度よく測るには暗い方がいいようなことが書かれていますが、あまり暗いとあるところから進まなくなってしまって迷いました。そんな時はもう少し明るい状況にすると進み出します。

IMG_3258


最初はコンバージョンファクターの測定です。測定が始まると上の写真のように、横軸ADCのカウント、縦軸ADCのノイズの分散でプロットしてくれます。その傾きをコンバージョンファクターとしています。ここで注意ですが、本来この測定はゲインを変えて何度も測定すべきですが、SharpCapではコンバージョンファクターはこの一回しか測定していません。それにゲインの変化分を換算して、簡易的に種々のゲインでのコンバージョンファクターを求めているようです。測定し終わると、次の写真のようになります。ダーク測定の後にゲインを変えているようですが、右のグラフがいくつも出るわけではないので、やはり簡易的な計測なのだろうと思います。

IMG_3260

最初の測定が終わると、次にカメラに蓋をかぶせてダーク状態で読み出しノイズの測定をします。このとき光が漏れていると、読み出しノイズに余分な信号が入ってしまい、読み出しノイズが大きく計測されてしまうようなので注意です。カメラに蓋をして、さらに暗い所へ持っていくなどの工夫が必要かもしれません。

IMG_3262

IMG_3263


ダーク測定が終わると上の写真のようになるので、再び蓋を取って、最後の測定に入ります。内部ゲインや露光時間を変えて色々測定しているようですが、ここはあまり何をやっているかわかりません。この時に十分な明るさがないと、全然先へ進まなくて同じ設定を繰り返しするような状態になってしまうことがあります。こんな時はもう少し明るくして見てください。

IMG_3268


測定が終わると、数値とともに測定結果を記したグラフ(注: 次に示すグラフとは別の測定でとった写真なので少し値が異なって来ます)が出てきます。

IMG_3269



測定結果

さて今回は上のような測定方法で、3つのカメラを測定してみました。結果は以下のようになります。

comp



結果を見ると、ZWOに示してあるグラフ(ASI224MC, ASI178MC, ASI294MC)と比べて、かなり一致していることがわかるかと思います。また、上で出したグラフはZWOが出しているグラフと表示形式を少し変えてあるのに気づくと思いますが、以下で説明していきます。

測定結果を見ていて思ったのですが、ZWOのグラフのGAIN(e-/ADU) (コンバージョンファクター)のところの縦軸がリニアになっているのはどうしてもいただけません。内部ゲインが高いところで0付近になっているためほとんど見分けがつきませんが、これは0付近でオーダースケールで0に近づいていくことに意味があるので、これは対数スケールで書くべきです。今回測定したグラフは対数スケールにしてあります。こうするときちんと直線になっていて、意味があるのがわかると思います。


考察

さてこのグラフを少し考察してみましょう。まず最初に思ったことが、Full Wellの値に果たして意味があるのかということでした。そこで試しに、ASI294MCにある「Full Well」の値を「e/ADU」で割ってみましょう。測定の数値結果を以下に示します。

ASI294MC_number



一番右の欄に計算結果も書いていますが、どの「Gain Value」に対しても全てぴったり16384になるのがわかる(ちなみにASI224MCの場合は全てぴったり4096になります。)と思います。これはADCの14bitのカウント数16384が最初にありきで、それを実測した「Gain Value」で割っているだけで、その結果を「Full Well」と呼んでいるだけだということがわかります。なので、示したグラフの上二つはほとんど同じことを言っていて、二つのグラフを両方とも示す意味は本当にあるのかと思ってしまいます。

本来のFull WellとはSensorの出力で制限される値を測定すべきなのですが、全てのゲインで測定していない簡易測定なのでこんな結果になってしまったか、もしくは測定していてもADCのbit数の制限でリミットされてしまっていて、少なくともセンサー本来が持っているFull Wellで制限された値が示されているわけではないことがわかります。このことは、言い換えるとセンサー本来はもっと出力できるのに性能がADCで制限されてしまっているか、もしくは簡易測定のためにADCに制限されたように見える、よくわからない結果になってしまっていると言えます。

それでも実際には高ビット化をしようとして、例えば安易に16bitADCにしようとしても、16bitの性能を引き出すのはノイズや転送速度、データ量の観点から普通はとても難しいので、14bitだからと言って一概にダメだということは全くありません。むしろこの価格で14bitで、転送速度まできちんと出ているというのはすごいことで、賞賛こそすれ非難できるようなことは何もないでしょう。


次に考えたことは、Read NoiseをADCのカウントにしてやったほうがわかりやすいのではないかということです。今回出したグラフはZWOのものにさらに追加してあって、一番下に書いてあります。これは単に一つ上の「Read Noise(e)」を「e/ADU」で割っただけなのですが、16384に対してどれくらいノイズとして明るさの変動があるかという目安になります。先のノイズの記事でも書きましたが、この「
Read Noise(ADU)」の意味は、内部ゲイン500の時、ノイズ100くらいだとしたら、明るさのバラツキが100カウントくらいで収まる範囲が68%に収まっている。200カウントのバラツキは98%に収まっているということです。200カウント以上のバラツキは2%くらいしかないですが、それでも0ではありません。300カウント以上は統計的にはわずか0.13%ですが、これはかなり0に近いのですが、ピクセル数が4144 x 2822 = 11694368もあるので、そのうち0.13%だとすると15200ピクセルくらいは300カウント以上飛んだ明るさを持つので、決して少ないわけではありません。

もちろん各ピクセルには信号を測定した際の平均的な明るさがオフセットとして乗っかるので、明るいピクセルはノイズは目立ちにくいでしょうが、暗いピクセルはノイズが目立つことになります。また、これは読み出しノイズについてのみ話しているので、他のノイズの兼ね合いで、意味のあるノイズだったり、無視できるノイズだったりします。例えば長時間露光してしまえば読み出しノイズは無視できます。逆に短時間だと読み出しノイズによって制限されてしまったりします。ここら辺は以前のノイズの記事をご参照ください。こうやって考えると、測定結果がやっと実際に目にしているノイズに近いものになってくることがわかります。


今回はわかったことは、メーカーの提示している仕様と、実測はかなり一致していること。ただしきちんと意味を考えないと、グラフを見ていても意味のある情報が得られないことなどです。


次に考えている目標は、スペックシートからそのカメラの性能がノイズや写り具合も含めてきちんとわかるかどうかということ。これはもう少しまとまったら、またそのうちに記事にしたいと思います。


あけましておめでとうございます。昨年も星を思う存分楽しむことができ、またたくさんの方にお世話になりました。今年も電視観望を始め、色々試していきたいと思いますので、よろしくお願いします。

年末実家の名古屋に移動してすぐにSCOPIOに顔を出しました。すでに天文ガイドと星ナビが入荷しているとのことなので、それが一番の目的です。富山だと1月5日になるまで買うことができません。他に特に何も買うこともなかったのですが、MEADEの25㎝のシュミカセが三脚架台込みで出ているのに少し気がひかれました。経緯台は壊れていてコントローラーも無いとのことなのですが、修理して使うのも面白いかもしれません。自宅に同じ25㎝の鏡筒が使えずじまいであるので、何とか使える架台が欲しいのです。鏡筒が2本になってもしょうがない気もしまが、いつか将来の双眼を見越して手に入れておくのもありなのかもしれません。結局決心がつかなくて今回は見送りになってしまいました。

それより印象深かったのが、店長さんが電視観望に興味を持っている人が昨日来ていたと言っていたことで、このほしぞloveログも見てくれている方がいると聞いたことです。そんなことを店長さんとしゃべっていたら、いつのまにか何人かのお客さんが来ていて、その中にそのほしぞloveログを見ている方がたまたま昨日買い忘れがあったとのことで、その日も来店していました。店長さんが紹介してくれて、少しお話しすることができました。なんとCelestronのSkyrisで電視を試しているそうです。型番を聞くことはできなかったのですが、例えばSkyris 236CはSONYのIMX236を使っているとのことで(でも、IMX236の製品情報がほとんど見つかりませんでした。少し違う系列なのでしょうか?)、電視にも十分な性能があるのかと思われます。その後Twitterでやり取りすることもでき、撮影時の写真を見たらM42が結構きれいに映っています。こうやってカメラごとの情報が集まてくるといいのですが。電視観望が思ったより広がっていることが実感できました。

さて、新年最初はスーパームーンです。富山だと冬の間は天気が悪いので、先月のスーパームーンも諦めてしまいましたが、年末年始で実家の名古屋に来ているので、さすがは冬の太平洋側、天気はバッチリです。場所はお城の近くの名城公園というところで、 スターバックスの隣のすごく明るい場所での撮影です。実際の満月は明日の朝11時なので、1日の夜か2日の夜が見頃となりますが、明日は富山への移動になるので、今日のうちの撮影としました。


「スーパームーン2018」
 
rotation
名古屋市名城公園 2018/1/1 22:22
FS-60CB + ZWO ASI178MC + Advanced VX
Shutter 5.0ms, gain 0, 200/1000 frames
SharpCapで撮影、Autostakkert2.6, Resistax6, PhotoshopCCで処理 


今回は実家での新年会が終わってから、うちの子二人と、甥っ子と姪っ子の4人を連れての月見となりました。途中少し雲もありましたが、雲がかからない時間で撮影を終えることができました。街中ですが、満月の月なので光害は特に問題なく、すごく綺麗な月を楽しむことがきました。

IMG_3406


名城公園は昔は普通の公園だったのですが、最近はスターバックスができていたり、おシャレなスポットになっているみたいです。撮影しているときはまだスタバも空いていて、子供達は寒いと言ってスタバに入っていましたが、セットアップができた頃から出て来て、月を楽しみました。せっかくのスーパームーンなので、スタバから帰る人たちにも何人かに声をかけて、一緒に月を見ることができました。



 

このページのトップヘ