ほしぞloveログ

天体観測始めました。

タグ:ASI294MC

皆既月食の一連の結果です。前回の天王星食の記事からの続きです。


皆既月食の記事も佳境となってきました。メインの結果は今回で最後です。今回は、FS-60CBで赤道儀の追尾レートを太陽時で撮影した、4時間分の大量の画像です。


地球の形を位置合わせなしで

今回は一連の皆既月食の記事の中でも、目玉に相当るする回です。赤道儀の追尾レートを太陽時にして、月食の光源である太陽の移動速度に合わせることにより、地球による影を固定するように追尾します。影を映すスクリーンは公転運動で動いていく月です。月食の間の約4時間の間、1分に1枚撮影することで、うまくすると撮れた画像の位置合わせを一切することなく、影の形がそのまま地球の形になると期待しての撮影です。

実はこの位置合わせせずに地球の形を出す方法、昨年の限りなく皆既に近い月食の時から考えていて、太陽時に合わせればいいのではとの考えに至りました。でもシミュレーションしてみると、撮影中に月が上の方に移動していきます。上に移動していく理由は先の記事で書いていますが、一言で言うと地球の地軸の傾きのためで、地球の自転軸に垂直な面とと月の公転軌道面に差があるからです。赤道儀は赤経のみが追尾するので、赤緯を動かさない限り上下移動には対応しきれないのです。

Stellariumでのシミュレーションの結果から、画面の横方向にで2度角程度、縦方向でも2度角程度移動するようです。月の視直径が30分角程度なので、月が最低4個分、できれば6個分くらい入るような画角になります。左右だけでなく、上下にも十分な画角で撮影する必要があるため、今回は焦点距離の短い鏡筒FS-60CBを選びました。


機材

今回の機材は皆既月食で4つ出した機材のうちの一つで、これまで紹介してきた3つに続き最後になります。
  • FS-60CB + マルチフラットナー + ASI294MC + Advanced VX
です。SharpCapで撮影します。他の機材同様に、皆既月食時に合わせた長い露光時間と、満月時に合わせた短い露光時間の2種類をSharpCapのシーケンサーを使い30秒ごとに切り替えて撮影します。一つはグキの明るい部分用で、5msでゲイン120、もう一つは月食部分用で500msでゲイン240です。明るさの差は露光時間で100倍、ゲインで120 =12dB=4倍で、合わせて400倍になります。一つ一つは5秒程度の動画で撮影し、.serファイルに保存しました。

実際の撮影ですが、最初の頃は雲が少しあって極軸調整がなかなかとれなかったので、撮影開始が遅くなってしまい、結局部分月食が始まった直後の18時13分からになってしまいました。撮影は一旦始まってしまえば、あとはひたすら触らずに放っておくだけです。それでも最初と最後、あと皆既中のちょうど真ん中あたりで雲が多くなり、暗い画像になってしまったものが何枚かあります。


画像処理

撮影した画像を見ると480個の.serファイルと膨大な数になります。HDDの容量をみると400GB超えでした。

本当はそれぞれ動画で撮影した.serファイルをきちんとスタックしたいのですが、出来上がり画像の大きさがバラバラになったり、雲が多かった場合などはスタックがうまくいかない率が高かったので、1枚画像のみの方がマシだという結論に至りました。ただ、1枚ファイルを取り出す方法に苦労しました。例えばserplayerを使ってマニュアルで1枚づつ書き出すことはできますが、全部で480ファイルあるので、あまりに手間がかかります。いろいろ考えて、結局AutoStakkert!3で「Number of frames to stack」を1にして、スタックなしで書き出すことで、.serファイルから1枚のみを抜き出すことにしました。

もう一つの問題が、暗い画像を.serで保存すると、その暗さによって諧調が16bitと認識されず、15bitやそれ以下、たとえば雲がかかってほとんど真っ暗に近いファイルは10bitなどと認識されるようです。認識というのはSer Playerでもそうですし、AutoStakkert!3でもそう認識されるので、どうも保存時にどこかで判断され、そのような情報として記録されるようです。でも実際のファイルは16bitで保存されているので、(間違った情報をもとに)表示が強制的に10bitとかになってしまうと、全面(ある色で)飛んだように表示されてしまいます。上の過程で1枚だけ取り出そうとしても色が飛んでしまった画像が取り出されるので少し困ったのですが、AutoStakkert!3の解析後のAPを打つ時に「Scaling(Fit/Ser)」のところの「Auto」のチェックを外し、「Range」をあからさまに「16bit」と指示してやることで、この問題を回避できることがわかりました。

出来上がった240枚x2セットのファイルを、前々回の記事で書いたようなPixInsightのImageContainerとHistgramTransformationを使って、適当な明るさにします。その後、Blinkを使って連番のjpegファイルに落とし、ffmpegでタイムラプスに仕上げます。当然ですが、位置合わせなどは一切しません。


タイムラプス 

まずは、満月時に合わせた露光時間が短い暗い映像と、月食時に合わせた露光時間が長いものを繋いだ動画です。切り替わりの前後10コマを、露光時間の違う2枚から不透明度を段階的に変えて合成することで、なめらかな切り替わりにしています。
影の形がほとんど動かないことがわかるかと思います。

影の形は、下の露光時間の長いものの方がわかりやすいかもしれません。
影の形は地球の形を表しています。動く月をスクリーンに、地球の形が再現されるわけです。こうやってみると、太陽と地球と月の関係が一度に見え、月食の仕組みがよくわかります。これが今回やりたかったことです。


静止画

次に、タイムラプス映像の中から何枚かを抜き出して、そのまま比較合成します。皆既時のものだけは上から被せています。

mix4_cut

でもこれを見るとやっぱり今回の作戦は失敗なのです。影の形が円になっていません。もう少しわかりやすい画像です。

output_comp_cut
月が上に昇っていったことにより、影の形が縦長になってしまっています。月が上に上がっていくのは地球の地軸が月の公転面に対して傾いているためで、地球の影を固定するという考えからは、やはりなんとかしてキャンセルしたい動きと言えます。

赤道儀で「月に追尾」とすると月が上に移動していくのを追っていく赤道儀があるらしい(Vixenのスターブックテン系列や、SkyWatcherでも動かなかったという報告がTwitterのほうでありました)のですが、実際にやりたいことは追尾レートを太陽時に合わせて、しかも月の上下の移動をなくしたいので、おそらく既存の赤道儀ではかなり難しいと思われます。

さらに、地球が自転していることによる視点の位置の移動も影響するという指摘がTwitter上の議論でありました。地球の半径が約6400km、北緯36度くらいにで観察しているので、4時間の間に2 x π x 6400km x cos(46/180*π) x 6hour/24hour = 5400km程度、地球の時点により観測点が移動します。月と地球の距離が約38万kmなので、ざっくり1.4%になりますが、そこまで大きな影響ではなさそうです。

もう仕方ないので、本来の目的からは外れてしまいますが、月が上に移動しないように位置合わせした場合を、Photoshopで各画像の上下移動だけさせて、横一直線に並べます。

mix4_cut

あれあれあれ?でもやっぱり今度も影の形がひしゃげてしまいました。ここでちょっとヘルプで国立天文台のページを見てみました。


国立天文台のクレジットが入っていればWebやSNSなどでも画像を使ってもいいそうなので、ここにも貼っておきます。赤道儀を使っていてカメラの向きも赤経移動が水平になるように合わせ込んであるので、撮影画像の上下左右と、この図の北南西東は十分一致しているはずです。とすると、この図を見る限りやはり月は時間とと共に上に移動していくのが正しいようです。

topics02-2-l

ここからはとても悔しいのですが、この図に従って時間と位置を合わせることにより合成したものが次の画像になります。あ、でも単に画像で合わせただけなので、そこまでの精度はありません。
topics02-2-l_all_cut

さらにそこに国立天文台の図と同じ位置に地球の形をいれてみると...
topics02-2-l_all_circle_cut
こんどは実際に撮影した影の形がひしゃげるようなことは全くなく、ものの見事に地球の形を再現していることがわかります。

でもこの図を作るためにどれだけ位置をずらしたかを種明かしすると
topics02-2-l_all_frames
枠の欠け具合を見てもらえればわかりますが、上下だけでなく、左右にもかなりの量をずらす必要がありました。ただ、ずれの具合を見るとなんらかの規則性はあるようで、なぜこのようなずれが起きたのか、定性的に、定量的に考える必要がありそうです。

この図ができた後にいろいろ考えてみて、定性的には視野のずれで説明できることはほぼわかってきました。ただそれが定量的にどこまで合うのか、これだけで丸々一つの記事になりそうなので、後日改めて書きたいと思います。


昨年からの進歩

まだまだ課題は残るものの、昨年の地球の形の再現は月の明るい部分は全部サチっていたので、今回は2段露光で明るい部分の月の模様も出ていて、大きな進歩かと思います。あらためて並べておきます。

all_cut
2021年11月19日の皆既に限りなく近い月食。

topics02-2-l_all_cut
2022年11月8日の皆既月食。部分月食時の月の模様が出た!


まとめ

前回の記事をアップし終えた後、電気スタンドがメインのPCのモニター落下して割れてしまい使用不能に。データを吸い出してたり、さらに体調を崩したりと、色々トラブルがあり記事の更新が遅れてしまいました。やっとデータ復旧も終わり、なんとか記事を書ける状態になりました。

そろそろ自分でも気づいてきたのですが、今回の皆既月食は撮影の時から張り切りすぎで、データ量が溢れていて全然処理が追いついていません。もう少し機材を控えてもよかったですし、もう少しデータ処理の手を抜いてもいいのかもしれません。でも今回の位置合わせみたいに、謎を解いていくのが楽しくて楽しくて仕方ありません。できるだけ資料を「見ずに」、できるだけ人に「聞かずに」、自分の頭の中で考えて、自分で計算します。実測と計算が合ったときの快感は何ものにも変え難かったりします。

膨大なファイルの処理は大変ですが、皆既最中の赤銅色など、これまで天気などの影響でなかなか完璧に撮影できなかった貴重な画像を、今回は余裕を持って撮ることができました。雲が少しあったのでそれが惜しいくらいで、もう皆既月食に関してはかなり満足して撮影できました。残る課題もありますが、ここまでの経緯から位置合わせをせずに地球の影を完全い映し出すのは、おそらく相当敷居が高いです。何か制御方法を根本的に変える必要がありそうで、今後の大きな目標でしょうか。

月食関連の記事ですが、もう少し、多分あと2回くらいは続きます。


 
 
 
 
 
 
 
 

もう小海の星フェスの前のことになってしまいますが、11月8日の皆既日食で撮影した画像処理を進めています。これから数回に分けて、月食関連の記事を書いていきます。

今回はどういう方針かと、リハーサルの様子などです。


今回の方針

今回の皆既月食はかなり気合が入っていました。本番は11月8日ですが、その前の5日の土曜からいろいろ準備開始です。

前回の限りなく皆既に近い月食の時の撮影の反省から、いくつか方針を立てます。



前回のブログを読み直すなどして、今回の皆既月食で達成したい大きな目標を3つ立てました。
  • 一つのカメラで一つの設定だけだと、満月時と皆既時で輝度差がありすぎるので、写す時は毎回露光時間と輝度を変えて複数枚撮影すること。
  • 太陽時で撮影し、後から月の位置をずらすことなく、何枚か重ねて、地球の影を出すこと。
  • 天王星食を動画で撮影すること。
です。

具体的な撮影機材のセットアップは4種類考えます。
  1. 固定三脚の短焦点距離のカメラレンズで広角で、1分ごとに撮影し、月食の初めから終わりまでの全景を。
  2. FS-60CB+ASI294MCで赤道儀の同期レートを太陽時に合わせて、月が画面内で移動していく様子を撮り、あとで影で地球の形を出すもの。
  3. TSA120+ASI294MC Pro(常温)で、タイミング、位置など、被強に応じて自由に撮影するもの。
  4. 天王星食を拡大で撮影するもの。
としました。

これらを実現するために、当日までにリハーサルで特にやっておくことは、
  1. 1分の撮影に2つの設定(露光時間とゲインを自由に変えること)ができるかどうか試すこと。
  2. 満月の時の露光時間とゲインを各機器で確かめておくこと。
としました。


1つのカメラに、2つの設定での撮影テスト

特に1の、一つのカメラで複数の設定を切り替えながら繰り返し撮影というのはこれまでやったことがないので、本当にできるかどうかよくわかっていません。

試したソフトは4種。
  1. FireCapture
  2. NINA
  3. SharpCap
  4. BackYard EOS
実際に試してみて、これらのソフトの中でCMOSカメラと一眼レフカメラ両方に対応しているのは2と3ということがわかりました。さらに試していくと、例えば1分で2回、30秒ごとに設定を変えるようなことを繰り返し撮影できるのも2と3のみのようです。NINAはアドバンスド・シーケンス、SharpCapはシーケンサーというちょっと複雑なスクリプトようなものを使うと、設定を変えながら繰り返し撮影できるようです。

どちらでもよかったのですが、NINAで6Dを繋いで撮影したことがほとんどないことと、ガイドを使う必要はないので、今回はSharpCapを使うことにしました。実はNINAの方が「月の照度」というパラメータがあり、明るさがあるところになると条件を変えるというようなことができるようなのですが、複雑になりすぎるのと、当日は天気が良くないことが予想されたので、SharpCapで十分だったように思います。

SharpCapのシーケンサーはかなり直感的でわかりやすく、CMOSカメラの場合動画で撮影したいので
  1. 「Repeat」の中に
  2. 露光時間設定、ゲイン設定、キャプチャ開始、ウェイト、キャプチャ停止、ウェイト
  3. を露光時間とゲインを変えて2回書き
  4. ウェイトを含めた一回のループの時間を1分間になるように設定し、
  5. トータルの回数を4時間分の240回にする
というような設定になります。部屋の中で試しながら、色々スクリプトを書き換えて、上記の状態に行きつきました。保存ファイルは.ser形式になりますが、一つ一つのファイルサイズが大きくなりすぎないように、5秒間だけ撮影することにしました。それでも1つ800MB程で、4時間で240枚x2(30秒ごとなので1分で2枚)で約500個のファイルができることになり、トータル約400GB!となる予定です。

SharpCapのシーケンサーの設定はCMOSカメラの方が遥かに楽でした。一眼レフカメラの場合は静止画撮影になるので、「Still Mode」にして、キャプチャ開始とかではなく、1静止画をキャプチャとかになります。難しいのは、PCとカメラの接続がUSB2で転送が遅く、しかもそのダウンロード時間がばらつくので、1分間ごとのループにならないことです。そのため、ストップウォッチで計測しながら1分間になるようにウェイトを調整します。これも後から気づいたのですが、NINAのアドバンスド・シーケンスにはループする時間を直接指定できるコマンドがあるようです。次回からはもしかしたらNINAを使うかもしれません。でもNINAって大原則DSOが対象なんですよね。msオーダーの極短時間露光の月とかでもうまくいくのかどうかはきちんとテストする必要があるかと思います。

とにかくこのようにすることで、CMOSカメラも、一眼レフカメラも、30秒ごとに
  • ゲインが低く露光時間が短い満月用の設定
  • 皆既時用のゲインが高く露光時間が長い設定
の2種類を一つのカメラで撮影することができます。頑張れば20秒ごとに3種類の撮影もできますが、撮影後のファイルの数と容量ともに膨大になるので、2つの設定に抑えたほうがよさそうです。


明るさの設定

次に暗くなってからの調整です。こちらは実際には月食前日の月曜に行いました。満月に近い月齢13日のかなり明るい月が出ているので、露光時間とゲインをその月の明るさに合わせます。

問題は皆既時の明るさの設定です。これまでの月食の経験から、露光時間とゲインをかけた明るさの比が100倍(TSA120+ASI294MC)、400倍(FS-60CB+ASI294MC)、1600倍(35mmレンズ+EOS 6D)とかになるように設定しました。明るさの比にかなりばらつきがありますが、TSA120は自由撮影機なのであとから変更することもあり、かなり仮の設定です。

重要なことは、サチると何も情報は残りませんが、暗い分には画像処理で持ち上げることで十分な明るさにすることができると考え、少し暗めの設定にしておきました。この判断は正しかったようで、実際に撮れた画像は最初思ったより暗いと感じたのですが、DSOの時の炙り出しに比べたら全然大したことなく、十分すぎる情報があるので、どの設定も最終的には全く問題がなかったです。ただし、暗いと背景がノイジーになることがあるので、そこは画像処理時に適したレベル補正や、もしくはノイズ処理が必要になる場合がありました。


当日の撮影

前日までの予報では、日本海側の天気はかなり絶望的でした。もうあきらめるか、一時期は休暇を取って太平洋側に行こうかと思っていました。でも当日になり、夕方くらいから晴れそうな予報に変わってきたので、結局自宅で撮影することにしました。

雲が出るなどの、天気によっては連続撮影は意味が無くなってしまうので、様子を見ながらのセットアップになります。最初は天気が悪くても雲間からでも狙えるように、自由撮影のTSA-120とASI294MCをセットしました。途中からどんどん雲も少なくなってきたので、次に広角35mmとフルサイズのEOS 6Dを置き、さらに太陽時に合わせて連続撮影で写すFS-60CB+ASI294MCもセットします。

暗くなりかけてきたところでまずはFS-60CBの方から、ガイド鏡を仮載せしてSharpCapで赤道儀の極軸を取ります。でも雲がまだ北の空にそこそこ残っているので、雲が薄くなっているところを狙います。今回は赤道儀の精度が肝なので、Excellentがでる30秒角を切るくらいまで合わせこみます。

IMG_7046

18時には撮影を開始したかったのですが、最初の頃は雲が多くてかなり戸惑っていたため、実際に撮れた画像の時刻を確認してみると、35mmの方が部分月食開始の18時7分から、FS-60CBの方が部分日食開始が過ぎた18時13分からになってしまいました。

FS-60CBの連続撮影を開始し、ついでにTSA-120の極軸とりと連続撮影も開始したらやっと少し余裕が出て、最後にCGX-LにVISACを載せてUranus-Cを付けたものをセットアプしました。天王星食の拡大撮影用です。でもこれ、後で詳しく書きますが結局失敗でした。

途中、お隣のご夫婦がきて、一緒に月食をみました。撮影の面倒を見ていたのであまりお世話ができなくて申し訳なかったのですが、それでも双眼鏡を出してみてもらったりしました。今回は皆既の時間がかなり長かったので、そこまで焦らずに見ることができたと思います。


撮影結果は次の記事から

次の記事から、セットアップの詳細と結果を順に書いていきます。ファイルを見たら全部で900GB近くあったので、まだ処理をしている最中です。

とりあえず今回の記事では撮影の最中に、iPhoneでSharpCapの画面を撮ったものだけ載せておきます。

IMG_7044
FS-60CBで連続撮影をしている画面です。
欠け始めていて、雲がまだ多いのがわかります。
シーケンサーが走っているのが分かると思います。

IMG_7047
皆既に入って間も無くくらいの時です。
TSA-120での撮影です。右上が明るいです。

IMG_7049
天王星が認識できたところです。TSA-120で拡大して写しています。  

IMG_7053
VISACでの撮影です。天王星が出てくるところです。

最後の写真ですが、月食も終わりの頃でFS-60CBで露光を変えて2種類撮っているところです。
IMG_7055

IMG_7056
最初は画面左下から始まった月の位置も、月食が終わる頃には真ん中のかなり上まで移動してきました。太陽時に合わせてあるので、地球の影が固定されているはずで、その影を映すスクリーンのように月が動いていく様子を見ることができました。

さて、次の記事からは実際に撮影した画像を載せていきます。


 
 
 
 
 
 
 
 


長く続いてきたSV405CCの評価も佳境になってきました。今回の記事は作例とともに、青ズレの謎に迫ります。さてさて、どこまで解明できるのか?


北アメリカ星雲再び

まずは作例です。今回の一連の記事のその2で出した北アメリカ星雲の再撮影です。

目的は2つ、
  • 前回の撮影は透明度がかなり悪く、階調がほとんど出なかったので、そのリベンジ。
  • 四隅の流れを改善しておきたい。
といったところです。本当はあと一つ、あわよくば青ズレを直す方法が見つかったらと思いましたが、この時点ではそれは叶いませんでした。

まず透明度ですが、今回の撮影では白鳥座の羽の先が見えるくらいよかったです。その影響はかなり大きく、見た目だけなら今回の3分露光の1枚で前回の全スタック分くらいの諧調が出ています。(アップロードの関係でサイズを各辺半分にしています。)

2022-07-02_00-00-47_NGC 7000_180.00s_g120_0.10c_0050_low

依然青ズレは出ていますが、これならインテグレーションしたら階調に関してはかなり期待できそうです。

もう一点、マルチフラットナーを使っているにもかかわらず、前回までバックフォーカス長を適当にとっていたため、SV405CCでもASI294MC PRoでも、いずれの撮影にも関わらず四隅の星像が流れまくりでした。

2022_07_01_01_39_49_M_20_180_00s_g120_0_10c_0034_mosaic
前回までの間違ったバックフォーカスでの四隅の一例。

タカハシの鏡筒はCanonやNikonといった、一眼レフカメラのバックフォーカス長に合わせてアダプターなどの製品を提供しています。今回は手持ちのタカハシ純正のCanon用の一眼レフカメラ用のアダプターを使ってマルチフラットナーのバックフォーカス長に合わせるようにしました。このアダプターに合わせてCMOSカメラを使う場合は、例えばZWOから出ているCMOSカメラとCanon EFマウントに変換するアダプターを使うこと、ほぼ何も考えることなくバックフォーカス長があった状態にしてくれるので楽です。

今回は、かなり前に買ったZWOのCanon EFマウントアダプターを使ってみました。現行モデルはフランジ長が固定ですが、初代のZWOのCanonマウントアダプターはフランジ長を1cm位調整できます。CBPを取り付けたくて、SV405CCに付属の1.1.25インチフィルター用のリングをセンサー部に取り付けたので、ZWOのCanonマウントアダプターは少し手前で固定されるはずです。そのため、マウントアダプターの長さは最短に調整しました。この状態で四隅を見てみると、

2022_07_02_00_00_47_NGC_7000_180_00s_g120_0_10c_0050_mosaic
のように四隅の流れはほぼ無くなりました。

その後、撮影前に少しだけ青ズレを直せないか試したのですが、この日は結局太刀打ちできず、透明度も良くて時間ももったいなかったので、そのまま撮影続行としました。結局天文薄明開始までの午前3時前まで3分露光で72枚撮影しました。前半は雲が通ることも多かったですが、後半はずっと快晴でした。使えたのは雲のない44枚の2時間12分ぶんでした。


画像処理

インテグレーション直後の画像をオートストレッチしたものです。

integration1

一部拡大するとわかりますが、依然青ズレがあります。

integration1_Preview01

もう一つ、今一度上の画像をクリックして拡大して見てもらいたいのですが、微恒星の中心が暗く抜けてしまっています。最初はピントが合っていなかったと思っていたのですが、実際にはかなりピントは気を付けて合わせているにもかかわらず、ほぼ毎回こうなります。また、そーなのかーさんがSV405CCで撮影した画像も同様に中心抜けになっているようなので、どうもこれはピンボケというよりは何か系統的に問題があるような気がしています。

恒星に関しては仕方ないとして、そのまま画像処理を進めます。

途中やはり恒星部分で苦労しました。一番大変だったのは、StarNetのバックグラウンドと恒星部の分離の時に、色ズレのせいかハロの部分がバックグラウンドと認識されてしまい、ここを誤魔化すのが大変で、最後まで不満が残ってしまいました。

Image24_Linear_PCC_ASx2_MS_HT_bg

パッと見はわかりませんが、B画像を抽出してみると同様のハロが他にもたくさん残っていて、あぶり出しとともにたくさんのハロが目立ってきます。

結果


Image24_Linear_PCC_ASx2_MS_HT3_cut_tw
  • 撮影日: 2022年7月2日0時38分-2時53分
  • 撮影場所: 富山県富山市自宅
  • 鏡筒: TAKAHASHI FS-60CB+マルチフラットナー(f370mm)
  • フィルター: SIGHTRON CBP(Comet BandPass filter)
  • 赤道儀: Celestron CGEM II
  • カメラ: SVBONY SV405CC (0℃)
  • ガイド:  f50mmガイド鏡 + ASI290MM、PHD2によるマルチスターガイド
  • 撮影: NINA、Gain 120、露光時間3分x44枚で総露光時間2時間12分
  • Dark: Gain 120、露光時間3分、128枚
  • Flat, Darkflat: Gain 120、露光時間 0.3秒、128枚
  • 画像処理: PixInsight、Photoshop CC

淡いところの階調もかなり出ています。前回の透明度の悪い時より相当良くなっています。庭撮りでここまで出るならまあ満足でしょう。あとはやはり恒星です。

普通ならここでおしまいなのですが、もう少し続きます。ここから大きな進展です


青ズレ検証その後

上の北アメリカ星雲の撮影のあと、もう少し青ズレに関して何かわからないかと思い、後日いろいろ試してみました。ただし雲が多く出ていたので、その隙間でのテストであまり時間をかけることができませんでした。

とりあえず、SharpCapで3分露光を何ショットか撮影しました。最初のショットがやはりこれまでのように暗くなるのが再現され、やはりドライバーレベルで何かやっているのかと思います。この時、雲の動きが速く、雲間が貴重なためにすぐにNINAに移りました(ここで焦っていたのが後で効いてきます)。

NINAでは少し雲が薄くなってきて余裕も出てきたので、じっくり青ズレを見ながら、ASI294MC Proとも交換しながら、何が問題かじっくりみることができました。

一つ疑っていたことがあって、オフセットが40と小さすぎることが原因ではないかということです。SV405CCの場合、オフセットは最大255まで設定でき、今回はわずか40と、最大の6分の1くらいとしています。ちなみにASI294MC Proの場合は最大80で半分の40としています。前回のPedestalの記事であったように、オフセットが低くて輝度の低いところが問題を起こしているのかと思ったわけです。でもオフセットが40の場合でも、120にした場合でも、青ズレに関してはなんら違いが見られませんでした。なので、オフセットは無関係かと思います。

結局、このとき画面を見ながら出した結論は、ASI294MC Proでは何をどうやっても(ゲインやオフセット、露光時間など)青ズレのようなものは出ない、その一方SV405CCでは何をどうやっても(こちらおゲインやオフセット、露光時間など)青ズレを消すことはできない。ということでした。

その後、改めてSV405CCのRAW画像を、RGBで分離して見たり、4つのセグメントごとに見たりしました。
  • SV405CCのBayer パターンがなぜかGRBGであること。ASI294MC ProはRGGB。
  • でもなぜか星雲の濃さから判断するとCF0:G1, CF1:B, CF2:R, CF3:G1のように見えること。
  • CF2の恒星中心部近くに極端に暗くなっている欠損部が多いこと。輝度は周りの1%程度であるが0でないこと。
  • CF1に星の中心部近くに輝度が完全に0のところがあること。CF2ほど欠損の数は多くないこと。
などがわかりました。そーなのかーさんも同様のレポートをしていたので、再現性もあるようです。

結局、この時点ではどうすることもできなくて諦めて、次はNINAで触れないパラメータをいじってみるのかなと思っていました。というのも、CMOSカメラはどこかに設定が保存されていて、例えばSharpCapで触った設定が、FireCaptureを立ち上げるとそのまま引き継がれるというようなことがあるからです。


なんと、原因判明!

そんなことを考えながら昨晩、上の北アメリカ星雲の画像処理を終えて、次回テストの準備をしようと思い、「そういえばSharpCapでSV405CCで撮影した画像があったなあ」と何の気無しに開いてみたら、どこをどう見ても青ズレが見えません。

Capture_00001_20_47_33_RGB_VNG
SV405CCでSharpCapで撮影。青ズレは皆無です。

2022_07_04_21_28_47_NGC_7000_30_00s_g120_10_00c_0084
上の画像の直後にSV405CCでNINAで撮影。明らかに青ズレが出ています。

わかりやすいように拡大して比較して見ます。
ShapCap_NINA_SV405CC
左がSharpCap+SV405CC、右がNINA+SV405CCです。

明らかに違いがわかると思います。ただし、SharpCapでの露光は180秒、NINAでの露光は30秒です。露光時間が逆だったらまだ疑いの余地もありますが、NINAでわずか30秒で青ズレが出てしまっているので、結論は覆らないでしょう。これは明らかにどうやっても青ズレが消えなかったNINAとは、状況が全く違います。

カメラのドライバーはSharpCapでもNINAでも同じ「SVBCameraSDK.dll」を使っています。一応念のために改めて確認しましたが、SVBONYで配布されている1.7.3のカメラドライバーを普通にインストールしたあと、SharpCapは最新版を改めてインストールすると、SVBCameraSDK.dllに置き換わっていました。その一方NINAでは現在の最新版でも、カメラドライバーは最新のものに自動的に置き換わらず
、その前に使っていた1.7.2のままだったので、マニュアルでSharpCapにインストールされていたSVBCameraSDK.dllをNINAの方にコピペして、改めてNINAを立ち上げて1.7.3になったことを確認しています。

ここまでの検証が正しければ、最新版のNINAでの読み出し方の問題ということになります。


よく考えると、SharpCapで撮影した時は雲が流れてたので、時間がなくあせっていて青ズレをきちんと画面で確認していませんでした。そういえばSharpCapで電視観望した時もSV40CCで青ズレが出なくて、彩度もSV405CCとASI294MCで変わりがなかったことを改めて思い出しました。この時は露光時間が短かったからかと思っていましたが、どうもNINAとSharpCapの違いの方が濃厚そうです。

今のところCMOSカメラを使ってのDSOの撮影はShaprCapではディザーガイドがやりにくいなど、NINAやAPTなどに頼らざるを得ません。SV405CCはAPTは対応していないので、実際はほぼNINA一択になるかと思います。NINAでこの青ズレがある状態は致命的です。

というわけで、SVBONYさんの方に今回の結果を報告し、開発陣に連絡してもらうように頼みました。これでキチンとNINAでも対応してくれるように手配してもらえれば、青ズレ問題はとりあえず解決することになりそうです。

今の段階であとやれることは、次に晴れた時に改めてSV405CCを使ってSharpCapで撮影、画像処理までしてみて、(ディザーはやりにくいのでパスするかもしれませんが)青ズレが出ない仕上げ画像まで作ってみることでしょうか。


まとめ

ここまでの結果が正しいのなら、問題はハードではなくてソフトで解決できるということになります。ここが切り分けられるだけでも、かなりSV405CCの未来は明るくなります。その際、彩度がこれまで通り出なくなるのかちょっと気になりますが、まあ優先度としては次の話でしょう。

SV405CCの初期の評価、長かったですがやっと解決につながる道を見つけることができました。やっとあぷらなーとさんにお渡しすることができそうですが、どうもあぷらなーとさん骨折で入院しいるとかで心配です。焦らせてしまっても申し訳ないので、活動できるようになってから渡るようにしたいと思います。


福島の星の村天文台で行われた星まつりに参加してきました。前回まではスターライトフェスティバルと呼ばれていたもので、昨年から開催時期を6月に移動し、名前を星まつりと変えましたが、昨年度はコロナ禍で中止となったので、実質的には変更後初めての開催となります。




出発

6月3−5日の金土日の開催で、平日でしたが金曜の午前中に出発することにしました。

2968C194-7083-4C18-B26A-B1F55614F68C

北陸道から新潟で磐越道に乗り替え、福島に入り猪苗代湖を越えしばらく走り、ETC専用の田村スマートインターチェンジが最寄りになります。途中、北陸道の最後の方の黒崎サービスエリアで恒例のスターバックス。

AB7256B6-3910-4223-8327-863DFED14014

0DA83569-74B9-40DD-BC3B-821985F6E613

このスターバックス、毎回何かしら話しかけられます。今回は「抹茶好きなんですか?」と「コーヒーはのあまり飲まないんですか?」でした。そういえば1年半前の時も話しかけられたことを思い出しました。「年1回くらいの福島まで行くんです。前の時も話しかけらたんですよ!」とか言ったら「何かあるんですか?」と聞かれたので「星まつりというのがあって福島まで行くんです。」とか会話がはずみます。来年もまた黒崎でトイレ休憩することになりそうです。


会場到着と開会式

現地到着は15時半頃だったでしょうか、会場に一番近い駐車場もまだそこそこ空いていました。

36C50C71-DAC5-4EDF-866E-44569333C2F9

会場に着いたら各ブース設営準備でした。

413DB407-36F3-4738-B87E-D19901FE3E43

すでに開いていた国際光器さんのところに行き、先週OD3.8の太陽フィルターを購入させていただいたことを報告。ついでにOD5.0のシートが特価だったのでその場で追加購入しました。今回主な買い物はこれだけです。星まつりでしたが、今回はうまく物欲をコントロールできました。

会場で星仲間との再会です。最初に福島に参加したのが2016年。途中2度ほど台風などで中止になりましたが、開催された時には必ず参加していました。多くの知り合いもでき、歩いているはしから挨拶とお話しとで、そのまま17時の開会式になだれ込みます。

50F867FA-4C80-4082-B090-41D9B2B7DC19
星の村天文台長の挨拶です。

開会式では6月に移した理由が語られました。とにかく10月の台風に悩まされたこと。梅雨前の6月第1週が晴天率がいいからということでした。この判断は大正解だったと思います。実際、事前の天気予報に反し、どんどん予報も良くなり、金曜夜も土曜夜も、それぞれ0時頃、23時頃までと快晴で、天の川が2本の構造がわかるくらいかなりはっきりと見えました。地元の人によると、年何回あるか位のレベルの透明度だそうです。あと、まだ虫が出る前だったこと、多少寒かったですが、これまでの10月末とかの寒さに比べると遥かにマシで、車中泊も寝袋一つで十分に快適でした。


個性的な天体機器

開会式終了後、駐車場へ戻り少し回ってみると、utoさんがすぐ近くにいらっしゃいました。以前天リフの行事の時にオンラインではご一緒したことがあるのですが、お目にかかるのは初めてでした。念願の極小手作り反射鏡筒の実物を見ることができました。

7E5B76D0-CFF7-48E2-9414-CD259AFB5126

883ED0CF-609B-4FE7-ADF7-E4073E8F370D

作りが細かくて素晴らしいです。夕方のまだ明るいうちの月を見せて頂きましたが、実用レベルできちんと見えるところがすごいです。

ちょうどその場にいた方が、面白いものを取り出しました。極小繋がりで、なんと100円ショップの時計を利用した赤道儀です。

A8253826-06A2-4FC4-9A59-1AD7235CF1B8

時計なら「24時間で一回転」というまさにコロンブス的発想で、コンパクトさ、コスト、アイデアなど、もう天文マニアとして申し分ない逸品です。電池は動作させっぱなしで1年持つそうです。すごすぎます。

実際には以下のように使うとのことで、バランスを取ることで余分なウェイトなどを必要せずに実用で使えるとのことです。

3DC6CF32-CA7A-4C25-9A1F-D2D9D35960D6

utoさんが自分のコンパクト反射に入れたがっていました。今はアイピース入れに使っているという、本体の小さなスペースに本当に入りそうなくらいの大きさです。

実はこの方、昨年の小海で車を止めてすぐに会った方で、金沢から来たOさんということがわかりました。ドブ使いで、小海でもみた黄色の手作りドブを出していました。やはりすごい方は何を作ってもすごいですね。

1FAC87D9-8B30-4AFD-B3D6-EDB5DD87D5DF

星仲間のヒロノさんの66cmドブでも月を見せてもらいました。「星の村天文台の65cmより1cm大きい」とのことでした。

7F484814-CF6B-40C2-8E55-348C10395B70


電視観望関連

ヒロノさんといっしょに、19時からプラネタリウム内で始まるKYOEIさんの電視観望講座を聞きに行くことに。

E3E49771-1F86-4951-8628-C758D2B669C1

プラネタリウムのプロジェクターでスライドを表示させて話すのですが、この椅子がいけません。完全リクライニング型でかなり倒れ込むので、確実に眠くなります。私はがんばって起きてましたが、ヒロノさんはよく眠れたそうです(笑)。講演内容はいつもZoomで電視観望を講座をされているだけあって、とてもスムーズで、笑いありの、かなり完成されたレベルでした。質問もたくさん出てました。星まつりでこういった講演会があるのは、情報を知りたい方もたくさんいるはずなので、やはりいいですね。講演予定時間は30分でしたが、この時点で天気がかなり良くなってたので、外に行ってみる方が説得力があるということで、実際のスライドは20分程度、10分質問時間で19時30分には皆さん外に移動しました。

KYOEIブースではZWOの新しい赤道儀AM5が使われていて、かなり注目を浴びていました。まだ日本ではこの1台があるだけとのことです。

3FFA6EEC-71CD-40F2-802A-9A4DBA88E819

EC4320F6-5221-4742-A178-FCFA92137432


私はここで自分の電視観望の準備を始めます。最初天文ガイドの電視観望特集企画で、天文ガイドブース前に展開しようと思っていたのですが、あいにくKYOEIブースの隣で、邪魔になってしまうと悪いと思い、しいたけ屋さんの販売がすでに終わっていたので、そこで展開することにしました。

あ、しいたけ屋さんといえば、毎回しいたけの串焼きが絶品で、この日もプラネタリウムでん講座が終わってから夕食がてら食べようとしたら、なんと講座の間に閉店。この日は残念でしたが、次の土曜日に焼き鳥とたこ焼きと合わせて、しいたけの串焼き今回も頂くことができました。

肝心の電視観望ですが、今回のセットアップはFMA135+ASI294MC+AZ-GTiの超コンパクトセットです。実は豪華なFS-60CB+ASI2400MC Proのセットも持ってきていたのですが、車から機材を手持ちで運ばなければならないことと、口径3cmという小ささが逆にインパクトになるだろうと思い、FMA135にしました。

4F7B2E99-8E6E-466C-8DC5-31E230BEC982

天気が良かったことと空が暗かったこともあり、かなり綺麗に見えたのですが、始める頃の時間帯はこの季節あまり見栄えのする天体が少なく、月の地球照とか見せてました。あとはせいぜい三つ子銀河とM81、82が少し見栄えがくするくらいです。

02_M81

程なくしてM57が登ってくると少しカラフルになります。FMA135だと拡大率の限界に近くて、カメラのピクセルが見え始めます。M57のような小さな天体は、視野角と解像度の関係を示すいい例になります。

01_M57

KYOEIさんの電視観望実演も含めて、多くのブースが21時頃には片付け始めます。私のところはこれからば本番です。21時頃になるとデネブも見え始め、北アメリカ星雲が見えます。

08_NorthAmerica

その後、サドル付近を見てみます。真ん中に三日月星雲が小さく見えます。

07_ngc6888_b

拡大してみますが、光学性能が優れているFMA135のおかげで、破綻や星像の過度な肥大がすることなく、三日月星雲単体でも十分みることができます。

06_ngc6888

他にも定番のM27などです。

05_M27


最初の頃は一人でこじんまりとやっていたのですが、途中から何人も立ち寄ってくれました。さすが星まつり、実際に電視観望をやってみたい人、すでやっている方も多かったです。今回の星まつり参加の目的の一つが電視観望のデモなので、疑問とかトラブルとかの解消の仕方をできるだけ実演も含めて話したつもりです。実際のライブスタックが始まったら放っておけばいいので、話す時間は十分にありました。こういった取り回しのしかたも、もしかしたら参考になった人もいるのかもしれません。

CF50AA3A-5340-49AB-8E1F-3553D9693740

今回もう一つの収穫が、天文ガイドの編集の方に実際に見て頂いたことです。他の方もそうなのですが、わずか口径3cmの鏡筒(ガイド鏡では?と言っている方もいました)でここまで見えるのは驚きなのかと思います。原稿執筆時にも私から説明もいろいろしたのですが、本当に百聞は一見にしかず、やはり実物を見て、あーだこーだ議論して、見たい天体をドンドン変えていきと、もうとにかく楽しいのです。

その中で、編集の方が以前この星の村天文台で電視観望をみた覚えがあるという話をしてくれました。α7sもあったというので、恐らく2016年の最初にスターライトフェスティバルに参加した時で、私もBKP200とASI224MCで電視観望を披露した時です。場所も編集長の記憶と一致していました。あの頃から考えると、もう格段の隔世の感があり、5−6年の間に電視観望自身がものすごく進歩したことを改めて実感しました。

電視観望の技術の進歩といえば、2017年にやはりここ福島で、初めて画面に三日月星雲を映し出す
ことができました。その姿が上がってきたときには「おおーっ」という感じで、相当盛り上がったことを覚えています。まだまだフィルターを使うという概念があまりなく(QBPが発売されるもっとまえのことでした)、淡い天体を炙り出すのに苦労していた時の話です。ちなみにその時出した三日月星雲がこれです。

IMG_2911


上のものと比べると、今の方が口径さらに小さくなっているのに、はるかにきれいに出ていることがわかると思います。


片付け

0時近くでしょうか、だんだん雲が出てきてこの日の電視観望は終了。星友かつ、大学時代の先輩のHBさんに片付けを手伝ってもらいました。HBさんには焼きしいたけやコーヒーをご馳走になったりで、いろいろお話しさせていただいたりで、今回も大変お世話になりました。いつもどうもありがとうございます。

車に荷物を入れ、少しだけドブの方々に眼視で見させて頂きました。M13の粒状感は半端なかったです。他にもM51子持ち銀河や、M81と82のペアなど見せてもらいました。程なくして雲が全面を覆ってしまって終了となりましたが、最近眼視がかなり魅力です。

車に戻り、よく考えたら夕食を食べていないことに気づき、5分ほど山を降りたコンビニに買い出しに。やっと暖かいドリアを食べ、再び会場の駐車場に戻り、そのまま車で寝ました。そこまで寒くなく、寝袋一枚を広げてかけるだけで十分眠ることができ、かなり快適でした。梅雨前のこの季節、かなりいいです。

さて、土曜日のことはまた続きの記事で。

 

CP+の配信も終わり、ちょっとほっとしています。今年は収録配信でしたが、どんな結末だったでしょうか?


サイトロン本社での収録

2022年2月25日(土)にCP+配信のための収録をするためにサイトロン本社に向かいました。横浜アリーナでちょうどこの日の関東に出張だったため、少し早めに朝富山から新幹線で移動です。

実はこの出張、かなり早くから決まっていたので、講演の依頼をいただいた時点でそもそも今年のCP+のライブ配信は諦めていました。その代わり関東には来ているので横浜アリーナのステージで話す予定だったのですが、ご存知の通りリアル開催は中止になり全てオンライン配信になってしまいました。その前後も忙しくてほとんど時間が取れなかったので、元々予定していた土曜の同じような時刻で収録ということになったというわけです。

実は東京に来るのは2年ぶり。ずっとコロナ禍で来ていなかったので、新幹線から興奮気味です。行きの新幹線で以前よく食べていた「ますとぶりの小箱」を富山駅で買い乗り込みます。新幹線の中では収録スライドの最終チェックをして、少しトークの練習をします。サイトロンに到着したのは朝の10時半過ぎくらいだったでしょうか。

IMG_4656

聞いたら店舗はずっとお休みで、今はネットと電話でのみ対応しているとのことです。この日は収録のためにドアを開けていてくれていました。

中に入って少しお話をしました。新製品を含む機材もその場で見せていただきましたが、個人的な一番の興味はまだ開発中というAZ-GTiの小型版です。小海で実物を見せていただいて、前日のブラックパンダさんを含めてトークの中でも出ていたのですが、電視観望にさらなるコンパクトかの可能性を見出してくれそうで、かなり楽しみです。他にも4枚玉の107PHQを初め、いくつかの新赤道儀とか、小海ではまだ展示されてなかったものもあり、スタッフの雰囲気も合わせてとても元気な印象を受けました。

そんなことをしている間に11時も回ってしまい、さっそく収録です。事前にスライドをスタッフの方と一緒にチェックしましたが、基本的に私の意向を全面的に尊重してくれて、何も手直しすることなく収録に進みました。収録では昨晩東京から福岡に帰った天リフ編集長とZoomでつながってのやりとりです。サイトロンの雰囲気も伝えつつ、用意したNEWTONYとCeres-C、AZ-GTiを画面の中に入るよう近くに寄せて収録が始まります。

収録自身は特に緊張することもなく、滞りなく終わりました。途中FMA135とASI294MCも紹介しましたが、どうだったでしょうか?スライド内では広域電視観望として、昨年と同じく一眼レフカメラの焦点の短い明るいレンズを使った方法も紹介しています。今年はオリオン星雲はもちろん、バラ星雲とかカモメ星雲を画面を見ながら手動導入してみました。この広域での電視観望も導入装置とか必要なく手軽なので、広まってくれればいいなと思います。

本当は、Ceres-Cとズームレンズを使ったものを紹介しようとしたのですが、Ceres-Cもズームレンズも三脚へのマウントが難しく、今回はあきめました。もう少しいうと、マウントはMoreblueの1.25インチのマウントを手に入れたので間に合いました。



これでCeres-Cをアルカスイスプレートなどに固定できます。ただし、穴の大きさがギリギリでCeres-Cを入れ込むのに少し苦労するので、噛んだりしないよう注意して下さい。これを手に入れたまでは良かったのですが、その後全く天気がだめで、北陸の冬の空を恨みました。実際、スライド内で使った撮影画像や動画はほぼたった1日のワンチャンスで撮ったものです。Ceres-Cを使ったズームについてはまた天気が良い時に試して、そのうち記事にします。

さて、収録さえ終わってしまえば、私としてはあとは配信を待つのみで、気楽なものです。その後、ファイルの転送とチェックがてら、天リフ編集長とサイトロンのスタッフの方といろいろ話していました。最近は雑談レベルで会話できる機会がなかなかないので、こちらの方も楽しかったです。

その後まだ仕事まで少し時間があったので、スタッフの方と藍屋に移動して食事をしました。久しぶりに行った藍屋ですが、富山に藍屋はないのでちょっと嬉しかったです。ここでもいろんな話を聞くことができました。秘密の話もちょっとありました。やっぱりこうやって星好きな人と話すと楽しいですね。


2月26日(日)の配信当日

さて、2月26日の日曜日、実際の配信当日です。この日も東京で仕事が結構遅くまであり、宿泊しているホテルに戻ったのは配信の1時間前くらいでした。パパッと片付けて、配信を見始めたのが根本さんのDBPとQBPのお話しが始まる少し前でした。根元さんの話の途中から少しコメントに参加しましたが、QBPとCBPでの青の出方の話になっていました。私は撮影用には青も出したいのでCBP、電視観望用では青を出すのがそもそも難しいのでQBPの方が好きだったりします。さらに青以外にもオレンジや緑もCBPの方が出やすいとかコメントしてたら、まもなく私の配信の時間になってしまいました。


今回のポイントは、ライブ中継ではないのでその分コメント欄で皆さんの質問にリアルタイムで答えていくことです。

最初に
  • Sam: ​コメントできるだけ拾いますので、どんどん質問とかして下さい。
と呼びかけました。サイトロンさんからも
  • サイトロンジャパン / SIGHTRON JAPANさん: Samさんの配信は収録となりますが、チャットに入られていますので、随時ご質問をどうぞ。
とのサポートコメントが。

何人かの「待ってました」とか「よろしくお願いします」とか反応がありました。最初は質問というよりは、いくつかやりとりです。
  • たつまるさん: Prayer One激推しです。
  • Sam: Player One、新しい会社なのに使ってみると恐ろしくこなれています。
  • M1623:さん 電視観望で初めて見たときは感動したなあ
  • Sam: 是非自分の目で見て下さい。絶対感動しますよ。私も電視観望始めた時、ほぼ毎日見てました。
  • kyoyaさん: 「その場で色が付く」!パワーワード!!
  • Sam: やっぱり電視観望はリアルタイムというのが良いのかと思います。
その中で
  • 渋ニャアー(マネア)さん: 今日もライブスタック中継あるか!と、思ったけど録画かぁ。
とのコメントがありました。申し訳ありません、今年は上に書いたような事情で録画になってしまいました。またいつかライブ中継やります。

昨年の中継については
  • 291inuさん: 去年のセミナー見て始めた口ですが、すごい面白いですよ。
  • たつまるさん: 去年の講演は何十回も見て勉強しました。
  • Civet2009さん: 自分は電視観望なかったら今ごろ星やってないかもしれないくらいの勢いです(笑)
という嬉しいコメントが。 

トークが始まるとNEWTONYについてコメントがたくさんありました。
D73C86A6-6B71-42B8-B400-9A6167D155EC
  • 291inuさん: ニュートニー小海の時に買っておけばよかった…w
  • M1623さん: これで銀河も見えるんですねえ
  • 雑兵Aさん: マルカリアンチェーンがこんなに!
  • Sam: シュミットのサイトで買えますので、是非是非。
  • kyoyaさん: すごい…!
  • 渚みかんさん: ちっさいので持って行くのも楽ですね!
  • 雑兵Aさん: 6600円のNEWTONYでこんなに見えるのはすごいですよねえ
  • M87JET tubeさん: NEWTONY君、かわいい(*´▽`*)
  • はにちゃいさん: 初心者でも手を出しやすくてありがたい価格!シュミットのサイト早速見てきました笑
  • Civet2009さん: 接眼部にヘリコイドのついたNewtonyを1万円くらいで出してくれないかな・・・実は現状ではピント合わせがまあまあ難しいです。
  • Sam: センサー面積が小さいので、短い焦点距離の教頭が必要になるのです。NEWTONYは安価で数少ない短焦点の鏡筒です。

セットアップ時の水平出しは重要なのでコメントでも強調しておきました。
8F02DA43-8912-45AE-A933-3761F16186ED
  • T.マリーチさん: 水平出し、ちゃんとやらなかったからダメだったんだ。早速、ダメポイント!
  • Sam: 水平出しは実は相当重要です。導入の精度を上げたい場合は必須です。

Ceres-CのDSPも皆さん関心が大きい様です。
C5815CA1-D0B0-4EC2-B4A2-C434956D1C69
  • fukutiwhiteさん: DPS効果あるみたいですね
  • 2あぷらなーとさん: 出た!DPS!!
  • masatoshi yamadaさん: DPSあるのはいいなぁ
  • Sam: DPS電視観望にこそいいですよ。LiveStackでほとんどミミズが出ません。
  • Civet2009さん: Ceres-Cもダークなしでいけますか?
  • Sam: ダークなしで余裕です。ホットピクセル見つけたのは1個だけでした。
  • 2あぷらなーとさんさん: やはり「ガイディングカメラ」シリーズは他のシリーズよりもDPSが強めのテイストに設定されてるのかもしれませんね
  • Sam: DPSもついていてさらに安価なので、入門用はほぼこれ一択かと。
  • Sam: DPSの設定が撮影用途と違うというのはあり得るかもしれません。比較してみたいです。

QBPについてもいくつかやりとりがありました。
E580875C-EA3E-4778-9532-FC960DDF1D92
  • fukutiwhiteさん: QBP2とQBP3はだいぶ違いますか?
  • T.マリーチさん: フィルターの重要性がかなり分かる!
  • 俵藤太さん: QBP2とQBP3は邪悪さんの課題対応で、赤外線カットが違うのでは?
  • Sam: QBP3のほうが赤外の影響が出にくく赤外に感度があるカメラでは赤ハロが軽減できるはずです。
  • 2あぷらなーとさん: 高級アポや反射系ならQBP2でも良いと思いますが、赤外線領域の色収差が大きな筒(アクロマートなど)に赤外感度の高いカメラだとQBP3の方が圧倒的に良いです
  • 2あぷらなーとさん: 高級アポや反射系ならQBP2でも良いと思いますが、赤外線領域の色収差が大きな筒(アクロマートなど)に赤外感度の高いカメラだとQBP3の方が圧倒的に良いです
  • Sam: CBPでも赤外ハロはあまり出ないはずです。
  • 291inuさん: 2枚玉EDとCBPだとなんか恒星に滲みっぽいものでるので赤外フィルター入れてますがいらないのかな?
  • Sam: CBPがあれば赤外フィルターなしで良いはずです。
  •  kyoyaさん: 最初のセットでフィルタは無しでもそこそこ色も見えますか?
  • Sam: フィルタなしでもとりあえず試してみて下さい。そこそこは見えます。次にフィルタを入れてみて違いを見るのも楽しいです。違いははっきりわかると思います。

Live stackについてです。
  • 雑兵Aさん: おー、重ねるときれいになった!
  • T.マリーチさん: グラフの見方を初めて理解できました。
  • Sam: 山が太いとノイズが大きいと思って下さい。スタックすると細くなります。
  • kyoyaさん: これは固定で、追尾はしてないということなのですか?
  • Sam: 経緯台ですが、自動追尾しています。さらにLiveStackではSharpCap上でソフト的にも追尾します。

電視観望で憧れを実現できるはずです。
  • みるみるくさん: マルカリアンチェーン憧れです。すごい!
  • Sam: マルカリアンチェーンならホントにすぐ見えます!ただ、今の季節だと夜遅くまで起きてないとダメですが(笑)。

途中、なんとあぷらなーとさんから「Samさんセット」の提案が!
  • 2あぷらなーとさん: 電視観望入門用「Samさんセット」とか発売されないかなぁ♪
  • Sam: サイトロンさんで聞いたのですが、ホントにSamさんのトークと同じものを欲しいという問い合わせがあるそうです。
  • ブラックパンダさん: 古典アクロマート3本セットの「あぷらなーとさんセット」と、電視観望入門用「Samさんセット」いいですね!
  • 2あぷらなーとさん: ブラックパンダさんノリ良すぎ♪

ASI294についてのコメントも。
  • Civet2009: ここ3年くらい非冷却でASI294MCを超えるCMOSは出てないと思います
  • Sam: ASI294MCはかなり息が長いです。電視観望では性能だけ考えたらベストだと思います。
FMA135についても既に持っている方からコメントが。
  • fukutiwhiteさん: FMA135買ったけど後悔していないw
  • M1623さん: FMA135はいいですぞ
  • 291inuさん: 今度試してみます。
  • 雑兵Aさん: 手で導入できるの、いいですね!AZ-GTiがちょっと価格を押し上げちゃうので。
  • T.マリーチさん: 「超コンパクト」なんて最高です!
  • たつまるさん: 去年のsamさんの講演見て、FMA135+Neptune-CⅡを買いましたw
  • 雑兵Aさん: 小さいなあ
  • シュガーあんとんさん: この屋根の上の北アメリカはインパクトありますよねぇ~!
  • Sam: 屋根からシリーズは私もかなり好きです。
  • 雑兵Aさん: 屋根が入ってるの、リアル感あって好きです。
  • アルさん: FMA135楽しいですよね
  • Sam: FMA135は小さいM57から大きいアンドロメダまで全部楽しめます。

いくつか質問やアドバイスなどです。 
  • 俵藤太さん: 写真として保存できるんですよね?
  • Sam: 写真と電視観望画像の差はほとんどないです。自動的に記録する設定もできるので、後からみたものを写真として振り返ることもできます。
  • ころばせさん: ニュートニー、住宅街だと筒先にフードがあるといいかも。
  • Sam: NEWTONYはカメラが先端につくので、近くの光が邪魔になる時があります。やはりフードがあると良いです。

広域電視観望の感想です。
46D74235-A945-451D-A3F6-7E12B2D188D6

  • Civet2009さん: この広角電視観望がまたタノシスギル!
  • Taro Mineさん: シームレスに手動導入しちゃうのか!!
  • たつまるさん: いきなりこんなに見えるんですね〜
  • Sam: ほんんとのほんとに手動導入です。
  • Sam: 屋根からシリーズは私もかなり好きです。
  • 雑兵Aさん: 屋根が入ってるの、リアル感あって好きです。
  • Sam: 広角電視観望は観望会でも大人気です。

カメラレンズに関してもやりとりが。
  • たつまるさん: PENTAXレンズに付ける方法が分からないんですよね〜。
  • Sam: PENTAXをCanonに変換するアダプダーがあれば、あとはCanonでピントが合います。
  • たつまるさん: なるほど、一度EFマウントに変換するんですね!ありがとうございます!
  • 291inuさん: 完全電子マウントなソニーのレンズだと厳しいなぁ…
  • Sam: ソニーマウントは経験ないです。ピントと絞りが外から手で調整できればなんとかなる気がするのですが。
  • 291inu: Eマウントだとピントリングすら電子制御なんで…
  • Sam: なるほどEマウントはやはり難しいのですね。
  • Civet2009さん: 広角電視観望用に古い一眼レフレンズをゲットしてもいいと思いますよ。自分は1600円のCanonFD50mmF1.4を使用(笑)
  • Sam: クラシックな明るい標準レンズはかなり安価に買えるはずです。ここで使ってるのも5千円くらいでした。
  • Taro Mineさん: タクマ―なら何本も持ってる
  • Sam: タクマーも十分使えますよ!
  • 291inuさん: なので近所のハードオフ巡って使えそうなレンズ探してますw

北陸の天気に関してです。
  • シュガーあんとんさん: 北陸はホントに晴れないのに・・よく撮れましたねぇ・・素晴らしいなぁ!
  • Sam: この1日だけでした。本当はこのあと月のない日をずっと狙ってたのですが、結局全く晴れなかったです。
  • Sam: 月があってもこれくらい見えます。
  • 雑兵Aさん: 月があんなに近くにあるのに!
  • Sam: 月と重なってたので、エンゼルフィッシュ星雲は流石に諦めました。

いくつか回答を飛ばしていたものがありました。申し訳ありませんでした。ここで回答しておきます。
  • masatoshi yamadaさん: SharpCapはpro版?
無料版でもかなりのことはできますが、炙り出しとか圧倒的に楽になるので、有料版をお勧めします。1年あたり2000円です。支払いはPayPalが楽です。
  • b ICEさん: 次は画像処理の解説を是非
本格的な画像処理は難しいですが、電視観望用の簡易画像処理は開設してもいいかもしれません。


いくつか、とてもありがたいコメントです。
  • ころばせさん: 初めて星雲・星団を探すとき、どれくらいの大きさで見えるのかが分かると探しやすいので、こういう講演は参考になりますね。
  • Civet2009さん: これから電視観望が天文への入り口だった、っていう人も出てくるんでしょうね。電視人口も増加の一途?
  • たつまるさん: 電視観望やっていたら、見知らぬ小学生にメッチャ喜ばれました。
  • Sam: 子供の反応を見てると自分も楽しくなりますよね。

トークが終わってからのコメントです。みなさん、どうもありがとうございました。私も楽しかったです。
  • fukutiwhiteさん: モチベ上がる~
  • みるみるくさん: わくわくが止まりません。ありがとうございました。
  • Taro Mineさん: ワクワクをありがとう!!
  • 俵藤太さん: サイトロンのセミナーは良かったです
  • 渋ニャアー(マネア)さん: ブログと併せていつも楽しませて頂いております。
  • Taro Mineさん: 楽しかった~
  • kyoyaさん: まだ頭がグルグルしてます(@▽@;)
  • はにちゃいさん: 質問に答えていただけて勉強になりました!
  • サイトロンジャパン / SIGHTRON JAPANさん: Samさん、しつぎのご回答ありがとうございます!
  • Mitsuyuki TAKEUCHIさん: ありがとうございました!
  • 俵藤太さん: 質疑応答できるととてもいい
  • 291inuさん: 電視観望から始めてもいいし、入門用望遠鏡の次のステップにもいいですね。
  • 石橋隆司さん: ワクワクしました!ありがとうございました(*^^*)
  • Taro Mineさん: 全画面表示でもチャットが載ってくるのが良いですよねぇ。
  • Sam: 今回は収録だったので、コメントに集中できました。このやり方もいいかもです。

サイトロンさん、本当にありがとうございました。
  • ブラックパンダさん: Samさん、ありがとうございました!
  • Sam: ブラックパンダさん、ありがとうございました。
  • 中村恋魚さん: 3日間楽しかったです(*´∀`*)
  • 天リフVideoさん: サイトロンジャパン様、素晴らしい企画をありがとうございました!

数えてみるとみなさんから合計145のコメントがあり、私Samが質問などに59回答えていました。最初はLive中継でなかったので申し訳ないかな思っていたのですが、コメントに集中してリアルに返していくというのはかなり良かった気がしています。これまで中継しているうちはほとんどコメントを追うことができず、寂しかったのですが、今回はむしろ視聴者との結びつきが強かったのかと思いました。ただし、リアルでテンポよく回答していくのはかなり大変だということにも気づきました。終わった後の心地よい疲労感はLive中継した時と同じくらいかと思いました。

正直いうとやはり昨年の天気が奇跡的に晴れた時の方がインパクトがあったかと思いますが、今年は今年で入門者がより手を出しやすくというので、また繰り返して見ていただければと思います。電視観望がじわじわ広まって、第3の観望スタイルみたいになっていってもらえればと期待してしまいます。

現在ではサイトロンさんはじめ、多くの販売店やメーカーが電視観望に力を入れてくれています。eVscopeはじめ、新しいStellinaやVesperaなどのもっと手軽な機器も出てきています。まだまだ発展する技術だと思います。今回は入門用の配信でしたが、ベテランの方も気楽に見える電視観望を是非とも試していただけたらと思います。

電視観望の未来は明るいです!
 

2021年11月19日は、月の97.8%が欠ける限りなく皆既に近いと言われる月食です。前回の2021年5月26日の皆既月食は、ブログ記事にすることがほぼ何もないくらい雲が厚くて全滅でした。さて今回はどうなることやら。


準備

実は私、まだまともな月食の撮影はしたことがありません。星を初めてまだそこまで年数がたっていなくて、初の皆既月食は2018年でした。



同じ2018年にもう一度チャンスがありました。


この2回はいずれも雲に悩まされ、かろうじて雲越しの月を救い上げたか、皆既時には雲で撃沈だったりでした。その他部分月食の機会もありましたが、いずれも天気が悪かったりで、まだまともな撮影を実現できたことはありません。

そんな中、今回は北陸は天気が悪いとの予報だったので、もともとあまり気合は入らず、しかも月食当日の11月19日は平日で仕事もあるのであまりたいした準備もしていませんでした。でも当日になると予報に反して天気が良さそうです。仕事が終わってそれこそ超特急で準備をして、いつもの東が開けている近くの河原に陣取りました。とにかく時間がギリギリでした。

地平線(と言っても遠くの立山連峰が5度くらいの高さまでありますが)までひらけて見える前回の撮影場所にしようとしたのですが、冬の月に近いので出てくる位置が思ったより北に寄っていることに気づきました。そのため少し場所をずらし、月の出から見えるような位置に陣取りました。もう準備の途中ですでに肉眼でぼやけた、それでも既に欠けている月が見え始めているのに気づいてました。山の際の低空に雲があるため、最初は月が霞んでいたので、まだ少しだけ準備に時間をかけることができそうです。


機材1: 広角

まずは急いで、簡単な方の広角撮影の準備をします。EOS 6DとNikkor 50mmオールドレンズで月の出始めから月食終了まで1分ごとの連続撮影です。準備の間にやったことは
  1. 三脚にカメラをセットし、月を拡大してピントのチェック。
  2. 設定はF値2.8、露光1/5秒、ISO400で、かけている部分の模様が見えるくらいに。
  3. 画角のチェック。縦長で最下部に地面が入るように、かつ月が左端に来るように。これで月食終了時に月が右上のはずです。
1分ごとの撮影は、Magic Lanternのインターバル撮影の機能を使っています。バッテリーは長時間っ撮影でも電池切れにならない様に、2系統のUSBから電源を取得できる外部バッテリーを使っています。とりあえず撮影を始めて、月食が終わるまで3時間近く放っておきました。

その中から5分おきのものを抜き出して、比較明合成したものが以下になります。

StarStaX_IMG_6320-IMG_6480_lighten_5min

ちなみに1分ごとのものを全部合わせるとこうなります。

StarStaX_IMG_6320-IMG_6478_lighten

これをタイムラプス映像としてみると、


画像処理までして実感したこの撮影の反省です。1分という時間間隔はそこそこokです。それでもタイプラプスにするなら30秒の方がスムーズかもしれません。一番の問題は月食で欠けている部分に露光を合わせると、月の明るいところは完全に飽和してしまうことです。この写真も途中から露光を切り替えて、明るい部分の模様が見える様にした方が良かったかもしれません。でも長時間撮影なので、一度撮影を始めたら触りたくないんですよね。

そこで次回に向けて考えたのは、撮影は1分おきなので、その間に露光を3種類くらい変えればいいのではないかと思うのです。今回の設定と、2018年の7月の皆既月食のときの設定から考えて
  1. 明るい部分: F4、露光1/200秒、ISO100
  2. 今回の設定と等価F4、露光1/2.5秒、ISO400
  3. 欠けた部分: F4、露光1秒、ISO800
くらいでしょうか?

こういった複数の設定を繰り返すのは、いつも6Dで使うBackYardEOSはちょっと面倒かと思います。なので、NINAかSharpCapのASCOM接続とかになるのでしょうか、いずれ次回の月食までにテストしたいと思います。

あと50mmのもう少しいいレンズが欲しいですが、他にもほしいものがたくさんあり、なかなか優先度が上がりません。


機材2: FC-76での連続撮影

2台目は、FC-76 + ASI294MC + Advanced VXで、もう少し大きな月のタイムラプス映像と、地球の影を炙り出すために、5秒間のワンショットを1分おきに2時間半近く、合計150ショット近く撮影。撮影ソフトはFireCapture、露光時間は25ミリ秒でゲインが220です。5秒で70枚ほどが撮影されます。

画像処理ですが、AutoStakkert!3でスタック、あとはPhotoshopのアクションとLightroomの同期機能を使い、全数同じような処理をします。最大食だけは見やすいように少し目立つ処理をしました。

最大食時から前後20分おきの画像を並べてみました。フィルターなどは入れていません。

all_cut

参考にしたのはこのページです。



この位置に合う様に、月を一直線に並べていくと影がきちんと円を描きます。

FC-76での撮影も問題点は広角の場合と同じで、月食で欠けている部分に明るさを合わせると、月の明るいところは完全に飽和してしまうことです。なのでこちらも2種類か3種類程度に露光を変えるといいのかもしれません。今回、一つのファイルが1分のうち5秒撮影で1.5GB程度です。1時間で90GB、皆既月食の初めから終わりまでの約3時間撮ると270GBです。トータル1TBのディスクなので、1分に15秒までならなんとかぎりぎり撮影できそうです。

あとは追尾をどうするですが、かんたろうさん情報によると極軸の精度さえ出ていれば、追尾レートを太陽時に合わせておけば、比較明合成だけで位置が合うそうです。ただし、数時間にわたり位置がずれない様に極軸を合わせるのもなかなか大変なので、むしろ恒星時に合わせる様にガイド鏡とPHD2を使うのもいいのかもしれません。

太陽に合わせても、恒星に合わせても、いずれにせよ画面の中を走っていくので、ある程度の画角をあらかじめとっておくことが必要になります。

もう一つのやり方は、FireCaptureで形を認識してガイドした方がいいかのかもしれません。でも月食時に形が変わっても可能なのでしょうか?

この問題、位置がきちんと後から計算できるなら、月にある程度合うように撮影してしまえば楽です。もし太陽の見た目の位置と月の見た目の位置が情報としてわかっているなら、そして太陽、地球、月間の距離がわかっているなら、簡単な作図で計算できるのかもしれません。時間があるときにやってみようと思います。

FC-76では2時間半ほど撮影を続けたので、タイムラプス映像を作ることも可能です。でも撮影した全画像を見ると結構ずれてしまっていて、センター合わせがかなり難しいです。手動で合わせるには150枚近いのでさすがに大変。PIPPの位置合わせ機能を試しましたが、明るいところがサチっていると認識がうまくいかないようです。位置認識ソフトを自分で書くかどうか迷ってます。ハフ変換というのを使うと画像から円が認識できるらしいのですが、これでうまくいくのか?まだ処理で悩んでいるので、うまくいったら公開します。


極軸精度と月食撮影時のずれの見積もり

ついでなので、今の極軸の精度で足りるのかどうかザックリ見積もってみます。まず極軸の精度ですがSharpCapで50秒から1分角の精度がでます。誤差もあったりするので1分角としましょう。そうすると簡単な計算から、最大で4分間で1秒角ずれていくことになります。

 

1時間で25秒角、3時間で1分と15秒角ずれるというわけです。月の視直径が30分角くらいなので、これくらいなら大丈夫そうですね。やはり次回は十分な画角をとって太陽時で追尾でしょうか。


機材3: TSA-120による自由撮影

最後のセットアップは、TSA-120 + ASI294MC Pro(常温) + 35フラットナー + UV/IRカットフィルター +
CGEM IIで、画角いっぱいの月を自由な時に撮影するものです。SharpCapで25ミリ秒露光でゲインが220で100枚撮影をワンショットとします。

でもこの撮影画像、なかなか青い成分が出てこなくて、パッと処理しただけではターコイズフリンジらしいものが出てきません。明るい部分と暗い部分の境が出る様にかなり苦労して処理すると、青成分が含まれていることがわかりターコイズフリンジらしいものが見えてきます。

2021-11-19-0903_2_lapl5_ap3030_2_cut

でもかやはり無理をしている気がします。ここまで画像処理を必要とするほど大変なのでしょうか?

ネットに上がっている写真を見ると、ターコイズフリンジが全然出ていないものと、かなりはっきり出ているものに分かれている気がします。はっきり出ているのは簡単に出たものなのでしょうか?それとも私がやったようにかなり苦労したのでしょうか?

ここら辺でかなり迷走しました。この画像処理、月食の本来の色のことなど考えだすとものすごく長くなりそうなので顛末は別の記事で書きたいと思います。


まとめ

ある意味初のまともな月食撮影でした。でもやはり準備をさぼっていたため、いまいちだった感は否めません。今回の反省をもとに、次回はもう少し撮影体制を見直したいと思います。

それとは別に、ターコイズフリンジとタイムラプスでいまだに色々迷っています。既にかなり時間がかかっていますが、もう少し結果が出たらまたメモがてらですが、ブログ記事にしたいと思います。



前回記事からの続きです。



2021年9月19日は、毎年京都るり渓で開かれてきた「星をもとめて」のオンライン開催の日です。前回2019年のリアル開催の時に講演を頼まれていて、今回「やってみようよ電視観望」というタイトルで話すことができました。


スライド作り

問題は資料作り。実はこれまで電視観望についての講演は4回ほど(2019年6月:CANP、2019年10月:小海「星と自然のフェスタ」、2021年1月:天リフ「日本全国天文ファンオンラインリレー」2021年3月: CP+2021サイトロンブース)やったことがあり、 ある程度のスライドのストックはあります。










なので講演一週間くらい前までに、まずは手持ちのスライドを組み合わせてある程度の並べ替えをしました。でも、ある程度話を繰り返すと同じような内容になってしまうんですよね。何度も聞いてくれる人はもしかしたらつまらなくなってしまうと思ってしまうのです。その一方、今回は初心者向けにということも頼まれていたので、どうしようかと迷っていたら、仕事の方で忙しいのも手伝ってあっという間に前々日の金曜夜になってしまい、この時になってやっと資料作りに専念できる時間を作り出せました。今回のトークの時間は40分とかなり長めです。なのでこれまで時間制限でなかなか話せなかった細かいことも話せそうです。

その金曜夜と、土曜夕方くらいまで、ほぼ丸一日スライド作りに全力を尽くした結果、(この時点である程度分かっていたのですが)いつのまにかかなりマニアック向けの凝ったスライドになっていました。しかも40分のトークにスライド50枚以上。1枚1枚の密度を考えたら、1枚1分では終わらなさそうな内容です。それでも前半は初心者向けなはずだと、自分自身に言い聞かせ、まだ本番まで1日近くあるのでここから不必要な部分を削っていけばいいと安易に考えていました。

土曜は少し早めに寝て、本番の日曜の朝、スライドを削る方向のはずが、わかりやすくしようとさらに途中のタイトルなどを追加。枚数は60枚ほどになっていました。午後になって13時頃、Zoomのテスト接続を試して山下さんと話したのが運の尽きでした。講演時間は18時30分から19時10分までの40分の予定なのですが「最後なので(時間的には)ゆるくでいいですよ」とのお言葉に、「うーん、削るのはまぁいいか」と思ってしまったのです。「もしかしたら晴れるから、中継の準備もしなければ」とか「トークが終わったら懇親会もあるから、夕食ははあらかじめとっておいた方がいいか」とか色々自分に言い訳しながら、スライドを削る時間を諦めて、最終練習と微調整くらいに留めておいてしまったのです。いや多分疲れてたのですね、せっかくの機会なので思いの丈を話してしまおうと思ってしまったのです。


実際のトークの様子

さて、実際の本番18時30分。前のお二人は多少時間が延びたのですが、それでも10分程度と全然許容範囲内。なんだかやばい気がしてきました。まあどうにかなるかと、半分諦めもつけてトークをスタート。それでも前半はまだ初心者向けだとこの時は信じて話してました。

おそらく初心者が最初に迷うのがカメラ選び。ここはきちんと情報を入れておいた方がいいと思い、頑張って作ったスライドと共に丁寧に話します。本当は初心者にとっては、決めうちの一機種を「これが一番です。これだけ買っておけば間違いない!」とか言ってもらった方が多分いいんですよね。でも今回は真逆で、「できるだけ情報を見せていいものを選んでください」という方向にしてみました。もちろん推薦機種とかは示しましたよ。でもそれでもなんでこのカメラがいいのか、どうしても理解して欲しかったのです。

なのでお詫びではないですが、ややこしい話しなってしまった尻拭いとして、(まあ、配信ビデオの方を見ていただければいいのですが)スライドをここに載せておきます。

スライド19

スライド20

スライド21

スライド22

スライド24

スライド25

古くなってしまいましたが、以前のカメラ選びの記事と合わせてお読みください。なんとかカメラ選択の助けになればと思います。

後で天リフさんのTwitter投稿を見たら、


「過去のSamさんの講演の中で一番突っ込んだ詳しい解説かも。」とのコメントが...。さらに講演後の懇親会の中で星見屋さんから「いやーマニアックでしたよ。センサーの感度を考えて買う初心者なんていませんよ。」とのお話が...。やばい、どうやら前半ですでにやらかしてしまったことにかなり後になってやっと気づきました。

さてトークの方ですが、スライドが半分くらいのところですでに30分くらいの時間が過ぎていました。後半の応用編と電視観望の理論みたいなさらにややこしい話になります。もともとこちらは、これまでの過去のトークを聞いてくれた人が飽きないようにと用意していた話なので分かりにくい話も多いはずです。それぞれ所詮スライド1-2枚では細かい話はできないので、こちらも申し訳ないので説明相当のブログ記事へのリンクを示しておきます。

スライド38



スライド40



スライド41



スライド42




スライド43



スライド44





スライド49




おまけです。スライドだけ用意したけど、時間が足りなくて諦めたものです。
スライド61





配信ビデオ


YouTubeの配信の方が既にアップされているようです。聞き逃した方で、興味のある方は是非ご覧ください。



ここの1時間52分23秒くらいからです。


懇親会

講演後は、そのままZoomでの懇親会へとなだれ込みました。名前を見ると知り合いの方も何人かいます。Revolution Imagerや3倍星座ビノなどで盛り上がったあっかさんとは、初めて実際に話すことができました。

あと、富山の方(最近引越しされてきたらしいです)も参加されていて、電視観望見てみたいとのこと。その後のやり取りで9月25日の地元の牛岳で観望会に参加することが決まりました。こうやって少しづつですが、天文の輪が広がっていくのは嬉しいものです。

今回はZoomのブレイクアウトルームが用意されていたので、いくつかの話題に応じて各部屋に別れることができます。メインルームでは人が多く、なかなか発言できない人も多いと思い、チャット欄に「何か今日のトークで聞きたいことがある方はどうぞ」とメッセージを残してブレイクアウトルームの一つに移りました。程なくして数人の方が入室されてきて、そこからずっと質問に答えたり、天文談義に花を咲かせていました。こういった知らない人同士が気楽にまったり話せるような時間は、オンラインと言っても星まつりと同じですね。とても幸せな時間です。

参加者の1人、最近星を初めて、今日のトークを聞いてQBPをポチってしまったというXRAさん。横浜の方と言うのでQBPの効果は相当あるかと思います。他にも懇親会で話題になっていたものを次々ポチしてました。ご家族の理解は大丈夫でしょうか(笑)? 他にも2019年の原村や星もとでお世話になったKaienさん、望遠鏡博物館に誘っていただいたTANKOさんの顔も。

どなたかが「このメンバーだとAZ-GTi全員持ってるのでは?」との質問にTANKOさんが「私持ってない」と即答。でも「え、でもeVscoop持ってるのでは?」とすかさずツッコミが入り、みんな大笑いとビックリ。クラウドファンディングでかなり安く手に入れたとのことですが、出資してから手元に届くまで3年待ったとか。

あと、この日の講演で小惑星の掩蔽で話をされた渡辺さんもブレイクアウトルームに来てくれてました。研究に近いことをされていて撮影とかとはまた違った楽しみ方をされているので、トークも含めて参考になる話が多かったです。

その場で気づけなかったのですが、チャット欄を見ると以前の星もとでお会いした、当時阪大の学生で娘が随分お世話になった方が、なんと高校で理科の先生になったとのことです。月日が経つのは早いです。特に学生さんはどんどん次の世界に移っていくので、羨ましい限りです。チャットの返事をしようと思ったら、既に退席した後で非常に残念でした。高校の頃自分で天文部を立ち上げたことのある経験を持っているとのことです。赴任先の高校で天文部がなかったらまた天文部を作ったりするのでしょうか。いや、天文部のある高校を希望したのかも。天文のことをきちんと伝えることができる、生徒想いのいい先生になってほしいです。

IMG_3349
ブレイクアウトルームですが、結構な人数が集まりました。
右のチャットのところに、理科の先生になったとメッセージが届いていました。

その後、何気なく外を見ると月が出てかなり晴れています。せっかくみなさん興味を持ってくれている方が集まってくれているので電視観望中継を試みます。


急遽電視観望中継

ここからは今日これまでの鬱憤を晴らすべく大盛り上がりです。最初は月でアラインメントを取ります。ちなみのこの日は満月前日。空には煌々と明るい月が輝いています。それでも今の機材は凄いですね。今回は口径わずか3cmのFMA135に新製品のアメリカンサイズのCBPを先端につけます。カメラはトークでもベストと紹介したASI294MC。これらを、これもトークで紹介したAZ-GTiに乗せます。

IMG_3338

まず最初はM27。かなり拡大しています。というのも、135mmの焦点距離でフォーサーズサイズのカメラだと相当広角で見ているために、M27は非常に小さく映ります。

M27

機材を自宅Wi-FIルーターから離れて置きすぎていたために、M27の後にネットワークトラブルがありましたが、少し家の方に移動して再びアラインメント。この後は順調でした。

実は私はあまり写真を撮っていなかったのですが、参加者のToyoharaさんがいくつか画像を残しておいてくれました。上と同じM27ですが、Zoomの先では下のように表示されていたようです。
image (86)

中継先でもそこそこきちんと配信されているがわかります。

同じく、M57もToyoharaさんが残してくれていました。M27もかなり拡大しましたが、M57はもっとひどいです。小さすぎて恒星と見分けがつかず、映っていても探すのに苦労します。なので、まずはAZ-GTiでわかりやすいベガを再アラインメントし直し、その近くにあるM57を精度良く自動導入するというテクニックを紹介しました。これだと点にしか見えないM57も、画面の真ん中ら辺を拡大していくだけで形が見えてきます。
image (87)

それでもM57は135mmだと分解能限界です。むしろFMA135の性能の良さで恒星の肥大を防ぐことができていて、なんとか見ることができています。

あと、PCの画像に残っていた北アメリカ星雲です。満月期でここまで見えれば十分でしょう。皆さん満足してくれたようです。観望会などでも使えそうだということを実感してもらえたかと思います。

Capture_00001 23_05_25_WithDisplayStretch_full

他にもM31アンドロメダ銀河、網状星雲なんかをみました。M31は銀河なので、CBPは外した方がよかったかもしれません。網状星雲を見ている間に雲が出てきて、他の方向も探りましたが8割以上曇っていて、この日の懇親会は終了となりました。最後の方で山下さんが参加されてきて「もう他のブレイクアウトルームはとっくに解散していて、あとはここだけ」とのこと。皆さん、遅くまでご参加お疲れ様でした。私も非常に楽しい時間を過ごすことができました。

実は今回のブレイクアウトルーム、このブログでもおなじみの小6のMちゃんも始まりから夜遅くの最後まで参加してくれてました。ブレイクアウトルーム内では唯一の女性で、唯一の小学生(中学生、高校生もいなかったです。大学生はスタッフの方が途中参加してくれてたと思います。)です。でも0時近くなってこんなに遅くまで大丈なのか聞いてみたら「お母さんが切れそう」とのこと。お母様、夜遅くまで付き合わせてしまい、すみませんでした。でも後でお母さんからメッセージが届いて「見え始めたんだから仕方がないんだよ!すっごく面白かった!」と言っていたそうです。


まとめ

講演の方は多少マニアックになってしまい、反省しています。でもこれまでにない長時間のトークだったので、話したいことをかなり入れることができて、自分としては思いの丈を果たせました。実際に電視観望を始めるときに当たる困難を、うまく解決することができるように話したつもりです。わかりにくいところは今回の記事のリンク先などと合わせて、配信を何度か聞いていただければと思います。

その後の懇親会はもちろん話してるのも楽しかったです。でもやはり電視観望に興味を持ってくれてる方が集まってくれてるので、中継ができてよかったです。

今回の「星もと」をきっかけに少しでも天文に興味を持つ人が増えてくれるなら、何よりです。


連休初日、朝からVISACにかかりきりでした。懸案事項だった光軸調整です。色々やりましたが、多分正しい方法に辿り着いたと思います。


準備

道具はASI294MCと小さなCマウントレンズ。副鏡あたりにピントを合わせて見るために、別途レンズが必要です。VISACには2インチのアイピースなどが取り付けられるアダプターを使います。カメラで映した画面を見るためのPCなども必要です。

IMG_2889


最初の試み

まずは最初の挑戦です。これは失敗その1となります。

1. ASI294MCに50mmのCマウントレンズを取り付ける。
2. VISACに2インチアダプターを取り付け、そこにレンズごとASI294MCを取り付ける。
3. 取り付ける際、アダプターにカメラの前面が平面できちんと接するように押さえながら取り付けること。
4. カメラの像をPCに映す。使ったソフトはSharpCapです。同心円状のガイド線を出すとわかりやすいです。
IMG_2859
画面を見る限り、中心から明らかにズレているのがわかります。

5. 画面に見えている副鏡の中心が、画面の中央に来るように、鏡筒手前の内側の3つの押し引きネジを調整する。
IMG_2862
すでに結構あっているように見えます。でもまだ早とちりです。

6. 画面に見えている中心の副鏡の外周が中心に来るように、副鏡の角度を3本の押しネジと、1本の真ん中の引きネジで調整しようとしたら、画面に見えている副鏡の中心も動いてしまったので、接眼部の調整が全く意味が無いことになり、ここで行き詰まります

ざっと試してみてこの段階で分かったことは、2インチアダプターにカメラを挿入しても結構隙間があるのでガタガタ。横に揺れるというよりは、ぐらぐら回転してしまいます。ネジの固定具合で画面の中心が簡単にずれてしまいます。ネジを占める際、アダプターにカメラの前面が平面できちんと接するように押さえながら取り付けると、毎回同じように固定でき再現性があることがわかりました。


2ndトライアル

少しVISACの光軸調整で検索してヒントを得ることにしました。すると副鏡を外すことで、そのねじ穴を接眼部の調整の指標にするアイデアが見つかりました。でも結局はこの方法も途中で行き詰まり、失敗2となります。新しいところは赤で書いておきます。

1. ASI294MCに50mmのCマウントレンズを取り付ける。
2. VISACに2インチアダプターを取り付け、そこにレンズごとASI294MCを取り付ける。
3. 取り付ける際、アダプターにカメラの前面が平面できちんと接するように押さえながら取り付けること。
4. カメラの像をPCに映す。
5. 副鏡を取り外す。
IMG_2870
外した副鏡の鏡面を見てみると、大したことないですが少し汚れてました。
良い機会なので掃除をしておきます。

6. 副鏡を取り付けるネジ穴の位置を画面上で確認。
7. ネジ穴の中心が画面の中心にくるように、鏡筒手前の内側の3つの押し引きネジを調整する。
IMG_2869

8. 副鏡を再度取り付け、
画面に見えている中心の副鏡の外周が中心に来るように、副鏡の角度を3本の押しネジと、1本の真ん中の引きネジで調整する。
9. 鏡筒手前の外側の3つの押し引きネジを調整し、4本のスパイダーが中心になるように持っていく。
IMG_2873

10. これで完了と思ったのですが、ASI294MCの前面をアダプターにぴったりくっつくようにしながら、アダプターのネジを緩めて、カメラを180度回転させると、なんとが全てあっていた同心円とスパイダーが画面中心からずれてしまいました。ここで失敗と判断しました。

IMG_2877
合わせ終わったと思ったところ。

IMG_2878
カメラを180度回すと、画像の中心から全然ズレてしまいました。


一体何がおかしいのか

ここでかなり迷いました。何がおかしいのか?ずれている可能性があるものを挙げてみると
  1. カメラセンサーの法線と、カメラの円筒ケースの軸もしくはカメラの前面の平面がずれている。
  2. フォーカサーが接眼部の軸と平行に取り付けられていない。
最初に考えたのはこの二つです。

でも1はこれまでもカメラを回転させたりして撮影していますが、ここまで顕著にずれが見えたことはありません。
2についてはフォーカサーを前後に動かしてみましたが、画面は対称に拡大縮小されるので、恐らくこれも大丈夫そう。

ここで思いついたのが、もしかしたらCマウントレンズの光軸がズレているのではというものです。

最初床の上でレンズをつけたままカメラを転がしてみたのですが、どうもよくわかりません。ここで、副鏡を外したVISACに取り付けて、カメラをアダプターにピッタリつけたまま回転させてみました。センサーがきちんと取り付けられていて、レンズの光軸もずれていなければ画面の中心を軸として画面が回転するはずです。ここで明らかにずれが見えたので、レンズの軸がずれていると考えることにしました。


3度目の正直か

レンズの光軸にずれがあると仮定して、どうしたら光軸調整ができるか考えたのが、次の方法です。
  1. ASI294MCに50mmのCマウントレンズを取り付ける。
  2. VISACに2インチアダプターを取り付け、そこにレンズごとASI294MCを取り付ける。
  3. 取り付ける際、アダプターにカメラの前面が平面できちんと接するように押さえながら取り付けること。
  4. カメラの像をPCに映す。
  5. 副鏡を取り外す。
  6. 副鏡を取り付けるネジ穴の位置を画面上で確認。
  7. ASI294MCの前面をアダプターにぴったりくっつくようにしながら、アダプターのネジを緩めて、カメラのみ回転させる。
  8. 回転させた時の画面上の回転中心が、ネジ穴の中心になるように、鏡筒手前の内側の3つの押し引きネジを調整する。これはレンズの光軸ががカメラセンサーの法線とずれている可能性があるからです。
  9. カメラのみをアダプターから傾けて、画面の中心にネジ穴の中心が来るように、頑張ってアダプターのネジを調節し固定する。このアダプターですが、ネジが2つしかないので、もう一つ穴を開けタップを切って3つのネジにしたほうがいいかもしれません。
  10. 上手く固定できたら、それがずれないように気をつけながら副鏡を取り付け、画面に見えている中心の副鏡の外周が中心に来るように、副鏡の角度を3本の押しネジと、1本の真ん中の引きネジで調整する。
  11. 同じくカメラがずれないように注意しながら、鏡筒手前の外側の3つの押し引きネジを調整し、4本のスパイダーが中心になるように持っていく。
IMG_2885
最終的に合わせ終わったところです。
まだカメラは傾いたまま取り付けられています。

写真を撮る余裕がなかったので、取れたのは調整後の写真だけです。 

最後に、カメラのズレを直して見てみました。
IMG_2887

なんと、上下は少しずれてますが、触る前の一番最初の写真の位置とよく似ています。おそらく、最初から光軸はかなりあっていたと思われます。長くかかりましたが、そのことに確証が持てただけでも良かったのかと思います。


まとめ

この方法、原理的には多分正しいと思います。少し心配なのは、
  • カメラをずらして固定するのが難しかったので、少しズレがあるかも。先にも書きましたが、3つ目のねじ穴を空けた方がいいかもしれません。
  • そもそもカメラをずらした方が良かったのか、カメラをずらすのでなく見えている中心を画面中心と改めて定義してから合わせた方がいいのか?
2つ目の疑問は、多分前者の方が正しいと思います。全然間違ったことをやっていないか、星像を見て試そうと外に出たのですが、曇りで月も見えません。なのでこのブログを書いているというわけです。
(2021/8/22 追記: レンズの光軸ずれの誤差が大きいと思い、その影響を小さくする光軸調整の方法を考えていました。)




あと、今回の記事の鏡筒内のどの写真にも写っていますが、主鏡の固定具でしょうか3つの遮蔽物がかなり目立ちます。おにぎり星像の原因の可能性大です。本当は光軸調整よりこちらを隠すようなリングを作るべきなのですが、今回は光軸調整としました。(2021/8/21 追記: 主鏡どめのマスクを作りました。)




四連休は

明日の金曜はMちゃんが来る予定。UV/IRフィルターを入れて星像がどう変わるか試してみようと思っています。
明後日土曜はいよいよ天リフさん主催の「星と宇宙の夏ライブ2021」です。気合を入れて参加します。


 

球状星団を撮影するのは初めてになります。今回、ヘルクレス座の球状星団M13をTSA120を使って撮影してみました。全天で最も美しい球状星団と言われています。


初の球状星団撮影

連休初日に入るこの日の夜、天気は悪くなく、夜中から天の川を撮影しようと思っていたのですが、それまでの繋ぎでM13を撮影してみることにしました。よく考えたら、球状星団をまともに撮影するのは初めてのことです。もちろん、眼視や電視観望などでの簡易撮影などはあります。それでも時間をかけてまじめに撮影するのは初めて、いろいろわからないことがありそうです。
  • そもそも、撮影時間はどれくらいがいいのか?星雲ほど長くなくていいのか、それともやはり長ければ長いほどいいのか。
  • 1枚あたりの露光時間はこれまで通り5分でいいのか?
  • QBPはあってもいいのか?無いほうがいいのか?

天の川が出てくるまで1時間ほどあります。最初なのでとりあえずこれまでの星雲撮影のセッテングをベースとして、撮影時間を1時間としてみました。

撮影は順調。PHD2とAPTで、ガイドも含めて特に問題はなかったです。ちょうど同じ時間帯に、あぷらなーとさんもM13を狙っていたみたいです。


画像処理と結果

球状星団の画像処理も初めてのことで、まだ全然慣れていません。疑問だらけで、また太陽映像に取り掛かっていたこともあり、時間がかかってしまいました。

星雲の場合と違って、いじればいじるほど処理の跡が目立つような感触です。なかなかごまかしが効かない、素材の出来具合がそのまま処理後の出来に直結するような気がしました。とりあえず処理した結果です。



「ヘルクレス座球状星団M13」
light_BINNING_1_integration_ABE_PCC_STR2_cut
  • 撮影日: 2020年4月29日0時24分-1時23分
  • 撮影場所: 富山県富山市下大久保
  • 鏡筒: Takahashi TSA-120 + 35フラットナー + サイトロン QBP (48mm)
  • 赤道儀: Celestron CGEM II
  • カメラ:  ZWO ASI294MC Pro
  • ガイド: PHD2 + f=120mmガイド鏡 + ASI290MMによるディザリング
  • 撮影: ATP、ゲイン220、温度0℃、露光時間300秒x11枚 = 55分 
  • PixInsight、Photoshop CCで画像処理
中心部です。

light_BINNING_1_integration_ABE_PCC_STR2_center

今調べたら簡易撮影では、星を始めて一番最初に撮影したメシエ天体がM13 M3(2020/5/16訂正:玄さんのコメントのおかげで4年を経てM3と気付くことができました。玄さん、どうもありがとうございました。)でした。星を始めて、一眼レフカメラを手に入れてすぐのM13 M3がこれ。1枚撮り、中心からずれてる、星がぶれてる、画像処理も何もしてない。さすがにこれを見ると、4年間で進歩したと思えます。でも望遠鏡とカメラでメシエ天体が写っただけでも、ものすごく嬉しかったこと覚えています。

IMG_0326



反省点色々

最初は、初めてにしてはそこそこ中心部まで見えたのかなと思っていました。でもやはりまだまだですね。以下、反省点です。
  • 一つ一つの星像が大きい。もっと分離してもいいはず。
  • 星雲みたいに背景を出す話ではないので、構成を分離するStarNet++が意味をなさないはずです。今回は試すこともしませんでしたが、背景のノイズを減らすのには役に立つかも知れません。今後の課題とします。
  • 背景のノイズを無くそうと、DeNoiseやDfine2も試しましたが、見事に恒星の不自然さを強調します。今回は試しただけで、結局使いませんでした。
  • 炙り出していくと、背景ノイズがまだ多いです。今回はトータルで1時間弱の撮影だったので、もう少し総露光時間を増やしていいかもしれません。
  • すでに炙り出しすぎの感もあります。中心部から少しずれたところなんかは、微光星なのかノイズなのか見分けがつかなくなってきます。
  • 明るい恒星の裾部分の階調が少し不足しています。微光星を出そうとするとこうなってしまいます。もう少し中心部の微光星を抑えても良かったかも知れません。
  • 同様に、左上に写っている銀河も階調不足の感があります。
  • 中心部の画像を見ると、色が白、オレンジ、青緑と3系統にはっきり分かれています。現実は多分そんなことはないので、何かおかしな画像処理過程が入っているようです。それともQBPのせいでしょうか?
  • やはりまだ決定的に分解能不足です。というか、星が肥大化しています。これは画像処理以前の撮影時の問題です。
画像処理以前のこととして、決定的だと思ったのは、一枚の撮影時間の5分が長すぎたではないかということです。長時間露光はどうしてもブレが積分されるので星像がボケてしまいます。もちろんシンチレーションとか風の揺れによるのですが、1枚は1分程度に抑えて、枚数を増やした方がいいのかも知れません。

揺れに関して少し考えてみます。撮像の揺れ時間スケールで見ると
  • 秒以下の揺れ: シンチレーション、地面の揺れ、風による機材の振動
  • 1秒程度の揺れ: 風
  • 10秒周期以上の揺れ: 赤道儀のピリオディックモーション、機材のたわみ
などがあります。
  • この中で改善できるのは10秒以上の揺れのみ。オートガイドです。それでも1時間オーダーではたわみが問題になってきます。
  • 1秒から10秒程度の揺れはオートガイドで多少は抑えることができますが、速い揺れほどその効果は小さくなります。
  • 秒以下は今のところ打つ手なし。AOを使うことで、シンチレーションみたいな画面の中で揺れるもの以外は改善できます。でもAO高いです。自分で作ることを考えた方がいいかも知れません。
このように考えるとすぐにわかるように、一枚あたりの露光時間を1分程度に短くしても大した効果はありません。ただ、揺れの大きさで考えると、突風などの突発的事象で星像が肥大することはあり得るので、露光時間を短くしてそれらの揺れの大きいものを省くことはできます。ラッキーイメージの考え方ですかね。

さらに、カラーCMOSカメラで撮影していることも分解能を低下させている原因の一つです。モノクロの冷却CMOSカメラでそこそこのセンサー面積のものをそろそろ本気で考えた方がいいのかも知れません。

少なくとも今回の結果は、TSA-120のが持っている光学的な分解能には全く達していないと思います。


おまけとまとめ

最後にいつものアノテーションです。少しだけ斜めになってました。念のため再度ImageSolverで計算したら回転のズレ結果は0.41度でした。上が北で、経線が縮まっていくので上の方が間が小さくなっていまるので、より斜めに見えてしまっているようです。

light_BINNING_1_integration_ABE_PCC_STR2_Annotated

本当はこの撮影の後に天の川が登ってくる時間になり、中心部の干潟とか三裂星雲を狙おうとしていたのですが、外に出たら曇り。この日は撤収しました。

画像処理まで進めて、まだまだ改善の余地がたくさんあることがわかりました。球状星団は撮影時の条件がそのまま出てごまかしが来なさそうです。今回の撮影の後、もう少し試したくて、別の日にVISACで長時間撮影してみました。 これはまた次の記事で書きます。


 

今回はAPT(Astro Photography Toos)とPHD2を使って、CMOSカメラでディザーをしながらガイド撮影をします。以前にもAPTを何度か試したのですが、いずれも長続きせず結局使わずじまいでした。


縞ノイズとディザー撮影

長時間露光撮影をしようとすると、ディザーが必要になります。たとえガイドをしていても、ガイド鏡や鏡筒のたわみなどでどうしても相対的にズレが生じてしまい、視野が1時間とかのオーダーだとかなりズレていってしまいます。その結果何が起きるかというと、画像処理の段階で盛大な縞ノイズ(縮緬ノイズ)に悩まされるわけです。前回の記事で紹介した4日間撮影したバラ星雲も、初日のガイドなしでは以下のような縞ノイズが画面全体に出てしまいました。



integration_DBE_PCC_AS_cut

この縞ノイズは多少の画像処理ではどうしようもありません。ある程度の軽減はできますが、少なくとも私は最終画像に持っていくまで影響のないくらいにすることができていません。

あぷらなーとさんが以前面白いアイデアで縞ノイズの除去に成功しています。その結果がFlatAidProに反映されているとのことなので、FlatAidProに通すことも一つの解です。無料版でも画像サイズ制限なしで使うことができます。今回実はFlaAidProで試して、細かい縞ノイズは結構きれいに消えたのですが、下の画像のように元画像で恒星中心などのサチりぎみの箇所が、流れたラインに沿って大きなスクラッチのようになってしまったので、今回は諦めました。

light_BINNING_1_integration_Preview01

なんだかんだ言って、縞ノイズを確実に解決するのは、ソフト側で苦労するよりは、今のところディザーが一番手軽なのかと思います。

さてディザー撮影ですが、一眼レフカメラの場合は、私は6DなのでBackyard EOSを使うことで、PHD2と連携してディザー撮影が簡単にできます。しかしながらCMOSカメラはこれまでほとんどSharpCapですませてきて、せいぜいlivestackで短時間撮影を重ねたくらいで、大した長時間撮影はまともにはしてきませんでした。今回COMSカメラでどうやってディザーを実現しようか色々と考えてみました。


SharpCapでのディザー撮影

最近のSharpCapはディザー撮影もサポートしていますが、なぜかこの機能livestackの中でのみ動きます。少し試したのですが、どうもまだこなれきっていないようで、ディザーをするタイミングを「何秒ごと」としか決められないようです。

ディザーのスタート自身は、そのフレームの撮影が終わるまで待っててくれるらしいのですが、ディザーをしている最中もカメラは動いていて撮影はし続けているようです。その間に撮影した画像はぶれてしまうために捨てざるを得ません。ディザーが止まって、そのフレームの撮影が終わってから改めて撮影を始めたフレームがやっと使える画像になります。マニュアルによると、ディザーの際中の画像はlivestackでスタックされることは無いと書いてあります。逆にいうとやはりディザー中も撮像は続けられていてその撮像時間を一枚だけ変えるとかはできないので、無駄になるとわかりつつもディザー後その画像の撮影終了時間が来るまで待つしかないということのようです。

具体的には、livestackの中の機能で、個々のフレームを全て保存するというオプションがあり、これをオンにするとlivestackモードでも通常の撮影のように使うことができます。問題は、短時間露光撮影ならまだそこまで無駄にはならないのですが、例えば5分とかの長時間露光をすると、数十秒のディーザーのために丸々5分の画像を取り終わるまで待って、次の画像を使うことになります。なのでディザーしている時間以上の露光時間で撮影する時には、撮影効率は必ず50%以下になってしまうというわけです。

基本的にはSharpCapのディザーはlivestackの中の一機能だけの役割で、せっかくスタックした画像をディザーで乱さないための機能ということになります。

うーん、さすがにこれはもったいないです。もっとうまいやり方があるのかもしれませんが、少なくとも私にはうまい回避方法が見つかりませんでした。何かいい方法があったら知りたいです。

とりあえず今回はCMOSカメラでの長時間露光をする必要があったので、この時点でSharpCapでのディザー撮影を諦め、兼ねてから使ってみたかったAPTに、少なくともCMOSカメラのディザー撮影に関しては、プラットフォームを移行することにしました。


APTのインストール

以前にもAPTのインストールについては書いていますし、日本語でも随所に解説されているので詳しくは書きませんが、ポイントや気づいたことをメモがてら書いておきます。

まず今回の目的で、ガイド撮影のためにPHD2は必須なので、これはインストールしておきます。

PHD2もそうですし、APTもそうなのですが、ソフト間と各機器を相互接続するためASCOM関連のソフトが必要になります。まずはASCOMプラットフォームをインストールしておきます。この際、.NET framework 3.5が必要になります。後でAPTをインストールするときに.NET framework 2.0が必要になるのですが、.NET framework 3.5は2.0も含んでいるのでAPTより先にASCOMをインストールしておいた方がいいです。.NET framework 3.5インストール後は一度Windowsの再起動が必須です。OS再起動後、再度ASCOMプラットフォームをインストールしてみてください。

ASCOMプラットフォームインストールさらに、もう一つ。のちにAPTのplate solvingで赤道儀をいじりたくなるはずなので、各メーカーに合った赤道儀用のASCOMドライバーも入れておきます。

あ、CMOSカメラを初めて使う場合は、カメラのドライバーも必要になります。これは各メーカーのページからダウンロードしてインストールすればいいと思います。例えばZWOならここです。同ページのASCOM用のドライバーですが、APTにおいてはもう必要無いようです。APTの履歴を見てみると2019年12月以前のバージョンのAPTでは、ZWO社のASIカメラはASCOMカメラとして認識されていたのですが、それ以降のバージョン3.82からはASIカメラをネイティブドライバーで動かすようになっているとのことです。

ここでやっとAPTダウンロードして、インストールします。とりあえずは評価用のデモ版でいいでしょう。デモ版でもほとんど全ての機能が使えます。ダウンロードと同じページに日本語化するファイルや、日本語のマニュアルもあるので便利です。これは星見屋のM店長がご尽力されたおかでです。

インストール完了後、さっそくカメラを繋いで立ち上げてみましょう。最初はわかりにくいので、昼間にやってみることをお勧めします。できるならこの時点で赤道儀もPCとケーブルで繋げておくといいでしょう。


APT動作のポイント

最低限ディザー撮影を始めるまでに必要なことを書いておきます。たくさんの機能があるのですが、必要なことはそれほど多くはありません。

まず立ち上げると自分が今いる位置の座標を聞かれます。デフォルトはグリニッジ天文台になっているので、実際に撮影する場所の緯度経度入れます。最初にめんどくさくてキャンセルしてしまった場合は、「Tools」タブの「APT Settings」から「Location」タブに切り替えて設定できます。

この「APT Settings」ですが、最初はほとんどいじる必要はないです。唯一いじったところが「Main」タブの「Images Path」くらいです。これもデフォルトでよければ触らなくてもいいです。少なくとも撮影まで持っていけます。

他にも「Tools」タブにはたくさんのボタンがありますが、ほとんどは使わなくても撮影までは辿りつけます。実際にはピント合わせの時に「Magnifier」を使ったくらいでしょうか。「LIve View」と合わせて星を拡大してピント合わせをしました。「Focus Aid」とかもあるのですが、拡大できなかったり、下手にスタックしてしまったりでピントを触った時のブレの影響が出てしまい、あまり使い勝手は良くなかったです。

CMOSカメラを繋いで、「Camera」タブから「Connect」を押すとカメラが動き出します。ガイド用にもカメラを繋いでいる場合、撮影用のカメラと合わせてCMOSカメラが2台になります。たまにガイドカメラが選択されてしまうことがあります。でもこれ結構気付きにくて、例えばピントを合わせようとしても全然星が見えなかったり、見えていても変化しないとかで、やっと気づいたりします。その場合は「Camera」タブの一番下の「Setting」ボタンから選択できます。

冷却する場合は下のほうにある「Cooling Aid」を「Warming Aid」が有用です。ゆっくりと冷やしたり温めたりするので、カメラへのショックが少ないでしょう。

とりあえずは赤道儀の自動導入で撮影したい天体を導入します。導入後の位置が多少目的のものとずれていても構いません。次の「goto++」で自動で位置調整できます。

「Gear」タブで赤道儀との接続をします。上で書いた赤道儀用のASCOMドライバーをインストールしてある必要があります。「Connect Scope」ボタンで赤道儀が接続できたら、早速同じエリアにある「Point Craft」を押してAPT最大の特徴のgoto++を試してみましょう。

ここで必要なことは、一番下の「Settings」ボタンを押して「PlateSolve 2」と「All Sky Plate Solver(ASPS)」をインストールしてきちんとパスを設定しておくこと。ダウンロードをどのページからすればいいかも、リンクが張ってあるのですぐにわかるかと思います。PlateSolve 2は本体と「UCAC3」のみでいいです。「APM」はなくても動きます。UCAC3はPlateSolve 2をインストールしたフォルダの中に入れてください。そうでない場合は一度PlateSolve 2を立ち上げて、FileメニューからUCAC3をインストールしたフォルダを指定する必要があります。これら2つのインストールはあらかじめ昼間に済ませておいた方がいいでしょう。

ここまででgoto++を試す準備ができたら、「Point Craft」スクリーンに戻って、「Objects」か「Scope Pos」を押してざっくりとした座標を入力します。大画面右上の「Shoot」ボタンで一枚撮影して「Solve」か「Blind」ボタンを押します。うまく解析が終わると、画面真ん中に丸が出てきます。「Sync」ボタンを押しておくと、今の位置が赤道儀に送られ同期し、その方向を向いていると認識します。

次に「Aim」ボタンを押すと別の丸が出てきて、マウスを移動したいところに持っていってクリックすると、2つ目の丸が移動します。その後「goto++」を押すと、その位置が中心になるように赤道儀を移動してくれます。勝手にもう一度撮影するので、本当にその位置に移動できたかどうかわかります。


ディザーガイド撮影

希望通りの構図になったらPHD2でガイドをはじめてください。そういえばPHD2の解説ってあまり詳しいのはしたことがないですね。ずっと昔まだ撮影を始めたばかりの時の記事がありますが、古くてあまり役にたたなさそうです。PHD2はHIROPONさんのページで解説されていますし、同ページから同じくHIROPONさんが書かれた日本語のマニュアルもあるので、特に問題はないと思います。

必要なのはPHD2で「ツール」(Tools)メニュー下の「Enable Server」をクリックしておくこと。これでAPTから自動的にディザー時にガイドを止めてくれるはずです。

APTでのディザーの設定は、「Gear」の赤道儀設定のとことにある「Guide」ボタンから。一番上の「Guiding Program」は「PHD」になっているので、今回は「PHD2」に変更。上から二番目の「Auto Dithering」はオンに。振幅がデフォルト値だと小さすぎて縞ノイズが回避できない可能性があるので、「Guiding Setting」スクリーンで、上から三番目の「Dithering Distance」をデフォルトの1から4くらいに大きくしておきます。これで準備完了です。

実際の撮影はメイン画面の「Camera」タブから「LIGHT PLANS」の「Test」とか選んで、横の「Edit」を押して、「Plan to edit」のところを「Add New Light Frame Plan」で新規プランを作って、露光時間とか枚数とか入れていきます。

PHD2がきちんとガイドをしているなら、あとはAPTの「Camera」タブの「Connect」ボタンのすぐ横の「Start」ボタンを押します。もし「Start」ボタンが押せない場合は、カメラが接続されていないとか
Live Viewがスタートしているとかです。「Camera」タブの「Connect」ボタンがきちんと「Disconnect(これが繋がっている状態を表してます)」になっているか、「Live View」ボタンの色が濃くなっていないか(ボタン背景が黒の場合がLiveViewがオフです。)確かめてみてください。正しい場合は「Start」ボタンの背景が濃くなっているはずです。

実際にディザーされているかどうかは、「Gear」タブの「Guide」のところに「(D)」が出ていれば大丈夫です。念のため何枚か撮ったら、「Img」タブで撮影できた画像をダブルクリックして、星がきちんと動いているか確認してみてください。


APTを使ってみての感想、SharpCapとの違いなど

実際にAPTを使ってみると、随分とSharpCapとのコンセプトの違いを感じます。撮影に特化した感じです。
  • 例えば、撮影した画像をできるだけ無駄にしない努力が随所にされているのは好感が持てます。保存形式は、プレビュー に当たる「Shoot」を除いて、基本Fits形式のみです。撮影中は必要のないボタンは押すことができないようになっています。ディザーもPHD2が動いていれば基本的にはデフォルトでオンになるので、オンにし忘れたとかで撮影画像を無駄にしなくて助かります。
  • SharpCapに比べるとAPTはディザーのオプションもしっかりしていますが、ディザーパターンは選べないようです。ランダムだけのようです。一方、PHD2にはランダムかスパイラルかを選べる項目があります。どちらが優先されるのでしょうか?まだよくわかっていません。
  • SharpCapとの違いを感じたのは、露光時間とゲインの調整がしにくいことでした。実際に移す画面は「Live View」ボタンを押せば見えるのですが、実際の露光時間とゲインは数字で打ち込むか、Ringy Thingyと呼ばれる小さな丸いジョグダイアルのようなもので合わせる必要があります。SharpCapのスライダーが秀逸だったことがわかります。
  • Live ViewはさすがにSharpCapの方がはるかに高機能です。パッと触っただけでも、APT側はカラーバランスが取れない、livestackは当然ないなどです。APTにもオートストレッチは一応あります。「Tool」タブの「Histogram」でヒストグラムを出し、「Auto-Str L」を推します。ただ、調整幅が少なく操作性がいまいち、かつこのヒストグラムも輝度しか見えなくて、カラー情報はわかりません。逆に言えば、写っている画面はあまり気にさせずに、撮影にすぐに入って欲しいという意図が感じられます。ShapCapの経験から行くと、カラーバランスによってはADCの範囲に入ったり入らなかったりするので、少し気になりますが、まあ大丈夫なのでしょう。(2020/4/16 追記: APT Settingsの CCD/CMOS settingsタブのRed Channel Color BalanceとBlue Channel Color Balanceで色のバランスを取ることができるのがわかりました。保存されるRAWファイルには適用されず、見た目だけのバランスのようです。また、Auto Stretch Factorをいじると、デフォルトのオートストレッッチの強さを変えることができるので、これで合わせると程よい明るさで見ることができそうです。)
  • とにかくAPTは撮影に特化していると思っていいです。これと比べるとSharpCapの撮影へのこだわりはまだ中途半端に見えてしまいます。短時間撮影や、Live Stackを使ってのラッキーイメージ撮影など、ガイドを使わない撮影ならSharpCapの方がいいかもしれませんが、長時間撮影はAPTの方が遥かに向いています。逆に、APTで電視観望は無理だと思いました。カラーバランスが取れないとか炙り出しが全然甘いとかです。

APTとSharpCap2本のソフトを使いわけることで、撮影と電視観望の切り分けがきちんとできるようになるでしょう。


Demo版と有料版の違い

さてAPTですが、最初はデモ版を使っていました。無料のデモ版でもほとんどの機能は使えるようです。無料版でさえもこれだけの機能が使えるのは素晴らしいことです。

有料のフル版とのちがいはこのページの一番下の緑の字になっているところに載っています。少なくとも撮影を始めたばかりの人ならデモ版でも困るようなことはほとんどないでしょう。フル版で気になる機能はObject選択のところで星や星雲星団が見やすくなるかとか、PiontCraftの結果を残せれるかとかくらいでしょうか。無料版とあまりさをつけていないところはユーザーの間口を広げる意味でも好感が持てます。もっと使い込んでいく場合には撮影用のスクリプトとかも有料版のみサポートされているらしいので、違いが重要になってくるのかもしれません。

でもこれだけの機能にして18.7ユーロ。日本円にして2千円ちょっとなので、私は感謝の意味も込めてフル版にしました。ヒストリーを見てみると4ヶ月ほど前にZWOのカメラがネイティブでサポートされたとのことなので、いいタイミングだったかもしれません。そう言えば以前はASCOM経由でのカメラの接続確認画面がAPT画面の裏に隠れていて苦労したのですが、今回はカメラの接続は普通に行われていて特に困った覚えがないです。


まとめ

なかなか使うことができなかったAPTですが、今回CMOSカメラのディザー撮影という必要に迫られてやっと使うことができました。使ってみると素直なソフトで、操作性も悪くありません。何より、撮影画像をミスとかで無駄にしないという方針みたいなのが随所に見えたのは素晴らしいです。

これ以降、CMOSカメラでの長時間ディザーガイド撮影もどんどん進めていきたいと思っています。とりあえずはTSA-120とフラットナーにASI294MC Proをつけての撮影ですかね。


このページのトップヘ