Tellus Satellite Boot Camp【東京会場】レポート(さくらインターネット社主催)

2019年10月26日(土)、27日(日)のTellus Satellite Boot Campに当選したため、感謝の気持も兼ねて随時レポートします。

※ネタバレには注意しています。

事前準備のメール受信

参加者宛に当日までに準備することの連絡を受ける。

・当日までにご準備いただきたいこと
・事前学習プログラムの受講(プログラミング初心者向け)
・Tellus相談会の予約について
・Tellus Satellite Boot Camp開催概要
・その他注意点

<当日までにご準備いただきたいこと>

1.Tellusへのユーザー登録

2.教師データ作成の為のアノテーションソフト「labelImg」をインストールをお願い致します。

3.教材データをダウンロード

4.Pythonの環境設定をお願い致します。

5.SIGNATEへご登録下さい

教師データ作成の為のアノテーションソフト「labelImg」をインストールをお願い致します。

いきなり引っかかりました。

は?教師データ?アノテーションソフト?

教師データ作成の

こちらは、おそらく教材データ作成のという誤字であると判明しました。

AIに必要なデータとして「教師あり学習」のデータだと理解しました。

アノテーションソフト

機械学習をやられている人は常識かもしれませんが、私は分かりませんでした。

以下の記事で理解しました。

AI開発でよく耳にする「アノテーション」とは?

アノテーションとは?
アノテーションはテキストや音声、画像などあらゆる形態のデータにタグを付ける作業のことです。

事前準備問題なく完了しました。

後は、ひっかからず環境の準備ができました。当日が大変楽しみです!!

2019/10/26 Tellus Satellite Boot Camp 【1日目】

午前中

座学

午後

挙手確認:参加者の約半数が Python 日頃使っている経験者

JupyterNotebookと教材データを利用して、Pythonを動かしながら確認する

Pythonのライブラリをつかい簡単に効果を反映させることができる

Numpy(なんぱい):Pythonでよく利用されるライブラリ

ワーク

衛星データ画像解析演習

緑地をマスク、水域をマスク、緑地と水域をマスク=前処理

質疑応答

Q
データが2つある場合の選択方法は?
A

・どちらでも→雲が少ない

Q
ローカル環境は今後の制限は
A

ローカルからAPIからはできない。

JupyterLab上でしかAPIは利用できない

Q
データの保存はできますか?
A

開発環境場には保存ができる。

ローカルに保存もできます。

Q
中間データの保存はどのようしたらよろしいですか?
A

ダウンロードもできます。

Q
衛星の画像をそのまま保存はできますか?
A

そのままのデータは保存できません。

2次的なデータは大丈夫です。

Q
開発環境申込みで0円。ずっと無料ですか?
A

現在は無料です。将来的には、わかりません。

衛星データ×機械学習概論の説明

メモ

  • 形式の整った前処理済みデータ(analysis ready data: ARDといいます)
  • セグメンテーションとは:抽出、意味づけ
  • 物体検出
  • 教師データいのち
  • 画像を囲む。意味づけする。→アノテーション(目視できないと教師データをつくれない)
  • 0,1(2値化)
  • 雪か雲か。同じ
  • アノテーションは人海戦術。曖昧なデータは使用しないように。

機械学習における物体検出概論の説明

Q
サブ回帰日数データは使えますか?
A

まず衛星によって違ってくる。首が振れる、触れないはあるが、日常は首は触れない。またデータとしては角度が違うので使用しずらい。

Q
シーンによっては、高解像度でないと駄目なんでしょうか?(ワールドビュースリー)
A

一概に言えないが、トレードオフの考え方が必要

Q
クラウドを利用したセキュリティの考えかたは?
A

さくらのネットワークからしかアクセスできないようしている。脆弱性診断等はできる。

Q
アノテーションデータを別の衛星データに利用できますか?
A

大前提として商用可能なこと。似たようなデータは可能である。雑なつかいかたをやる場合もある。正解はない。

2019/10/27 Tellus Satellite Boot Camp 【2日目】

2日めのBoot Campです。今回は、ワークが多めの予感。

機械学習における物体検出

講師は動画の髙田さん!私は、動画、画像からお会いした人は芸能人です。

教師データははJSON、Xml形式である。

物体検出の基本は2スッテプに分かれる。

STEP1 検出対象となる物体が画像中のどこにありそうか探索する

STEP2 検出した物体が具体的に何であるかを画像分類する

HOG+SVGが基本→こちらからディープラーニングが使用されている。

分析者による特徴量生成(Hand-craft)

キーワード

  • スライディングウィンド
  • 矩形:Bounding Box(バウンディングボックス) 略:bbox
  • Non^Max(ノンメースエス)←あとで調べます
  • Fine Tuning:学習済みから作ったほうが早いという考え方
  • Max Pooling:
  • IoU(Intersection over Union)要するに予測領域が正解領域と重なっている面積
  • MAP(Mean Average Precision)上記IoUを採点をしたあと、平均を出す
  • 目標
    • 物体検出を行うために必要なメタデータの構造を理解する
    • 物体検出における出力結果を正しく理解する
    • 物体検出のための深層学習モデルの性質を理解し, その利用方法を検討できるようになる

本チュートリアルの残りの構成は以下である.

  • 準備
  • 1.データの確認と前分析
    • 画像データの読み込みと可視化
    • メタデータの読み込みとデータ構造の確認
    • 画像データとメタデータを合わせた可視化(bounding boxの可視化)
    • カテゴリ別のbounding boxの分布確認
  • 2.モデルの構築
    • モデルのインスタンス化
    • 学習済みモデルの読み込み
  • 3.モデルの学習(※今回は扱わない)
    • モデルの構築
    • モデル生成器の構築
    • モデルの学習
  • 4.予測値の出力
    • 通常の予測
    • 予測時の水増し
      • 画像処理と出力結果の修正
      • Non Maximum Suppressionによる予測結果の調整
    • sliding windowによる予測
  • 5.精度評価
    • 検証用画像に対する評価
      • 通常の予測
      • 予測時の水増し
      • sliding windowによる予測
  • 6.提出用ファイルの出力

この記事を書いた人

山崎 大祐

大阪出身。千葉県松戸市在住。2児の父です。WordPressの構築を60サイト超えました。営業経験を生かしたSEMを得意としております。(企画/デザイン/構築/運営)
すきなもの「赤色・キューブ・コンクリート」