2019年10月26日(土)、27日(日)のTellus Satellite Boot Campに当選したため、感謝の気持も兼ねて随時レポートします。
※ネタバレには注意しています。
事前準備のメール受信
参加者宛に当日までに準備することの連絡を受ける。
・当日までにご準備いただきたいこと
・事前学習プログラムの受講(プログラミング初心者向け)
・Tellus相談会の予約について
・Tellus Satellite Boot Camp開催概要
・その他注意点
<当日までにご準備いただきたいこと>
1.Tellusへのユーザー登録
2.教師データ作成の為のアノテーションソフト「labelImg」をインストールをお願い致します。
3.教材データをダウンロード
4.Pythonの環境設定をお願い致します。
5.SIGNATEへご登録下さい
教師データ作成の為のアノテーションソフト「labelImg」をインストールをお願い致します。
いきなり引っかかりました。
は?教師データ?アノテーションソフト?
教師データ作成の
こちらは、おそらく教材データ作成のという誤字であると判明しました。
AIに必要なデータとして「教師あり学習」のデータだと理解しました。
アノテーションソフト
機械学習をやられている人は常識かもしれませんが、私は分かりませんでした。
以下の記事で理解しました。
アノテーションとは?
アノテーションはテキストや音声、画像などあらゆる形態のデータにタグを付ける作業のことです。
事前準備問題なく完了しました。
後は、ひっかからず環境の準備ができました。当日が大変楽しみです!!
2019/10/26 Tellus Satellite Boot Camp 【1日目】
午前中
座学
午後
挙手確認:参加者の約半数が Python 日頃使っている経験者
JupyterNotebookと教材データを利用して、Pythonを動かしながら確認する
Pythonのライブラリをつかい簡単に効果を反映させることができる
Numpy(なんぱい):Pythonでよく利用されるライブラリ
ワーク
衛星データ画像解析演習
緑地をマスク、水域をマスク、緑地と水域をマスク=前処理
質疑応答
・どちらでも→雲が少ない
ローカルからAPIからはできない。
JupyterLab上でしかAPIは利用できない
開発環境場には保存ができる。
ローカルに保存もできます。
ダウンロードもできます。
そのままのデータは保存できません。
2次的なデータは大丈夫です。
現在は無料です。将来的には、わかりません。
衛星データ×機械学習概論の説明
メモ
- 形式の整った前処理済みデータ(analysis ready data: ARDといいます)
- セグメンテーションとは:抽出、意味づけ
- 物体検出
- 教師データいのち
- 画像を囲む。意味づけする。→アノテーション(目視できないと教師データをつくれない)
- 0,1(2値化)
- 雪か雲か。同じ
- アノテーションは人海戦術。曖昧なデータは使用しないように。
機械学習における物体検出概論の説明
まず衛星によって違ってくる。首が振れる、触れないはあるが、日常は首は触れない。またデータとしては角度が違うので使用しずらい。
一概に言えないが、トレードオフの考え方が必要
さくらのネットワークからしかアクセスできないようしている。脆弱性診断等はできる。
大前提として商用可能なこと。似たようなデータは可能である。雑なつかいかたをやる場合もある。正解はない。
2019/10/27 Tellus Satellite Boot Camp 【2日目】
2日めのBoot Campです。今回は、ワークが多めの予感。
機械学習における物体検出
講師は動画の髙田さん!私は、動画、画像からお会いした人は芸能人です。
教師データははJSON、Xml形式である。
物体検出の基本は2スッテプに分かれる。
STEP1 検出対象となる物体が画像中のどこにありそうか探索する
STEP2 検出した物体が具体的に何であるかを画像分類する
HOG+SVGが基本→こちらからディープラーニングが使用されている。
分析者による特徴量生成(Hand-craft)
キーワード
- スライディングウィンド
- 矩形:Bounding Box(バウンディングボックス) 略:bbox
- Non^Max(ノンメースエス)←あとで調べます
- Fine Tuning:学習済みから作ったほうが早いという考え方
- Max Pooling:
- IoU(Intersection over Union)要するに予測領域が正解領域と重なっている面積
- MAP(Mean Average Precision)上記IoUを採点をしたあと、平均を出す
- 目標
- 物体検出を行うために必要なメタデータの構造を理解する
- 物体検出における出力結果を正しく理解する
- 物体検出のための深層学習モデルの性質を理解し, その利用方法を検討できるようになる
本チュートリアルの残りの構成は以下である.
- 準備
- 1.データの確認と前分析
- 画像データの読み込みと可視化
- メタデータの読み込みとデータ構造の確認
- 画像データとメタデータを合わせた可視化(bounding boxの可視化)
- カテゴリ別のbounding boxの分布確認
- 2.モデルの構築
- モデルのインスタンス化
- 学習済みモデルの読み込み
- 3.モデルの学習(※今回は扱わない)
- モデルの構築
- モデル生成器の構築
- モデルの学習
- 4.予測値の出力
- 通常の予測
- 予測時の水増し
- 画像処理と出力結果の修正
- Non Maximum Suppressionによる予測結果の調整
- sliding windowによる予測
- 5.精度評価
- 検証用画像に対する評価
- 通常の予測
- 予測時の水増し
- sliding windowによる予測
- 検証用画像に対する評価
- 6.提出用ファイルの出力