※これはセミナー聴講時の個人的なノートをそのまま公開したものです。誤字誤植や勘違いがある可能性があるのでご了承ください。
ABEJA主催 SIX 2019 | 2DAYS' AI CONFERENCE : DAY 1 for Developers
DAY 1 14:20-15:00 EngineerからTechnopreneurへ 〜AI時代における21世紀のリーダーシップ論〜
- テクノプレナーシップ: テクノロジー、リベラルアーツ(未来を洞察するスキル教育。常識からの自由)、アントレプレナーシップ
- ゆたかな世界を実装する
- リーダーシップとは(誰も付いてこない状態で自分をリードしてから)フォロワーが現れて、ビジョン(自分の夢がみんなの夢になること)を目指すこと
- リーダーシップを発揮して見えないものを見えるようにするために、リベラルアーツが必要になる
- リベラルアーツの本質は、自分は何もので、未来はどうなるかを、自問し続ける姿勢そのもの
DAY 1 15:20-16:00 アノテーションで精度の高い教師データを作成する為に必要な仕組み
- アノテーションとは、非構造データ(生データ)にタグ付けを行うこと(=アノテーション)で、構造データ(=学習できるデータ)にすること
- 例えば服の傷をマーキングしたりすることがアノテーション
- [高品質な教師データ作成サービス ABEJA Platform Annotation](https://abejainc.com/platform/ja/feature/annotation/lp/03.html
- データセットは、データサイズが大きく、ノイズが少ないものほど、精度は良くなる
- 精度の高いデータセットを作るには「アノテーションの要件定義」「」「」が大事
- アノテーションの要件定義: 実ビジネスは犬猫の判断ほど簡単ではない。例えば犬種の分類やイカとエンガワの寿司など。人間でも見分けが付きにくいと、アノテーターも迷うので、精度が悪いデータセットになる
- 解決案としては、(1)詳細なルール決め、(2)ラベル間引き(和集合は片方だけに寄せる)
- 画像の解像度や画質、画角、輝度などがバラバラだったり、境界があいまいなものはアノテーターにより結果がぶれる
- 解決作としては、複数人による冗長性アノテーションで、多数決・平均化・アノテーションごとの重み付けなどを行う
- 熟練工しか判断できないものをデータセット化する場合の課題: 識別するラベルが細かいなど
- 解決案としては、(1)画像補正(傷が目立つようにする前処理など)、(2)境界線定義(レベル123ごちにMINとMAXを定義する)、(3)チェックフロー定義
- マニュアル改善支援: 熟練者の意見をもとにマニュアルを作り、それを初心者に展開する。それでほぼ同等の精度でできるなら、より早くアノテーションできる。それを熟練者がレビューする方が効率的
- アノテーターの分析: ログをデータベースに蓄積してさまざまな分析を行う
- 事前推論の機能をリリースしているが、アノテーション作業を、モデルの推論結果がフィードバックされた状態から行える。一からアノテーションするよりもはるかに効率的
- 事前推論の留意点としては、アノテーション作業が雑になって、モデルの間違いを見逃しやすくなってしまうこと。わざとノイズをかけたダミーで雑になっていないかを定期的にチェックする
- 自動領域抽出
- 能動学習(アクティブラーニング): モデルが認識しづらいものを優先的にアノテーションしてもらう仕組み
DAY 1 16:20-17:00 もうブラックボックスとは呼ばせない ~機械学習を支援する情報可視化技術
スライドはPDFファイルで公開されています: https://six.abejainc.com/assets/pdf/reports/dev-a-4.pdf
人はなぜ可視化するのか
- 情報可視化の用途: 概観、解明、操作、報告
- 折れ線グラフの見方は、注釈によって注目ポイントが変わってくる(例:Facebookのお別れ数グラフ: Facebookのデータ10000件から明らかになった「恋人達の別れの季節」5つ - DNA)
- 機械学習の運用を完成させるための可視化アプローチを紹介
- 3つの立場: 普及型、科学的探究型、問題解決型
- 普及型ソフトウェアの例: Google Facets
- 機械学習の可視化の基礎研究例(1): CNNによる物体認識過程の可視化
- 機械学習の可視化の基礎研究例(2): 訓練データのわずかな揺れによりDNNが不正確な予測を生み出す際の内部構造を詳細に可視化
- 機械学習の可視化の基礎研究例(3): GANが実物そっくりの精巧なフェイクを作り出す過程をGenerator/Discriminatorの両面から可視化
- 手元にある機械学習の問題を解決するための可視化: データ編集、前処理、モデル構築、学習結果の探索、それぞれのフェーズで可視化することが議論されている
- これまでの試みについて: 電力管理システムへの異常入力して異常パターンを可視化、回帰分析結果の誤差を可視化、気象と販売との相関を可視化、訓練データのアノテーション状況の可視化
DAY 1 17:20-18:00 Deep Learningの都市伝説と現実
- ABEJA Arts Blog
- まことしやかに語られている情報=都市伝説について見分けられるようになるのがテーマ
- リテール、AI運用、アノテーションなどつらいことだらけ。泥臭いことをやって解決している
- AI=汎用人工知能? そうではない
- AI > ML > DL。MLのことがAIとして語られることが一般的
- 現状で最も実用的なMLは教師あり学習
- 高度な知能 > 意思決定 > センシング。教師あり学習はセンシング~一部の意思決定まで。現在実現できているのはごく一部
- 人間は賢い。AIはスケールできる。両者には得意分野があるのが現状
- 賢くAIを使うのが賢い
- ビッグデータ+ディープラーニング=勝利の方程式は本当か?
- 収集、アノテーション、学習、評価、運用という流れにそって情報は欠落するが、できるだけ上流で欠落させないことが重要
- ノイズのないクリーンなデータで学習した方が精度が高くなりやすく、過学習しいくい。つまりアノテーションの精度が大切
- 例えばVGG Face Datasetはかなりクリーンなデータセット
- ビッグ「クリーン」データ+ディープラーニング=勝利の方程式 が正しい
- アノテーションは簡単ではない。ぶれるのが当たり前
- タスクや人間を理解したうえでアノテーションをした方がいい
- 半教師あり学習: 少量の教師ありデータと大量の教師なしデータから学習する。Temporal Ensemble(TE)、Mean Teacheraなどの方法がある
- データ自体が少ない場合:転移学習、事前学習など
- BERT: 言語理解タスクでの新しい強力な教師なし事前学習手法
- GPT-2: クリーンで多様なデータで巨大な言語モデルを教師なし学習
- ImageNet(画像データセット)はテクスチャー依存になっている研究論文がある。汎論として、ImageNetの事前学習は精度向上には役にたたないが、安定性いは貢献するという論文もある
- アノテーションを先にした方がいい。事前学習をしよう
- AIによるパラダイムチェンジ: 人間が明示的に定義できなものでさえ、実装できる
- AIを使わない理由はない。正しい技術を正しく使って差別化しよう
- Taskonomyという論文。タスクの分類体系。タスクの相関関係を学習することで未知のタスクにも適用できるかもしれない
- 3B: Big Task + Big Clean Data + Big Deep Learning