今日、Google Colabを触っていて気付いたが、RAMとディスクの表示が増えた気がします(以前はなかったよね...?)。
この表示は「ホスト型ランタイムに接続」している場合だけかもしれません(※「ローカル型ランタイムに接続」は試していません)。
これによると、
- RAM: 12.72GB
- ディスク: 48.97GB
という容量になっています(※あくまで今回。時期や状況によって増えたり減ったりする可能性があります)。容量面での制限を意識する際の参考になりそうです。
今日、Google Colabを触っていて気付いたが、RAMとディスクの表示が増えた気がします(以前はなかったよね...?)。
この表示は「ホスト型ランタイムに接続」している場合だけかもしれません(※「ローカル型ランタイムに接続」は試していません)。
これによると、
という容量になっています(※あくまで今回。時期や状況によって増えたり減ったりする可能性があります)。容量面での制限を意識する際の参考になりそうです。
今回は「決意表明・所信表明」的なものを書いてみました。有言実行を頑張ろうと思います。
2019年も1カ月が過ぎました。わたしの今の仕事は、「Deep Insider: 機械学習エンジニアを目指す人~初中級者のための技術情報サイト」の編集長です。このサイトを2018年4月16日にオープンしてから、早くも約10カ月目です。Google検索からの流入が大きいと思うのですが、Deep Insiderの各記事のページビューも上がってきており、各記事の閲覧時間も約30分ほどでしっかりと読まれているようで、まずまずの成果が出ているのかと思います。
Deep Insiderは、当初、「デベロッパー寄り」の読者像をイメージしてコンテンツを展開していました。現在の好調はそのころの成果に寄るところが大きいと思います。9月~11月ごろには記事展開方針に調整が入り、「エンジニアの素養はある程度持つが、機械学習やディープラーニングはまったく初めて取り組む、幅広い層の人材」を読者ターゲットに、より一段優しい内容のコンテンツを作成し始めました。
それが、下記の『機械学習 & ディープラーニング入門』連載群です。
これらを4カ月ほどかけて執筆しました。若干、急いで書いて殴り書きの部分があるので、問題ないか丁寧に見直しながら、順次公開していっています。目標としては、4月になる前にすべてを公開し終わりたいと思っています。
わたし自身は、もともとデベロッパー系のWeb編集者&ライターであり、C#を中心にプログラミングを20年近くやってきました。2017年ごろから、機械学習やディープラーニングを徐々に学び始めて約2年間になります。今は、データサイエンティストや機械学習エンジニアのように、イベントに参加して情報を収集しています。
そこで感じるのは、デベロッパーは昔はJava、少し前はRuby、今はPython?など、ズブの素人から学べる雰囲気があり、実際にプログラミングやWeb制作などに手を出す人は非常に幅広いということです。だから書籍などのコンテンツも、本当に中学生や小学生でも学べるようなレベルから解説しているものが多くあるのではないかと思います。
一方、機械学習やディープラーニングは学術的な雰囲気があり、特に数学が苦手な人など、ズブの素人はあまり手を出していないという気がしています。デベロッパーから機械学習エンジニアやデータサイエンティストへの転身も、想像していたよりは多くない気がしています。そのせいか、より教科書的で、厳密にまとめられた書籍が、好まれているのかなと考えています。逆に言うと、中学生や小学生でも学べるようなレベルから解説しているものは少ないのではないでしょうか。
Deep Insider編集部の中で喧喧諤諤の議論があって、上記のような連載群をわたし自身が執筆することになりましたが、「機械学習」や「ディープラーニング」のコンテンツという観点で、かなりオリジナルな立ち位置を確保できたのではないか、と自分のことながら考えています。しかも、概要の概要から、Python、本当に初めての基礎実習までを、1人の筆者で一気通貫で執筆できたのは、個人的にも本当にラッキーだったと思っています。
冒頭でGoogle検索の話を書きましたが、上位のページ(中には1位)の記事もちらほらとあり、「機械学習 ディープラーニング 入門」を検索すると上記の連載群がヒットするようになりました。
わたし自身の経歴では、2003年からC#を扱い初めて2017年までの14年間、C#関連の記事を出し続けました。わたしを知っている人は「C#の人」と理解しているケースが多いです。その強烈にこびりついたラベルを、2019年、剥がしに掛かりたいと思っています。
つまり、これからは「『機械学習 ディープラーニング 入門』でググれ」を自己紹介に使っていこうと(※とある「C#でググれ」の人のパクリです……)。
今から、検索キーワード長すぎだけど「機械学習 ディープラーニング 入門」の人となりますので、今後ともよろしくお願いいたします。
こちらの記事:「Microsoft MVP を12年連続受賞。Visual Studio and Development Technologies [2018-2019] カテゴリ - いっしきまさひこBLOG」にあるように、2007年からC#に関連するカテゴリでMicrosoft MVPをなんとか受賞してきました。しかし今後のわたしにとって、このラベリングは逆効果になるかなと思っています。
もちろんMicrosoft MVPにもAIカテゴリがあり、それを目指してもよいかもしれません。しかしながら、やりたいことをやって結果的に受賞したのであればよいですが、受賞を目指して何かをやるのはおかしいかなと思っています。
マイクロソフト技術で「機械学習」や「ディープラーニング」というと、確かにCNTK(Cognitive Toolkit)がありますね。しかし、TensorFlow/Keras、Chainer、PyTorchなどの有力候補がある中、CNTKになかなか触手が伸びないし、そもそもマイクロソフトはCNTKを諦めたのではないかと想像しています(※そう思った理由はありますが、ここはパブリックな場なので書くのはやめておきます)。
マイクロソフトは、CNTKよりも、C#で機械学習ができる「ML.NET | Machine Learning made for .NET」を押しているとわたしは見ています。ML.NETはわたしも試してみました。しかしまだ発展途上で、「えっ、これもできないのか」など思ったこともあり、記事にして広く紹介したい、という気持ちにはなれていません。
ML.NETもそうですが、マイクロソフトが見ているのはデベロッパーや既存のエンタープライズ向けベンダーであり、データサイエンティスト/機械学習エンジニアやデータ分析の企業ではないと感じています。今のマイクロソフトの売りはAzureであり、AIという分野ではCognitive Servicesを一番強く押していると思います。Cognitive Servicesは確かに確実に結果が出せる学習済みモデルであり、何らかのシステムに組み込むのであれば非常に便利です。でも、それこそがデベロッパー目線だと感じるゆえんです。Cognitive Servicesは他の筆者記事で展開することはあれど自分で書くことはあまりないかなと思います。
ということから、AIカテゴリでの申請もちょっと難しいかと、今のところ考えています。
わたしが一番使っているライブラリはTensorFlow(Keras)なので、同様の受賞を目指すならGoogle Developers Expertsになるのかなと思っていますが、目指すのはまだまだ先の話ですね。
『機械学習 & ディープラーニング入門』連載群の後には、実はまた変化が予定されているのですがそれはまだ秘密として、例えば機械学習エンジニアやデータサイエンティストにすでになっている人が読んで楽しめる単発記事などが増える予定です。なので「単発記事を書いてもいいよ」という人をできるだけ多く、今春は探していきます。わたし自身も新しいものを書いていきたいと思います。
※これはセミナー聴講時の個人的なノートをそのまま公開したものです。誤字誤植や勘違いがある可能性があるのでご了承ください。
AIで問題となるのは「提供:第三者提供の場合には原則として本人の同意が必要」
質問への回答: 著作権は著作物に対するモノ。センサーカメラの画像データは著作物ではない
その例外の1つが「著作権法30条の四」:
質問への回答: ネットに転がっている画像をデータセットに使える。例えばテレビCMでも同様に利用できる
質問: ディープラーニングだけの話ではないか?
質問: ガイドラインの次バージョンは?
質問: ユーザーが生データを渡した場合に、ベンダーが生成したパラメーターも秘密情報となるか。
質問: 業者が何らかの対象の写真を撮った場合に権限はどうなるか?
質問: 写真にアノテーションを付与したのであれば、そのデータに著作権は発生するのか? 専門家が付けたのであれば?
質問: 日本の法律内で作った学習モデルをアメリカに持っていった場合、みなし侵害になったりしないか?
※これはセミナー聴講時の個人的なノートをそのまま公開したものです。誤字誤植や勘違いがある可能性があるのでご了承ください。
L[i , j, k]
のような書き方はPyhton 1.4から。NumPy用に提案されたL[1:2, ..., 2:3]
の...
(ellipsis)も同じバージョンから。NumPy用matmul(A, B)
-> A @ B
という書き方もPython 3.5からnumpy.add()
をマルチスレッド化しても効果なし。行列サイズを1000*1000ぐらい巨大化するとようやく少し効果が出てくるウォーキングをしている人にとっては、張り合いや目標みたいなものって欲しくなりますよね?
自分もウォーキングは雨の降らない日は毎日していますが、できるだけ知らない町や道を歩いてみたり楽しめるよう工夫しています。
そんなときに、体重計のタニタのサイトを通じてたまたま知ったのが、タイトルになっている「からだカルテ:歩数イベント」です。2018年から全部参加していて、今ちょうど3回目になります。
こんな感じで、からだカルテのサイトで[歩いた距離]や[ゴールまでの達成率]、[順位]、[現在地]、[平均歩数(週、月)]が見られます。
だいたい毎日8000歩以上歩かないとゴールできない感じになっていると思います。僕の経験では5kmで約7000歩です。雨が降ったり予定があったりするので、歩ける日は10kmウォーキングするぐらいのペースだと、(僕の経験では)30日間の期間内にゴールできます。ゴールすると、プレゼントが当たるらしいです(※イベント開催ごとに内容や条件が違います)。
ランキングは上位200位まで見られます。ちなみに1位は11日間ですでにゴールを2週していました。30日間だと4~5週になると思います。普通の人は無理ですね。
「歩数イベント」の特徴は、日本や世界の名所をバーチャルで回れるということ。今歩いたのが、この町のこのあたりかというのが分かって、その都市を歩いているみたいで楽しいし、中間目標を作りやすいので続けやすいです。
あと、2018年10月は「幕末江戸編」というのをやっていて、江戸末期の街をウォーキングできます。Webサイト経由ですが古地図にマッピングして「どこを歩ているか」が見られるし、実際に古地図通りに歩くこともできます。ただ、僕はほとんど使ってないです……。
残念なのは、「歩数イベント」はずっと開催しているわけではないことです。1年に3回ぐらい開催されていて、直近は以下のようなイベントがありました。
過去には、徳島 編、富士山 編、エジプト 編、京都 編、フランス 編、三島市 編、沖縄 編、弱虫ペダル 編、北海道 編、劇場版 TIGER & BUNNY -The Rising- 編、進撃の巨人編、イギリス 編、エヴァンゲリオン 編、イギリス 編、韓国 編、ハワイ 編、エジプト 編、ドイツ 編、トルコ 編、南アフリカ 編、東南アジア 編、ニューイヤーウォーク 編、イタリア中部 編、番外編 「剱岳 点の記」、ハワイ 編、マチュピチュ 編、グランドサークル 編というのがあったみたいです。
正直、毎月やってほしいのですが、残念です。
あと、大きなデメリットが、からだカルテ会員(有料)か、会員でなければ参加費500円(税込、2カ月間の一時会員)がかかります。自分は参加費500円払っていますが、まぁ運営費などもかかるとはいえ、残念です。イベントを毎月やって、スマホアプリから毎月300円徴収ぐらいなら我慢できるかなと思います。年払い3000円とかがあればなおよし。
という、メリットもデメリットもあるのですが、興味を持たれたならばぜひ試してみてください。
参加するには、活動量計(タニタのAM-150、AM-161)が必要で、なくてもHealth Planet Walkというスマホアプリだけでもできます。
タニタのAM-150、AM-161はこちらからお願いします:
スマホアプリ(探すのはストアアプリからお願いします):
あとは「からだカルテ:歩数イベント」などから情報収集してみてください。
ともにウォーキングを頑張りましょう。
※これはセミナー聴講時の個人的なノートをそのまま公開したものです。誤字誤植や勘違いがある可能性があるのでご了承ください。
Day 1: GTC Japan 2018: 9/13-14 グランドプリンスホテル新高輪
import numpy
からimport cupy
に書き換えるだけで基本的に動くimport numpy as np import cupy as cp cpu_val = cp.asarray(gpu_val) # GPU -> CPU gpu_val = np.asnumpy(cpu_val) # CPU -> GPU
@cupy.fuse()
を使うともっと速くなるcp.RawKernel()
)を使えばよいfrom numba import cuda
)と連携して回避できる米中に比べると日本は後進国と呼ばれている
Visual Studio Codeでファイルは、シングルクリックだとプレビューモードで、ダブルクリックだと編集モードで開くらしいです。
プレビューモードだとタブが上書きされてしまうようです。
たぶん件名の問題が起きている場合は、シングルクリックでタブを開いていると思います。 ダブルクリックで開いて見てください。