いっしきまさひこBLOG

Web制作関連、プログラミング関連、旅行記録などなど。

ウォーキングの歩数をバーチャル名所で競う「歩数イベント」

ウォーキングをしている人にとっては、張り合いや目標みたいなものって欲しくなりますよね?

自分もウォーキングは雨の降らない日は毎日していますが、できるだけ知らない町や道を歩いてみたり楽しめるよう工夫しています。

 そんなときに、体重計のタニタのサイトを通じてたまたま知ったのが、タイトルになっている「からだカルテ:歩数イベント」です。2018年から全部参加していて、今ちょうど3回目になります。

f:id:misshiki:20181013145420p:plain

 こんな感じで、からだカルテのサイトで[歩いた距離]や[ゴールまでの達成率]、[順位]、[現在地]、[平均歩数(週、月)]が見られます。

 だいたい毎日8000歩以上歩かないとゴールできない感じになっていると思います。僕の経験では5kmで約7000歩です。雨が降ったり予定があったりするので、歩ける日は10kmウォーキングするぐらいのペースだと、(僕の経験では)30日間の期間内にゴールできます。ゴールすると、プレゼントが当たるらしいです(※イベント開催ごとに内容や条件が違います)。

f:id:misshiki:20181013151033p:plain

 ランキングは上位200位まで見られます。ちなみに1位は11日間ですでにゴールを2週していました。30日間だと4~5週になると思います。普通の人は無理ですね。

f:id:misshiki:20181013151255p:plain

 「歩数イベント」の特徴は、日本や世界の名所をバーチャルで回れるということ。今歩いたのが、この町のこのあたりかというのが分かって、その都市を歩いているみたいで楽しいし、中間目標を作りやすいので続けやすいです。

f:id:misshiki:20181013151453p:plain

 あと、2018年10月は「幕末江戸編」というのをやっていて、江戸末期の街をウォーキングできます。Webサイト経由ですが古地図にマッピングして「どこを歩ているか」が見られるし、実際に古地図通りに歩くこともできます。ただ、僕はほとんど使ってないです……。

f:id:misshiki:20181013151657p:plain

 残念なのは、「歩数イベント」はずっと開催しているわけではないことです。1年に3回ぐらい開催されていて、直近は以下のようなイベントがありました。

  • 2018/10/01-10/31: 歴史探訪シリーズ 幕末江戸編
  • 2018/07/05-08/23: 徳島編
  • 2018/02/13/-03/19: 歴史探訪シリーズ 幕末江戸編

 過去には、徳島 編、富士山 編、エジプト 編、京都 編、フランス 編、三島市 編、沖縄 編、弱虫ペダル 編、北海道 編、劇場版 TIGER & BUNNY -The Rising- 編、進撃の巨人編、イギリス 編、エヴァンゲリオン 編、イギリス 編、韓国 編、ハワイ 編、エジプト 編、ドイツ 編、トルコ 編、南アフリカ 編、東南アジア 編、ニューイヤーウォーク 編、イタリア中部 編、番外編  「剱岳 点の記」、ハワイ 編、マチュピチュ 編、グランドサークル 編というのがあったみたいです。

 正直、毎月やってほしいのですが、残念です。

 あと、大きなデメリットが、からだカルテ会員(有料)か、会員でなければ参加費500円(税込、2カ月間の一時会員)がかかります。自分は参加費500円払っていますが、まぁ運営費などもかかるとはいえ、残念です。イベントを毎月やって、スマホアプリから毎月300円徴収ぐらいなら我慢できるかなと思います。年払い3000円とかがあればなおよし。

 という、メリットもデメリットもあるのですが、興味を持たれたならばぜひ試してみてください。

 参加するには、活動量計(タニタのAM-150、AM-161)が必要で、なくてもHealth Planet Walkというスマホアプリだけでもできます。

タニタのAM-150、AM-161はこちらからお願いします: タニタ

スマホアプリ(探すのはストアアプリからお願いします): f:id:misshiki:20181013152812p:plain

あとは「からだカルテ:歩数イベント」などから情報収集してみてください。

ともにウォーキングを頑張りましょう。

GTC Japan 2018 聴講ノート

※これはセミナー聴講時の個人的なノートをそのまま公開したものです。誤字誤植や勘違いがある可能性があるのでご了承ください。

Day 1: GTC Japan 2018: 9/13-14 グランドプリンスホテル新高輪


基調講演[JENSEN HUANG  NVIDIA 創業者、社長兼 CEO]

NVIDIA GDX-2

世界をリードするAIプラットフォーム

  • 例:1週間かかったResNet-50モデルの学習が、TensorコアGPUでは数分で完了した
  • 日本のリーダー企業との協業例: TSUBAMEはNVIDIA Teslaを使った世界初のスパコン

Tesla 14を発表

  • 高速な推論アーキテクチャを持つ
  • 1クロックで4x4行列の積和演算を行うTensorコアを320個搭載

Tesla T4を発表

  • Pascalに比べて12倍の性能を向上させた
  • そのすべてが消費電力75Wで実現される
  • TensorRTの発表以来(1年間)、12000以上の開発者がダウンロード

NVIDA TensorRTハイパースケール推論プラットフォームを発表

  • 多精度Tensorコアを持つTesla T4やTensorRT 5、それにTensorRTハイパースケールから成る、新しい推論プラットフォーム
  • 次世代のAIサービスを更新していく

XAVIER

  • 初の自律動作マシンプロセッサ
  • わずか30Wで毎秒100兆以上のオペレーションを行う

NVIDIA AGXを発表

  • ロボットなどで使えるコンピューター基盤
  • XAVIERが搭載されている

NVIDIA DRIVE


人工知能をビジネスに実装するとき、今やるべきこと[松尾 豊 東京大学 特任准教授、日本ディープラーニング協会理事長]

  • https://www.nvidia.com/ja-jp/gtc/sessions?sid=2018-1010
  • 画像認識は人間を超える結果が多く出ている
  • 翻訳精度も上がっており、マイクロソフトが中国語⇒英語翻訳は人間並みと発表している
  • ディープラーニングを一番理解してもらえる可能性が高いのが、「最小二乗法」を学んで中身を知ってもらうこと
    • 線を引く=最小二乗法( Y' = a + bx, J=Σ(y - y')2 )こと
    • ここから変数を増やしていく( Y' = a + bx_1 +cx_2 ... )
    • 誤差を最小にするようにパラメーターを求めてやる
    • ディープラーニングは、この最小二乗法のお化けのようなもの
    • これの層を深くしていったもの
  • なぜ深いことが重要か
    • 1層(素材が1つ)だと、できる料理は少ない
    • 層を増やすと、飛躍的にできる料理は増えていく
  • xとyに何を置くかでいろんなことができる
    • x:画像, y:クラス, =画像認識
  • 要するに「ディープラーニング=深い関数を使った最小二乗法」
  • 現状の原理は簡単だが、今後、組み合わされたり発展したりして、さまざまな活用が行われていく
  • わずか6~7年にディープラーニングは急速に発展してきた
  • これから先も発展があるはず。特に世界モデル(世界を3次元として認識する)は進展の可能性が高い
    • World Models(シュミットさん、2018年)
    • GQN(Generative Query Network)(アリさんら、2018年)。特に重要な論文
  • AI研究の歴史は「シンボル派とパターン派の戦い」だった。
    • ディープラーニングは記号(シンボル)の世界
    • 今後、パターンの世界でも革新が起きていくはず。人間の場合、記号がパターンを呼び出すから
  • 2020年までは、単なる画像認識もまだまだ発展していく
  • 2017年~2025年は、目を持つ機械が誕生する
  • ディープラーニングのプロジェクトがどう進むか
    • 警備会社が「イベント会場内で不審者を見つけるシステムを作りたい」という問題例
      • 不審者の定義が必要。そこから議論
        • 顔認証? 行動認識? 異常検知?
      • 製品化のための具体的な内容の議論が始まる
        • データを集める。映像データとアノテーション、公開されているデータも積極的に活用
        • アルゴリズムを構築する。精度がどのくらい出るかを見る
      • 試行錯誤
      • 製品化
    • 最初は社長「AIで何か作れ」と適当な指示で始まる
      • 半年くらいでこなれてきて、分かってくるので、楽しくなる
      • 社長も見て喜び、プレスリリースを出す
      • AIチームが強化されていく
      • 最終的にAI専門の子会社が立ち上がる
    • というのが、ディープラーニングを取り組む企業のよくあるパターン
  • ディープラーニングは、インターネットでいうと1998年。20年ぐらいずれている印象
    • 次の20年で、FacebookやAmazonのような大企業がディープラーニング分野で登場する
    • 2038年がどうなっているか、を想像して、われわれは動く必要がある
  • ディープラーニング時代のプラットフォーマーとは?
    1. 熟練の目のスコア化
    2. 中心的な作業の自動化
    3. 現場作業への横展開
    4. サプライチェーンの再編
    5. 個人の消費活動にまで及ぶ(ここが一番利益率が高い)
  • ディープラーニングの人材が不足している
    • 松尾研の講座や卒業者のスタートアップの紹介
    • JDLA(資格試験)の紹介
    • Courceraのディープラーニング講座が分かりやすくてお勧め
    • 人材では「高専生」の可能性が実は一番大きいのではないか
      • なぜなら、ディープラーニングはハードウェア系と結び付きが強いから
      • IT系の人はハードウェアの知識がないので、ハードウェアを教育するのに時間がかかるため
  • ディープラーニング×ものづくり=日本向きなので、日本の新たな産業競争力になる
    • ぜひ日本で事業を興してほしい

CuPy -NumPy 互換 GPU ライブラリによる Python での高速計算-[奥田 遼介 Preferred Networks 取締役 最高技術責任者]

CuPyとは?

  • GPUを使ったNumPy互換のライブラリ
  • NumPyのコードは、import numpyからimport cupyに書き換えるだけで基本的に動く

なぜCuPyを作ったか?

  • NumPyは裏でいろいろやっていて闇のトリックがある
  • ゆえに、互換性があるライブラリを作るのは大変だった
  • Chainerとともに生まれたが、別ライブラリとして分離した

CuPy v2以降の取り組み

  • NumPyとの差分の改善
  • 速度向上: Cytahon化、メモリプールの改善など
  • CUDA Streamサポート
  • 対応関数の充実: Numpy, Sparase Matic, FFG, scipy ndimage対応など

CuPyの目指す方向

  • 最小限の修正でPythonコードをGPU対応に
    • CPU向けライブラリと高い互換性の確保
    • NumPyだけでなく、SciPyなどにも対応している
  • 気軽にGPUで高速化
    • インストールの簡易化
    • デフォルトで性能が出る設計

コード例(CPU<-->GPUも簡単):

import numpy as np
import cupy as cp
cpu_val = cp.asarray(gpu_val)    # GPU -> CPU
gpu_val = np.asnumpy(cpu_val) # CPU -> GPU

パフォーマンス

  • NumPyと比較して、データが多くなってくるとCuPyの数十倍~百倍ほど速い
  • @cupy.fuse()を使うともっと速くなる

応用レベルの機能

  • GPUメモリが足りない場合、Unified Memoryを利用して回避できる: CuPy+Tesla V100など(※対応するGPUがある)
  • どうしてもCUDAを直接書きたい場合は、ユーザー定義カーネル(cp.RawKernel())を使えばよい
  • どうしてもCUDAは書きたくない場合、Numba(from numba import cuda)と連携して回避できる

CuPyのこれから

  • 2018年10月にCuPy v5をリリース予定
    • 前述のFusionやNumbaサポート
    • Windows対応

最新の論文や独自手法を活用したディープラーニングソリューションの事例[柳原 尚史 Ridge-i CEO、木村 正成 Ridge-i エンジニア]

従来システム開発とAI開発の比較

  • ルールベースか、質がデータに依存するか
  • 厳密解か、近似解か
  • 演繹的でホワイトボックスか、機能的でブラックボックスか
  • 両方に得意なところがあるので、ベストミックスを目指すとよい

AI開発アセスメントからAI開発・導入までの流れ

  • AI導入の目的を明確にするのが重要
  • お客さんと一緒に、アセスメント~導入をいったりきたりする必要もある

Ridge-i の取り組み

  • ベストミックスを実現したソリューション

Ridge-i の事例

  • ディープラーニングによる自動彩色: 求める色合いを正確に再現する彩色ディープラーニング(服などをビビッドな色に)
  • ごみ焼却炉でのセグメンテーション活用: ゴミ質によって安定した燃焼ができないが、ディープラーニングによりモノを識別してゴミの質を安定化させることに成功
  • 衛星レーダー画像(SAR)でオイル流出検出: 衛星画像に対するディープラーニングによる解析の普及活動に参画。オイル漏れは教師データが少ないため、画像を増やすテクノロジを多用してデータを用意した
  • ルールにできなかった異常検知: 良品には存在しなかった傷やゆがみを検出。良品画像の特徴のみを学習させた。これにより極小の傷を検知できるようになった
    • さまざまな課題があった:
      • 良品の定義が難しい
      • 画像を高解像度に維持してGANモデルを作成する必要性があり、通常のGANだと収束しない
      • PCサーバーだと学習に数週間かかってしまう。高解像度データがメモリに乗らない
    • さまざまな工夫をして解決した

異常検知の難しさ

  • 画像を細かく切るパッチ処理だと、傷なのか模様なのか判別できないので、切らずに高解像度の画像を使う必要があった
  • 最新の敵対生成学習の手法(Progressive Growing of GANs)によって、高解像度かつ高精細な画像を生成できるようになった

敵対生成学習

  • GAN(Generative Adversarial Networks)で正常画像を生成できるようにする
  • それと入力データの差分を取ることで、異常が検知できる

データ拡張

  • 画像データの水増し: ノイズを減らせるが、それ以上の影響が出ないかの注意も必要

パネル: ディープラーニング ビジネス活用の理想と現実[井﨑 武士 エヌビディア合同会社 エンタープライズ事業部 事業部長]

  • https://www.nvidia.com/ja-jp/gtc/sessions?sid=2018-1017

  • 米中に比べると日本は後進国と呼ばれている

  • 国策としてデータの利活用など促進させようとしているが、人材育成や企業連携が十分ではない
  • ディープラーニングは2025年までに54%成長を続けるというグラフもある
  • パネリスト:
    • 東京大学の松尾先生
    • 武蔵精密工業の大塚氏
    • IGPIビジネスアナリティクス&インテリジェンスの川上氏
    • コマツの岩本氏
    • DeepXの那須野氏
    • 以下継承略。

データの利活用

  • 「データはある」という会社は多いが、実際には使えるデータと使えないデータがある。そのポイントは?
  • 川上: 自社に何のデータがあるかよく分かっていない。最後はSIが出てくるが、開いて見ると「使いにくいデータですね」という話になる。
  • 岩本: データというのはいっぱいある。デジタルデータで見ると数字の山。そこからピックアップして初めて情報になる。そこにもノイズがあったりする。次に情報の意味づけ(=タグ付け)が必要になる。ここまでデータを作る工数は大変なもの。ここは人海戦術しかなく、実際に全体の半分がここに費やされている。
  • 松尾: データのタグ付けにコストがかかるので、それをどうやってやるかが企業の競争力になる。中国などは、そこに専門部隊を用意していたりするので競争力がある。
  • 大塚: 大量に同じモノを作るので、大量のデータがすでにある。だからといってそれを使ってディープラーニングという話には違和感がある。そうではなく課題を明確にする必要がある。目を作るという課題を掲げれば、それに必要なデータを用意できる。そう考えないとうまくいかないと感じている。
  • 松尾: 不良品データを集めるのは難しいですよね?
  • 大塚: それが本当に大変。不良品は出ない。だから不良品の画像を自作する。もしくは良品データだけを学習させて異常検知することをしている。
  • 利益を生み出すシナリオ作りはどうしたらよいか?
  • 松尾: シナリオについては、技術が分かればどれを使えばよいか分かる。どこまでやるかは経営判断。だからそんなに難しい話ではない。

人材

  • 経産省が発表した先端IT人材は2020年までに4.8万人不足すると言っている
  • JDLAでは3万人のエンジニアを育成することを目標としている
  • 企業ではどんな人材が求められているのか
  • 松尾: 米中はどんどんやっているという話はあったけど、お金になるチャンスの話は米中は意識が研ぎ澄まされていると感じている。だから米中が先行している。日本はこの20年で内向きになってしまった。インターネット時代は、HTMLをやって、サーバーをやって、プログラミング言語をやりましょうよ、とやった。ディープラーニング協会でやろうとしてるのはそれと同じで、必要な技術はちゃんと学びましょうよ、ということ。知識を付けてやってみるのが最初のステップ。
  • 起業についてのアドバイスは?
  • 那須野: わたしが起業したのは「気質」という理由があるかもしれない。Web開発でザッカーバーグになるというのが学部3年ごろの時代の雰囲気だった。たまたま松尾研でAIを学んで、Amazonのレコメンドなどデータサイエンスが脚光を浴びる時代だった。ディープラーニングで機械を自動化していくというのは魅力を感じている。周りも起業していったので、自分も起業しようと思った。
  • ディープラーニングを勉強するのはどれくらい難しいのか?
  • 松尾: やればできるはず。情報がWebにたくさんある。昔のHTML登場時に学ぶ時の方が難しかった。プログラミングができれば、1時間もあれば何かしらできる。
  • 人材育成にどう取り組まれているか?
  • 岩本: なかなかディープラーニングに興味を持ってもらえない。新人と年配の人の両方でやっていくしかない。年配の人は新しい技術が来ても使わない人と、何でもかんでもそれで実現できると思う人と、両極端になってしまっている。ディープラーニングはそういう状況。
  • 大塚: 社内募集した。Pythonを知っている人など、技術好きの人が応募してきた。そういう若い技術好きが会社には必ず居るはず。好きこそものの上手なれだと感じている。おじさんたちは理解できないので、ほっておけば勉強してきてくれる。
  • 松尾: 社内で手を上げさせるのは賛成。あとは任せておけば、自分たちでコミュニティを作ってやっていく。

企業連携

  • 従来のIT業界は受託開発中心だった。しかしディープラーニング時代は協業など対等な関係で連携しているのが多い。
  • 契約やPoCの課題点は?
  • 川上: 自由度を持ってしっかり開発できるかが、企業連携を成功させるには重要。対等な関係で協業すべきだが、やはり受託的になっていくことも多い。
  • 那須野: AIスタートアップという立場で大手メーカーと連携している。人工知能の成果物は汎用的なので知財をもっていかれると問題。だから法務をしっかりとするのが大切。
  • 那須野: ディープラーニングは開発方法が、ITとは違う。最初に完全な設計はできない。アジャイル型になる。すべてを文書化することも、開発時間に影響するのでできない。
  • 川上: スタートアップと80年の伝統企業は違う。服装から年齢からいろいろ違う。ディープラーニングはある程度の精度でスピードは圧倒的に速いので、スタートアップ向け。お互いに歩み寄りが必要。

TIPS: Visual Studio Codeでファイルを開くとタブが上書きされて、ファイルを2つ開けない場合の対処方法

Visual Studio Codeでファイルは、シングルクリックだとプレビューモードで、ダブルクリックだと編集モードで開くらしいです。

プレビューモードだとタブが上書きされてしまうようです。

たぶん件名の問題が起きている場合は、シングルクリックでタブを開いていると思います。 ダブルクリックで開いて見てください。

参考:ユーザーインターフェイス | 非公式 - Visual Studio Code Docs

matplotlibのグラフで日本語を使う手法まとめ

問題と、この記事の目的

matplotlibのグラフを描画するときにタイトルや凡例などに日本語を使うと、次のように通常は文字化けしてしまいます(豆腐□になる)。

f:id:misshiki:20180815145120p:plain

これを回避して次のように日本語で表示する方法を、自分用の備忘録として、また他の人の参考用に、まとめておきます。

f:id:misshiki:20180815145249p:plain

フォントを指定する方法には、主に次の3段階があります。

  • 1.【個別のフォント】を設定
  • 2. 【以下すべてのmatplotlibのフォント】をまとめて設定
  • 3.【matplotlib全体のデフォルトフォント】を設定

それぞれ説明していきます。

フォントのダウンロード

その前に必要に応じて使うフォントを、OSにインストールしておいてください。この記事では以下を使います。

1. 【個別のフォント】を設定

1の手法の利点は、必要なところだけフォントを設定できるので、より細かくカスタマイズできるところです。実行するコードは、次のようになります。なお、axaxes(figure図の中にあるグラフ本体)のことです。

# 1. 【個別のフォント】を設定できる
font = {'family': 'IPAexGothic',
        'size': 14}
ax.set_title('日本語タイトル', fontdict=font)
ax.set_xlabel('X軸', fontdict=font)
ax.set_ylabel('Y軸', fontdict=font)

ただ、この方法だと、凡例(legend)が設定できないらしい。凡例を日本語化するには、以下のようにFontPropertiesを使う必要があります。

from matplotlib.font_manager import FontProperties
fp = FontProperties(fname=r'C:\WINDOWS\Fonts\SourceHanCodeJP-Regular.otf', size=14) # 他にはipaexg.ttfフォント
ax.set_title('日本語タイトル', fontproperties=fp)
ax.legend(['凡例だけはprop=fp', 'それ以外はfontproperties=fp'], loc='upper left', prop=fp)

FontPropertiesを使うデメリットは、フォントファイルを直接扱っているので環境依存が強まる点だと思います。

2. 【以下すべてのmatplotlibのフォント】をまとめて設定

次がmatplotlibのrc(“run commands”: いわゆる実行・挙動の構成)をダイナミックに設定する方法です。あくまでダイナミックなので、その実行において一時的に適用されます。

# 2.【以下すべてのmatplotlibのフォント】をまとめて設定できる
import matplotlib
font = {'family' : 'SourceHanCodeJP-Regular',
        'size'   : 14}
matplotlib.rc('font', **font)

以下のように設定することも可能です。

import matplotlib.pyplot as plt
plt.rcParams['font.family'] = 'IPAexGothic'
plt.rcParams['font.size'] = 14

1のようにすべてにフォントを設定しなくてよいので便利です。また、実行のたびにフォントを変えられるので、手法の中では一番オススメです。

3. 【matplotlib全体のデフォルトフォント】を設定

上記のように、個別に設定したり、実行ごとに設定設定すたりするのが面倒な場合は、matplotlib全体の構成を担うrcファイルで、デフォルトのフォントを設定してしまうとよいです。

これにはまず以下を実行して、matplotlibrcの場所を取得します。

# 3. 【matplotlib全体のデフォルトフォント】を設定できる
import matplotlib
# 設定ファイルの場所を取得
print(matplotlib.matplotlib_fname())
# 取得例: 'C:\Users\masa-i\Miniconda3\envs\introtensorflow\lib\site-packages\matplotlib\mpl-data\matplotlibrc'

次に、このファイルをエディターで開き、[font.family]の値を編集して保存してください。

f:id:misshiki:20180815155222p:plain

フォントはキャッシュされているらしいので、次のコードを実行して、いったん再構築しておきます。

# フォントキャッシュを再構築
matplotlib.font_manager._rebuild()

さらに、Jupyter Notebookを使っている場合は、いったんカーネルを再起動してください。これをしないと、正常にmatplotlibrcファイルの設定が反映しないようでした。

よく日本語を使う場合は、matplotlibrcファイルでデフォルトフォントを設定しておくと便利だと思います。

まとめ

以上、matplotlibの日本語設定方法をまとめました。

ネット上でたくさんヒットするのですが、情報が分散していて調べるのに苦労しました。今後もよく使う内容だと思うので、調べた内容をここにまとめ直しました。

Hope this helps.

カスタムURLを指定した、はてなブログAtomPubによる記事投稿

はてなブログでは、カスタムURL(custom-url、CustomPath)が指定できます。

しかしAtomPubを使う場合は指定できないという問題があります。少なくとも公式のヘルプには指定方法が記載されていません。

上記のコンソールアプリは、はてなのMackerelのドキュメント作成で使われているもので、これには --custom-path というカスタムURLを指定するためのオプションが用意されていました。

中身を調べてみると、blogsync/atom.go at master · motemen/blogsyncxml:"http://www.hatena.ne.jp/info/xmlns#hatenablog custom-url,omitempty" という記載があり、XML名前空間に「http://www.hatena.ne.jp/info/xmlns#hatenablog」を設定した <custom-url> 要素にカスタムURLを指定できることが分かります。

実際にAdvanced REST clientというツールで、HTTP POST送信のBodyに指定して検証すると、確かに動作しました。ということで誰かの役に立つかもしれないので情報共有しておきます。

<?xml version="1.0" encoding="utf-8"?>
<entry xmlns="http://www.w3.org/2005/Atom"
       xmlns:app="http://www.w3.org/2007/app"
       xmlns:opt="http://www.hatena.ne.jp/info/xmlns#hatenablog">
...
  <opt:custom-url>test/path</opt:custom-url>
</entry>

Microsoft MVP を12年連続受賞。Visual Studio and Development Technologies [2018-2019] カテゴリ

2007年から C#Visual Studio と開発技術のカテゴリでMicrosoft MVPを受賞していますが、今年も無事、更新できました。

Masahiko Isshiki (misshiki)

ただ、2018年4月からはDeep Insiderというサイトの編集長をやっていて、従来の.NET開発やWeb/IoTなど幅広く技術を追いかけるのをやめ、「仕事的にも個人的にもAI・機械学習・ディープラーニングの技術に専念して今後しばらくは生きていきたい」と決心しているので、本音では AI カテゴリで受章したかったです...。
まぁ2017年のBuild Insiderなどでの活動と見ると、この Visual Studio and Development Technologies カテゴリなのは仕方ないと思いますが。

テクノロジの変化に合わせて MVP アワードの分類を調整

ということも受章通知のメールに書かれているので、今後、より適切な分類に再振り分けされる可能性もあるかなと思っています。

今年はいつもといろいろと違ったのでダメかなと思っていました。まずは良かった。今回はブログ記事として書いてみました。

サイトをHTTPS化しました

はてなブログがカスタムドメインのHTTPS化に対応したのに合わせて、本サイトもHTTPS化しました。

なお、画像など一部がHTTPS配信のままになっていますが、簡単にURLを修正する手段がなく、手間が掛かりすぎるので、取りあえずこのままになります。