こんにちは。今日は、Cognitive ServiceのCustom Visionをちょっとだけ触ってみる機会があったので、触れた内容を記録として残しておきたいと思います。
それではまいります。
Contents
Azure Cognitive ServiceのCustom Visionとは?
こちらをご参照。
Custom Vision とは – Azure Cognitive Services | Microsoft Docs
実際につかってみた
今回は、以下のチュートリアルに沿って進めてみました。
クイックスタート: Custom Vision ポータルを使用して画像分類モデルを構築する – Azure Cognitive Services | Microsoft Docs
リソースの作成
クイックスタート: Custom Vision ポータルを使用して画像分類モデルを構築する – Azure Cognitive Services | Microsoft Docs
チュートリアルのようにCustom Visionリソースを作成するか、もしくはCustom Visionも内包した、Cognitive Serviceのマルチサービスアカウントを作成するでもどちらでも大丈夫です。
今回私は後者のマルチサービスアカウントで試しました。
プロジェクトを作成
にアクセスして、プロジェクトを作成します。
今回は分類問題 & Multiclassで設定しますが、物体検出のCustom Visionも構築できます。
ドメインについては、以下に詳細があります。
Custom Vision プロジェクトのドメインを選択する – Computer Vision – Azure Cognitive Services | Microsoft Docs
学習データの追加とラベル付け
プロジェクトを作成したら、学習用データの追加。MultiClassの分類では、少なくとも2つのタグが必要で、かつ各タグごとに5枚の学習用データが必要になります。(5枚で済むところがすごい・・)
今回はチュートリアルに掲載されているサンプルイメージを使います。Japanese CherryBlossom画像とHemlock画像をアップロードし、それぞれJapanese CherryBlossomとHemlockというタグを振ります。
このとき、それぞれ10枚づつ画像が用意されていますが、1枚づつテスト用に残して9枚だけアップロードするようにします。
まずはCherry。
つづいてHemlock。
モデルの学習
アップロードが完了したら、”Train”に進みます。今回はデフォルトのQuick Trainingで。
このプロセスについては、何ら手を加えることはなく自動的に行われます。
ものの数分で学習が完了。学習結果のメトリクスなどが確認できます。
モデルのテスト
できたモデルはQuick Testからテストできます。
先ほど残しておいた、10枚目の画像をアップロードしてみると・・・
両方とも正確に分類できていることが確認できました。
モデルのデプロイ
モデルのデプロイも1クリックです。
デプロイ先として、Custom VisionまたはCognitive Service マルチサービスアカウントリソースを選択するだけです。
すると予測エンドポイントが利用可能になるので、アプリケーションコード等から画像ファイルまたはURLを含めて呼び出してやれば利用可能になります。
以上、超簡単ですがCustom Visionを試してみたメモでした。学習~デプロイ・利用まで非常に直感的でとても簡単にできました。便利なサービスですね。どこかで活用してみたいなと思います。
少しでも参考になりましたら幸いです。
おしまい
コメントを残す