こんにちは。今日は、Cognitive ServiceのCustom Visionをちょっとだけ触ってみる機会があったので、触れた内容を記録として残しておきたいと思います。
それではまいります。
Contents
Azure Cognitive ServiceのCustom Visionとは?
こちらをご参照。
Custom Vision とは – Azure Cognitive Services | Microsoft Docs
実際につかってみた
今回は、以下のチュートリアルに沿って進めてみました。
クイックスタート: Custom Vision ポータルを使用して画像分類モデルを構築する – Azure Cognitive Services | Microsoft Docs
リソースの作成
クイックスタート: Custom Vision ポータルを使用して画像分類モデルを構築する – Azure Cognitive Services | Microsoft Docs
チュートリアルのようにCustom Visionリソースを作成するか、もしくはCustom Visionも内包した、Cognitive Serviceのマルチサービスアカウントを作成するでもどちらでも大丈夫です。
今回私は後者のマルチサービスアカウントで試しました。
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-89.png?resize=728%2C455&ssl=1)
プロジェクトを作成
にアクセスして、プロジェクトを作成します。
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-78.png?resize=728%2C320&ssl=1)
今回は分類問題 & Multiclassで設定しますが、物体検出のCustom Visionも構築できます。
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-81.png?resize=625%2C1024&ssl=1)
ドメインについては、以下に詳細があります。
Custom Vision プロジェクトのドメインを選択する – Computer Vision – Azure Cognitive Services | Microsoft Docs
学習データの追加とラベル付け
プロジェクトを作成したら、学習用データの追加。MultiClassの分類では、少なくとも2つのタグが必要で、かつ各タグごとに5枚の学習用データが必要になります。(5枚で済むところがすごい・・)
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-83.png?resize=728%2C351&ssl=1)
今回はチュートリアルに掲載されているサンプルイメージを使います。Japanese CherryBlossom画像とHemlock画像をアップロードし、それぞれJapanese CherryBlossomとHemlockというタグを振ります。
このとき、それぞれ10枚づつ画像が用意されていますが、1枚づつテスト用に残して9枚だけアップロードするようにします。
まずはCherry。
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-82.jpg?resize=728%2C304&ssl=1)
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-82-1.jpg?resize=728%2C695&ssl=1)
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-82-2.jpg?resize=728%2C193&ssl=1)
つづいてHemlock。
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-84.jpg?resize=728%2C296&ssl=1)
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-84-1.jpg?resize=728%2C763&ssl=1)
モデルの学習
アップロードが完了したら、”Train”に進みます。今回はデフォルトのQuick Trainingで。
このプロセスについては、何ら手を加えることはなく自動的に行われます。
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-84.png?resize=728%2C426&ssl=1)
ものの数分で学習が完了。学習結果のメトリクスなどが確認できます。
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-85.png?resize=728%2C390&ssl=1)
モデルのテスト
できたモデルはQuick Testからテストできます。
先ほど残しておいた、10枚目の画像をアップロードしてみると・・・
両方とも正確に分類できていることが確認できました。
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-86.png?resize=728%2C437&ssl=1)
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-87.jpg?resize=728%2C449&ssl=1)
モデルのデプロイ
モデルのデプロイも1クリックです。
デプロイ先として、Custom VisionまたはCognitive Service マルチサービスアカウントリソースを選択するだけです。
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-87.png?resize=728%2C333&ssl=1)
すると予測エンドポイントが利用可能になるので、アプリケーションコード等から画像ファイルまたはURLを含めて呼び出してやれば利用可能になります。
![](https://i0.wp.com/www.simpletraveler.jp/wp-content/uploads/2022/07/image-88.png?resize=728%2C441&ssl=1)
以上、超簡単ですがCustom Visionを試してみたメモでした。学習~デプロイ・利用まで非常に直感的でとても簡単にできました。便利なサービスですね。どこかで活用してみたいなと思います。
少しでも参考になりましたら幸いです。
おしまい
コメントを残す