EdgeImpulseとは

マイコンなどのリソースが限られたでCPUなどで機械学習を簡単に動かせるようにするためのサービス(Edge AIプラットフォーム)

センサデータ(加速度や音声データ)を入力とした時系列データのモデルや、画像データを入力としたモデルを作成することができる

Edge Impulse - The Leading edge AI platform

モデルを作成することができたら、Arduino LibraryやC++ Libraryなどとしてデプロイすることができる

EdgeImpulseが扱うことができる問題

教師あり学習には回帰と分類がある

Untitled

EdgeImpulseでは**回帰(Regression)分類(Classification)**の問題を扱える

M5Stackを用いたジェスチャ認識に挑戦

手順にしたがってなるべく進めてください。

(A)Edge Impulseのアカウト作成お願いします。

https://www.edgeimpulse.com/

Googleアカウントを活用するのがいいでしょう。

project名は gesturerecognition などがよいです。(なんでもよい)

(B)M5Stack Core2のArduino開発環境の構築 (Arduino言語を使います。micropythonやuiflowなどに挑戦してもらっても問題ありませんがその場合はジェスチャー認識コードは自分で書いてみてください。)

https://docs.m5stack.com/ja/core/core2

からArduino IDEを選択(ブラウザ拡張で日本語翻訳ツールをいれてください。)

https://docs.m5stack.com/ja/quick_start/core2/arduino

Windowsの人はCP210x_VCP_Windows CP2104 ダウンロードをまずは選んでください。その後zipを解凍する(Zip解凍ソフトをいれること)。

Zip解凍したあとのフォルダでx64の実行ファイルをクリックしてドライバをインストールする。

デバイスマネジャーでシリアルポートを確認するとよい。

ArudionoIDEを右上にある言語設定を「日本語」にして開発環境の手順をすすめてください。

BordmanagerとLibrary(関連ライブラリプロジェクト→ライブラリの読み込み→ライブラリ管理.)は両方セットする必要があります。

(C)標準のサンプルHelloworldなど各種サンプルを動かしてください。

M5Stackと自分の開発PCをUSBケーブルで接続する。

調子が悪いUSBケーブルや端末もあるので注意。