2022.01.25
Appleの機械学習ライブラリCore MLを試してみました(1)
みなさん、こんにちは。
最近、モバイルと機械学習を連携させて何ができるか考えています。
その一環として、AppleのCoreMLについて調べてみました。
Core MLとは
Appleのデバイス、iPhoneやMac上で動く機械学習ライブラリです。
デバイス上で機械学習を実行でき、作成したモデルを利用することができます。特徴は次のようなものです。
・モデルの実行をデバイス上で完結
Core MLモデルは完全にユーザーのデバイス上で実行されるため、ネットワーク接続を必要としません。
・高度なニューラルネットワークの実行
画像、ビデオ、音声、その他のメディアを理解するよう設計された最先端のニューラルネットワークなど、最新のモデルに対応しています。
・モデルの展開
CloudKitを使ってモデルをAppに簡単に展開することができます。
・モデルの変換
TensorFlowやPyTorchなどのライブラリからのモデルを容易にCore MLに変換できます。
・オンデバイスでのモデルのパーソナライズ
モデルはユーザーデータを使ってデバイス上でアップデートできるため、ユーザーの行動に合わせてモデルをアップデートしていくことができます。
Core MLで何ができるか
Core MLを利用すると大体次のようなことができます。
・Vision – 画像認識や分類
・Natural Language – テキスト処理や分類
・Speech – オーディオをテキストに変換
・SoundAnalysis – 何の音かを特定する
Core MLのVisionフレームワークを試す
Core MLのVisionフレームワークを実際に試してみました。
試したのはこちらにある公式の画像認識のサンプルアプリです。
https://developer.apple.com/documentation/vision/classifying_images_with_vision_and_core_ml
コードを見るとモデルは MobileNet を利用しているようです。
学習はせずにこのモデルをそのまま使います。
実行結果
写真から事物を認識させてみました。
デジタル腕時計:76.8%
いいですね。
防波堤:24.9%
鳥は認識できませんでした。
鉢:97.0%
いいですね。
菊:50.3%
まあまあかな。
次回はまた別のフレームワークを試してみたいと思います。
バイ
地図や位置情報を用いたシステムのご提案・開発ならマルティスープへ
マルティスープは、創業以来のGISとモバイル開発の実績と技術力で、営業支援システムやリサーチ・公共インフラ・工事・警備業界の現場を支援するシステム開発など、地図や位置情報を使った業務システムの導入のご提案や開発をいたします。
現場をつなぐコミュニケーションが屋内外業務のパフォーマンスを最大限に。マルティスープのiField(アイ・フィールド)®シリーズは、屋内外業務の現場の実力を減少させるコミュニケーション障壁を除き、使い慣れたスマートデバイスを使って 現場の実力をリアルに伝えるサービス。
位置・空間情報のエキスパート集団として一緒に働きませんか?
マルティスープは地図情報をはじめとする位置・空間情報技術のエキスパート集団です。当社で日々研究している地図や位置情報といった技術は、災害支援など貢献度の高いシステムとして使用されることもあれば、スマートフォンアプリのゲームとして使われることもあり、その利用用途・価値は、今後もますます広がっていっています。
私たちの企業理念は、「創る喜び、使う喜び」です。
今後の開発体制をより強化するために、新卒・中途問わず、当社の未来を共に創っていただける新メンバーを募集します!
【関連記事】こんな記事も読まれています
-
最新記事New Posts
-
人気記事Popular Posts
-
関連タグRelated Tags
-
アーカイブArchive