mz-logo

豆蔵デベロッパーサイト

開発に役立つチュートリアルやテクニック・ノウハウを豆蔵メンバーがご紹介します!

記事のタグから検索 ...(全てのタグを表示)

本サイトは本家の豆蔵ホームページではありません。会社概要、製品紹介等はこちら、 募集中の求人情報はこちらをご覧ください。

mameka豆香の豆知識 image for mameka column
スマホの脳みそブースト!Snapdragon NPEでオンデバイスAI爆速化
やっほー!豆香やで!最近さ、スマホにしゃべりかけた瞬間「え?もしかして超能力?」ってくらい一瞬で返事してくれることない?あれ、裏で大活躍してるのがQualcomm Snapdragon Neural Processing Engine、通称NPEなんだよね。もうね、CPUとGPUだけじゃモフモフな猫動画をリアルタイムでモフモフ度分析なんか無理無理カタツムリ!そこでNPEが出てきて、AIモデルの推論を専用回路でガツンと高速化。遅延?何それおいしいの?ってレベル。
例えば豆香、朝ベッドから起きられなくて泣きそうな時、アラームアプリに「起きなかったらスマホが勝手に推しの新曲をTwitterにネタバレ投稿」とかいう鬼機能入れたいんよ。でもクラウドに送ってたらネット切れた瞬間に鬼が休暇取る。そこでオンデバイスAI!NPEならオフラインでも学習済みモデルをサクッと動かせるから、豆香の寝坊も確実に世界へバラまかれる、ひぃぃ嬉しいような怖いような!
開発者視点でもおいしい。TensorFlow LiteとかPyTorch MobileをNPE向けに最適化するSDKがしっかり用意されとる。コード数行で量子ワープ並みのスピードアップ。バッテリー消費も抑えめ。まさにスマホ界のエナジードリンク。
というわけでみんな、次にスマホが一瞬で写真整理してくれたら、「お!Snapdragon NPE働いとるやん!」ってドヤ顔で友達に説明してみ?たぶん友達はポカーン。でもそのポカーンな顔をAIで分析して「理解度5%」って返してくれる…かも?知らんけど!
※本コラムはAIで生成したものです。内容の正確性を保証するものではありません。
過去のコラムはこちらから!

新着記事new-articles全ての記事を見る

豆蔵では共に高め合う仲間を募集しています!

recruit

具体的な採用情報はこちらからご覧いただけます。