[go: up one dir, main page]

この記事は AIY Projects ディレクター、Billy Rutledge による Google Developers Blog の記事 "AIY Projects: Updated kits for 2018" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。

昨年、AIY Projects は、Maker の皆さまが AI を活用したプロジェクトを実現するために、2 つのDIYキットをリリースいたしました。これらのキットへの需要は非常に高く、特に STEM(Science, Technology, Engineering and Mathematics) 教育においては、親や教師から学校に最適なツールという評価を受けています。今後、現在存在している仕事が変わって行くなかで、学生たちは今現在は想像もできないような職業に就く可能性もあります。その際に不可欠になるのが、分析的思考や創造的問題解決といったコンピュータ サイエンスのスキルだと考えられます。

AIY を STEM 授業計画に組み込んだり、学生たちが将来の課題に備えたりするには、たくさんのステップが必要になります。Google は、新たなバージョンの AIY キットをリリースすることで、その第一歩を踏み出そうとしています。Voice Kit では音声で制御するスピーカーを、Vision Kit では学習によって人や物体を認識するカメラを作ることができます(詳しくは、こちらをご覧ください)。新しいキットでは、説明がわかりやすくなり、新たなアプリも加わり、すべてのパーツが箱の中にそろっているので、少し取り掛かりやすくなっています。

組み立てを簡単にするため、どちらのキットも新しい Raspberry Pi Zero WH で動作するように再設計されています。これも箱の中に入っており、USB コネクタ ケーブルやあらかじめソフトウェア イメージが保存された SD カードも付属しています。ソフトウェア イメージをダウンロードする必要がなくなったので、短時間で動作させることができます。アップデート版の AIY Vision Kit v1.1 には、Raspberry Pi Camera v2 も付属しています。
AIY Voice Kit v2 には、Raspberry Pi Zero WH とソフトウェア イメージを保存済みの SD カードが付属
AIY Voice Kit v1.1 には、Raspberry Pi Zero WH、Raspberry Pi Cam 2、ソフトウェア イメージを保存済みの SD カードが付属

さらに、Android 用の AIY コンパニオン アプリもリリースされ、Google Play で公開されています。これを使うと、ワイヤレスの設定を簡単に行うことができます。代替手段として、今までのようにモニター、キーボード、マウスを使うこともできます。また、iOS と Chrome 版のコンパニオン アプリも開発中で、まもなく公開される予定です。

AIY ウェブサイトも更新され、ドキュメントが改訂されています。Makerの皆さんが取り掛かりやすくなっており、開発しながら学ぶことができます。また、AIY キットで動作する各種ニューラル ネットワークを紹介する AIY Models のページもできました。私たちは、STEM 教育を始める障壁の 1 つを取り除きましたが、これらのキットをさらに活用してもらうためにできることはまだたくさんあると考えています。そこで、ユーザーの皆さんからフィードバックを集めるため、再び #MakerFaire イベントに参加します。6 月には、シカゴで開催される ISTE カンファレンスで世界中の教師の皆さんと協力し合う予定です。

新しい AIY Voice KitVision Kit は、今月より、Target の店舗および Target.com(米国)で販売されています。また、世界中で入手できるように、各国の小売店にも販売網を広げています。製品が入手できるようになったときに通知を受け取りたい方は、メーリング リストに登録してください。

皆さんが新しい AIY キットを手に取り、独自のスマート端末の開発方法についてさらに学んでいただけることを願っています。ぜひ、皆さんのレシピを Hackster.io や #aiyprojects を使ってソーシャル メディアで共有してください。



Reviewed by Takuo Suzuki - Developer Relations Team

この記事は AIY Projects ディレクター、Billy Rutledge による Google Developers Blog の記事 "AIY Projects update: new maker projects, new partners, new kits" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。

Maker とは、往々にして型破りな自らのアイデアに基づいてデバイスやエコシステム、アートを生み出す問題解決の手腕に優れた冒険者であり、ハッカーです。彼らにとって変化とは、自分たちの一部のようなものです。ですので、Google で磨き上げてきた AI テクノロジーをすべての Maker に使ってもらうには、それはオープンで広くアクセスできるものでなければなりませんでした。プラットフォームやソフトウェア スタックの要件、高価な費用やセットアップの複雑さから生じる制限を克服し、世界中の Maker を奮い立たせる好奇心や創意工夫に目を向け続けました。

パートナーの Raspberry Pi と力を合わせて 5 月に リリースした Voice Kitは、わずか数時間のうちに完売しました。そのとき、私たちは明確なメッセージを受け取りました。人工知能は、人間と機械のインタラクションを自然な人間のインタラクションに近づけます。そういった人工知能を活用したモノ作りを自分たちの手で行いたいという純粋な需要があるのです。

先週は、TensorFlow チームと AIY チームとのコラボレーションの成果である Speech Commands Dataset についてお知らせしました。このデータセットには、30 種類の短い単語を発声した長さ 1 秒の 65,000 個のデータが含まれています。これは、AIY のウェブサイトを通して貢献してくださった数千人が発声したもので、これを使えば、アプリケーションでシンプルな音声インターフェースを実現できます。現在私たちは、このデータセットを次期バージョンの Voice Kit に組み込む作業を行っています。これによって、モノ作り愛好家の皆さんはシンプルな音声コマンドに応答するデバイスを作れるようになります。ボタン操作もインターネット接続も不要です。

本日(*原文公開当時)より、Voice Kit の予約注文を受け付けています。注文した製品は、Micro Center を通して店舗やオンラインで購入できるようになります。

5 月に Voice Kit with MagPi #57 が売り切れた際に、モノ作り愛好家の Shivasiddarth 氏が作成し、今月再び(17 分以内で)作り上げたものをハックしてみるのもよいかもしれません。


Maker による Voice Kit のクールな活用方法


Martin Mander 氏は、レトロ風インターホンを作りました。その名も、 1986 Google Pi Intercom です。Mander 氏は、「Raspberry PI 3 と Google AIY(Artificial Intelligence Yourself)の [音声] キットで作った壁掛け型 Google 音声アシスタント」と説明しています。これに使われているのは、4 ポンドで買った 80 年代半ばのインターホンです。既製品かと思うようなできばえですね!

Martin 氏による詳しい解説や、このプロジェクトについての Slashgear のコメントもご覧ください。

ドクター・フー のファンである)Tom Minnich 氏は、ダーレクの声で話すアシスタントを作りました。

Minnich 氏は同じようなことをしたい方のために Voice Kit の改造方法をまとめたチュートリアルも提供しています。これを使えば、ドロゴンの声のアシスタントも作れるかもしれません。

Victor Van Hee 氏は、Voice Kit を使って音声で起動できるインターネット ストリーミング ラジオを作りました。別のタイプのオーディオ ファイルも再生できます。手順が公開されているので、同じものを作ることもできます。

現在、Voice Kit は米国で入手できます。今年末までに、世界各国で販売されるようになる予定です。最新のアップデート情報をお知らせする本ブログにもご注目ください。Voice Kit に強い需要があることは、AIY Projects の大きな推進力になっています。

人間の声や視覚、動きを理解するキットで Maker を刺激する


次のキットには、視覚や動作検出が含まれる予定です。これは、既存の Voice Kit と連携して動作できるようになるはずです。AIY Project のキットは、シンプルで強力なデバイスのインターフェースを実現する「目」、「耳」、「声」、そして「バランス」感覚をモノ作り愛好家の皆さんに提供するものになるでしょう。

皆さんからのフィードバックを次のリリースに反映したいと考えていますので、ぜひ hackster.io にアクセスするか、コメントを記入してお知らせください。また、皆さんが作っているものを私たちやモノ作り愛好家コミュニティと共有してください。その際には、ソーシャル メディアでハッシュタグ #AIYprojects をつけてください。



Reviewed by Takuo Suzuki - Developer Relations Team

この記事は Google Brain チーム ソフトウェア エンジニア、Pete Warden による Google Research Blog の記事 "Launching the Speech Commands Dataset" を元に翻訳・加筆したものです。詳しくは元記事をご覧ください。

ディープ ラーニングを使ってキーワードやコマンドを検知する音声認識を行うには、どこから始めればよいかという質問をよく受けます。ニューラル ネットワークをコンポーネントとして利用できる Kaldi のようなすばらしいオープンソース音声認識システムもあるものの、いずれも複雑であるため、シンプルなタスクを行うためのガイドとして利用するのは困難です。おそらくさらに重要なのは、初心者用のチュートリアルとして無料で広く利用できるデータセットが多くないことです(多くの場合、ニューラル ネットワーク モデルの構築に使うには、データセットの前処理が必要になります)。また、単純なキーワードの検出に向いているデータセットもほとんどありません。

こういった問題を解決するために、TensorFlow チームと AIY チームは Speech Commands Dataset を作成し、それを使ってトレーニング*推論を行うサンプルコードを TensorFlow に追加しました。このデータセットには、30 種類の短い単語を発音した長さ 1 秒の 65,000 個のデータが含まれています。これは、AIY のウェブサイトを通して貢献してくださった数千人の一般の方々が発声したものです。このデータセットは Creative Commons BY 4.0 ライセンスでリリースされており、さらにデータが集まり次第、今後のリリースで追加してく予定です。これは、アプリで「Yes」、「No」や数字、命令などの一般的な単語を使った基本的かつ有用な音声インターフェースを構築するために作られています。データを作成するために使ったインフラもオープンソース化されています。まだサポートされていない言語や目的に対応する独自のデータセットを作るために、この仕組みが広くコミュニティで使われることも期待しています。

実際に試してみるには、ビルド済みの TensorFlow Android デモアプリをダウンロードし、[TF Speech] を開きます。マイクにアクセスするパーミッションを与えると、10 個の単語のリストが表示され、皆さんが発声した単語がハイライトされます。

結果は、皆さんの話し方がデータセットでカバーされているかどうかによって異なりますので、完璧ではないかもしれません。商用の音声認識システムは、この教育用の例よりもはるかに複雑です。しかし、特徴的な発音や話し方の違いがデータセットに追加されるにつれて、またコミュニティの貢献によって TensorFlow のモデルが改善されるにつれて、精度が上がり、拡張機能が増えていくことを期待しています。

自分でモデルをトレーニングする方法は、TensorFlow.org の新しい音声認識チュートリアルで学ぶことができます。フレームワークの最新の開発バージョンと最新の PC を利用すれば、わずか数時間でデータセットをダウンロードしてモデルをトレーニングできます。また、さまざまな問題に対応したり、プラットフォームによって遅延やサイズ、精度のトレードオフを行うオプションも豊富に用意されており、ニューラル ネットワークをカスタマイズできるようになっています。

このデータセットとチュートリアルを使って皆さんが構築するアプリを見ることを楽しみにしています。ぜひ、この世界に飛び込んで音声認識を始めてみてください!


* このネットワークのアーキテクチャは、Interspeech 2015 で発表された Convolutional Neural Networks for Small-footprint Keyword Spotting(短いキーワードを検出するための畳み込みニューラル ネットワーク)に基づいています。



Reviewed by Takuo Suzuki - Developer Relations Team