話す能力を失い、はっきりと言葉を発することができない人が、自分の言いたいことを伝えることができるようになることを想像したことがありますか?
これは、人工知能と機械学習の驚くべき進歩によって実現されました。新しい研究がいくつも行われ、人類のさまざまなニーズに対応するために多くのアルゴリズムが制定されています。スタンフォード大学の研究者たちは、そのようなインターフェースの1つを開発しました。このブレイン・コンピューター・インターフェースは、麻痺などの症状を持つ人が自分の考えを伝え、1分間に62語でコミュニケーションするのを助けることができます。
ブレイン・コンピューター・インターフェース(BCI)とは、簡単に言えば、脳の活動だけでコンピューターと対話することを可能にする装置である。BCIは、脳の電気的活動を利用して、外部の機器と通信するための直接的な経路を提供するものです。この外部機器とは、主にコンピュータやロボットの手足などである。人工知能では、BCIは中枢神経系(CNS)の活動を測定し、それを人工的な出力に変えます。この出力は、自然の中枢神経系出力を代替・強化し、CNSと外来環境との相互作用を修正する。
スタンフォード大学の研究者は、リカレントニューラルネットワーク(RNN)を用いてブレイン・コンピュータ・インターフェースを処理し、患者の脳内で発見・捕捉された信号から音声を合成することができるようにしました。従来のBCIでは音声を解読していたのに対し、この最新の方法では、1分間に62語という従来の3.4倍の速さでコミュニケーションをとることができます。人工知能がヘルスケアや医療などあらゆる分野に進出する中、この新しい音声テキストインターフェースは、明瞭な音声を発することができない方々のコミュニケーションに貢献します。
おすすめの読み物です。TensorLeapを活用した効果的な転移学習。ドメインギャップを克服する
研究者は、筋萎縮性側索硬化症(ALS)による言語能力の喪失に悩む人を対象に、本システムの実証を行ったことを明らかにしました。このシステムは、RNN、特にGated Recurrent Unit(GRU)モデルのトレーニングによって処理されています。研究チームは、患者の脳に埋め込まれた皮質内微小電極アレイを用いて、患者が話そうとしたときに発した言葉を捉えようとしました。これらの微小電極アレイは、単一ニューロンの分解能で信号を記録する。これらの信号をGRUモデルに転送し、音声を解読した。
研究者は、RNNモデルを50語の境界付き語彙で学習させたとき、BCIシステムは9.1%のエラー率を表示したと言及した。語彙を125k語に増やした後、エラーレートは23.8%に変化した。さらに、デコーダーに言語モデルを追加すると、エラーレートは17.4%に改善された。訓練用に収集したデータは10850文で、毎日数百文を患者に見せて発話させることで行った。患者が文章を口にした瞬間に、微小電極が神経信号を捕らえた。
BCIは、脳の活動を読み解くために多くの研究が行われていますが、このシステムは間違いなく画期的なものです。この開発は、麻痺や脳卒中などの患者さんを大きく助けることができます。現在あるアプローチの3.4倍の性能で、このシステムは驚異的な働きをすることができます。