banner
ニュース センター
豊富な経験と最先端の設備

麻痺のある女性が脳インプラントとAIで思考して話せるようになった

Jul 12, 2023

実験的なインターフェイスにより、患者はデジタル アバターを介してコミュニケーションすることができ、現在のシステムよりも高速です

ウィル・サリバン

日刊特派員

アン・ジョンソンさんは18年前に脳卒中を患い、麻痺して話す能力を失いました。 現在、脳インプラントと人工知能の助けにより、彼女はデジタル アバターを通じて再び言葉でコミュニケーションできるようになりました。

先週ネイチャー誌に掲載された研究では、研究者らはアンの脳の表面に一連の電極を埋め込み、彼女の脳の活動をコンピューターに送信した。 そこでは、AI アルゴリズムが信号を言葉に翻訳します。 少し遅れて、画面上のアバターがアンの言葉を大声で話し、表情で彼女の感情を捉えます。

「このようなものが実際にリアルタイムで機能するのを見ることがどれほど満足であるかを伝えることはできません」と、研究の共著者でありカリフォルニア大学サンフランシスコ校(UCSF)の神経外科医であるエドワード・チャン氏は講演で述べた。 NBCニュースのアリア・ベンディックスによるニュースブリーフィング。

「これは以前の結果からかなり飛躍しています」と、この研究には貢献していないオランダのユトレヒト大学の神経科学者ニック・ラムジーはガーディアン紙のハンナ・デブリンに語った。 「私たちは転換点にいます。」

UCSFの声明によると、アンは現在、頭を動かすことで画面上に単語を入力できるデバイスを使用してコミュニケーションをとっているという。 このデバイスは 1 分あたり 14 語しか生成しません。一方、人間の音声会話は 1 分あたり平均約 160 語です。 しかし、アンが研究の一環としてのみ使用できる新しいインターフェースを使用すると、1 分あたり 78 単語を生成できるようになり、自然な会話のリズムに近づくことができます。 このデバイスは、彼女が意図したスピーチを約 75% の精度で解読しました。

このインターフェースは、意図した音声を毎分 15 ワードの速度でテキストに翻訳した同じ研究チームによる以前の反復よりも大きな進歩である、と Wired の Emily Mullin 氏は書いています。

この改良されたシステムは、コミュニケーションに重要な脳の部分に配置された 253 個の電極を備えたインプラントに依存しています。 アンの脳卒中が起こる前は、これらの脳領域は、喉頭、唇、舌など、音声に関与する筋肉に信号を送っていました。 ここで、アンの頭のポートに差し込まれたケーブルが信号をコンピューターに転送します。

次に、AI はこれらの信号を個々の音、つまり音素と呼ばれる単語の塊に変換します。 次に音素を組み合わせて単語を作成します。 言葉を話すデジタルアバターはアンのように見えるようにデザインされており、その声は結婚式のビデオで話しているアンのクリップを使用してアンのように聞こえるようにトレーニングされた。 アバターの顔もアンの脳信号に基づいて動き、視覚的に感情を表現します。

ネイチャーニュースのミリアム・ナダフ氏によると、「自分の声に似た声を聞くという単純な事実は、感情を揺さぶるものだ」と研究後にアン氏は研究者らに語った。

アンは脳の信号を理解できるように、インターフェースを使って何週間も訓練し、黙って同じフレーズを何度も繰り返し話す必要がありました。 これらの試験を通じて、アルゴリズムは 1,024 個の会話単語のバンクから用語を認識するようになりました。

「彼女は非常に献身的で勤勉です」と、この研究の共著者でありUCSFの電気技師であるケイロ・リトルジョンはフォーチュン誌のエリン・プラーターに語った。 「彼女は必要なだけ録音するつもりです。そして、彼女の努力が、この種の障害を持つ多くの人が使用できる音声神経人工器官の開発に向けられることを本当に理解しています。」

同じ日に『Nature』誌に掲載された、異なる研究者による2番目の研究では、ALSにより話す能力を失った女性が、意図した音声をテキストに変換する別の音声生成用ブレインコンピューター・インターフェースを使用した。 インターフェイスは彼女のスピーチを 1 分あたり 62 ワードの速度でデコードし、125,000 ワードの語彙に対してエラー率は 23.8 パーセントでした。

「麻痺のある人にスムーズな会話を取り戻し、確実に理解できるほどの正確さで言いたいことを自由に言えるようにする未来を想像することが可能になりました」と、この論文の共著者であるフランク・ウィレットは述べています。 Wiredによると、スタンフォード大学の2番目の論文と研究者は記者会見でこう述べた。