メニュー メニュー

新しいAIは脳波を複雑な音声に変えます

今日の恐ろしい/クールな科学ニュースでは、米国の科学者は私たちの脳と直接通信するコンピューターの作成において大きな一歩を踏み出しました。

カリフォルニア大学サンフランシスコ校(UCSF)の神経科学者と音声専門家は、人間の脳波を読み取って音声に変換できる人工知能を開発しました。

ブレークスルー、最初に報告された 自然 雑誌は、彼らにスピーチの力を犠牲にした状態を持っている人々(例えば、MSまたは脳卒中患者)と将来のロボットの黙示録の両方に影響を及ぼします。 彼らは文字通り私たちの考えを読むことができます。

冗談はさておき、この技術は、機械を人間のメカニズムにシームレスに統合するための完全に画期的なものであり、プログラミングでのユーザー入力の必要性を減らす可能性があります。 最後に、MSペイントは、IRLを作成するために管理したものがそうではなかったことを理解します 実際に あなたの頭の中に何があったのか。

脳波から音声へのインテリジェンスは、過去XNUMX年間で急速な進歩を遂げ、過去に生の脳データを単語に翻訳することで行き詰まりました。 神経経路の複雑さ、および各人の脳のパターンの個性は、一般的に一度にXNUMXつの単語しか生成できないことを意味しました。

しかし、人々の思考パターンは独特で無限に複雑ですが、音声を生成する脳から口、顎、舌への信号はかなり普遍的です。 したがって、UCSFの科学者は、脳だけを研究するのではなく、XNUMXつのAIを使用して、対話中の神経信号と口の動きの両方を分析しました。

下のビデオは、私たちが話しているときに私たちの口と喉が実際にどのように見えるかをX線で示しています。

これらのAIによって収集された情報がシンセサイザーに送られると、多かれ少なかれ複雑な文に似たものが出てきました。

結果は完璧ではありませんでした。 人工ニューラルネットワークは摩擦音のデコードに優れていましたが(「船」の「sh」のように聞こえます)、「bob」の「b」などの破裂音に遭遇することがよくありました。 結果として得られる音は明らかに人間ですが、G&Tが多すぎる人間かもしれません。

解剖学的AIのデータを取得するために、科学者はネイティブの英語を話すボランティアにXNUMX語のリストを読み取らせ、アルゴリズムからフィードバックされた文を解釈させました。

神経学的AIの管理はもう少し複雑でした。 チームは、てんかんの治療のために頭蓋骨に高密度電極アレイをすでに設置しているXNUMX人と協力しました。 これらのデバイスは、スカルの下に外科的に設置する必要があります。これは、侵襲的で危険な手術であり、この技術がすぐに市場に出る可能性を制限します。

しかし、Grayden教授とOxley教授、およびElon MuskのスタートアップNeuralinkを含む世界中の他のチームは、より侵襲性の低い方法に取り組んでいます。

彼らの解決策は、電極を小さな中空のチューブ状の足場に取り付けてから、それらの足場を脳の血管に浮かせることです。 彼らはそこに座って、血流や脳に干渉することなく、脳の信号を読み取ることができました。 小さな脳のペットのように。

人間による治験は今年後半に予定されています。 ボランティアはいますか?

ユーザー補助