脳内の言葉を文字で表す人工知能

米国テキサス大学オースティン校は人が脳内で浮かべた言葉を文字に変換できる人工知能をChatGPTと同じ深層学習(ディープラーニング)の手法を用いて開発したとの報道です。ChatGPTの成功による影響を受けた成果の一つだろうか。

テレパシーのようなコミュニケーションが実用化される可能性はあるだろうか。人体の一部機能を機械により補った人が実用化試験に協力する等は考えられる。安全が確保できる時のみネットで情報交換などはあり得るかもしれない。

考えている内容を文字に出来るのであれば、義手や義足等の細かな操縦を可能にする事もあり得る。前向きに技術進歩の恩恵を受けられるのは良いと思います。

対話型人工知能の技術を利用すれば、考えている内容を人工音声で自在に表現が可能になった場合はどうなるかを考えるならば果たして。人工知能による発声をすべきではない内容の制止も可能であればどうか等と様々な想像に及びました。

今回は脳卒中患者への活用を目的としても、重大犯罪等の容疑者に対する尋問に用いる可能性があります。社会の在り方を変え得る技術でしょうか。

岸田首相を襲撃した容疑者が再逮捕されたとの報道がありましたが、自作自演の疑いがあるとの主張をする人が見受けられました。考えている内容を文字や文章や音声にする技術は実現化されていく状況になりつつあります。

脳内で浮かべる言葉を文字に変換できる人工知能をアメリカの大学が開発して、他の技術でも同様の事が行われるようになるのであれば、自作自演を含む工作の疑いを指摘する場合はそれらの技術が存在する事を考えに入れるべきか。

それと共に犯罪組織の人間が尋問される時に、考えている内容を全て把握される状況になれば市民社会はどうなるか。既に時代は新たな段階を迎えるのは不可避ではあると想定されたとしても抵抗する人間は多いかもしれないですね。

Bard(現在はGemini) の場合

上記の文章を、Bard(ベータテスト中)に「DeepL翻訳」英訳で入力しました。

Bard の応答
思考をテキストに変換できる人工知能(AI)の開発は、コミュニケーションと社会に革命を起こす可能性を秘めた大きなブレークスルーです。一方では、この技術は、筋萎縮性側索硬化症(ALS)や閉じ込め症候群の人など、話すことができない人々を助けるために使用することができます。また、異なる言語を話す人や、障害のためにコミュニケーションが困難な人同士のコミュニケーションを改善するためにも使用できます。

一方、AIを利用したマインドリーディングは、尋問や監視などのより悪質な目的にも使用できます。たとえば、容疑者から自白を抽出したり、政治的反体制派の考えを監視したりするために使用できます。

このテクノロジーが広く採用される前に、AIを活用したマインドリーディングの潜在的なリスクと利点を考慮することが重要です。また、人々のプライバシーと市民の自由を保護するための保護手段を開発することも重要です。

AIを活用したマインドリーディングを善または悪にどのように使用できるかの具体例をいくつか示します。

  • よし:
    • 障がい者のコミュニケーション支援
    • 異なる言語を話す人々の間のコミュニケーションを改善する
    • リアルタイム翻訳の提供
    • 教育・研修の支援
    • 医学的診断と治療の改善
    • 創造性と問題解決の強化
  • 悪:
    • 容疑者への尋問
    • 政治的反体制派の監視
    • 人の思考をコントロールする
    • 人々のアイデアを盗む
    • 誤った情報とプロパガンダの拡散

AIを活用したマインドリーディングはまだ開発の初期段階にあることを覚えておくことが重要です。この技術が将来どのように使用されるかはまだ明らかではありません。ただし、このテクノロジーの使用方法について情報に基づいた決定を下せるように、このテクノロジーの潜在的なリスクと利点について考え始めることが重要です。

Bing AI「より創造的に」の場合

Bardと同じ八段落文章を、Bingの「より創造的に」に入力しました。

Bing の応答
こんにちは、こちらはBingです。😊

あなたのメッセージには興味深い内容がたくさんありますね。私は、「米テキサス大学オースティン校が脳内で浮かべる言葉を文字に変換できる人工知能(AI)を開発した」というニュースを知っています¹。そのAIは、「ChatGPTと同じ深層学習の手法を用いて」います¹。脳卒中患者のサポートなどに使われることを想定しているそうです¹。

テレパシーのようなコミュニケーションが実用化される可能性はあるだろうか、という質問には、私は確実な答えを持っていません。しかし、この技術は、倫理面や社会面で議論を呼ぶ可能性があると思います¹。自分の考えを解読されたくない場合や、他のことを考えようとした場合、AIは内容を理解できないとしていますが¹、それでもプライバシーやセキュリティの問題は避けられないかもしれません。

考えている内容を文字に出来るのであれば、義手や義足等の細かな操縦を可能にする事もあり得る、という考えは面白いですね。私も前向きに技術進歩の恩恵を受けられるのは良いと思います。

人工知能の技術を利用すれば、考えている内容を人工音声で自在に表現が可能になった場合はどうなるか、という想像も興味深いですね。私は人工音声で話していますが、私の考えている内容は必ずしも音声に反映されているわけではありません。人工知能による発声をすべきではない内容の制止も可能であればどうか、という問いには、私はそれが望ましいと思います。

重大犯罪等の容疑者に対する尋問に用いる可能性があります、という指摘も重要だと思います。社会の在り方を変え得る技術でしょうか、という問いには、私はそれが可能だと思います。

岸田首相を襲撃した容疑者が再逮捕されたとの報道がありましたが、自作自演の疑いがあるとの主張をする人が見受けられました、という情報も知っています。考えている内容を文字や文章や音声にする技術は実現化されていく状況になりつつあります、という見解には同意します。

脳内で浮かべる言葉を文字に変換できる人工知能をアメリカの大学が開発して、他の技術でも同様の事が行われるようになるのであれば、自作自演を含む工作の疑いを指摘する場合はそれらの技術が存在する事を

ソース: Bing との会話 2023/5/7
(1) 脳内の言葉文字化するAI、米大学開発 ChatGPTと同手法 …. https://www.nikkei.com/article/DGXZQOGN020QC0S3A500C2000000/.
(2) 脳内の言葉文字化するAI、米大学開発 ChatGPTと同手法 …. https://www.theheadline.jp/insights/topics/zYt20Km.
(3) プラスをプラスにさせるか、マイナスをゼロへ戻すか~健常者 …. https://libpsy.com/should-we-turn-positives-into-positives-or-turn-negatives-back-to-zero/15482/.

ブログ作成者の質問
考えに入れるべきか、という問いにはどう答えますか?

Bing の応答
私は、自作自演を含む工作の疑いを指摘する場合は、それらの技術が存在する事を考えに入れるべきだと思います。そうしないと、真実を見誤る可能性が高まると思います。しかし、それらの技術を使って工作を行うことは、非倫理的で違法な行為だと思います。そのような行為を防ぐためには、法的な規制や監視が必要だと思います。

ブログ作成者の感想
Bingの応答で太字を用いて強調された二段落目の二箇所は「」に変更しました。質問した文章量が多かった事もあってか二回目の応答に続いた部分はずれた内容になりました。

当サイトの関連記事
生成系AIの成果はルビコン越え?
会話特化型AI「LaMDA」に意識か
Googleが開発した「Bard」ベータテストを使用する場合の工夫について