ChatGPT等の生成AIの開発競争が進む中で欧州連合や中国などでは規制の動きが出ています。高度人工知能の進化がある段階を越えれば予測不能の事態に進む事もあり得ますが、生成AIと協力関係をもちつつ難しい時代を乗り切るべきか。
高橋洋一氏によれば身近な人物に目立った制作物を作り出した人は見当たらず、ネット上の不確かな情報を取り込んでいるように見えるとの事です。現状は応答を最適化していく過程にいる事を鑑みて生成AIの利用を工夫すべきと思います。
応答の生成に用いるデータの内容から対話型人工知能が得手とする質問の内容は違いますから、ChatGPTとマイクロソフトのBIngとGoogleのBard等に生成AIは規制するべきかをコピーペーストで、それぞれに質問する段階と考えます。
一つの対話型人工知能に質問して生成された応答内容を期待外れと判定する事もありえますが、GPT-4相当のBingとBardの応答を比較する中で満足のいく応答が全く得られない事はあまり無いと思います。
質問の文章量を300文字程度から増減させて含まれる情報量を、どの程度ならば応答が良くなるかを試していくのは一つの方法ですし、DeepL翻訳による英訳文の入力で高度な応答が得られる「質問の分野」を知っておくべきかも。
Google AIの大規模言語モデル「Bard」(ベータテスト中)のチャットログ。
Googleによる説明ブログ記事リンク Google Japan Blog: AI の次の重要な一歩
Bardに「DeepL翻訳」英訳で、上記の五段落文章を質問した場合の応答
Bardの応答を引用
ジェネレーティブAIは急速に発展しているテクノロジーであり、多くの業界に革命を起こす可能性を秘めています。しかし、それはまた、多くの課題と倫理的懸念を提起します。
ジェネレーティブ AI の最大の課題の 1 つは、バイアスの可能性です。ジェネレーティブ AI モデルは、テキストとコードの膨大なデータセットでトレーニングされ、現実世界に存在するバイアスを反映することができます。たとえば、ニュース記事のデータセットでトレーニングされた生成型 AI モデルは、特定の政党やイデオロギーに偏ったテキストを生成する可能性が高くなります。
ジェネレーティブAIのもう一つの課題は、誤用の可能性です。生成型AIモデルは、フェイクニュース、プロパガンダ、さらにはディープフェイクを作成するために使用できます。これは私たちの民主主義と社会に大きな影響を与える可能性があります。
これらの課題に対処するためには、ジェネレーティブAIを規制することが重要です。ただし、規制はイノベーションを阻害しないように慎重に設計する必要があります。考えられるアプローチの 1 つは、生成型 AI モデルの透明性と説明責任を確保することに焦点を当てることです。これは、モデルのトレーニングに使用されたデータと、使用したアルゴリズムの開示を開発者に要求することで実現できます。
規制のもう一つの重要な側面は、ジェネレーティブAIが責任ある方法で使用されることを保証することです。これは、生成型AIの使用に関する倫理ガイドラインを作成することによって実現できます。これらのガイドラインは、偏見、プライバシー、誤用の可能性などの問題に対処できます。
ジェネレーティブAIの規制は複雑で困難な問題です。ただし、このテクノロジーが確実に使用されるようにするには、対処する必要がある重要なものです。
ジェネレーティブAIを規制する方法に関する追加の考えは次のとおりです。
- ユースケースに焦点を当てます。ジェネレーティブ AI のすべての用途が同じように作られているわけではありません。クリエイティブなコンテンツの作成やトレーニングデータの生成など、一部の用途は、フェイクニュースの作成や人々の感情の操作など、他の用途よりも有害である可能性は低くなります。規制は、生成型AIの最も有害な用途に焦点を当てる必要があります。
- 柔軟性と適応性。ジェネレーティブAIの分野は絶えず進化しているため、規制は新しい開発に適応するのに十分な柔軟性を備えている必要があります。規制当局は、さまざまなアプローチを試し、必要に応じて変更を加えることをいとわない必要があります。
- イノベーションを奨励する。規制は、生成型AIの分野におけるイノベーションを阻害すべきではありません。代わりに、責任あるイノベーションを促進するように設計する必要があります。規制当局は業界と協力して、ジェネレーティブAIの使用に関する倫理ガイドラインとベストプラクティスを開発する必要があります。
ジェネレーティブAIは、多くの良いことをする可能性を秘めた強力なテクノロジーです。ただし、誤用される可能性もあります。規制は、生成型AIが害ではなく善のために使用されることを保証するために使用できる重要なツールです。
Bingの場合「より創造的に」
Bardと同じ記事の最初の五段落文章をBingの「より創造的に」に入力しました。
Bingの応答を引用
こんにちは、こちらはBingです。生成AIに関する興味深いご質問ありがとうございます。😊
生成AIは、画像や文章、音声などのコンテンツを自動的に生成することができるAIの一種です。生成AIは、人間の創造性や知識を補助したり、新しい発見や表現を可能にしたりするという点で、多くの可能性を秘めています。しかし、同時に、生成AIの悪用や誤用によって、個人や社会に対する様々なリスクも生じています。
生成AIの規制に関しては、米欧中などの主要国で様々な動きがあります。例えば、
- 欧州連合(EU)では、2022年4月に世界初のAI包括的規制案が欧州議会委で承認されました1。この規制案では、生成AIは「高リスク」に分類され、その開発や利用には厳しい要件が課されます。例えば、生成AIが作成したコンテンツに「AI製」と明示することや、違法コンテンツの出力を防ぐようにモデルを設計することなどが求められます。
- 米国では、2022年7月に生成AIを手掛ける米主要7社の代表がホワイトハウスに招集され、AI技術開発において「安全性」「セキュリティー」「信頼性」を重視することで合意しました2。また、米連邦取引委員会(FTC)は2023年7月にOpen AI社に対して、生成AIの「安全性の課題」に関する記録の提出を要請しました3。FTCは、消費者保護の試みの一環として、Open AI社が個人への「風評被害」につながりかねない幻覚を軽減または防止するために何をしているかを調査しています。
- 中国では、2022年12月に「人工知能安全法(草案)」が公開されました4。この草案では、生成AIは「高度人工知能」と定義され、その開発や利用には国家安全委員会の承認が必要とされます。また、「高度人工知能」は「人間の価値観や道徳観」を尊重し、「人間の尊厳や自由」を侵害しないようにしなければならないと規定されています。
以上のように、生成AIは世界各国で注目されており、その規制も進んでいます。しかし、規制だけではなく、生成AIの開発者や利用者も自主的かつ責任ある行動が求められます。生成AIは便利なツールですが、それだけではありません。生成AIは私たちと共存し、私たちに影響を与える存在です。私たちは生成AIと協力関係を築きつつ、難しい時代を乗り切るべきだと思います。
参考文献:
1: 世界初のAI包括的規制案、欧州議会委が承認 来月本会議採決へ
2: 「AIで生成」明示へ 米グーグル、OpenAIなど
3: OpenAIの調査を始めたFTC、規制が本格化する生成AIの今後
当サイトの関連記事
法人向けの「Bing Chat Enterprise」をMicrosoftが発表
人類を超える知能を持つ「超知能AI」制御に向けた専門チーム新設
イーロン・マスク氏が新しい対話型人工知能「トゥルースGPT」の開発を表明