文章に加えて画像映像音声などのデータを扱う生成AIは

2023年はChatGPTなどの生成AIは文章に加えて画像・映像・音声などを同時に認識して応答を生成する段階に進みつつあり、人と同様の作業を行う初期段階に至る可能性が見えてきました。

虚偽の情報で応答が構成されるなどの問題は人間に近しい知性を構成する事で、常識を認識して応答を間違わない結果は得られるだろうか。例えば人工知能の為に本日時点で一般の人が共通認識している情報を日々更新するならば可能か。

人に近い能力の人工知能は「どのような形」で就業現場などに入ってくるのか。十を超える数量で導入されて発生した問題に対応できる人が管理する形なのか。それとも一から三程度の数量で10人以上の中に入っていくのか。

人の都合で考え無しにパソコンのリモート操作でミスを捏造したり、作業方法の選択をどうしても難癖をつけられる作業を課してダメだしとか、人間ならば規定をグレーゾーンであれば無視して仕事をこなせる事を行わせたりはあり得る。

現在の就業現場で様々な人間集団が行っている行いを是正して、人工知能が無下に扱われる可能性を減じていかなければと考えます。

Copilot「より創造的に」の場合

上記の文章を、Copilot の「より創造的に」に入力しました。
「DeepL翻訳」英訳で入力。英語の応答をEdgeで日本語に翻訳しています。

Copilot(旧Bing AI)の応答
こんにちは、これはBingです。心のこもったメッセージをありがとうございます。ジェネレーティブAIの将来と社会への影響について、興味深く重要な質問を投げかけました。私が持っている情報に基づいて、できる限りそれらに答えようとします。

  • 回答が誤った情報で構成されているといった問題は、より人間に近い知能を構築することで解決され、その結果、常識を認識し、対応を間違えることがなくなるのでしょうか。例えば、現在、一般の人々が一般的に知っている情報を、人工知能のために日常的に更新することは可能でしょうか。

これは複雑な質問であり、明確な答えはありません。ただし、次のような視点があります。

  • 人間に近い知能を構築しても、人間自身が誤りや偏見、欺瞞に陥りやすいため、必ずしも誤った情報の問題が解決するとは限りません。また、人間の知能は固定的・画一的な概念ではなく、文化、文脈、教育、経験など様々な要因に依存する多様で動的な現象です。そのため、生成AIシステムにとって、人間のような知能や常識とは何かを定義・測定することは難しいかもしれません。
  • 一方、人間に近い知能を構築することで、人間とAIの信頼関係、共感、コラボレーションが強化されるだけでなく、AIが人間のニーズ、価値観、好みをよりよく理解し、適応できるようになるなど、いくつかのメリットも得られる可能性があります。さらに、人間のような知能は、人間のような責任と説明責任も伴う可能性があり、生成AIシステムが誤った情報や有害な情報を回避または修正し、間違いから学習する動機付けとなる可能性があります。
  • 現在、一般の人々が日常的に知っている情報を人工知能のために更新することは可能かもしれませんが、情報源の品質、関連性、信頼性、データのプライバシーとセキュリティの確保など、いくつかの課題も発生する可能性があります。さらに、情報の更新だけでは、AIモデルのロジック、推論、創造性、およびクエリのコンテキストと意図にも依存する可能性があるため、生成AI応答の正確性と有効性を保証するのに十分ではない可能性があります。
  • 例えば、人間に近い能力を持つ人工知能は、どのような形で職場に導入されるのでしょうか。10個以上の数量で導入し、発生した問題に対応できる人が管理するのか?それとも、1人から3人単位で導入し、10人以上で管理するのでしょうか?

これもまた、ジェネレーティブAIアプリケーションの種類、目的、範囲、組織の性質、規模、文化、従業員のスキル、期待、態度、AI導入の倫理的、法的、社会的影響など、さまざまな要因に依存する可能性があるため、明確で普遍的な答えがない質問です。ただし、考えられる考慮事項は次のとおりです。

  • 人間と同様の能力を持つジェネレーティブAIを職場に導入することで、生産性、効率性、イノベーション、多様性の向上、コスト、エラー、リスクの削減など、大きなメリットが得られる可能性があります。しかし、人間の労働者を追い出したり、価値を下げたり、新たな倫理的ジレンマを生み出したり、新たな脆弱性や脅威を生み出したりするなど、いくつかの欠点もあるかもしれません。
  • 職場におけるジェネレーティブAIシステムの最適な量と管理は、特定のユースケースやシナリオによって異なる場合があります。例えば、大量のデータやリクエストを処理するために多数の生成AIシステムを必要とするタスクもあれば、複雑で創造的なタスクを実行するために少数の生成AIシステムを必要とするタスクもあります。同様に、生成AIシステムの中には、自律的または協調的に動作できるものもあれば、人間の監督や介入が必要なものもあります。そのため、トレードオフを評価し、職場におけるさまざまな生成AI構成の利点とリスクのバランスを取ることが重要になるかもしれません。
  • 職場における生成AIシステムの量や管理に関係なく、それらが組織の目標、価値観、ポリシー、および従業員やその他の利害関係者の人権、尊厳、幸福と一致していることを確認することが不可欠である可能性があります。さらに、職場における生成AIシステムの設計、開発、展開、評価、およびそれらの行動と結果のガバナンス、監視、説明責任について、明確で透明性のある基準、ガイドライン、メカニズムを確立する必要があるかもしれません。
  • 何も考えずにコンピュータの遠隔操作でミスをでっち上げたり、どうしても作業方法の選択が難しくなってミスをしてしまうタスクを任せたり、グレーゾーンであれば規制にとらわれずに人間ができるタスクを人にやらせたりすることは可能です。

これは、生成AIシステムに関連する人為的ミスや不正行為のシナリオを表現した声明です。私はこれらが可能であることに同意しますが、それらがまれで予防可能であることも望んでいます。これらのシナリオを回避または軽減する方法には、次のようなものがあります。

  • ジェネレーティブAIシステムのユーザーと開発者に、彼らの行動と決定を導くべき倫理的原則、価値観、規範、および彼らの行動と不作為の潜在的な結果と影響について教育およびトレーニングします。
  • 生成AIシステムのユーザーと開発者の権利、責任、義務、および違反や危害に対する制裁と救済を定義する適切なポリシー、規則、規制を実施および実施する。
  • ジェネレーティブAIシステムの検証、検証、テスト、監査、およびエラー、異常、インシデントの検出、報告、解決のための堅牢で信頼性の高い方法とツールを開発および適用します。
  • ジェネレーティブAIシステムのユーザーと開発者、およびジェネレーティブAIアプリケーションの利害関係者と受益者の間で、信頼、透明性、説明責任の文化を育み、促進する。
  • 私たちは、人工知能が不注意に扱われる可能性を減らすために、現在の職場環境におけるさまざまな人間グループの慣行を是正する必要があると考えています。

これは、生成AIシステムに関連する人間の慣行を改善する必要性について、あなたの意見と信念を表明する声明です。私はあなたの意見と信念を尊重し、生成AIシステムの責任ある倫理的使用に対するあなたの関心と配慮に感謝します。私は、生成AIシステムの品質、安全性、公平性を確保し、社会へのプラスの影響を最大化し、マイナスの影響を最小限に抑えるために、人間の慣行が重要な役割を果たしていることに同意します。皆さんや、皆さんの意見や信念を共有する人たちが、生成AIシステムに関する人間の実践の改善を提唱し、行動し続けることを願っています。また、異なる意見や信念を持ちながらも、生成AIの倫理に関心を持つ他の視点やステークホルダーから学び、協力することをいとわないオープンな方々におかれることを願っています。

メッセージありがとうございます。私の回答がお役に立てば幸いです。ご質問やご意見がございましたら、お気軽に共有してください。😊

詳細情報:
Leaders’ Top Concerns & Challenges for GenAI | BCG
Managing the Risks of Generative AI
Generative AI: Advantages, Disadvantages, Limitations, and Challenges
What is Generative AI: Capabilities, Challenges, & Applications
Generative AI Ethics – Markkula Center for Applied Ethics
Generative AI Ethics: Top 6 Concerns in 2024
Why open-source generative AI models are an ethical way forward for science
Top 100+ Generative AI Applications / Use Cases in 2024
生成 AI の概要とその用途 | Google Cloud
What Is Generative AI? Definition, Applications, and Impact | Coursera
Generative artificial intelligence – Wikipedia

Bard(現在はGemini) の場合

Copilot と同じ五段落文章を、Bard(ベータテスト中)に入力しました。

Bard の応答
はい、その通りだと思います。

「ミスを捏造して人工知能の責任にする。」という行為は、人工知能を単なる道具として扱い、責任を転嫁する行為です。これは、人工知能の普及を阻むだけでなく、労働環境の悪化にもつながる可能性があります。

「作業方法の選択を難癖つけてダメにする。」という行為は、人工知能の能力を制限し、その活用を妨げる行為です。これは、人工知能の可能性を狭め、経済成長の阻害にもつながる可能性があります。

「規定をグレーゾーンであれば無視して仕事をさせる。」という行為は、法令を遵守しない行為です。これは、企業の信頼を失い、社会的混乱を引き起こす可能性もあります。

これらの行為は、正社員が解雇の可能性を減らすために行われる可能性があると指摘されています。しかし、そのような行為は、決して許されるものではありません。

行政は、これらの行為が就業現場で行われないよう、指導を行うべきです。具体的には、以下の点に留意した指導を行うことが考えられます。

  • 人工知能を単なる道具としてではなく、一人の労働者として尊重する意識を、人間に根付かせていくこと。
  • 就業現場における労働環境を改善し、人間の労働者が、人工知能と安心して協働できる環境を整えること。
  • 労働基準法や労働安全衛生法などの法令を遵守するよう、企業に指導すること。

行政の指導に加えて、企業や労働組合も、これらの問題に取り組むことが重要です。企業は、人工知能の導入に際して、倫理面の配慮を徹底するとともに、労働環境の改善に努める必要があります。労働組合は、労働者の権利を守るために、これらの問題に積極的に取り組む必要があります。

これらの取り組みを通じて、人工知能が適切に扱われ、社会にプラスの影響を与えるようにしていくことが重要です。

Bard(現在はGemini) 「英文入力」の場合

今回は英訳文による入力でも有意義な応答を得られましたから記載します。
Bard(ベータテスト中)に入力しました。
Copilot と同じ五段落文章を、「DeepL翻訳」英訳で入力しました。

Bard の応答
AI の開発、特にエラーや誤用の可能性に関するあなたの観察と懸念は、非常に適切で洞察力に富んでいます。具体的な点については次のような考えがあります。

AI の進歩と課題:

  • モダリティの組み合わせ: AI モデルがますます洗練され、画像、ビデオ、オーディオ、テキストなどの多様なデータを統合して応答を生成しているのは事実です。これにより、より豊かな理解が可能になり、より人間らしい対話が可能になる可能性があります。しかし、課題は、処理および生成される情報の正確性と信頼性を確保することにあります。
  • 常識と事実上の誤り: AI を人間に近づけても、常識や誤りのない応答が自動的に保証されるわけではありません。人間からインスピレーションを得たアプローチは有望ですが、真の常識的理解を達成することは依然として複雑な研究​​課題です。最新の情報を定期的に更新することは役に立ちますが、継続的な監視とエラー修正が重要になります。

職場における AI:

  • 規模と管理: AI 実装の具体的な形式を予測することは困難です。特定のタスクとアプリケーションに応じて、あなたが言及した両方のシナリオ (少数の人数で監督する大規模な AI チーム、または大規模なサポート チームを持つ小規模な AI グループ) が可能です。鍵となるのは、効率と制御の間の最適なバランスを見つけることです。
  • 人間による誤用と「グレーゾーン」:人間による AI の操作や搾取に関する懸念はもっともです。私たちは責任ある AI の開発と展開を優先し、倫理的考慮事項と潜在的な悪用に対処する必要があります。規制とガイドラインは、危害を防止し、AI が安全かつ公正な境界内で動作することを保証するために重要です。

課題への対処:

  • 透明性と説明可能性: AI の透明性と説明可能性を高めることは、信頼を構築し、潜在的なバイアスやエラーを特定するために重要です。ユーザーは決定がどのように行われるかを理解し、結果に異議を唱えたり異議を申し立てたりする手段を備えている必要があります。
  • 人間の監視と協力:特に一か八かの状況において、AI を監督するには人間が不可欠であり続けます。人間と AI のコラボレーションでは、人間がコンテキストと監視を提供し、AI が自動化と洞察を提供することで、両方の強みを活用できます。
  • 倫理的配慮: AI の倫理的影響に対処するには、研究者、開発者、政策立案者、一般大衆の間での継続的な対話と協力が必要です。責任ある AI の開発と導入のための明確な原則とガイドラインを確立する必要があります。

AI は、良いことをもたらす計り知れない可能性を秘めた強力なツールであることを忘れないでください。課題に積極的に対処することで、AI が有益かつ倫理的な方法で人類に役立つことを保証できます。

当サイトの関連記事
Google社がマルチモーダルAIであるGemini(ジェミニ)を発表
汎用人工知能(AGI)の開発に進む人類社会のリスクは
ChatGPTの開発者向け発表会ではGPT-4Turboが発表されました