人工知能:天使か悪魔か?
最近のパブリックドメインでの人工知能の出現は、大きな論争を引き起こしている。一部の人によると、AIの進歩の約束は新しい世界の夜明けですが、他の人によると、それは人類の喪失です – 彼らはこの科学分野がその活動を停止するたいと思っています。では、AIは天使ですか、それとも悪魔ですか?6月12日月曜日、私たちのアンテナの特別な日の機会に、RFIによって質問された専門家とのこの論争への回答。
アメリカの会社Hugging FaceのJulien Chaumondは、AIに関する現在の立場を説明するために、一方ではリスクを認識しているが、技術の進歩を止めたくない支持者の間の振り子の動きについて教えてくれます。エコーでは、スタンフォード大学の教授であるクリストファー・マニングが、「AI安全」キャンプと「AI倫理」キャンプ、2つの騒々しい、正反対のキャンプについて語ります。2つの間で、振り子は精力的にその動きを行い、リズムを把握するのは私たち次第です。
AI has 2 loud groups: “AI Safety” builds hype by evoking existential risks from AI to distract from the real harms, while developing AI at full speed; “AI Ethics” sees AI faults & dangers everywhere—building their brand of “criti-hype”, claiming the wise path is to not use AI. pic.twitter.com/k3KLkdnzoE
— Christopher Manning (@chrmanning) May 31, 2023
しかし、なぜそんなに多くの疑問?この恐怖は正当化されますか?
ハグ・フェイスのメイン倫理学者であるジャダ・ピスティリによると、むしろ、それは誤解です。「自律性と良心を欠いた人工知能は、道徳的なエージェントとも道徳的な患者とも考えられないことを覚えておくことが重要です。彼女は自分の行動に責任を持つことができない。AIを取り巻く現在の言説は、これらのシステムの背後にある人間のアクターを不明瞭にする傾向がある。AIを懸念事項として提示することは、制御不能で謎めいた、AIの行動に対する責任を人間から機械にシフトすることを目的とした、それらを開発するいくつかの企業の戦略のようです。しかし、AIシステムが「悪行」を犯した場合、責任はそれを設計、プログラム、または使用した個人にあることを強調することが重要です。」
このブラックボックスの概念は基本的です。一部の人によると、あまりにも不透明で、それは恐ろしい幽霊のような側面を持っています。それは、AIの背後にあるメカニズム、人間の介入を理解していないからですか、それとも単にAIが対処する領域が予期しないからですか?
Giada Pistilliは次のように説明しています。「私たちは「ブラックボックス」から「マジックボックス」になりました。私たちはすべてを行うことができるとしてこれらのAIシステムを提示されています。それらは、適切な使用のための指示や教育なしに一般に届けられます。したがって、機密と見なされるコンテキストでそれらを使用しようとすると、リスクと危険性をすぐに認識します。」
機械との通信インターフェースはとてもシンプルです
チャットGPTの才能に依存するBing検索エンジンの最近の開発は、毎回供給される与えられた回答の質に感銘を与えます。私たちは、アルゴリズムが知られていない冷たい検索エンジンの進化を目の当たりにしており、かなり暖かい会話の一部として配信され、常識に満ちている情報に向かっています。これにより、連絡を受けた別の専門家が次のように述べています。「AIは、以前は実行できなかったタスクを実行できるため、魅力的です。これまで、マシンと通信するために、私たちはしばしば退屈なドキュメント(Windows上のPowerPoint、Excel、その他の拷問ロゴ)を読むことによって、彼らのコードを体系的に遵守しなければなりませんでした。初めて、言語モデルでは、マシンとの通信インターフェースは非常にシンプルで、話すだけです。このタイプのモデルは、対処できるタスクの数を制限することなく、人間と機械の相互作用が流動的であるため、魅力的です。生成画像モデルの例を取ると、簡単な説明で想像するシーンが数秒で表示されるのを見るのは魅力的ではありませんか?これは、創造的なプロセスに可能性の全く新しい分野を開きます。」
クリエイティブなAIはありますか、本当に?
これは、エッセイDesign sous artificeの著者であるHaute école d’art et de design(HEAD)の准教授であるAnthony Masureの意見ではありません:機械学習のリスクによる創造(2023)。彼は本の中で次のように説明しています。「ウォルター・ベンジャミンの言葉を借りれば、これらのプログラムは、それを変換しようとせずに生産装置を供給することしかできません。 言い換えれば、それらは「反動的」であり、「革命的」ではありません。たとえば、AIがレンブラントのように絵画を「再現」(作成)できる場合 – 明らかな努力なしに、そして技術が本当に問題になることなく – レンブラントと同じくらい強い絵画パラダイムだけでなく、通常のカテゴリ(油絵、電子音楽、ウェブサイトインターフェースなど)を超えた新しい表現形態を「生産」することははるかに困難になります。「人工知能が作成できる場合」と尋ねることは、問題を提起するのは間違っています。一方では、彼らは魔法のようなものを持っていないため、他方では、物質的な不測の事態から解放された創造の語彙は、技術を探求の場所として、したがって「生産」の場として考慮することができないからです。」
この世代の画像の間違った方向への使用から終わりのないものまで、フェイクニュースの作成において、恐怖がやってくるでしょう。しかし、どのように規制するのですか?これは現在の問題であり、振り子の動きの方向とそれに課される制限です。
私たちの専門家は次のように説明しています。「AIは、私たちがそれらを数える方法を知らないほど多くの目的に使用できるので怖いです、そして、私たちは私たちが考えもしなかったであろうユースケースを恐れています。さらに、彼の予測は統計的学習に基づいており、この概念は理解するのが難しいようで[ここで説明します]、説明メカニズムをぼかします。この特性により、AIは何にでも使用するのに適しておらず、私たちはこの悪い選択をする人を恐れています。」
AIはそんなに悪いのだろうか?
アンソニー・メイジャーは、最初から提唱されたAIの肯定的な側面を思い出します:「それは、機械が実行できる退屈で反復的なタスクを取り除くことを可能にする作業補助です。時間を解放する:これはAIの約束です!しかし、約束が常に守られているとは限らないと感じています。「自動化(時間の節約)という2つの目的がありますが、AIはどこでも機能しないことを覚えておく必要があります。したがって、癌の診断は得意ではありませんが、輸送には効果的です。この効率は人々を失業させるだろうか?「コピーライターや、例えばUbisoftのように、AIを介してタスクが達成可能な従業員の一部を解雇したように、非常に明らかに失業があるでしょう。」そして、別の目標はありますか?「はい、新しい問題を解決することです。本当の問題である交換、将来の不安定さについて多くの話がありますが、補完性についてはほとんど言及されていません。機械と一緒に働くというアイデア。この方向のリードは、特に創造を刺激しています。」
AIは差別の道具です
しかし、AIは差別的なツールであり、これは最近のモデルの統計的根拠を上げる専門家によってリコールされ、統計は平均、標準、トレンドを言う…アンソニー・メイシュアは次のように詳述しています。「はい、私たちはAIが差別のためのツールであるという事実を主張しなければなりません。ディープラーニングは利用可能なデータを使用し、使用される統計モデルであり、ひどいバイアスです。特に恵まれない人々、マイノリティに対して…」
AIは、あらゆる意味で、その提案や選択において、時にはひどくバイナリであると言えます。これらのモデルは、特定のカテゴリの開発者によって作成され、世界の複数を無視して特定のカテゴリの人々に蓄積されたデータで作成されました。写真の処理のために、AIによる提案は、性別と肌の色の概念に関して衝撃的になる可能性があります。アンソニー・メイシュアは、データ処理の目的は最後にあると指摘しています。「常に人々をもう少し良くすることです。AIが使用される場合、司法はマイノリティをさらに厳しく罰する。彼は次のように付け加えます。「私たちはテクノソルベリズムに警戒しなければなりません。それはそれほど単純ではありません。考えられる解決策はありますか?「はい、特に投資では、すべてをシリコンバレーに任せてはいけません。なぜなら、私たちの生活をコントロールすることについて話すなら、すべてのデータが米国に行くことを忘れないでください、それは深刻な問題です。」
ChatGPTエキスパートモデルの意見
私たちは、お気に入りの天使/悪魔であるChatGPTエキスパートモデルに、この問題に関する彼の意見を尋ねました。
「人工知能(AI)の使用に関する議論は複雑で、この問題についてはさまざまな視点があります。AIを多くの機会を提供する進歩と技術の進歩と見る人もいれば、その使用に関連する懸念と潜在的な危険性を強調する人もいます。2つの視点を紹介させてください。
AIの進歩:
- 生産性の向上:AIは反復的で面倒なタスクを自動化できるため、人間はより高い付加価値の高いタスクに集中できます。
- 科学と医学の進歩:AIは、医学研究、創薬、複雑なデータ分析などの分野で使用でき、これらの分野で大きな進歩に貢献することができます。
- 改善されたサービス:AIは、仮想ウィザード、パーソナライズされた推奨事項、機械翻訳システムなど、サービスやユーザーエクスペリエンスを向上させるために使用できます。
AIの懸念と危険性:
- 雇用への影響:AI自動化は、一部の仕事に取って代わる可能性があり、仕事の将来や専門的な再資格の必要性に対する懸念が高まります。
- バイアスと差別:AIシステムは、訓練されたデータに存在するバイアスを反映する可能性があり、差別的または不公平な結果につながる可能性があります。
- 倫理的問題:AIは、自律機械による意思決定の責任、データの機密性、アルゴリズムの透明性など、複雑な倫理的問題を提起します。
- 危険または進歩としてのAIの認識は、多くの場合、それがどのように使用され、規制されているかに依存することに注意することが重要です。多くの人が、AIが責任を持って倫理的に開発され、使用されるように、適切な規制とガバナンスの必要性を強調しています。
結局のところ、AIが危険か進歩かという質問に対する簡単な答えはありません。特定の状況、想定される用途、リスクを最小限に抑え、利益を最大化するために取られた予防措置によって異なります。オープンな対話と情報に基づいた意思決定は、社会的に有益な方法でAIの未来を形作るために不可欠です。」
ありがとう、小さな天使/悪魔、私たちのスピーカーは同じ問題を強調しました。
のんきな人に、悪魔は地獄に住む堕天使であることを思い出させましょう。そこから、彼は男性、女性、LGBTIQA+を誘惑するために最善を尽くします。
リュック・ジュリアはSiriの共同発明とルノーの科学ディレクター
ラファエル・ドアンの歴史家、Chat GPT 3を使用して書かれたuchroniaの著者ローマが倒れていなかった場合(ed.過去/コンパウンド、2023年)
オーレリー・ジャン、科学博士、起業家、アルゴリズム科学の専門家、アマンダ・サーズと共同執筆した「レジスタンス2050」の著者(オブザーバトワール版)
https://www.rfi.fr/fr/technologies/20230612-polémique-l-intelligence-artificielle-ange-ou-démon