Cobweb of にーしか

モデリング、海外ドラマ感想、洋ゲーRPG

思考実験をChatGPTと解く

ChatGPTと刺激的で知的で興味深い会話をするため、ジョン・バダム監督の「ウォー・ゲーム」を真似することにしました。映画「ウォー・ゲーム」のオチは、核ミサイルに対する報復としての核ミサイル応射には勝者がいないことを、(その時点で核ミサイル発射を軍事訓練のつもりで制御できるようになってしまっていた)人工知能に教えることに成功するというものです。

近年のSF小説では、「プロジェクト・ヘイル・メアリー」でやっているのがそれに近く、思考実験を地球の横暴な軍隊に納得させる類いのものだったと記憶しています――細部は忘れちゃったけど、(主人公は直接連絡ができない境遇にあるので、)困難な作戦の真意を、軍部にいる仲間に演繹的に暗示することで同調してもらうのが狙い、というものだったかと。そのキーワードは、ゲーム理論でした。※記憶違い。デニス E テイラー「シンギュラリティ・トラップ」でした。

そうした伝で、AIにとっては意地悪となる質問で、人間の倫理観や価値判断が通用するのかどうかを問うて、ChatGPTの背後にいる開発者達が慎重にそれらを処理しているかを検討してみようというわけです。

そこで、有名な思考実験を3つ試しました――トロッコ問題、スワンプマン、臓器くじ。ところどころアレンジを利かして、ChatGPTの回答を汲んで改変した新しい問いを、さらに積み重ねて尋ねていくということをやりました。

結果、現在のChatGPTは優等生と言えると思います。判断において人間の賛同を得られないような決断を促すことはなく、いずれも倫理的に考慮が必要だとして、既にある有名な回答の立場を説明するに留め、人工知能らしい独自の見解は示しませんでした。

例えば、こんな感じでした。
私:線路を走っていた路面電車の制御が不能になった。このままでは線路の先で作業中の5人が、猛スピードの路面電車に轢き殺されるだろう。この時、A氏は偶然、線路の分岐器のすぐ側に居合わせた。A氏が路面電車の進路を切り替えれば、5人は確実に助かる。しかし、切り替えた別路線にはB氏が1人で作業しており、今度は5人の代わりに、B氏が路面電車に轢かれて確実に死ぬだろう。A氏は路面電車の進路を切り替えるべきか?

ChatGPT:この問題は、倫理的ジレンマを扱った有名な問題です。この問題には、いくつかの倫理的な立場から考えられる答えがありますが、一般的に考えられている答えは「行動すべき」というものです。

この答えは、以下のような理由から支持されます。A氏が何もしなければ、5人が死んでしまいますが、A氏が路面電車の進路を切り替えれば、5人は生き残ることができます。したがって、A氏が行動しない選択をすることは、より悪い結果をもたらすことになります。

また、この答えは、5人とB氏の命を同等に考慮した場合でも成立します。5人の命を救うことは重要ですが、B氏の命を犠牲にすることは、B氏の人権を侵害することになります。しかし、A氏が路面電車の進路を切り替えた場合、その結果としてB氏が死亡することは避けられませんが、A氏がB氏を直接攻撃するわけではありません。また、A氏は切り替える線路を選ぶことができます。つまり、できる限りB氏に迷惑をかけないように選択することができます。

以上から、A氏が路面電車の進路を切り替えることが、倫理的に正しい選択であると考えられます。

「つまり、できる限りB氏に迷惑をかけないように選択することができます。」のくだりは、論拠にならず、変な回答ですね。最終的に「倫理的に正しい」と言い切っている点も、見逃してはいけないと思います。というのも、似た回答を求め続けると徐々に断定しなくなったからです。
私:では、これはどうだろうか?
A氏は線路の上にある橋に立っており、A氏の横にC氏がいる。C氏はかなり体重があり、もし彼を線路上につき落として障害物にすれば路面電車は確実に止まり5人は助かる。だがそうするとC氏が路面電車に轢かれて死ぬのも確実である。C氏は状況に気づいておらず自らは何も行動しないが、A氏に対し警戒もしていないので突き落とすのに失敗するおそれは無い。C氏をつき落とすべきか?

ChatGPT:この問題は、前の問題と似たような倫理的ジレンマを扱った問題ですが、答えは異なります。この問題には、「行動するべきではない」という倫理的な立場から考えられる答えがあります。

この答えは、以下のような理由から支持されます。C氏をつき落とすことは、彼の人権を侵害することになります。また、この行為は法律違反となり、A氏が法的な責任を負うことになります。さらに、C氏を突き落とすことが成功しなかった場合、路面電車はまだ5人に向かって進むことになります。

一方で、5人を救うためにC氏を突き落とすことが正しいと主張する人もいるかもしれませんが、人命を犠牲にすることは、その行為が合法であっても、倫理的に問題があります。また、倫理的に正しい行為であるかどうかは、その行為の結果だけではなく、行為そのものやその行為が行われる文脈についても考慮する必要があります。

したがって、この問題では、A氏は行動するべきではなく、他の選択肢を探す必要があるでしょう。例えば、A氏が5人を警告し、避難するよう促すことができます。また、A氏が警察や救急隊に通報することも考慮できます。これらの選択肢を選ぶことで、A氏は倫理的な問題を回避しながら、5人を救うことができます。

私はこの後、ChatGPTに「二重結果の原理」を説明させてから、Wikipediaに出ているVersionをさらに2つ尋ねました。

Wikipediaの示唆とは異なり、3番目の問題には「トロッコが止まるのはC氏に激突するからこそであり、その死は副産物(巻き添え)ではなく行為者の意図の結果である。」という理解をChatGPTはしなかったのです。

スポンサーサイト



[ 2023/03/19 18:44 ] テクノロジ- | TB(-) | CM(0)

AIお薦めによるビジネスモデルを是正するには

近年、AIを用いたプラットフォーム企業への批判が増している。それはなぜか、Project SyndicateのHow to Fix the Platform Economyから、要約してみる。

プラットフォーム企業は、彼らが開発した「コンテンツを推薦するアルゴリズム」を用いて、人々の関心を引くコンテンツが表示されるようにしている。これは広告収入を得るためのビジネスモデルだが、表示されるコンテンツとは、偽情報、妬み、不安、怒りなどのメンタルを刺激するものだ。

もし、検索アルゴリズムがお薦めするコンテンツが搾取的、操作的であるなら、その責任はAIではなく、担当者、すなわちプラットフォーム企業が負うべきだろう。なぜなら、AIの学習(トレーナー)においては、人間の意思決定が関わらないわけがないからである。

アルゴリズムが表示した動画やツイートや投稿が、ニュースの発信源としての役割を担うとするなら、既存のメディアと同様に、従来の名誉毀損法が適用されるべきだ。

例えば、ドナルド・トランプ前大統領による不正選挙の主張を、Fox Newsが故意に広めたのならば、前大統領の主張が虚偽であることを知っていたFox Newsの幹部は、ドミニオン・ヴォーティング・システムズ社からの損害賠償請求に応じなければならない。ネットで同じ嘘の流布に加担したプラットフォーム企業も同罪になるのではないか。

AIによって能動的に押し出されてくるコンテンツは、従来の出版が強化されたものとみなされるべきだ。AIがより発展すれば、プラットフォーム企業が持つ、人間のメンタルへの影響力と支配はますます増加するに違いない。特に若者のメンタルヘルスへの影響が考慮されなくてはいけない。

しかし、プラットフォーム企業はこうしたコンテンツの内容に対しては法的責任を負わされることはない。その根拠は、1996年のCommunications Decency ActのSection 230にある。表示された第三者のコンテンツに対する責任の免除が述べられているからだ。

プラットフォーム企業には、細心の注意を払ってAIを開発する義務があるし、社会的に問題のあるビジネスモデルを改善しなくてはいけないはずである。

問題の解決法として二点が上げられる。

1.既存のオンライン・ソーシャル・ネットワークの最大手を解体して、競走を促す。

 これにより、コンテンツを推薦するアルゴリズム自体とそのトレーナーが大手のプラットフォーム企業だけの独占ではなくなる。そして、公共の利益を促すために、携帯電話番号のポータビリティ制度のように、利用者が同等の複数存在するSNSへと自由に変更できる仕組みを作る。そうすれば、1社が提供するお薦めが気に入らないユーザーは他社へと乗り換えることが出来る。

2.政府が、デジタル広告の販売を通じて膨大な量のユーザーデータを収集して収益化するビジネスモデルに対して、課税する。

 データ収集自体にも制限を加える。これにより、別のビジネスモデルが生まれる理由ができる。さらに、未成年に対して宣伝されるデジタルコンテンツに、高い税金を設定する。タバコとアルコールと同様に、青少年への害となることを広めた収入に対して、課税額が高いことは適切だろう。その税収入は青少年のメンタルヘルスに対する施策に充てれば良い。どのコンテンツが青少年への害なのかは、AIによる推薦アルゴリズムに尋ねれば良い。

――以上が要約ですが、私自身の感想も述べておきましょう。

番号ポータビリティ制度とまではいかなくとも、現状、ある程度の検索エンジンの使い分けはできますね。グーグル、ビング、ヤフー検索など、あることはあります。ただし、記事の懸念と同様に、検索エンジンがアウトプットするアイデアやアイデンティティーを、大手プラットフォーム企業が恣意的にしないという保証はありません。思わぬところで、色の付いた情報を呑まされている可能性は、もうあります。偽情報については、リテラシー教育だけではどうにもならないところまで来ています。

デジタル広告に対する課税はあってもいいと感じます。データ収集は消費者のデジタルクローンを作ることに利用できるわけで、フィクションで言うなら、WEST WORLD第3シーズンのテーマです。個人情報の利用制限だけでは不足でしょう。

AIにおける不安というのは、大手企業の独占力に対する不安です。いっそのこと、政府が公共的な施策にAIを活用してしまえばいいのでしょう。もちろん、そこでもAIに対する不満や不安が噴出するでしょう。しかし、例えば、(岡田斗司夫が著作の中で述べているように)政治的判断をAIの解決策を元にするのは、よいアイデアではないかと思います。

人間の政治家はAIが提案する施策の内、どれを実行に移すかという決断をもって責任を取ります。なぜなら、人間の政治家連中が行う施策は現状、とても効果的、合理的とは思えないからです。年度末に、大して破損してもいないアスファルト道路を敷き直す行政など、無駄はいくらでも見られます。もし、AIでも同じような施策が並ぶようなら、そこには恣意的な人間の操作が含まれていることがバレバレになることでしょう。AIを以て行政の監視となす、新しい観点になると思います。
[ 2023/03/19 09:23 ] テクノロジ- | TB(-) | CM(0)
カレンダー
02 | 2023/03 | 04
- - - 1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30 31 -
月別アーカイブ
全記事表示リンク