Since 1975
日本語で読むアラビアのニュース
  • facebook
  • twitter

テクノロジーの巨人たちを無視すべき——AIはあなたの味方ではない

2020年2月18日、ハンソン・ロボティクスのヒューマノイドロボット「ソフィア」が、インドのコルカタで開催されたAIに関する会議に出席した。(AFP)
2020年2月18日、ハンソン・ロボティクスのヒューマノイドロボット「ソフィア」が、インドのコルカタで開催されたAIに関する会議に出席した。(AFP)
Short Url:
07 Aug 2025 02:08:42 GMT9

メタのCEOマーク・ザッカーバーグとオープンAIのサム・アルトマンは、子どもを含む誰もがAIの「友人」や「伴侶」との関係を築くべきだと積極的に提唱している。一方、多国籍テクノロジー企業は、私たちの個人生活や職業生活における支援、日常的なタスクの処理、意思決定の支援を目的とした「AIエージェント」の概念を推進している。

しかし現実には、AIシステムは友人や伴侶、エージェントではなく、今後も決してそうなることはない。それらは機械であり、今後も機械のままである。私たちはその事実を正直に認め、誤った印象を与えるマーケティングに反対すべきだ。

最も欺瞞的な用語は「人工知能」だ。これらのシステムは真に知能的ではなく、現在「AI」と呼ぶものは、特定の認知機能を模倣するように設計された技術ツールの集合体に過ぎない。それらは真の理解能力を持たず、客観的、公平、中立でもない。

また、それらはより賢くもなっていない。AIシステムはデータに依存して機能し、そのデータにはChatGPTのようなツールが生成するデータも含まれるようになっている。その結果、深い理解を生むことなく出力を再利用するフィードバックループが生じている。

より根本的には、知能は単にタスクを解決する能力だけでなく、そのタスクにどうアプローチし、実行するかという点にも関わる。技術的な能力にもかかわらず、AIモデルは特定の領域に限定されており、大規模なデータセットの処理、論理的推論、計算などを行うことに特化している。

しかし、社会的知能に関しては、機械は感情、相互作用、関係を模倣するだけだ。例えば、医療用ロボットは患者が泣くと泣くようにプログラムされるかもしれないが、誰もそれが本物の悲しみを感じていると主張しないだろう。同じロボットは患者を叩くようにプログラムされることもでき、その命令を同じ精度で実行するだろう——そして同じように本物らしさや自己認識の欠如を伴う。機械は「気にかける」のではなく、単に指示に従うだけだ。このようなシステムがどれだけ高度化しても、その点は変わらない。

要するに、機械には道徳的自律性がない。その行動は人間が作成したパターンとルールによって支配されているのに対し、人間の道徳は自律性に根ざしている——倫理的な規範を認識し、それに従って行動する能力だ。一方、AIシステムは機能性と最適化を目的として設計されている。自己学習を通じて適応するかもしれないが、それらが生成するルールには内在的な倫理的意味はない。

自動運転車を例に考えてみよう。A地点からB地点へできるだけ早く移動するため、自動運転車は移動時間を最適化するルールを開発するかもしれない。歩行者を轢くことがその目標を達成するのに役立つ場合、車はそのように行動するかもしれない。なぜなら、人を傷つけることの道徳的意味を理解できないからだ。

これは、機械が「一般化可能性の原則」を理解できないためだ。つまり、行動が倫理的であるためには、それが普遍的なルールとして正当化できる必要があるという考えだ。道徳的判断は、他者が合理的に受け入れられるような妥当な理由を提供できる能力に依存する。これが、私たちが「良い理由」と呼ぶものだ。機械とは異なり、人間は一般化可能な道徳的推論を行うことができ、したがって、自分の行動が正しいか間違っているかを判断できる。

簡単に言えば、機械には道徳的行為能力がない。機械の行動は、人間が作成したパターンやルールによって支配されているのに対し、人間の道徳は自律性、つまり倫理規範を認識し、それに応じて行動する能力に根ざしている。

ピーター・G・キルシュシュラガー

したがって、「人工知能」よりも「データベースシステム」という用語の方が、AI が実際にできることをより適切に表現している。つまり、データを生成、収集、処理、評価して、観察や予測を行うことだ。また、現在の新興技術の強みと限界を明確にする。

本質的に、これらは高度な数学的プロセスを用いて膨大なデータを分析するシステムに過ぎない。人間はそれらと相互作用するかもしれないが、コミュニケーションは完全に一方通行だ。データベースシステムは、自分が「何をしているか」や周囲で起こっていることに対する認識を持っていない。

これは、DSが人類や地球に利益をもたらさないことを示唆するものではない。むしろ、その能力が私たちの能力を超える分野では、それらに依存すべきだ。しかし、同時に、それらが生み出す倫理的リスクを積極的に管理し軽減する必要がある。人権に基づくDSの開発と、国連に国際的なデータに基づくシステム機関を設立することは、その方向への重要な第一歩となるだろう。

過去20年間、ビッグテック企業はソーシャルメディアを通じて私たちを孤立させ、社会を分断してきた。その依存性や腐食的な性質を考慮すれば、より正確には「反社会的メディア」と呼ぶべきものだ。現在、同じ企業が、人間関係に代わるAIの「友人」や「伴侶」を提唱する過激な新ビジョンを推進している。

同時に、これらの企業は「ブラックボックス問題」を無視し続けている。これは、自動化された評価、予測、意思決定の背後にあるアルゴリズムのプロセスにおける追跡不能性、予測不能性、透明性の欠如を指す。この不透明性は、偏った差別的なアルゴリズムの高確率と組み合わさり、必然的に偏った差別的な結果をもたらす。

DSがもたらすリスクは理論的なものではない。これらのシステムは既に、私たちの私生活と職業生活をますます有害な方法で形作っており、経済的・政治的に私たちを操作している。しかし、テクノロジー企業のCEOたちは、DSツールが私たちの意思決定を導くことを促している。私たちの自由と尊厳、そして未来の世代の自由と尊厳を守るため、私たちは機械が自分たちではないものとして偽装することを許してはならない。

• ピーター・G・キルシュシュラガー氏は、ルツェルン大学倫理学教授兼社会倫理研究所(ISE)所長であり、チューリヒ工科大学(ETH)の客員教授でもある。

特に人気
オススメ

return to top