Since 1975
日本語で読むアラビアのニュース
  • facebook
  • twitter

AIツールがジェンダーの固定観念を助長していると国連代表が指摘

ヨルダンのアンマンで開催された国際デジタル協力フォーラムのパネルディスカッションで発言するニコラス・バーニアット。モデレーターはCNN副社長のキャロライン・ファラージで、ベスト・ソリューションズCEOのヤーナ・クリンペとPwCのデジタル&テクノロジー・アドバイザリー・ディレクターのリンダ・カシムが登壇した。(AN写真)
ヨルダンのアンマンで開催された国際デジタル協力フォーラムのパネルディスカッションで発言するニコラス・バーニアット。モデレーターはCNN副社長のキャロライン・ファラージで、ベスト・ソリューションズCEOのヤーナ・クリンペとPwCのデジタル&テクノロジー・アドバイザリー・ディレクターのリンダ・カシムが登壇した。(AN写真)
Short Url:
20 Feb 2025 03:02:12 GMT9
20 Feb 2025 03:02:12 GMT9
  • ニコラス・バーニアット氏は、子供たちや若者たちに技術の使い方を教えるべきだと言う。
  • AIが偏ったデータを与えられ、差別を助長していると報じられた

スラファ・アルクナイジ

アンマン:人工知能ツールによって作成される資料は、ジェンダーの固定観念を永続させている、と国連のジェンダー平等機関の代表が語った。

アラブニュースのインタビューに応じたUN Womenヨルダン代表のニコラス・バーニアット氏は、AI技術がいかに優れているかは、そこに投入されるデータと同じであると語った。

彼は言った: 「現実には、AIツールによって使用され、処理されるデータ、資料には、多くのジェンダー・ステレオタイプが含まれており、一般的に支配的な西洋の家父長制的視点に偏っている」

「その不完全なデータに基づいてAIツールによって作られる素材は何であれ、したがって不完全なものになる。ジェンダーに基づくものなど、あらゆる固定観念を含む不完全なデータを繰り返し、広めてしまうことになる」

その一例として、AIツールは、看護婦のような単語を、ジェンダーに中立的でない言語では女性名詞に翻訳するのに対し、医師は男性名詞に翻訳してしまうことを挙げた。

我々は、世界中で作成されるデータが、女性、障害者、異なる民族や社会経済的背景を持つ人々など、人々の様々な現実をよりよく反映するようにする必要がある。

「今後必要なことは、世界のデータの質を向上させ、男女がその変化の一部であることを確認することだ」

「さらに、AIアルゴリズムがステレオタイプやバイアスを再現し、さらなる差別につながる可能性がないように、データのこの不完全さを補正する方法で開発される必要がある」

さらにバーニアット氏は、AIツールの最良の使い方について、子供や若者がどのように教育されるべきかについて語った。

彼は「明日の仕事は、男の子にとっても女の子にとっても、今日の仕事と同じではない。だから、彼らは完全にデジタルに精通し、リテラシーを身につける必要がある。そうでなければ、基本的に今日の不平等や差別を再生産する未来の世界を見ることになるからだ」と述べる。

B.ESTソリューションズのCEOであるヤナ・クリンプ氏は、水曜日にヨルダンのアンマンで開催された国際デジタル協力フォーラムのパネルディスカッションで、バーニアット氏と同様の感想を語った。

クリンプ氏は、政治学から技術にキャリアを転換する決心をしたことについて語った。

クリンプ氏は「教育に投資しないのであれば、その結果はゼロになる……社会全体を教育しなければならない」

「だから、女性のリーダーシップは非常に重要なのだ。直接会って、地方に行き、農村に行き、家族や子供たちに会い、AIが彼女たちの生活をどのように変えるかを理解することで利益をもたらすのだ」と語った。

特に人気
オススメ

return to top

<