
リヤド:スマートアシスタントや顔認識からオンラインショッピングやAIが生成するセルフィーまで、人工知能が日常生活に深く浸透するにつれ、個人データやプライバシーに対する脅威もまた大きくなっている。
AIの目もくらむような能力は、データ収集、監視、悪用の可能性など、多くのユーザーが十分に理解していない代償を伴う。そして、利便性がしばしば注意に勝る世界において、専門家はユーザーと組織に対し、彼らが関わるデジタルツールをゆっくりと精査するよう促している。
「AIシステムは多くの場合、機密性の高い個人情報を含む膨大な量のデータに依存しており、プライバシーに関する重大な問題を引き起こしている」と、ITコンサルティング会社コグニザントで中東地域のデータ保護とプライバシー実務を率いるオサマ・エル・マスリー氏はアラブニュースに語った。
「多くのユーザーは、自分のデータがどのように収集、保存、利用されているのか知らないため、不正アクセスや悪用が懸念される。例えば、顔認識のような技術は、同意なしに個人のプライバシーを侵害し、監視や追跡のリスクをもたらす可能性がある」
この警告は、特に一見無害に見えるアプリやプラットフォームにおいて、AIソフトウェアがどのようにユーザーデータを処理するかについての懸念が高まる中で出された。
規制や倫理的な監視は政府や企業の責任と見なされがちだが、エル・マスリー氏は、ユーザーも積極的な役割を果たさなければならないと強調する。
「これは、プライバシーポリシーを読み、どのような個人情報が収集され、それがどのように使用または共有される可能性があるかを認識することを意味する」と彼は言う。
「この責任の重要な側面は、AIツールを使用する際に個人データの共有を制限することである。ユーザーは、希望する結果を達成するために必要な最小限の情報のみを提供し、機密データの不必要な開示を避けるよう努めるべきである」
要するに、AIツールは他の新しいテクノロジーと同じように、好奇心と警戒心を織り交ぜて扱えばいいのだ。ユーザーには、自分のデータがどのように扱われるかを学び、過剰な共有に注意する責任がある。裏を返せば、組織は製品設計の初期段階からプライバシーを優先しなければならない。
「これには、強力なデータ保護対策を実施し、データ利用の透明性と説明可能性を確保し、AIとプライバシーの規制/原則を遵守することが含まれる」と同氏は言う。「組織はまた、ユーザーに対してデータの取り扱い方法を明確に伝え、信頼できる環境を醸成する必要がある」
「最終的には、両者がプライバシーに関するそれぞれの役割と責任を理解する協力的なアプローチが、AI時代の個人情報保護には不可欠である」
「ユーザーと組織が協力することで、プライバシーの権利を尊重し、より安全なデジタル環境を作り出すことができる」
例えば、現在人々はAIアートフィルターに夢中になっている。何百万人ものユーザーが自分の写真をアプリにアップロードし、アニメのキャラクターや古典的な油絵に変身させている。しかし、元の画像はどうなるのだろうか?
「多くのユーザーは、その効果は楽しいが、元の画像はまだ処理されており、アプリによって保持されている可能性があることに気づいていないかもしれない」とエル・マスリー氏は言う。
「このことは、個人的な画像やデータをどのプラットフォームやアプリケーションに任せるかについて、注意深く考えることの重要性を強調している。これらのステップを踏むことで、ユーザーは個人情報を悪用から守りつつ、AIの可能性を活用することができる」
シンプルだが強力な注意喚起だ: 無害な楽しみのように見えるからといって、リスクがないとは限らない。AIとのやりとりはすべて、それがどんなに些細なことに見えても、データに影響を及ぼす。
ユーザーは、AIプラットフォームから受け取る情報に異議を唱えることもアドバイザーは勧めている。多くのツールがパーソナライゼーションと利便性を約束する一方で、偏見や不正確さを永続させることもある。
「AIの倫理とプライバシーに関する継続的な教育は、ユーザーがこれらのテクノロジーとの相互作用について、十分な情報を得た上で選択する力を与える」とエル・マスリー氏は言う。「ユーザーはまた、自分たちのコミュニティ内で倫理的なデータ慣行を提唱し、開発者や組織間の説明責任を促進すべきである」
「AIの用途は様々で、通信ネットワークの強化や医療診断のようにプライバシーに関係ないものもあれば、マーケティングのプロファイリングや予測分析のようにプライバシーに敏感なものもある」
「これらのアプリケーションは、プライバシー権に影響を与える可能性のある個人データの取り扱いを伴うことが多いためである」
AIを安全に使いこなす方法はある。その一つは、透明性のある慣行と強固な保護対策によってユーザーのプライバシーを優先するAIツールを探すことだ。
「これらのステップを踏むことで、ユーザーは個人情報を悪用から守りつつ、AIの可能性を活用することができる」とエル・マスリー氏は言う。
利害関係は、多くの人が思っている以上に大きい。AIがより洗練され、ビジネス、医療、金融、教育、政府のシステムに統合されるにつれ、悪用された場合の影響は、偶発的なものであれ悪意のあるものであれ、より深刻になる。
エル・マスリー氏は、「意図しない偏った意思決定、非倫理的なAIの使用例、データ漏えい、意思決定の曖昧さ、脆弱なデータ主体へのAIの使用」など、AIの応用に関連するプライバシー上の脅威をいくつか挙げている。
「これは世界的な懸念となっており、AIの使用に関連する上記のリスクを軽減するために、さまざまな地域や国の多くの政策立案者によって、さまざまな倫理的AI規制/原則が発布される原動力となっている」
世界の多くの国々が技術革新に遅れを取らないよう奮闘している中、サウジアラビアはデータとAIの倫理的利用を規制・促進する動きを見せている。
「王国は個人データ保護法を導入し、データの収集、処理、共有に関する明確なガイドラインを定め、個人のプライバシー権が確実に保護されるようにした」
「この枠組みは国際標準に沿ったものであり、責任あるデータ管理へのコミットメントを示すものである」
データと人工知能のための国家戦略は、ガバナンスの取り組みのもう一つの重要な部分である。これは、倫理的な境界を損なうことなくイノベーションの文化を構築することを目的としている。
「注目すべきは、SDAIAが公正さ、説明責任、透明性、プライバシーを強調する一連の倫理的AI原則を発表したことだ。これらの原則は、AI技術の開発と展開の指針となり、責任を持って倫理的に使用されることを保証するものである」
サウジアラビアがリーダーシップを発揮しているにもかかわらず、中東全域におけるデータプライバシーはまだ不十分だ。多くの国では、ユーザーの権利を保護する包括的な法的枠組みがまだ欠けている。
エル・マスリー氏は、この分野は対策が必要だと考えている。「各国政府は、データ処理に関する明確なガイドラインを提供し、国際標準に沿った包括的なAIとデータプライバシーに関する法律と規制を確立すべきである。
彼はまた、地域全体のコンプライアンスとイノベーションの水準を高めるために、官民が協調して協力することを提唱している。
「組織はコンプライアンスを優先し、さらにはコンプライアンスを超えて、ビジネスを行う上で強固なプライバシー・コンプライアンスとAIガバナンスを確保するデータ責任の実践と技術の導入に投資する価値を認めなければならない。このアプローチを採用し、(競争力と成功を)証明した民間組織の明確な例がある」
「組織は、社会的信頼を構築するために、データ慣行を明確に伝えるべきである。さらに、組織が個人データに関わるAIのユースケースを文書化することを義務付け、AIアルゴリズムの定期的なレビューを保証することは、プライバシー規制の遵守を維持するのに役立つ」
「政府は、組織のプライバシーとAIガバナンス能力を強化するためのリソース、コンサルテーション、トレーニングを提供することで、これを支援することができる」
法規制と企業の責任が重要である一方で、エル・マスリー氏は、個人もまた、自らのデジタルライフを管理する権限を与えられなければならないと言う。同氏は、データ・プライバシーに関する認識と教育の向上を呼びかけている。
「積極的かつ統一的なアプローチを採用することで、組織も政府も、すべての人のプライバシーを優先した、より安全なデジタル環境を作ることができる」と彼は言う。
AIがますます現代生活のインフラに絡んでくるにつれ、プライバシー保護はもはやニッチな問題ではなく、集団的な責任となっている。AIを管理する法律から、どのアプリを信頼するかの選択に至るまで、デジタルの安全の未来は、すべての人がそれぞれの役割を果たすことにかかっている。
エル・マスリー氏は言う: 「ユーザーと組織が協力することで、プライバシーの権利を尊重し、より安全なデジタル環境を作り出すことができる」