最近人工知能(AI)テクノロジーは多くのビジネスで広く使用されています。例を挙げると、 顔認識システム、音声認識システム、掃除ロボット、チャットボットなどです。各企業は自分のAIシステムを改善して、より良い製品やサービスを提供できるように、より多くの消費者の個人情報にアクセスする必要があります。では、これらの企業が我々の個人情報を悪用しないことを確信できるでしょうか。
2021年4月21日、欧州委員会は、企業におけるAIの使用範囲を規制する法案を提案しました。 これは、AIの使用が安全であり、人々の基本的権利を侵害しないことを人々と企業に確信させる目的です。同規制案は、欧州連合で法律として施行される前に、欧州議会と加盟国によって承認される必要があります。規制案の要点は、AIがもたらすリスクを4段階に分けました。
1. 容認できないリスク:これは人々の権利とプライバシーに影響を与えるAIの使用です。例えば、政府がAIシステムを使用して国民の社会的スコアリングを決定することや、暴力的な行動を促す音声アシスタントを使用した玩具などです。
2. 高リスク: これは問題が発生した場合に大きな影響を及ぼす産業を意味します。例えば、医療、輸送、エネルギー、政府業務などで使用するAIです。例を挙げると、下記のようなものがあります。
- 重要なインフラ(例:交通機関)
- 教育または職業訓練(例:試験の採点)
- 雇用、労働者管理(例:採用手続きの履歴書を仕分けるAIソフトを使った場合、応募者がシステムによって差別される可能性があります。)
- 証拠の信頼性の評価など、人々の基本的権利を妨害する可能性のある法施行
さらに、生体認証および顔認証技術(公共の場で常時監視する顔認証のみ)も高リスクと見なされます。従って、これらの業界でAIを実装するには、欧州委員会のガイドラインを厳密に遵守する必要があります。下記は一例になります。
1) 使用者にとって安全なシステムを開発するため、AIを学習させる多くのデータが必要です。また、これらのデータは、性別や人種を問わず、使用者の行動を差別してはなりません。
2) 関係者が後で審査できるように、全てのデータを体系的に保管する必要があります。
3) 情報は一般的に公開できます。AIの使用者は、システムの性能に関する必要な情報を確認できる必要があります。
4) AIシステムは正確であり、発生する可能性のあるエラーによるリスクや影響を防止する必要があります。例えば、緊急時に対応策が提供されなければなりません。
5) 人間が監視できる仕組みが求められます。これは様々な方法で行うことができます。 例えば、発売する前にAIシステムの性能を検証する人間を割り当てます。若しくは、人間が AIの動作を監視し、問題が発生した場合すぐにシステムを制御できる仕組みが必要です。
3. 限定的なリスク:チャットボットシステムを使用している企業は、消費者に対してAIとチャットすることを明示する必要があります。そして、消費者がチャットするかを自ら選定することができます。
4. 最小限のリスク:現状適用されている法律が十分であるため、このレベルをさらに制御する必要はありません。迷惑メールを除去するシステムやAIを使用したゲームアプリケーションなどがこのレベルのAIの例となります。
タイでは現在、AI技術に直接適用される法律はありません。将来的には、 各関係分野の担当者がお互いに協力して、AIの使用による個人の権利を保護するための規制を提案する必要があります。それまでは、すべての企業がやるべきことは、消費者データの保護に焦点を当て、人権をよく考慮した上で使用者にとって安全なAIシステムを開発しなければなりません。これは誰もが安全性を信頼できるAI技術の創造です。
参考:
イメージ写真: