ปัจจุบันเทคโนโลยี AI ถูกนำมาใช้งานอย่างแพร่หลายในธุรกิจต่างๆ เช่น ระบบจดจำใบหน้า (Face Recognition), ระบบรู้จำและสังเคราะห์เสียงพูด (Speech Recognition and Synthesis), หุ่นยนต์ทำความสะอาด, Chatbot ที่ช่วยตอบคำถามลูกค้าตามเว็บไซต์ต่างๆ เป็นต้น และเพื่อพัฒนาสินค้าและบริการให้ดียิ่งขึ้น ทำให้ธุรกิจเหล่านั้นต้องการเข้าถึงข้อมูลส่วนบุคคลของผู้บริโภคมากขึ้นเพื่อปรับปรุงระบบ AI ให้ดีขึ้นกว่าเดิม แล้วเราจะแน่ใจได้อย่างไรว่าธุรกิจต่างๆ เหล่านั้นจะไม่นำข้อมูลส่วนบุคคลของเราไปใช้ในทางมิชอบ
เมื่อวันที่ 21 เมษายน 2564 คณะกรรมาธิการยุโรป หรือ European Commission ได้นำเสนอร่างกฎหมายควบคุมขอบเขตการใช้ AI ในธุรกิจต่างๆ เพื่อให้ประชาชนและภาคธุรกิจมั่นใจได้ว่าการใช้ AI มีความปลอดภัยและไม่ละเมิดสิทธิขั้นพื้นฐานของประชาชน โดยร่างกฎหมายนี้จะต้องผ่านการเห็นชอบจากรัฐสภายุโรปและประเทศสมาชิกก่อน จึงจะประกาศเป็นกฎหมายที่มีผลบังคับใช้ในสหภาพยุโรปต่อไป ประเด็นหลักของร่างกฎหมายฉบับนี้แบ่งความเสี่ยงของการใช้งาน AI ออกเป็น 4 ระดับ ได้แก่
1. ระดับที่ยอมรับไม่ได้ (Unacceptable risk) คือการใช้งาน AI ที่กระทบต่อสิทธิและความเป็นส่วนตัวของประชาชน เช่น รัฐบาลใช้ระบบ AI เพื่อกำหนดคะแนนความประพฤติของประชาชน ของเล่นที่ใช้ระบบสั่งการด้วยเสียงที่ส่งเสริมให้เยาวชนมีพฤติกรรมรุนแรง
2. ระดับความเสี่ยงสูง (High risk) โดยเฉพาะในกลุ่มอุตสาหกรรมที่มีความอ่อนไหวและมีผลกระทบสูงหากเกิดปัญหาขึ้น ได้แก่ อุตสาหกรรมการแพทย์ การขนส่ง พลังงาน และกิจการภาครัฐ ตัวอย่างการนำ AI ไปใช้งาน เช่น
- โครงสร้างพื้นฐานที่สำคัญ เช่น ระบบขนส่ง
- การฝึกอบรมด้านการศึกษาหรือวิชาชีพ เช่น ระบบการให้คะแนนในการสอบ
- การจ้างงาน การบริหารจัดการพนักงาน เช่น ใช้ซอฟต์แวร์เพื่อคัดกรองใบสมัครงานซึ่งอาจมีการเลือกปฏิบัติได้
- การบังคับใช้กฎหมายที่อาจแทรกแซงสิทธิขั้นพื้นฐานของประชาชน เช่น การประเมินความน่าเชื่อถือของหลักฐาน
นอกจากนี้ ยังกำหนดให้เทคโนโลยี Biometric and face recognition (เฉพาะการจดจำใบหน้าในพื้นที่สาธารณะเท่านั้น) อยู่ในกลุ่มที่มีความเสี่ยงสูงอีกด้วย ดังนั้นการนำ AI ไปใช้งานในกลุ่มอุตสาหกรรมเหล่านี้จึงจำเป็นต้องปฏิบัติตามแนวทางของคณะกรรมาธิการยุโรปอย่างเคร่งครัด เช่น
1) ต้องมีข้อมูลสำหรับฝึก AI จำนวนมากที่จะช่วยให้พัฒนาระบบที่ปลอดภัยสำหรับผู้ใช้งาน และไม่มีพฤติกรรมที่เลือกปฏิบัติตามเพศ เชื้อชาติ
2) ต้องมีการจัดเก็บข้อมูลอย่างเป็นระบบเพื่อให้ผู้เกี่ยวข้องตรวจสอบได้
3) มีการให้ข้อมูลแก่สาธารณะ ผู้ใช้งาน AI ต้องสามารถตรวจสอบข้อมูลที่จำเป็นเกี่ยวกับประสิทธิภาพการใช้งานของระบบได้
4) มีความถูกต้อง ป้องกันความเสี่ยงและผลกระทบจากความผิดพลาดที่อาจเกิดขึ้น เช่น มีมาตรการรองรับในกรณีเกิดเหตุฉุกเฉิน
5) การควบคุมดูแลโดยมนุษย์ เช่น มีคนตรวจสอบผลงานของระบบ AI ก่อนนำมาใช้ หรือคอยติดตามตรวจสอบการทำงานของ AI รวมถึงควบคุมระบบได้ทันทีหากเกิดปัญหาขึ้น
3. ระดับที่มีความเสี่ยงจำกัด (Limited risk) เช่น ระบบที่ใช้ chatbot ผู้พัฒนาโปรแกรมจะต้องแจ้งผู้ใช้งานก่อนว่ากำลังสนทนากับ AI อยู่ เพื่อให้ผู้ใช้งานตัดสินใจได้ว่าจะสนทนาด้วยหรือไม่
4. ระดับความเสี่ยงต่ำ (Minimal risk) ระบบกรอง spam หรือแอปพลิเคชันวิดีโอเกมที่เปิดใช้งาน AI ที่ปัจจุบันมีกฎหมายที่มีผลบังคับใช้เพียงพออยู่แล้ว จึงไม่จำเป็นต้องเข้าไปควบคุม
สำหรับประเทศไทย ปัจจุบันยังไม่มีกฎหมายใดที่จะปรับใช้โดยตรงกับเทคโนโลยี AI ซึ่งในอนาคต ผู้เกี่ยวข้องในภาคส่วนต่างๆ คงต้องช่วยกันผลักดันให้เกิดข้อกฎหมายเพื่อปกป้องสิทธิส่วนบุคคลของประชาชนจากการใช้ AI แต่ในระหว่างนี้สิ่งที่ธุรกิจต่างๆ ทำได้ก็คือ ต้องให้ความสำคัญในการปกป้องข้อมูลของผู้บริโภค คำนึงถึงสิทธิมนุษยชน และพัฒนาระบบ AI ที่มีความปลอดภัยกับผู้ใช้งาน ทั้งนี้เพื่อให้ AI เป็นเทคโนโลยีที่ผู้ใช้งานทุกคนเชื่อมั่นในความปลอดภัยได้
ที่มา:
https://ec.europa.eu/commission/presscorner/detail/en/ip_21_1682
https://www.bangkokbiznews.com/blog/detail/652128
ภาพประกอบ: