เทคโนโลยี Generative AI อย่าง ChatGPT นับเป็นแพลตฟอร์มที่ถูกกล่าวถึงอย่างมากในแวดวง AI แต่นอกจากความมฉลาดจนน่าทึ่งแล้ว ในอีกด้านหนึ่งก็แฝงไปด้วยความน่ากังวล นั่นคือ การใช้เทคโนโลยีดังกล่าวเพื่อการก่ออาชญากรรมทางไซเบอร์ ซึ่งเป็นปัญหาสำคัญที่ทุกภาคส่วนต้องเริ่มคำนึงถึง
ปัจจุบันเริ่มมีการใช้ Language Model อย่าง ChatGPT เพื่อเขียนอีเมลฟิชชิ่งสำหรับการหลอกเอาข้อมูลสำคัญ โดยมีการประเมินว่า Generative AI สามารถเพิ่มจำนวนเหยื่อที่กดอีเมลฟิชชิ่งจาก 100 คลิก เป็น 3,000 – 4,000 คลิก ต่อ 10,000 อีเมล
ChatGPT ยังถูกนำไปสร้างมัลแวร์ที่แปรเปลี่ยนตัวเองได้หลากหลายรูปแบบ (polymorphic malware) ซึ่งมีศักยภาพสูงในการหลีกเลี่ยงการถูกตรวจจับโดยเครื่องมือการควบคุมความปลอดภัยที่มีอยู่ในปัจจุบัน
จากรายงานของพาโล อัลโต้ เน็ตเวิร์กส์ (บริษัท Cybersecurity ที่ให้บริการความปลอดภัยทางไซเบอร์สำหรับผู้ใช้งานที่หลากหลายโดยเน้น Cloud เป็นหลัก) ระบุว่าล่าสุดพบมัลแวร์บน Android ที่แอบอ้างเป็นแชตบอต AI อย่าง ChatGPT มีจำนวนเพิ่มขึ้นอย่างมาก เป้าหมายคือผู้ที่มีความสนใจในเครื่องมือ ChatGPT
โดยโทรจันที่ชื่อว่า Meterpreter ได้ปลอมตัวเป็นแอป ChatGPT มีพฤติกรรมในการส่งข้อความพิเศษ ที่คิดค่าบริการราคาแพงไปยังหมายเลขโทรศัพท์ในไทย ทำให้ผู้ใช้โดนเรียกคิดเงินอย่างไม่รู้ตัว และสร้างรายได้ให้แก่คนร้ายอย่างมหาศาล
ที่น่ากังวลก็คือ ผู้ใช้ Android สามารถดาวน์โหลดแอปได้จากหลายช่องทางนอกเหนือไปจาก Google Play Store ดังนั้นจึงมีความเสี่ยงที่ผู้ใช้จะได้รับแอปซึ่งไม่ได้ผ่านการตรวจสอบจาก Google
นอกจากนี้ FBI ได้ออกมาแจ้งเตือน หลังพบแฮกเกอร์ใช้ generative AI อย่าง ChatGPT มาช่วยเขียนโค้ด สร้างมัลแวร์เพื่อโจมตีผู้ใช้มากขึ้น ทั้งการหลอกลวงและฉ้อโกง และได้คาดการณ์ว่าเทรนด์การปรับใช้ AI จะเพิ่มสูงขึ้น โดยจะเป็นเครื่องมือเสริมจากอาชญากรรมปกติ เช่น AI voice generators ปลอมเสียงเป็นคนรู้จักของเหยื่อเพื่อเพิ่มความน่าเชื่อถือให้มากขึ้น
แฮกเกอร์ยังสามารถเลือกใช้โค้ดที่มีประสิทธิภาพที่สุดได้ เพราะใช้ข้อมูลจากฐานข้อมูลเก่าที่หลุดออกมา รวมถึงงานวิจัยแบบ open-source ทำให้การสร้างมัลแวร์ง่ายขึ้น ไม่จำเป็นต้องมีความรู้ในการเขียนโค้ด นั่นทำให้เกิดนักเขียนมัลแวร์มือใหม่อย่างรวดเร็ว แม้ตอนนี้คุณภาพและความอันตรายเหล่านี้จะยังต่ำอยู่ แต่ในอนาคตถ้าได้เรียนรู้จนเก่งขึ้นก็จะมีความเสี่ยงสูงขึ้นตามไปด้วย
Sam Altman ประธานเจ้าหน้าที่บริหารของ OpenAI ผู้สร้าง ChatGPT เองก็ได้แสดงความกังวลในเรื่องนี้ โดยเน้นย้ำถึงความสำคัญของ AI และให้นำไปใช้งานอย่างเหมาะสมและโปร่งใส พร้อมได้กล่าวเพิ่มเติมอีกว่าควรให้ความสำคัญกับเรื่อง AI เทียบเท่ากับการให้ความสำคัญในเรื่องความท้าทายระดับโลก อย่างเรื่องการจัดการกับโรคระบาดและสงครามนิวเคลียร์ ทั้งนี้เพื่อลดความเสี่ยงที่อาจเกิดขึ้นกับมนุษยชาติ
การสร้างความตระหนักให้กับทุกภาคส่วนเกี่ยวกับความปลอดภัยของข้อมูล อัปเดตซอฟต์แวร์และแอปพลิเคชันในอุปกรณ์เป็นประจำ และใช้ซอฟต์แวร์และแอปพลิเคชันจากแหล่งที่น่าเชื่อถือ รวมถึงไม่เก็บข้อมูลส่วนบุคคลของผู้ใช้โดยไม่ได้รับอนุญาต จะช่วยป้องกันการรั่วไหลของข้อมูลส่วนบุคคลและการโจมตีด้านความปลอดภัยได้ดีขึ้น
ภาพจาก freepik
บทความที่เกี่ยวข้อง