ธุรกิจเตรียมลงทุนด้านความปลอดภัยเพิ่ม โดยเฉพาะในวันที่ AI พัฒนาไปอย่างรวดเร็ว เพราะมีการคาดการณ์จากการ์ทเนอร์ว่าในปี 2569 การโจมตีแบบ Deepfakes ที่สร้างโดยปัญญาประดิษฐ์ จะทำให้เทคโนโลยีระบุตัวตนด้วยใบหน้าหรือ Face Biometrics ไม่น่าเชื่อถืออีกต่อไป
คุณอากิฟ ข่าน รองประธานฝ่ายวิจัยการ์ทเนอร์ กล่าวว่า “ช่วงทศวรรษที่ผ่านมา มีจุดเปลี่ยนสำคัญด้าน AI เกิดขึ้นหลายประการ หนึ่งในนั้นคือ Deepfakes ที่เป็นการสร้างภาพสังเคราะห์ขึ้นจากภาพใบหน้าคนจริง ๆ ซึ่ง Deepfakes เปิดโอกาสให้ผู้ไม่ประสงค์ดีสามารถนำมาใช้เพื่อทำลายระบบการพิสูจน์ทราบตัวตนด้วยไบโอเมตริกซ์ได้ ผลที่ตามมาก็คือ องค์กรต่าง ๆ อาจเริ่มตั้งคำถามถึงความน่าเชื่อถือของโซลูชันการยืนยันและพิสูจน์ตัวตน เนื่องจากไม่สามารถบอกได้ว่าใบหน้าบุคคลที่ได้รับการยืนยันนั้นเป็นบุคคลที่มีชีวิตจริงหรือเป็นของปลอมกันแน่” พร้อมระบุว่า มีองค์กรประมาณ 30% มองว่าโซลูชันการยืนยันและพิสูจน์ตัวตนจะไม่น่าเชื่อถืออีกต่อไปหากนำมาใช้แบบเอกเทศ
การตรวจสอบในปัจจุบัน ไม่ครอบคลุม Deepfakes ที่สร้างโดย AI
สำหรับเบื้องหลังการทำงานของการยืนยันตัวบุคคลด้วยใบหน้านั้น อาศัยการตรวจจับการโจมตีหลอก หรือ Presentation Attack Detection (PAD) เพื่อประเมินการมีชีวิตอยู่จริงของผู้ใช้ ซึ่งคุณข่านให้ข้อมูลว่า มาตรฐานและกระบวนการทดสอบในปัจจุบันเพื่อกำหนดและประเมินกลไกของการตรวจจับการโจมตีหลอกนั้นไม่ครอบคลุมการโจมตีผ่านดิจิทัลหรือ Digital Injection Attacks ที่มาจาก Deepfakes ที่สร้างโดย AI แล้ว
ผลการวิจัยการ์ทเนอร์ชี้ด้วยว่า การโจมตีแบบ Presentation Attack ที่เป็นการปลอมแปลงข้อมูลอัตลักษณ์ทางกายภาพของบุคคลเป็นการโจมตีที่พบบ่อยที่สุด
ทว่าการโจมตีแบบ Injection Attack ที่เป็นการแทรกโค้ดลงในโปรแกรมหรือแบบสอบถาม หรือมัลแวร์ในคอมพิวเตอร์เพื่อควบคุมคำสั่งผ่านระยะไกล ในปี 2566 มีอัตราเพิ่มขึ้นถึง 200% ดังนั้นเพื่อป้องกันการโจมตีดังกล่าวองค์กรจะต้องใช้การตรวจจับการโจมตีแบบ Injection Attack Detection (IAD) และการตรวจสอบภาพ หรือ Image Inspection ร่วมกัน รวมถึงต้องกำหนดกลยุทธ์เพิ่มเติมด้วย เช่น การระบุการใช้งานอุปกรณ์และการวิเคราะห์พฤติกรรม เพื่อเพิ่มโอกาสการตรวจจับการโจมตีในกระบวนการยืนยันตัวตน เพื่อป้องกันแฮกเกอร์จากการเข้ายึด Account ของผู้ใช้งาน