การอัปโหลดภาพโป๊เปลือยของเด็กขึ้นสู่โลกดิจิทัลกำลังจะถูกตรวจสอบตั้งแต่ “ต้นทาง” โดยบริษัทเทคโนโลยียักษ์ใหญ่อย่างแอปเปิล (Apple) มีแผนจะผนวกเครื่องมือบางอย่างลงไปบนเพื่อวิเคราะห์ภาพถ่ายต่าง ๆ ว่าเป็นภาพการล่วงละเมิดทางเพศเด็ก – ภาพเด็กโป๊เปลือยหรือไม่
สำหรับกระบวนการในการตรวจสอบนั้น Apple เผยว่า จากเดิมที่ระบบจะส่งภาพขึ้นไปเก็บใน iCloud เลยทันที ต่อจากนี้ จะมีการนำภาพไปทำการเปรียบเทียบกับฐานข้อมูลของ National Center for Missing and Exploited Children หรือ NCMEC ด้วยกระบวนการ Hashing ว่าเป็นภาพที่เข้าข่ายหรือไม่ ถ้าหากพบว่าภาพนั้น ๆ เข้าข่ายล่วงละเมิดเด็ก ระบบก็จะไม่อนุญาตให้อัปโหลดภาพดังกล่าวขึ้นไปบน iCloud
(กระบวนการ Hashing จะเป็นการใช้เครื่องมือแปลงภาพออกมาเป็นรหัส และนำรหัสนั้นไปใช้ในการเปรียบเทียบกับฐานข้อมูล ซึ่ง Apple บอกว่าไม่กระทบกับประเด็น Privacy ของผู้ใช้งาน)
สำหรับฟีเจอร์ใหม่ดังกล่าว มีทดสอบการใช้งานแล้วเมื่อวันพฤหัสบดีที่่ผ่านมา และจะเริ่มต้นใช้งานในสหรัฐอเมริกา หลังจากมีการอัปเดตระบบปฏิบัติการ iOS 15 อย่างเป็นทางการ
ส่วนภาพที่อยู่บน iCloud ก็จะมีการใช้เครื่องมือเข้าไปตรวจสอบเช่นกัน และหากตรวจสอบพบว่ามีภาพโป๊เปลือย หรือภาพที่ละเมิดกฎดังกล่าว ทางระบบจะมีการอัปโหลดไฟล์ขึ้นไปตัวหนึ่งเพื่อถอดรหัสไฟล์ภาพนั้น ๆ (เพราะตอนที่อัปโหลดขึ้นไปภาพจะถูกเข้ารหัสเอาไว้)
จากนั้นจะมีเจ้าหน้าที่มนุษย์ เข้าไปดูภาพนั้นให้เห็นกับตาว่าเป็นภาพที่ละเมิดกฎของแพลตฟอร์มหรือเปล่า และถ้าผลการพิจารณาโดยเจ้าหน้าที่มองว่าเป็นภาพไม่เหมาะสมจริง ๆ เจ้าหน้าที่คนนั้นก็จะรายงานให้ Apple ทราบต่อไป รวมถึงจะมีการปิดบริการ iCloud ของลูกค้าคนดังกล่าวด้วย
ส่วนถ้าภาพของใครเป็นแค่ภาพครอบครัว พ่อแม่ลูกเล่นน้ำในอ่างด้วยกัน ก็ไม่ต้องหวั่นใจว่าจะโดนข้อหาทำผิดกฎหมายเก็บภาพโป๊เปลือยเด็ก เพราะภาพที่ระบบจะแจ้งเตือน จะต้องมีความรุนแรงมากพอจะอยู่ในฐานข้อมูลของ NCMEC ได้นั่นเอง
อย่างไรก็ดี ถ้าผู้ใช้งานรายใดถูกปิดแอคเคาน์ iCloud ไปโดยที่คิดว่าตัวเองไม่มีความผิด ก็สามารถร้องเรียนมาทาง Apple ได้เช่นกัน
ทั้งนี้ กระบวนการดังกล่าวจะเกิดขึ้นก็ต่อเมื่อ ผู้ใช้งานเตรียมอัปโหลดรูปขึ้นไปบน iCloud เท่านั้น ถ้าไม่มีแผนจะอัปโหลด ระบบก็จะไม่เข้ามาวุ่นวายในสมาร์ทโฟนของเราแต่อย่างใด
นอกจากนี้ แอปเปิลยังพัฒนาฟีเจอร์อีกหนึ่งอันที่สำคัญไม่แพ้กัน นั่นคือการ “แจ้งเตือน” ให้ผู้ปกครองทราบหากพวกลูก ๆ ของเขา (อายุต่ำกว่า 13 ปี) มีการส่ง หรือรับภาพนู้ดผ่านบริการ iMessage และจะทำการเบลอภาพนู้ดให้ด้วย
Apple บอกด้วยว่า ฐานข้อมูลที่บริษัทใช้ในการเปรียบเทียบจะมาจาก NCMEC เท่านั้น บริษัทไม่มีนโยบายเพิ่มฐานข้อมูลจากบริษัทของตนเองเข้าไปด้วย