เป็นที่น่าติดตามอีกครั้งเมื่อค่ายผลไม้แหว่งอย่าง Apple ขยับทำอะไรออกมา และนี่เป็นอีกหนึ่งอย่างที่ได้ประกาศออกมาว่า Apple จะมีระบบสแกนภาพถ่ายเพื่อหาภาพอนาจารเด็ก (child sexual abuse material – CSAM) บน iPhone และ iPad อย่างเป็นทางการ พร้อมกับเพิ่มระบบบล็อคคำค้นที่เกี่ยวข้องกับภาพโป๊เด็กบน Safari และ Siri ทั้งบน Apple Watch, iPhone, iPad, และ Mac ตรงตามที่ Matthew Green นักวิจัยความปลอดภัยไซเบอร์
โดยเจ้าระบบสแกน CSAM จะทำงานสแกนภาพก่อนจะอัพโหลดขึ้น iCloud เท่านั้น โดยแอปเปิลระบุว่าเป็นการรักษาความเป็นส่วนตัวของผู้ใช้เนื่องจากไม่ต้องการไปสแกนภาพบนคลาวด์โดยตรง เมื่อสแกนแล้วจะสร้างรายการภาพที่ตรงกับฐานข้อมูลภาพโป๊เด็กจากหน่วยงานรัฐ เรียกว่า safety voucher แล้วอัพโหลดขึ้น iCloud ไปพร้อมกับภาพ
และเมื่อมีการพอัพโหลดขึ้น iCloud จะตรวจสอบว่าจำนวนภาพที่ตรงกับฐานข้อมูลเกินกำหนดหรือยัง หากเกินแล้วจะมีพนักงานของแอปเปิลมาตรวจสอบ และหากยืนยันว่าเป็นภาพโป๊เด็กจริงก็จะรายงานหน่วยงานที่เกี่ยวข้องต่อไป
และดูเหมือนว่าก่อนหน้านี้เคยมีข่าวว่าแอปเปิลยกเลิกโครงการเข้ารหัสไฟล์บน iCloud แบบ end-to-end เปิดทางให้หน่วยงานรัฐสามารถขอข้อมูลผู้ใช้จากแอปเปิลโดยตรงได้ การสร้างระบบแจ้งเตือนที่ซับซ้อนเช่นนี้จึงดูไม่จำเป็นนัก เพราะในความเป็นจริงแอปเปิลก็สแกนภาพบน iCloud ได้โดยตรง แต่กระบวนการที่ซับซ้อนเหล่านี้ช่วยให้แอปเปิลมั่นใจได้ว่าพนักงานที่เกี่ยวข้องจะไม่เข้าไปดูข้อมูลผู้ใช้โดยไม่จำเป็น
กระบวนการสแกนภาพใช้อัลกอริทึม NeuralHash ที่สามารถจับภาพได้แม้ถูกแปลงบางส่วน เช่น การหมุนภาพ, เอากล้องมาถ่ายภาพจากหน้าจอ, หรือการวางลายน้ำทับภาพ
ทั้งนี้การสแกนภาพแล้วแอปเปิลยังอัปเดต Siri และ Safari ให้แจ้งเตือนผู้ใช้เมื่อพยายามค้นหาด้วยคำที่เกี่ยวข้องกับภาพอนาจารเด็ก พร้อมกับขึ้นลิงก์สายด่วนให้ความช่วยเหลือผู้มีความคิดและพฤติกรรมเสี่ยง แอปเปิลเตรียมอัพเดตใส่ฟีเจอร์นี้บน iOS, iPadOS, watchOS, และ mac OS ภายในปีนี้ เป็นไงบ้างละครับสำหรับเหล่าสาวกคงจะชอบกันเลย เพื่อให้ลูกหลานเราเข้าถึงข้อมูลได้อย่างปลอดภัยมากยิ่งขึ้น