สวัสดีคอไอที และสาวกค่ายผลไม้ทุกคน วันนี้เรามีข่าวสำคัญจะแจ้งให้ทราบว่า Apple จะไม่สามารถตรวจสอบเนื้อหาที่แสดงการล่วงละเมิดทางเพศต่อเด็กได้ ถ้าหาก iCloud Photos ถูกปิดใช้งาน ซึ่งรายละเอียดจะเป็นอย่างไร มาติดตามกันเล้ยย
สรุปข้อมูลและรายละเอียดที่น่าสนใจเกี่ยวกับเรื่องนี้ ได้ดังนี้
- เร็วๆ นี้ Apple ได้มีการเพิ่มเครื่องมือตรวจสอบเนื้อหาที่แสดงการล่วงละเมิดทางเพศต่อเด็ก (Child Sexual Abuse Material – CSAM) ใน iPhone และ iPad ที่ทำงานบน iOS 15 และ iPadOS 15 ในสหรัฐอเมริกา
- แต่เครื่องมือดังกล่าวจะไม่สามารถทำงานได้กับอุปกรณ์ที่มีการปิดฟีเจอร์ iCloud Photos
- โดย Apple สามารถสแกนหรือตรวจสอบอุปกรณ์ที่มีการอัพโหลดเนื้อหา CSAM ขึ้นไปเก็บยัง iCloud Photos และถ้าตรวจพบเนื้อหาดังกล่าว จะมีการปิดบัญชีผู้ใช้งานพร้อมส่งการแจ้งเตือนไปยังองค์กร National Center for Missing & Exploited Children ในสหรัฐอเมริกา
- อย่างไรก็ตาม Apple จะไม่สามารถตรวจสอบเนื้อหา CSAM ที่เก็บอยู่ภายในอุปกรณ์ได้ ถ้าหากฟีเจอร์ iCloud Photos ถูกปิดการใช้งาน
- ทั้งนี้ การตรวจสอบเนื้อหา CSAM ทำให้นักวิจัยด้านความปลอดภัยออกมาแสดงความกังวลว่า Apple อาจจะขยายการตรวจสอบที่คล้ายกันกับเนื้อหาประเภทอื่นที่มีอาจมีผลกระทบทางการเมืองและความปลอดภัย
- อย่างไรก็ตาม ผู้ใช้งานที่กังวลเรื่องความเป็นส่วนตัวเกี่ยวกับความพยายามของ Apple ในการตรวจสอบคลังรูปภาพในอุปกรณ์ สามารถปิดใช้งาน iCloud Photos ได้
และนี่ก็คือข่าวความเคลื่อนไหวที่น่าสนใจในโลกไอทีจากค่ายผลไม้ที่เราอยากอัพเดทให้เพื่อนๆ ได้ทราบกัน ก็หวังว่าจะเป็นประโยชน์สำหรับทุกคน และหากมีเรื่องราวที่น่าจับตามองเช่นนี้อีกจากแอปเปิ้ล เราจะรีบนำมาแจ้งให้เพื่อนๆ ได้ทราบโดยทันที