top of page
รูปภาพนักเขียนiPhone iOS Thailand

Apple เปิดตัวฟีเจอร์ความปลอดภัยสำหรับเด็ก สแกนเนื้อหาไม่เหมาะสม (สหรัฐอเมริกาก่อน)

วันนี้ Apple ได้เปิดแสดงตัวอย่างฟีเจอร์ความปลอดภัยสำหรับเด็กใหม่ ที่จะมาถึงพร้อมการอัปเดตซอฟต์แวร์เป็น iOS 15, iPadOS 15 และ macOS Monterey ในปลายปีนี้ สำหรับบัญชีที่ตั้งค่าเป็นครอบครัวใน iCloud ซึ่งฟีเจอร์นี้จะพร้อมใช้งานในสหรัฐอเมริกาเมื่อเปิดตัวเท่านั้น และจะขยายไปยังภูมิภาคอื่นๆ เมื่อเวลาผ่านไป ความปลอดภัยในการสื่อสาร ประการแรก แอป Messages บน iPhone, iPad และ Mac จะได้รับฟีเจอร์ความปลอดภัยในการสื่อสารแบบใหม่เพื่อเตือนเด็กๆ และผู้ปกครองเมื่อรับ หรือส่งรูปภาพที่มีความโจ่งแจ้งทางเพศ Apple กล่าวว่าแอป Messages จะใช้การเรียนรู้เครื่องในอุปกรณ์ เพื่อวิเคราะห์ไฟล์แนบของรูปภาพ และหากรูปภาพถูกกำหนดให้มีความโจ่งแจ้งทางเพศ รูปภาพนั้นจะเบลอโดยอัตโนมัติ และเด็กจะได้รับคำเตือน

เมื่อเด็กพยายามดูรูปภาพที่ถูกตั้งค่าสถานะว่าละเอียดอ่อนในแอป Messages พวกเขาจะได้รับการแจ้งเตือนว่ารูปภาพนั้นอาจมีส่วนของร่างกายที่เป็นส่วนตัว และรูปภาพนั้นอาจสร้างความเสียหายได้ ทั้งนี้ขึ้นอยู่กับอายุของเด็ก ผู้ปกครองจะมีตัวเลือกในการรับการแจ้งเตือนหากบุตรหลานดูภาพถ่ายที่มีความละเอียดอ่อน หรือหากพวกเขาเลือกที่จะส่งภาพทางเพศที่โจ่งแจ้งไปยังผู้ติดต่อรายอื่น หลังจากได้รับคำเตือน ทั้งนี้ขึ้นอยู่กับอายุของเด็กเช่นกัน การสแกนภาพถ่าย เพื่อหาเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็ก (CSAM)

ประการที่สอง เริ่มใช้ iOS 15 และ iPadOS 15 ในปีนี้ Apple จะสามารถตรวจจับภาพที่มีเนื้อหาเกี่ยวกับการล่วงละเมิดทางเพศเด็ก (CSAM) ที่เป็นที่รู้จัก ซึ่งจัดเก็บไว้ในรูปภาพ iCloud ทำให้ Apple สามารถรายงานกรณีเหล่านี้ไปยัง National Center for Missing and Exploited Children (NCMEC) องค์กรไม่แสวงหาผลกำไรที่ทำงานร่วมกับหน่วยงานบังคับใช้กฎหมายของสหรัฐอเมริกา


Apple กล่าวว่าวิธีการตรวจจับ CSAM ที่รู้จักได้รับการออกแบบโดยคำนึงถึงความเป็นส่วนตัวของผู้ใช้ แทนที่จะสแกนรูปภาพในคลาวด์ Apple กล่าวว่าระบบจะทำการจับคู่บนอุปกรณ์กับฐานข้อมูลของแฮชรูปภาพ CSAM ที่รู้จัก ซึ่งจัดทำโดย NCMEC และองค์กรความปลอดภัยเด็กอื่นๆ และ Apple ยังกล่าวว่า จะเปลี่ยนฐานข้อมูลนี้เป็นชุดแฮชที่อ่านไม่ได้ซึ่งจัดเก็บไว้อย่างปลอดภัยในอุปกรณ์ของผู้ใช้


สำหรับเทคโนโลยีการแฮช ที่เรียกว่า NeuralHash จะวิเคราะห์รูปภาพ และแปลงเป็นตัวเลขเฉพาะสำหรับรูปภาพนั้นตามข้อมูลของ Apple


“จุดประสงค์หลักของแฮช คือเพื่อให้แน่ใจว่าภาพที่เหมือนกัน และคล้ายกันจะส่งผลให้เกิดแฮชเดียวกัน ในขณะที่รูปภาพที่ต่างกันจะส่งผลให้เกิดแฮชที่ต่างกัน” Apple กล่าวในเอกสารไวท์เปเปอร์ "Expanded Protections for Children" ฉบับใหม่ "ตัวอย่างเช่น รูปภาพที่ถูกครอบตัดเล็กน้อย ปรับขนาด หรือแปลงจากสีเป็นขาวดำจะได้รับการปฏิบัติเหมือนกับภาพต้นฉบับ และมีแฮชที่เหมือนกัน"


ทั้งนี้ ก่อนที่รูปภาพจะถูกจัดเก็บใน iCloud Photos ทาง Apple กล่าวว่ากระบวนการจับคู่บนอุปกรณ์จะดำเนินการกับรูปภาพนั้นกับชุดแฮช CSAM ที่รู้จัก ซึ่งไม่สามารถอ่านได้ หากมีการแข่งขัน อุปกรณ์จะสร้างบัตรกำนัลความปลอดภัยการเข้ารหัส บัตรกำนัลนี้อัปโหลดไปยังรูปภาพ iCloud พร้อมกับรูปภาพ และเมื่อเกินเกณฑ์การจับคู่ที่ไม่เปิดเผย Apple จะสามารถตีความเนื้อหาของบัตรกำนัล สำหรับการจับคู่ CSAM จากนั้น Apple จะตรวจสอบแต่ละรายงานด้วยตนเอง เพื่อยืนยันว่ามีรายการที่ตรงกัน ปิดใช้งานบัญชี iCloud ของผู้ใช้ และส่งรายงานไปยัง NCMEC ซึ่ง Apple ไม่ได้แชร์ว่าเกณฑ์ที่แน่นอนคืออะไร แต่รับรองว่า "มีความแม่นยำสูงมาก" ที่บัญชีจะไม่ถูกตั้งค่าสถานะอย่างไม่ถูกต้อง คำแนะนำ CSAM แบบขยายใน Siri และการค้นหา

ประการที่สาม Apple กล่าวว่าจะขยายคำแนะนำใน Siri และ Spotlight Search ในอุปกรณ์ต่างๆ โดยให้แหล่งข้อมูลเพิ่มเติม เพื่อช่วยให้เด็ก และผู้ปกครองออนไลน์ได้อย่างปลอดภัย และรับความช่วยเหลือในสถานการณ์ที่ไม่ปลอดภัย ตัวอย่างเช่น ผู้ใช้ที่ถาม Siri ว่าสามารถรายงาน CSAM หรือการแสวงประโยชน์จากเด็กได้อย่างไร จะถูกชี้ไปที่แหล่งข้อมูลว่าจะส่งรายงานไปที่ใด และอย่างไร

การอัปเดตสำหรับ Siri และ Search กำลังจะมาในปลายปีนี้ ในการอัปเดตเป็น iOS 15, iPadOS 15, watchOS 8 และ macOS Monterey ตามข้อมูลของ Apple

ขอบคุณข้อมูลจาก : macrumors.com

.

.

.

เว็บไซต์: https://www.iphoneiosthailand.com/

.

เว็บศูนย์ซ่อม iPhone iPad Mac : https://www.macupstudio.com/

.

.

#MacUpStudio ศูนย์ซ่อมผลิตภัณฑ์ Apple

เพจศูนย์ซ่อม : https://www.facebook.com/MacUpStudio/

ตัวอย่างงานซ่อม iPhone ซ่อมMac : youtube: https://bit.ly/YTMacUpKK

.

.

ทีมงาน : iPhone iOs Thailand

Kommentare


bottom of page