Apple sẽ quét iPhone của người dùng và iCloud để tìm hình ảnh lạm dụng trẻ em

Apple luôn hướng tới quyền riêng tư của người dùng đối với các sản phẩm và dịch vụ của mình. Nhưng bây giờ, để bảo vệ trẻ vị thành niên khỏi “Những kẻ săn mồi sử dụng các công cụ giao tiếp để tuyển dụng và khai thác chúng”, gã khổng lồ Cupertino đã thông báo rằng họ sẽ quét ảnh được lưu trữ trên iPhone và iCloud cho hình ảnh lạm dụng trẻ em.

Hệ thống, theo một Thời báo tài chính báo cáo (có tường phí), được gọi là neuralMatch. Nó nhằm mục đích thúc đẩy một nhóm người đánh giá liên hệ với cơ quan thực thi pháp luật khi phát hiện thấy hình ảnh hoặc nội dung liên quan đến Tài liệu lạm dụng tình dục trẻ em (CSAM). Người đã nói Hệ thống đã được đào tạo bằng cách sử dụng 200.000 hình ảnh từ Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột. Kết quả là, nó sẽ quét, băm và so sánh ảnh của người dùng Apple với cơ sở dữ liệu về các hình ảnh lạm dụng tình dục trẻ em đã biết.

“Theo những người được giới thiệu tóm tắt về kế hoạch, mỗi bức ảnh được tải lên iCloud ở Mỹ sẽ được cấp một ‘chứng từ an toàn’, cho biết liệu nó có bị nghi ngờ hay không. Khi một số bức ảnh nhất định được đánh dấu là nghi ngờ, Apple sẽ cho phép giải mã tất cả các bức ảnh bị nghi ngờ và nếu có vẻ là bất hợp pháp, sẽ chuyển cho các cơ quan có liên quan ”. cho biết Thời báo tài chính báo cáo.

Bây giờ, sau báo cáo, Apple đã xuất bản một bài đăng chính thức trên Newsroom của mình để giải thích thêm về cách hoạt động của các công cụ mới. Các công cụ này được phát triển với sự cộng tác của các chuyên gia về an toàn trẻ em và sẽ sử dụng máy học trên thiết bị để cảnh báo trẻ em cũng như phụ huynh về nội dung nhạy cảm và khiêu dâm trên iMessage.

Apple sẽ quét hình ảnh người dùng để tìm tài liệu lạm dụng tình dục trẻ em

Hơn nữa, gã khổng lồ Cupertino nói thêm rằng họ sẽ tích hợp “công nghệ mới” trong iOS 15 và iPadOS 15 đến phát hiện hình ảnh CSAM được lưu trữ trong Ảnh iCloud. Nếu hệ thống phát hiện hình ảnh hoặc nội dung liên quan đến CSAM, Apple sẽ vô hiệu hóa tài khoản người dùng và gửi báo cáo tới Trung tâm Quốc gia về Trẻ em Mất tích và Bị bóc lột (NCMEC). Tuy nhiên, nếu người dùng bị hệ thống gắn cờ nhầm, họ có thể gửi đơn khiếu nại để khôi phục tài khoản.

Ngoài những điều này, Apple cũng đang mở rộng hướng dẫn trong Siri và Tìm kiếm để giúp cha mẹ và trẻ em luôn an toàn khi trực tuyến và nhận thông tin liên quan trong các tình huống không an toàn. Trợ lý giọng nói cũng sẽ được cập nhật để làm gián đoạn các tìm kiếm liên quan đến CSAM.

Apple sẽ quét hình ảnh người dùng để tìm tài liệu lạm dụng tình dục trẻ em

Về tính khả dụng của các công cụ và hệ thống mới này, Apple cho biết ban đầu họ sẽ tung ra các bản cập nhật iOS 15 và iPadOS 15, WatchOS 8 và macOS Monterey sắp tới tại Mỹ. Tuy nhiên, vẫn chưa có thông tin về việc liệu công ty có mở rộng các công cụ và hệ thống sang các khu vực khác trong tương lai hay không.

About admin

Check Also

cap thả thính hay

Tổng hợp những câu thả thính HOT

Dùng facebook thì việc đăng ảnh ọt, đăng caption là việc không thể thiếu rồi. …

Leave a Reply