Компания Apple начнет сканирование своих iPhone на предмет изображений с признаками физического и сексуального насилия над детьми.
«Метод Apple обнаружения известных CSAM (материалов с признаками сексуального насилия над детьми) разработан с учетом конфиденциальности пользователей», - говорится в заявлении Apple.
«Вместо сканирования изображений в облаке система выполняет сопоставление на устройстве с использованием базы данных известных изображений CSAM, предоставленных Национальным центром пропавших без вести и эксплуатируемых детей и другими организациями, занимающимися безопасностью детей. Apple также преобразует эту базу данных в нечитаемый набор кодов, который будет храниться на устройствах пользователей», - отмечают в компании.
Согласно заявлению, система обнаружения CSAM использует порог, «установленный для обеспечения чрезвычайно высокого уровня точности и гарантирует ошибку в соотношении менее одного случая на 1 триллион в год». Обновления загрузят на iOS 15, iPadOS 15, watchOS 8 и macOS Monterey.