Американская компания Apple отказалась от программы по сканированию фотографий пользователей на предмет жестокого обращения с детьми. Об этом заявил старший вице-президент Apple Крейг Федериги в интервью газете The Wall Street Journal.
«Сексуальное насилие над детьми можно предотвратить и до того, как это случится. Именно с этой точки зрения мы направляем теперь наши усилия на защиту детей», — отметил топ-менеджер.
Он подчеркнул, что обеспечение безопасности данных пользователей имеет решающее значение, а Apple уделит особое внимание защите детей с помощью предоставления родителям инструментов для защиты их несовершеннолетних сыновей и дочерей в мессенджере iMessage.
В разговоре с корреспондентом WSJ Джоанной Штерн Федериги также указал на то, что отказ от проекта косвенно связан с введением сквозного шифрования данных на iCloud.
В Apple анонсировали сканирование личных фотографий пользователей в галереях iCloud Photos с помощью системы Child Sexual Abuse Material (CSAM) Detection еще в 2021 году. Предполагалось, что система заработает на всех гаджетах компании с выходом новой версии операционной системы для каждого из устройств.
Однако нововведение вызвало резкую критику правозащитников и пользователей гаджетов Apple, увидевших угрозу конфиденциальности данных людей. После этого Apple отложила использование системы на неопределенный срок.