«В прошлом месяце мы объявили о планах по введению функций, призванных помочь защитить детей, а также ограничить распространение материалов, содержащих сексуальное насилие над детьми», - говорится в заявлении компании. «Основываясь на отзывах клиентов, адвокатских групп, исследователей и других людей, мы решили взять дополнительное время для сбора информации и внесения улучшений, прежде чем выпустить эти критически важные функции для безопасности детей».
Люди, критиковавшие решение Apple, заявляли, что система, которая может проверять изображения, хранящиеся в аккаунте iCloud, противоречит заявлениям Apple о неприкосновенности частной жизни своих клиентов.
Система, которую компания собиралась ввести на смартфонах iPhone, не сканирует фотографии пользователя, а ищет подозрительные изображения, которые сопоставляет со специальной базой данных CSAM. Если система обнаруживает достаточно подобных изображений на аккаунте пользователя, они передаются сотруднику компании, который может подтвердить наличие изображений и передать информацию правоохранительным органам в случае необходимости.
Переведено редакцией электронной газеты «Век»