Компания Apple объявила, что будет просматривать фотографии пользователей на наличие детской порнографии и откровенных снимков в сообщениях. Это делается для повышения онлайн-безопасности детей.
Apple планирует внедрить системы сканирования фотографий neuralMatch в iOS, iPadOS, macOS и watchOS для поиска детской порнографии на устройствах пользователей. Соответствующее обновление будет произведено уже на этой недели.
Как отмечают в компании, neuralMatch используется для повышения онлайн-безопасности детей. Кроме поиска фотографий с запрещёнкой, система также будет размывать откровенные снимки в сообщениях ребёнка. Она же предупредит родителей об отправке или получения откровенных снимков на устройство чада.
Apple также будет передавать в правоохранительные органы информацию о подозрительных фотографиях, если их количество будет более определённого числа.
Эксперты уже отмечают, что подобный инструмент развязывает руки представителям авторитарного правительства. Поэтому использовать его нужно крайне осмотрительно.
В тех сообщениях, которые удалось изучить, говорится, что фотографии пользователей будут проверяться прямо на устройстве. Это означает, что Apple более-менее обеспечит конфиденциальность пользователей, не отправляя снимки в облачные центры.
Технология представляет собой создание цифрового отпечатка фотографии и сравнение его с уже имеющемся в базе. В базу отпечатки попадают от специализированных организаций, занимающихся борьбой с детской порнографией. Подобный алгоритм уже используется в корпоративных системах защиты от утечки информации, но и в них алгоритм несовершенен. Например, фотографию большого лысого мужчины алгоритм может принять за запрещёнку.
Пока рано давать какую-либо оценку эффективности подобного подхода. Подождём несколько месяцев и появления реальных кейсов, чтобы сделать выводы,