Star Views + Comments Previous Next Search Wonderzine

НовостиАpple проверит пользовательские фото в iCloud на наличие детской порнографии

Фукнцию протестируют только в США

Apple протестирует в США новую технологию NeuralMatch для операционных систем iOS и iPadOS, которая обнаруживает в iCloud изображения с сексуализированным насилием над детьми. Об этом говорится на сайте корпорации. Если система установит, что в телефоне хранятся незаконные изображения, она предупредит сотрудников Apple, которые смогут обратиться в полицию. Помимо этого, если на телефон ребёнка пришлют фотографию неподобающего характера, она станет размытой, а пользователю поступит предупреждение.

В Apple отметили, что новая программа соответствует правилам конфиденциальности и не будет сканировать фотографии пользователей. NeuralMatch позволит сопоставить цифровые отпечатки фотографий пользователей с базой данных изображений сескуализированного насилия.

«iOS и iPadOS будут использовать новые криптографические приложения, чтобы ограничить распространение материалов с сексуализированным насилием над детьми в Сети с учётом приватности пользователей, — заявили в корпорации. — Приложение Messages будет использовать встроенные в устройство программы машинного обучения, чтобы предупреждать о чувствительном контенте, при этом сохраняя недоступность прочтения личной переписки для компании Apple».

Однако эксперты настороженно отнеслись к инициативе Apple. «Подобный инструмент может стать благом для поиска детской порнографии в телефонах людей. Но представьте, что он может сделать в руках авторитарного правительства?» — считает доцент Института информационной безопасности Джонса Хопкинса Мэтью Грин.

ОБЛОЖКА: Unsplash

Рассказать друзьям
1 комментарийпожаловаться