nitro.ru главная   фотогалерея  о проекте   e-mail
 
 



security
Эксперты бьют тревогу. Анализ фотографий на iPhone лишит пользователей конфиденциальности, но есть НО

Apple объявила, что в iOS 15 появится алгоритм NeuralHash для определения жестокого обращения с детьми на фото и видео (CSAM).

Исследователь в области безопасности Мэтью Грин из Университета Джона Хопкинса назвал CSAM «очень плохой идеей».

Он считает, что вскоре государства будут требовать от технологических компаний анализа всего контента на устройствах своих пользователей. Грин сравнил CSAM с «инструментами, применяемыми в авторитарных режимах».

Я не поддерживаю жестокое обращение с детьми или терроризм. Но считаю, что каждый пользователь должен быть уверен в том, что контент на его устройстве остаётся в безопасности и никуда не уходит.

Шифрование, которым так хвалится Apple, — это мощный инструмент, но он не может обеспечить по-настоящему надёжную конфиденциальность, когда параллельно на устройстве анализируется каждая фотография. 

Алек Баффет, тоже исследователь в области безопасности, ранее работавший в Facebook, считает внедрение CSAM и алгоритма сканирования изображений NeuralHash «огромным шагом назад в плане конфиденциальности».

Apple идёт по пути внедрения массовой слежки. Кажется, совсем скоро мир из книги Джорджа Оруэлла «1984» станет нашей реальностью. 

Алек опасается ложных срабатываний, если хеши некоторых фотографий совпадут с теми, которые попадают под случаи CMSA.

Хотя на этот счёт Apple заявляет о высокой точности работы алгоритма и наличии ручной проверки.

Стоит отметить, что похожие алгоритмы для выявления CSAM используются Google, Twitter, Microsoft и Facebook. Однако они не выходят на уровень анализа снимков в персональной галерее. 

st41n | источник: iphones.ru | 24/09/21, 15:51




Оставьте комментарии. Возможно вам есть что добавить.


Если хотите дать ссылку, пишите полностью URL с http://
Если заключить слово в *звёздочки*, оно будет показано курсивом