Власти и корпорации строят все более совершенные системы распознавания лиц — они особенно опасны в условиях репрессий. Как помешать им вас идентифицировать? И можно ли помешать в принципе?
Прогресс алгоритмов искусственного интеллекта все чаще приводит к тому, что нарушается приватность пользователей в реальном мире. Связано это с растущей эффективностью систем распознавания лиц. Их могут использовать в относительно безобидных маркетинговых целях корпорации и в репрессивных — власти.
Ученые не первый год бьются над задачей противостояния нежелательному распознаванию лиц — но пока не смогли изобрести инструмент надежной защиты. Вот лишь некоторые способы:
✹ Сначала можно попытаться помешать системе собрать исходные изображения. Например, социальные сети могут вводить технические ограничения на выкачивание данных, а их пользователи — перестать выкладывать новые снимки в общий доступ.
✹ На втором этапе можно помешать системе справиться с предварительной обработкой снимка. Здесь два основных направления — предотвращение обнаружения лица и его анонимизация.
✹ Когда нейросеть учится извлекать вектор признаков лиц, можно подсунуть ей «отравленные» данные. Испорченные исходные данные могут привести как к частичному, так и полному сбою нейросети.
«Медуза» изучила, как устроены системы, которые все чаще несут в себе не благо, а угрозу, какие еще методы борьбы с ними известны — и почему ни один из этих методов не назовешь идеальным.
———
Открыть материал без VPN.