ТРИГГЕР. Искусственный интеллект поумнел и вмешивается в выборы. Демократия в опасности?

ТРИГГЕР. Искусственный интеллект поумнел и вмешивается в выборы. Демократия в опасности?

Генеративные нейросети — главная техносенсация последних лет. Пользовательская база ChatGPT, Midjourney и других IA-ассистентов оценивается в 250 млн человек. Помимо перечисленных сервисов, Bloomberg предлагает обратить внимание, например, на Runway и Character.AI. Первый служит для изготовления видео, второй - для наделения чат-ботов характерами, в том числе реальных людей. Интересно поболтать с Маском или Путиным? Это как бы реально.

В 2024 году в 70 странах мира, включая Россию, США, Индию, Великобританию, Мексику и Южную Африку, пройдут выборы, и ИИ несет им ряд угроз. Одна из главных - фейки. Искусственный интеллект способен производить и распространять контент-подделки высочайшего качества в масштабах, которые не снились никакой фабрике троллей, предупреждают аналитики из Brookings…

Стоп, но в этих выборах примут участие 2 млрд человек, и они и без того чреваты приходом к власти недемократических лидеров? Да - и в этом дополнительный риск. Журналисты FT и эксперты Brookings опасаются именно кампаний по распространению дезинформации в соцсетях, в которых массовость аудитории сочетается с прицельным выбором жертв-кандидатов, на которых ведется атака. Например, достоверно выглядящие аудио- и видеофейки уже вбрасывались во время недавних выборов в Словакии и Аргентине.

Наиболее громкий (пока) случай произошел на недавних праймериз Демократической партии США в штате Нью-Гемпшир, когда избиратели получали звонки с предложением не голосовать. Голос был точь-в-точь как у Джо Байдена, а стартовала запись с его фирменной реплики "Что за чушь!" (What a bunch of malarkey!). Кто записал псевдо-Байдена, выяснить пока не удалось. Наряду с ловко подделанными текстами, именно аудиофейки, похоже, будут использоваться особенно активно - исследования показывают, что люди с большим трудом идентифицируют синтезированную речь. Хорошая новость: видео пока получаются недостаточно убедительными.

Генеративные нейросети облегчают вмешательство не только в свои выборы, но и в демократический процесс других стран. Злоумышленникам не нужно свободно владеть иностранными языками и тонко чувствовать контекст, добавляют эксперты Brookings. Помимо изготовления контента, сгенерированные фото и видео могут использоваться при оформлении фейковых аккаунтов. Раньше злоумышленники использовали фото реальных людей - так их удавалось вычислять. Кроме того, применение ИИ позволяет штамповать фейковые профили в промышленных масштабах.

И что с этим делать - все еще неизвестно! Глава компании OpenAI Сэм Альтман пообещал следить за тем, как ChatGPT будет использоваться во время выборов. Но какие в случае чего будут приняты меры, не сказал. Российские аналоги ChatGPT, разработанные "Яндексом" и "Сбером", просто оставляют без ответа запросы на политические и даже некоторые экономические темы. Подвергнут ли ИИ жесткой цензуре на Западе? Вряд ли. Возможно, проще будет ограничить не средства производства, а Instagram, TikTok и другие среды распространения, обращает внимание колумнистка Bloomberg Парми Олсон.

Однажды борьба с фейками приобретет системный характер, и ответственность, скорее всего, возложат на ИИ-сервисы и социальные платформы. Но устранить риски к выборам 2024 года не удастся. Будет весело.

@dwglavnoe