Поддельные изображения, аудио- и видеоматериалы, известные как дипфейки, курсируют в сети уже не один год. Сначала их использовали для развлечения, позже стали применять для банковских мошенничеств. Но прежде технологии не были хороши настолько, чтобы создавать дипфейки, неотличимые от реальности. Всё изменилось с появлением генеративного искусственного интеллекта (ИИ) вроде ChatGPT.
Интернет заполонили поддельные фотографии и видеозаписи. На одной из них Хиллари Клинтон признаётся, что ей очень нравится кандидат в президенты США Рон Десантис. «Он именно тот парень, который нужен этой стране, и я действительно это имею в виду», – говорит она. В другом видеоролике Джо Байден рычит на трансгендера: «Ты никогда не будешь настоящей женщиной». Оба материала вызвали огромный интерес в сети.
Вирусными за последние несколько недель стали фейковые изображения, на которых бывшего американского президента Дональда Трампа задерживает полиция. Ранее бурную реакцию вызвали фотоснимки папы римского Франциска в стильном пальто. Все материалы выглядят правдоподобно и демонстрируют, что благодаря множеству новых инструментов генеративного ИИ, удешевляющих и упрощающих создание подделок, качество дипфейков значительно улучшилось.
Фотографии папы римского Франциска в объёмном пуховике сгенерировала нейросеть Midjourney.Скриншот: r/midjourney/Reddit
По данным компании DeepMedia, работающей над инструментами для обнаружения синтетических медиа, в этом году в интернете размещено в три раза больше видеодипфейков всех видов и в восемь раз больше голосовых дипфейков, чем в 2022-м. Как утверждает организация, в 2023 году в соцсетях по всему миру будет опубликовано около 500 тыс. видео- и голосовых дипфейков. До конца прошлого года клонирование голоса стоило 10 тыс. долларов за сервер и обучение ИИ, но теперь стартапы предлагают эту услугу всего за несколько долларов.
В фейковом видео Хиллари Клинтон признаётся, что ей очень нравится кандидат в президенты США Рон Десантис. Источник: binary_sloth/YouTube
Американская пресса, опасаясь вероятного использования дипфейков для чёрного пиара во время президентских выборов 2024 года, заговорила о необходимости регулирования отрасли. В ответ выпустившая чат-бот ChatGPT компания OpenAI обновила свою политику и запретила нейросети DALL-E генерировать изображения публичных персон. Как утверждает агентство Reuters, это касается только политиков первого ряда. Возможность создавать изображения других политиков из Соединённых Штатов, в том числе бывшего вице-президента Майка Пенса, который также намерен участвовать в выборах в следующем году, у генератора осталась.
Политика не коснулась других стартапов, например Midjourney, запущенного в 2022 году. Сейчас эта компания является ведущим игроком в области создания изображений с помощью искусственного интеллекта, с 16 миллионами пользователей на официальном сервере Discord. Разработанное ею приложение, стоимость которого варьируется от нуля до 60 долларов в месяц в зависимости от количества задач, пользуется наибольшей популярностью среди дизайнеров и художников из-за его способности генерировать гиперреалистичные изображения. На прошлой неделе генеральный директор Midjourney Дэвид Хольц заявил, что перед президентскими выборами в Штатах компания, скорее всего, внесёт изменения для борьбы с дезинформацией и рассмотрит возможность блокировать создание изображений политиков-кандидатов.
Стартап Midjourney является ведущим игроком в области создания изображений с помощью искусственного интеллекта.Фото: IMAGO/Mario Aurich/TASS
Намного хуже обстоят дела с дипфейками и возможностями генеративного искусственного интеллекта в банковском секторе. На днях дипфейк на базе ИИ использовали в Северном Китае в мошеннических целях. Во время видеозвонка преступник с помощью сгенерированного изображения выдал себя за друга жертвы и получил денежный перевод в размере 4,3 млн юаней (622 тыс. долларов США).
«Мы уже убедились в силе дипфейковых аудио и видео», – отметил старший редактор журнала The Economist Кеннет Кьюкер.
«Поскольку биометрия используется всё шире, а генеративный искусственный интеллект совершенствуется, риск его использования для кражи биометрических данных явно растёт».
Кеннет Кьюкер
старший редактор журнала The Economist
Биометрические данные безопасны, поскольку они уникальны: воспроизвести снимок лица гораздо сложнее, чем подобрать пароль. Но если эти данные будут скомпрометированы, ситуация может выйти из-под контроля. Относительная неизменность отпечатков пальцев, сканирование сетчатки глаза и лица делают их более надёжными только в том случае, если они защищены, напоминает специалист по безопасности из Гарвардского университета и автор книги «Разум хакера» Брюс Шнайер.
«Один из самых больших рисков, о котором мы мало говорим, заключается в невозможности после кражи данных восстановить доступ к счетам или услугам, – поясняет он. – Если у меня есть пароль и его украдут, я могу создать новый пароль. Это легко. Если я пользуюсь отпечатком большого пальца, а его украдут… Я не смогу получить ещё один большой палец».
«Биометрия – это не то, что можно создать на лету. Она уникальна, она есть у каждого, но это всё, что у вас есть».
Брюс Шнайер
специалист по безопасности из Гарвардского университета, автор книги «Разум хакера»
В некоторых странах уже начали вносить изменения в законодательство для защиты биометрических данных. Южная Корея, Китай и Сингапур вводят нормативные требования для генеративных систем искусственного интеллекта. Власти Австралии рассматривают возможность запретить то, что они считают случаями использования ИИ с высоким риском, включая дипфейки и алгоритмическую предвзятость.
О намерении что-либо предпринять заявили администрация президента Джо Байдена и конгресс США. А Евросоюз готовит закон об искусственном интеллекте, призванный установить ограничения на его использование.
Однако технологические компании уже делают свои инструменты искусственного интеллекта доступными для миллиардов людей и включают их в приложения и программное обеспечение, которые многие используют каждый день. Между тем универсального стандарта для выявления поддельного контента до сих пор не существует. А детекторы не улавливают все подделки и должны постоянно обновляться по мере развития технологий ИИ. На вопрос, что будет в случае кражи биометрических данных, пока не ответил никто.