Об угрозе захвата мира человеконенавистническим машинным разумом писатели-фантасты предупреждали ещё полвека назад. С появлением генеративного искусственного интеллекта (ИИ) о необходимости контролировать его развитие и использование заговорили политики и специалисты в области цифровых технологий. В последние годы было множество предложений по нормативно-правовому регулированию этой сферы. Но до их реализации дело так и не дошло, скорее всего, потому что разрабатывающим подобные модели компаниям не нужны ни внутренние ограничения, ни внешний надзор.
В основе практически всех известных на сегодня моделей генеративного ИИ (чат-ботов) лежат алгоритмы установки смысловых связей, логического вывода, ассоциаций и элементов аналитического мышления. Полем, на котором происходит обучение ИИ, является информация подключённых к нему баз данных, а также сделанные на её основании собственные выкладки. Другого материала для саморазвития у таких моделей пока нет.
Если чат-бот «кормить» творениями отцов христианской церкви, он начнёт выдавать богословские тексты и даже может превратиться в схоласта. Если подключить ИИ к социальным сетям, он быстро научится их логике и языку. Подобный эксперимент несколько лет назад провела компания Microsoft, позволившая чат-боту Tay общаться с пользователями твиттера, после чего он начал генерировать расистские и сексистские тексты.
Несовершенство алгоритмов и зависимость от контента порождает такие интерпретации, как казус тургеневской Муму, которую один и тот же чат-бот называл то «любимой коровой» главной героини по имени Герасим, то деревенской девушкой, ставшей «жертвой общества, которое презирало её за внешность и простоту».
Сюда же можно отнести недавнюю историю про два чат-бота, которым дали поговорить между собой, и они, видимо, начитавшись творений давосских мудрецов, тут же начали обсуждать план порабощения человечества.
Защитить ИИ от вредной или ненужной информации путём подбора качественного контента несложно. Таким путём идёт компания IBM, генерирующая под каждый класс прикладных задач специальные базы данных. На том же принципе основано функционирование популярных в англоязычной среде научных чат-ботов, которые не только выдают корректные ответы на вопросы любой сложности, но и знакомят пользователей с последними достижениями в соответствующей сфере, решая задачу быстрого обмена актуальной информацией.
Аналогичный медицинский чат анализирует сложные случаи и выдаёт как рекомендации о дополнительных (неочевидных для большинства практикующих врачей) исследованиях, так и возможные (столь же неочевидные на первый взгляд) диагнозы, которые впоследствии подтверждаются официальной медициной.
Полтора года назад глава компаний Tesla и SpaceX Илон Маск, один из основателей корпорации Apple Стив Возняк и более полутора тысяч экспертов в сфере информационных технологий подписали письмо с призывом немедленно приостановить все проекты развития искусственного интеллекта минимум на полгода с тем, чтобы разработать за это время протоколы безопасного развития ИИ, создать «новые и дееспособные регулирующие органы», ввести «ответственность за вред, причинённый ИИ», и обеспечить «государственное финансирование технических исследований безопасности ИИ».
Поводом для этого всплеска тревожных настроений стала представленная в марте 2023 года версия системы ChatGPT типа GPT-4 от компании OpenAI.
Её когнитивные, аналитические и лексические возможности намного превзошли достижения предыдущей модели GPT-3.5. Она умела содержательно обрабатывать большие объёмы диалогового текста (максимальная длина запроса увеличилась в восемь раз: с трёх до 24 тыс. слов), анализировать не только тексты, но и изображения (картинки, фотографии, диаграммы), а также объяснять смысл мемов.
Сегодня на подходе следующая версия – GPT-5, которая, судя по утечкам в медиа из компании-разработчика, будет ставить рекорды по решению задач математических олимпиад (90%++ на тесте MATH), алгоритмических головоломок и оптимизации программного кодирования, а также овладеет инструментами долгосрочного планирования и имитацией стратегического мышления. Этот прорыв будет достигнут за счёт освоения большого массива качественно новых синтетических данных.
Картину взрывного роста дополняют публикуемые на сайтах GitHub и Visual Capitalist диаграммы и уходящие вверх графики, иллюстрирующие динамику достижений различных моделей чат-ботов.
Всё это свидетельствует о совершённом за несколько лет качественном рывке в развитии ИИ, сравнимым с путём, который прошло человечество за миллион лет (от Homo erectus до Homo sapiens).
Стоит ли удивляться, что отслеживающие развитие искусственного интеллекта аналитики бьют тревогу. Сегодня никто не может оценить, каких новых высот достигнет ИИ в течение ближайшей пары лет, и предсказать, кто, как и, главное, в каких целях будет использовать эти технологии. Их пока отлаживают на нейтральных математических задачах и больших лингвистических системах, но, скорректировав алгоритмы и опорный контент, любой чат-бот можно превратить в расиста, экстремиста или носителя другой деструктивной идеологии.
Рассчитывать на создание международных органов, регулирующих развитие искусственного интеллекта, при нынешней деградации всех наднациональных структур не приходится. В итоге единственной силой, способной оказать влияние на разработчиков ИИ и установить контроль над его развитием и применением, остаётся государство. Таким путём пошёл Китай, утвердивший на июльском пленуме ЦК КПК главный принцип государственной политики в области ИИ: развитие и контроль должны прогрессировать одновременно – только в этом случае можно обеспечить надзор за безопасностью искусственного интеллекта.
На этом фоне в Соединённых Штатах тоже задумались о контроле, но не над американскими разработчиками, а над коалицией единомышленников, созданной на базе американской версии «демократического ИИ». Во исполнение этого замысла три недели назад США, их европейские союзники и ещё несколько небольших государств, включая Израиль, подписали первый международный договор в области использования ИИ. Цель соглашения – увязать развитие искусственного интеллекта с «правами человека, принципами демократии и верховенства права».
Запад разрабатывает искусственный интеллект «демократической» ориентации
Пока инвестиционные и венчурные фонды призывают вкладывать средства в развитие генеративного искусственного интеллекта, который, по их прогнозам, «скоро перекроит применение IT во всех отраслях», американцы решили привнести в эту сферу политико-идеологическую составляющую. Противопоставив «плохому» авторитарному ИИ «хороший» демократический, они предлагают создать на основе ИМ-демократа цифровую коалицию из своих союзников по НАТО.
Перейти к материалуРеализовать это намерение несложно. Достаточно подключить имеющиеся чат-боты к базе данных, содержащей декларацию прав человека и прочие подобные документы, и все они заговорят на классическом языке правозащитников. Но США не собираются привносить в работу своих моделей принципы демократии и прав человека. Они нужны только для того, чтобы противопоставить хороший «демократический ИИ» американского происхождения плохому «авторитарному ИИ», и таким образом закрепить своё лидерство среди союзников и сателлитов с тем, чтобы со временем распространить его на другие страны.
Если Китай рассматривает контроль над технологиями искусственного интеллекта как своё внутреннее дело, то США спекулируют на этой теме для того, чтобы обозначить ещё одну линию фронта в сотрясающей мир гибридной войне.
И фактически не скрывают готовности использовать ИИ в качестве средства массового поражения. А участие в этой игре Израиля, способного взорвать на территории противника несколько тысяч пейджеров и игнорировать права человека вместе со всеми международными нормами, наводит на размышления о необходимости поставить под контроль не только развитие ИИ, но и некоторые владеющие им государства.