- Операторы-роботы и электронные приёмные оградили врачей от пациентов
- В сеть утекли персональные данные и медицинские анализы чиновников, судей и полицейских
- Искусственный интеллект увольняет работников
Пока политики говорят о войне на Украине, а занятые повседневными делами люди волнуются из-за роста цен и других житейских проблем, в мозговых центрах мира создаются инструменты искусственного интеллекта (ИИ), способные не только до неузнаваемости изменить жизнь людей, но и покончить с человечеством как биологическим видом и саморазвивающимся общественным организмом. Пока большая часть тревожных сигналов идёт из социальной сферы, цифровизация которой открывает дорогу к трансгуманизму, устраняющему «нежелательные аспекты человеческого существования» или, попросту говоря, меняющему природу людей.
В России критика цифровизации вращается главным образом вокруг того, что можно списать на дефекты исполнителей. В первую очередь это касается постоянных эксцессов с утечками данных и бездумного внедрения новейших технологий в школах, что уродует российскую систему образования, разрушает связь «учитель – ученик», тормозит развитие детей и вредит их физическому здоровью и психологическому состоянию. Но гримасы искусственного интеллекта можно наблюдать и в других сферах.
В начале этого года «Октагон» рассказал о том, как научный сотрудник Института биологии внутренних вод РАН Александр Цветков оказался под арестом по обвинению в четырёх убийствах 20-летней давности. Основанием стало 55-процентное совпадение его биометрических данных со старым фотороботом сомнительного качества. Вера в новейшие технологии оказалась настолько сильна, что следствие в течение 10 месяцев не принимало во внимание алиби учёного, подкреплённое документами и свидетельскими показаниями.
4 декабря на встрече с членами Совета при президенте РФ по развитию гражданского общества и правам человека о деле Цветкова рассказали Владимиру Путину. И это помогло: Замоскворецкий суд Москвы отменил арест, и 12 декабря обвиняемый вышел на свободу.
Что мешало сделать это раньше?
Ведь решение об аресте, а также о его продлении принимал всё тот же суд. Здесь, конечно, можно поговорить об особенностях российских правоохранительной и судебной систем, но они и так всем известны.
Сухой остаток этой истории состоит в том, что оказаться в тюрьме может любой человек, попавший под прицел видеокамер. А обладающие таким оружием прогресса, как нейросеть, правоохранители сделают всё остальное. И только слово главы государства оказалось сильнее приговора искусственного интеллекта. Но Путин не может вникать во все уголовные дела. Кроме того, в мире есть вещи, которые неподвластны российскому президенту.
В странах Евросоюза решения об эффективности и неэффективности сотрудников уже начинают принимать цифровые роботы. Это стало прямым следствием введения в 2021 году законодательства, регулирующего работу сферы услуг. Новшество касается 28 миллионов человек – от водителей такси до курьеров, – которые используют в работе цифровые платформы.
Теперь каждый шаг этих работников оставляет цифровой след, и алгоритм (аналог ИИ) анализирует их и выносит вердикт о том, насколько хорошо они справляются со своими обязанностями. А поскольку плохая работа является основанием для увольнения, именно автоматизированные системы начинают принимать решения о продлении или прекращении сроков действия контрактов.
Дело дошло до того, что Европейский институт профсоюзов (ETUI) всерьёз озаботился практикой «роботизированного увольнения» и потребовал прекратить его использование.
Но набирающий обороты прогресс уже не остановить.
Цифровые платформы – это очень удобный механизм, а снабдить его системой логического вывода о качестве работы совсем несложно. Главное – сформулировать критерии. И не стоит надеяться, что это нововведение затронет только сферу услуг.
Во второй половине 2000-х в ряде российских компаний пытались внедрить систему почасовых отчётов для сотрудников, занятых умственным трудом. Их обязали заполнять специальные компьютерные формы, указывая, что именно они делали в течение последнего часа. Затея не прижилась – во-первых, потому, что действительно занятые делом люди забывали заполнять эти формы, а во-вторых, из-за того, что анализировать этот огромный поток данных было некому. Теперь, когда появились цифровые платформы и алгоритмы-анализаторы, одержимые административным восторгом руководители имеют все возможности превратить жизнь своих подчинённых в настоящий цифровой ад.
Сегодня уже никого не удивить дипфейками, в которых цифровые образы политиков делают сенсационные заявления. Системы Play HT, Speechmax и десятки других генераторов голоса позволяют переводить текст в речевой формат. Runway и ещё ряд нейросетей научились «оживлять» картинки и превращать их в видеоролики. Многочисленные чат-боты способны поддержать беседу на любую тему.
Все эти достижения готовились давно. Мультипликаторами, которые программировали естественные движения своих персонажей, разработчиками компьютерных игр, добивавшимися динамики действия, а также другими специалистами, решавшими свои прикладные задачи. Но ещё 25 лет назад, когда вышел фильм «Шоу Трумана», считалось, что для создания альтернативной реальности нужны декорации и статисты. Теперь всё изменилось и продолжает меняться с пугающим ускорением.
Во всём мире огромные средства вкачиваются в разработку искусственного интеллекта, в развитие нейросетей и наращивание их мощностей.
Эксперты предупреждают: лет через 5–10 можно будет говорить о создании параллельной реальности в теленовостях.
А это значит, что уже не нужно будет снимать репортажи с места событий. Достаточно загрузить в нейросеть исходную картинку, прообразы персонажей и задать параметры совершаемых ими действий.
После этого будет уже неважно, что происходит в мире на самом деле. Вместо бомбардировок Газы можно будет сгенерировать народные гуляния, вместо стихийного бедствия – уборку территории, вместо пресс-конференции с неудобными вопросами – публичный хеппенинг. Это обесценит переговоры, саммиты или иные политические мероприятия. Зачем напрягаться, если можно показать миру готовый результат?
Единственное, что способно помешать погружению мира в вымышленную реальность, – это наличие игроков с альтернативными интересами. Но чтобы не отставать, им тоже придётся создавать свою картину виртуального мира. Если сегодня своё восприятие реальности навязывается другим в ходе информационных войн, то через несколько лет можно будет предъявлять и врагам, и союзникам готовые видеонарративы.
Военные эксперты высказывают опасения, что уже в ближайшее время нейросети научатся обходить или взламывать защитные программы и помогать в организации кибератак. Речь идёт о генерировании вредоносных кодов и обучении хакеров новым тактикам и методикам. Всё это позволит расширить круг киберпреступников, включив в него даже тех, кто ничего в этих делах не понимает.
Европейские аналитики утверждают, что подобная информация уже есть в интернете, и хорошая поисковая система вроде ChatGPT может найти её за секунды и оперативно передать заказчику. Разумеется, в действия нейросети можно ввести соответствующие ограничения, загрузить в неё список стоп-слов и даже научить собирать данные о тех, кто вводит подобные запросы, и передавать их в органы правопорядка. Но пока такие изменения в многочисленные чат-боты не внесены, вряд ли это случится в ближайшее время.
Неслучайно давосские мудрецы, и прежде всего Клаус Шваб, предсказывают масштабные кибератаки по всему миру.
Эти люди знают, о чём говорят. В 2018 году они пообещали пандемию, и она случилась. Теперь в повестке мировая киберкатастрофа. А чтобы публика не сомневалась в серьёзности происходящего, от имени Давосского форума в медиа вброшен видеоролик, моделирующий апокалиптическую картину, на фоне которой Шваб произносит свои пророчества.
СМИ сообщают, что Пентагон заканчивает работу над развёртыванием роя из тысячи дронов, управляемых искусственным интеллектом. По словам заместителя министра обороны США Кэтлин Хикс, эта технология позволит американским военным компенсировать численное преимущество Народно-освободительной армии Китая в отношении оружия и людей. Летальное автономное оружие, способное выбирать цели с помощью искусственного интеллекта, разрабатывается не только в Соединённых Штатах. Аналогичные работы ведутся в Китае и Израиле.
Следующим шагом, предупреждают эксперты, станет передача искусственному интеллекту функции принятия автономных решений о том, стоит ли уничтожать человеческие цели.
Подобный технологический прорыв качественно изменит характер войн, и мир пройдёт точку невозврата в использовании ИИ в боевых действиях.
Это станет «переломным моментом для человечества», считает главный австрийский переговорщик по вопросу ограничения использования дронов-убийц Александр Кментт.
Попытки ограничить применение дронов-убийц с искусственным интеллектом путём принятия Совбезом ООН обязательной для исполнения резолюции пока не дали результата. Причиной служит сопротивление группы стран, в которую входят США, Австралия, Израиль и Россия. Эти государства активно развивают цифровые технологии и настаивают на необязательном характере соответствующей резолюции.
Недавние кадровые решения в американской научно-исследовательской организации OpenAI, занимающейся разработками в области искусственного интеллекта, показали, что в развитии этой отрасли происходит знаковый разворот. Всё началось с того, что разработчики новой версии ИИ сообщили совету директоров, что их достижения могут «угрожать человечеству».
В центре скандала оказался некий Сэм Альтман, которого обвинили в слишком быстром развитии новых продуктов без учёта фактора безопасности. Нарушитель внутренних правил был уволен, но через несколько дней его вернули в компанию и уволили его оппонентов. Вся коллизия разворачивается вокруг проекта Q* (произносится как «Q-Star»), который радикально отличается от концепции чат-ботов GPT (наделавший столько шума ChatGPT был разработан той же OpenAI).
Специалисты уверяют, что система Q* является новым словом в области развития искусственного интеллекта.
В отличие от GPT, которые опираются на поиск и статистические закономерности и потому могут давать разные ответы на один и тот же вопрос, Q* базируется на математическом подходе и создаёт модель «общего искусственного интеллекта» (AGI). Это позволяет ей самостоятельно решать задачи и выдавать единственно верное (собственное) решение, а не выбирать, как GPT, готовые ответы.
На сегодняшний день новая модель умеет справляться с элементарными математическими задачами. Но лежащая в её основе концепция позволяет ей оценивать обстановку, учиться и делать выводы из собственных ошибок, то есть имитировать умственную деятельность человека, но функционировать гораздо быстрее.
В этом смысле GPT – это настоящее, а Q* – будущее, в котором решения будут приниматься по законам математической логики и без учёта таких факторов, как мораль и эмоции. Подобный подход должен хорошо работать при решении производственных и научных задач. Однако тенденции развития ИИ свидетельствуют о том, что его допустят и в социальную сферу.
Авторы консенсус-прогноза, выпущенного в конце ноября Экспертным институтом социальных исследований, предупреждают, что «развитие искусственного интеллекта опережает моральную и физическую готовность общества к новым вызовам», а ценности и интересы сверхразумных систем могут вступить в противоречия с ценностями и интересами людей. И «если технологические возможности неконтролируемого обучения и самосовершенствования ИИ превзойдут возможности человеческого мозга (а по ряду показателей это уже происходит), человечество может потерять контроль над своим будущим».
К аналогичному выводу пришли и авторы письма о перспективах развития искусственного интеллекта, среди подписантов которого числятся американский IT-предприниматель Илон Маск, соучредитель компании Apple Стив Возняк, израильский историк и футуролог Юваль Ной Харари и несколько десятков исследователей, работающих в сфере IT-технологий. Среди прочего в тексте сказано, что искусственный интеллект уже начинает вносить изменения в жизнь людей, и потому его развитием нужно управлять. Но поскольку никто этого не делает, необходим мораторий на дальнейшие разработки.
О том же, но в гораздо более резкой форме говорит и один из основателей американского Института исследования машинного интеллекта Элиезер Юдковский, считающийся одним из ведущих IT-экспертов.
Он полагает, что рано или поздно суперумные нейросети выйдут за пределы интернета и перехватят управление всеми процессами на планете.
А поскольку искусственному интеллекту будет наплевать на историю человечества, он будет смотреть на людей как на существ, которые, с его точки зрения, очень глупы и очень медлительны.
Нейросети станут руководствоваться не моралью и не эмоциями, которые им неведомы, а своими потребностями, которые могут побудить их использовать в своих целях человеческое тело. Например, превратить атомы, из которых оно состоит, во что-то более нужное и полезное. Подводя черту под этой апокалиптической картиной, Юдковский предлагает полностью прекратить любые исследования в области ИИ, кроме тех, которые могут помочь избежать гибели человечества.