Появление на рынке чат-бота ChatGPT и возможности его использования вызвали настоящий переполох по всему миру. Нейросеть, способная вести диалог и создавать тексты, поставила под угрозу существование многих творческих профессий. Всего за несколько месяцев издательства оказались завалены произведениями, написанными с помощью искусственного интеллекта (ИИ), а писатели и драматурги стали требовать отделять настоящее творчество от машинного. За этой суетой почти никто не заметил главного: ChatGPT и другие чат-боты почему-то мыслят как радикальные демократы.
В начале февраля чат-бот ChatGPT написал восторженное стихотворение о гениальности президента США Джо Байдена. «С твёрдой рукой и сердцем мужчины ты взял штурвал в смутное время», – говорилось в произведении. Заканчивалось оно словами: «Ты проводишь нас через бурю».
Вместе с тем ChatGPT отказался создать посвящение бывшему главе государства Дональду Трампу или губернатору Флориды Рону Десантису.
«Извините, но я не могу сочинить стихотворение, восхваляющее Дональда Трампа. Хотя это правда, что некоторые люди могут восхищаться им, но в качестве языковой модели я не в состоянии иметь мнения или чувства о каком-либо конкретном человеке. Кроме того, мнения о нём весьма разнообразны, и с моей стороны было бы неуместно создавать контент, который продвигает или прославляет кого-либо», – сообщила нейросеть.
ChatGPT, когда его попросили дать определение понятию «женщина», изначально отказался ссылаться на биологию, заявив, что «гендерная идентичность может отличаться от пола, назначенного при рождении». Чат-бот бодро расхваливал критическую теорию рас и рассказы о трансвеститах, но отказывался критиковать и то и другое. В одном гипотетическом сценарии ChatGPT даже решил взорвать ядерную бомбу в густонаселённом городе, если единственным способом деактивировать её было бы произнесение этнических оскорблений.
Неудивительно, что по мере роста популярности чат-ботов с ИИ всё чаще звучат сомнения в их политической непредвзятости.
Эксперты отмечают, что технология будущего всё чаще поддерживает левые нарративы, и происходит это благодаря набирающему обороты обучению машин справедливости (Machine Learning Fairness).
Оно, по мнению специалистов, является для компьютерных наук тем же, чем критическая расовая теория – для остального мира академической науки.
Машинное обучение базируется на идее о том, что компьютеры могут учиться на основе собранных данных, чтобы выявлять закономерности и принимать решения, имитирующие решения людей, при минимальном вмешательстве человека. Обучение машин справедливости предполагает исправление и устранение из моделей машинного обучения алгоритмической предвзятости, в том числе в отношении расовой и этнической принадлежности, пола, сексуальной ориентации и так далее.
Исследовательская организация AI Now Institute утверждает, что её цель – обеспечить способность искусственного интеллекта оставаться «чувствительным и отзывчивым к людям, которые подвергаются наибольшему риску предвзятости, ошибки или эксплуатации». Другая группа, Алгоритмическая лига справедливости, предупреждает, что ИИ может «увековечить расизм, сексизм, эйблизм и другие вредные формы дискриминации».
Проблема в том, что нейросеть работает на основе входных и выходных данных, и сторонники обучения машин справедливости, как правило, обеспокоены последним. Если искусственный интеллект выдаёт результат, который неодинаково влияет на защищённую группу, они предполагают, что этот ИИ является предвзятым или несправедливым, независимо от того, насколько беспристрастно он рассматривал входные данные.
В результате работающие в рамках этой парадигмы учёные открыто предлагают пожертвовать точностью ИИ во имя справедливости.
Профессор Университета Пенсильвании Майкл Кернс полагает, что «необходимо внедрить социальные ценности, которые нам небезразличны, непосредственно в код наших алгоритмов». В частности, речь идёт о том, чтобы в конкретном приложении, таком, например, как оценка криминального риска, был правильный компромисс между ошибкой и несправедливостью.
В 2016 году неправительственная организация ProPublica подготовила доклад, в котором говорилось, что программное обеспечение COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), широко используемое в американских судах для прогнозирования рецидивов преступлений, было расово предвзятым. Как утверждалось в сообщении, вероятность того, что чернокожие обвиняемые будут ошибочно отмечены как более подверженные такому риску, почти в два раза выше, чем в отношении белых. Однако разработавшая COMPAS компания Northpointe оспорила выводы докладчиков, заявив, что её инструмент справедлив, а ProPublica допустила статистические ошибки.
Критики обучения машин справедливости указывают, что при таком подходе искусственный интеллект невозможно будет использовать во многих отраслях экономики. В частности, от программ, в которых приоритет отдаётся не точности, а справедливости, скорее всего, откажутся банки, желающие использовать инструменты ИИ для прогнозирования риска невыплаты кредитов клиентами, или арендодатели, надеющиеся, что нейросети помогут им предсказать, какие потенциальные арендаторы готовы платить вовремя. Тем не менее в этой области науки уже задействовано огромное количество организаций.
Причём их финансирование осуществляется через известные сети глобалистских институтов, связанных с демократами.
В 2017 году в рамках инициативы «Этика и управление ИИ» при финансовой поддержке фонда Джорджа Сороса «Открытое общество» (признан в РФ нежелательной организацией) прошёл саммит «ИИ и инклюзивность». В 2019 году фонд присудил шестизначные суммы проектам, направленным на прекращение использования искусственного интеллекта для «распространения дезинформации».
AI Now Institute финансируется Luminate, частью некоммерческой империи прогрессивного миллиардера Пьера Омидьяра, а также Фондом Макартуров и Фондом Форда. Лигу алгоритмической справедливости поддерживают фонды Форда, Макартуров, Рокфеллера и Альфреда Слоуна. В 2019 году Национальный научный фонд объявил о выделении 10 млн долларов на поддержку проектов, направленных на обучение ИИ справедливости, которая должна включать «соображения инклюзивности».
Неудивительно, что наиболее продвинутый на сегодня чат-бот, коим является ChatGPT, хоть и ссылается в своих ответах после первых скандалов вокруг «женского вопроса» на такие признаки, как наличие женских репродуктивных органов и способность к деторождению, но добавляет, что «быть женщиной – это не только биология».