Генеративный искусственный интеллект стал трендом 2023 года. После начала массового использования нейросетей в повседневной жизни остро встали вопросы этики и безопасности. Их сейчас поднимают разработчики, правоведы и даже философы. Решать возникающие проблемы эксперты предлагают по-разному – от развития новых обучающих курсов вроде этики искусственного интеллекта до полного запрета ИИ на уровне государств.
Появление нейросетей и генеративного искусственного интеллекта – закономерное следствие развития технологий. Нейросети способны значительно облегчить труд программистов, исследователей, учёных, взяв на себя рутинные задачи. С их помощью можно изучать и открывать новые лекарства, проводить опыты.
Однако выход технологий в широкие массы может серьёзно исказить созидательную сторону искусственного интеллекта. В ноябре 2023 года в мировых СМИ широко освещалась история со скандалом в школе Вестфилд Хай (штат Нью-Джерси, США), ученицы которой стали объектами фальшивых порнографических изображений, созданных с помощью ИИ. Сервисы генерирования изображений доступны подросткам во всех странах, и сколько подобных инцидентов уже произошло и произойдёт в будущем, неизвестно.
Этические проблемы развития ИИ осознают и сами разработчики. В декабре тема этики искусственного интеллекта стала одной из главных на крупной конференции IT-сообщества YaTalks, которую проводит «Яндекс» (по данным организаторов, в мероприятии каждый день участвовало офлайн от 4,6 до 6,5 тысяч специалистов отрасли и более 16 тысяч человек побывали на ней онлайн).
– Вспомним, как начинался интернет. В то время интернет представлял собой своего рода клуб единомышленников. Все наши сервисы, будь то форумы или что-то ещё, существовали внутри небольших сообществ. Однако со временем интернет вырос. Весьма важные аспекты нашей повседневной жизни, такие как почта и образование, оказались доступными в онлайн-пространстве. Люди стали обращаться к интернету для лечения и получения информации, которую раньше мы получали в реальной жизни. Да и общение перекочевало в интернет. Важность интернета для нас сложно оценить, но уже понятно, что он корректирует нашу повседневность, – заявил на конференции директор по развитию технологий искусственного интеллекта в компании «Яндекс» Александр Крайнов.
Оказалось, что поиск – это нечто важное, фундаментальное для человека.
Это его последний союзник в самых сложных ситуациях. Именно поиск выбирает то, что действительно важно.
– Когда мы изучали, как люди ведут себя в поиске, мы обнаружили, что очень мало людей переходит на вторую страницу. Сейчас это сложно заметить, так как всё это бесконечные ленты, но люди внимательно рассматривают лишь начало поисковой выдачи. И то, что они там находят, конечно же, определяет решение их проблем. И это серьёзная проблема, – отмечает Александр Крайнов.
Сегодня люди даже лечиться предпочитают в интернете, а не обращаются за медицинской помощью. Когда у человека возникают проблемы со здоровьем, он в 100 процентах случаев ищет информацию в сети, а к врачу идёт не всегда, потому что это простой и быстрый способ получить ответы на свои вопросы.
– И хотя мы можем обвешать весь поиск дисклеймерами, что самолечение не рекомендуется, что нужно проконсультироваться с врачом, люди им не следуют. Один из наших любимых примеров – поисковый запрос о том, как лечить рак с помощью соды. И как в таком случае действовать поисковой системе? Как разумным людям нам хочется дать ответ: «Друг, не валяй дурака. Иди к врачу или читай нормальные источники». Но делать этого нельзя, ведь мы тогда за человека начинаем решать, что хорошо, а что плохо.
«Мы зеркало интернета: что спросили – мы показали. Но с другой стороны, когда ты осознаёшь, что через тебя проходят миллионы таких запросов, понимаешь, что нужно что-то предпринимать».
Александр Крайнов
директор по развитию технологий искусственного интеллекта в компании «Яндекс»
– Для себя мы решили, что есть буквально несколько категорий, которые угрожают жизни и здоровью людей, поэтому мы позволяем себе вмешиваться в ранжирование, чтобы понизить – не убрать, а именно понизить – выдачу результатов, которые несут явную прямую угрозу, – заключает Александр Крайнов.
Развитие генеративного ИИ ещё больше усложняет для разработчиков этические трудности. Поскольку ответ на запрос пользователя приходит без ссылок на источник и является скомпилированным, предугадать то, какая информация там окажется, крайне сложно. Между тем люди могут принять её за истину.
По словам экспертов, помимо этических аспектов, развитие нейросетей, построенных на больших языковых моделях (LLM), влечёт ещё и сложности с обеспечением безопасности.
– Например, ChatGPT обучалась на открытых данных из сети – порядка 300 миллиардов слов из различных источников, включая веб-сайты, статьи, социальные сети, книги и всё, до чего могли дотянуться поисковые краулеры. Кроме того, ChatGPT постоянно получает огромный поток данных от пользователей сервиса, которые тоже используются в совершенствовании её модели ответов. Нет инструментов для удаления ваших данных из нейросети. Не очень понятно, как OpenAI вообще использует те данные, которые собирает благодаря взаимодействию с обычными пользователями и в рамках коммерческого использования в компаниях, – рассказывает «Октагону» стратегический директор по IT, продуктам и сервисам компании PRO32 Руслан Сулейманов.
Как сообщает собеседник, недавно сотрудники Google DeepMind продемонстрировали уязвимость в ChatGPT, которая на безобидный запрос выдавала конфиденциальные данные.
Подобные утечки могут быть крайне опасны, так как люди советуются с нейросетью по очень чувствительным и конфиденциальным вопросам.
Например, финансовый директор может спросить, какой тип бюджета будет предпочтительным, если взять за основу реальные данные о поступлениях и расходах за прошлый год, а юрист компании – попросить ChatGPT составить оптимальный текст запроса для поставщика на основе данных действующего договора. Вся эта информация осядет в недрах большой языковой модели, и никто точно не знает, как она будет использована. Утечка таких сведений может стоить компании репутации или вообще привести к её закрытию.
– Я бы посоветовал относиться к передаче данных в любые нейросетевые сервисы как к эквиваленту публикации этих данных в социальной сети. То есть если вы что-то готовы опубликовать у себя на странице в соцсети, то можете использовать эти данные и в нейросетевых сервисах типа ChatGPT, – говорит Руслан Сулейманов.
Существуют сложности и в правовом регулировании использования нейросетей.
По свидетельству основателя Mirey Robotics Андрея Наташкина, повсеместное использование ИИ для создания графики, текстов и логотипов связано с желанием сэкономить, но может обернуться финансовыми рисками.
– Всегда встаёт вопрос, насколько законно использовать контент, созданный нейросетью, для коммерческих целей. И это очень тонкий момент. В LogoliveryAI, например, прописано, что мы можем использовать готовый логотип в коммерческих целях. А при использовании бесплатной подписки Midjourney все изображения принадлежат сервису. Вы можете их использовать с указанием источника в личных целях, а вот коммерческое использование запрещено. Поэтому нужно читать правила площадки, указывать источник и не использовать контент, сгенерированный нейросетью, в продающих постах или текстах. Иначе будет достаточно сложно доказать, что вы не получаете какую-то выгоду от используемого контента, – поясняет Андрей Наташкин.
Специалисты замечают, что в России власти в целом довольно позитивно смотрят на распространение искусственного интеллекта. В принятых стратегиях прослеживается мысль, что это глобальная тенденция, которой нужно следовать. В Москве в 2020 году сроком на пять лет введён экспериментальный правовой режим, обеспечивающий разработку и внедрение технологий ИИ. Однако практически нигде не обсуждаются этические риски, связанные с развитием технологий.
– Сейчас есть ощущение какой-то гонки технологий, в которой если не участвуешь, то, проигравши, как будто теряешь всё, и страну в том числе. С другой стороны, любая технология, будь то колесо, автомат Калашникова или ChatGPT, может попасть не в те руки и использоваться вопреки интересам большинства, в том числе вопреки государственным интересам. Я думаю, мы пока не готовы предложить правовые нормы, учитывающие все этические аспекты использования генеративного ИИ. Большинство по-прежнему имеет лишь смутные представления о том, что же в итоге вырастет из этого зёрнышка – прекрасная пальма, на которую постепенно, позабыв себя, взберётся прогрессивное человечество, либо что-то ещё, чего мы пока вообще не в состоянии себе представить, – рассуждает управляющий партнёр адвокатского бюро Москвы «Матюнины и Партнёры» Олег Матюнин.
Чтобы взять под контроль этические проблемы, связанные с развитием ИИ, на уровне отдельных стран и крупных технологических компаний создаются специальные органы или подразделения. В России действуют государственные комиссии по этике в сфере искусственного интеллекта.
Учитывая востребованность подобных специалистов, вузы начинают вводить в свои программы специальные курсы по этике ИИ, где предполагается подготовка профессионалов, которые будут стоять на страже этических норм. Зачастую это представители не технического, а гуманитарного направления.
Впрочем, философы и психологи предлагают и более радикальные методы – вплоть до запрета искусственного интеллекта.
– Например, сейчас ИИ выступает в качестве катализатора, усугубляющего кризисы в системе образования. Для экономии было бы идеально заменить учителей на ИИ, но это приведёт к катастрофе. На мой взгляд, если допустить ИИ в сферы деятельности человека, то он будет увеличивать разрыв между людьми, способствовать росту безработицы, снижению уровня образования и массовой культуры. Огромное количество текстов, музыки, картинок не будет иметь никакой культурной ценности. Этого мусора уже сейчас терабайты в интернете, а дальше будет только хуже. Я не вижу ни одной социально-гуманитарной сферы, где ИИ принёс благо. Поэтому нужно отказываться от него на уровне государства, – полагает философ, судебный эксперт-психолог Олег Долгицкий.