Теперь при запуске ИИ-программы на рынок, особенно если речь идёт о психике или здоровье людей, разработчик должен будет думать не только об уровне инновативности ИИ, но и о её социальной и этической «ответственности». Вопрос со временем может стать ключевым при разработке всех приложений ИИ для бизнеса и повседневной жизни.
ВОЗ обеспокоена тем, что всё больше людей используют обычный чат-боты не только для разъяснений по простым медицинским вопросам, но доверяется им настолько, что принимает их за реальных собеседников и ищет у ИИ психологическую поддержку. Вместо того, чтобы обратиться за советом к другу или в некоторых случаях к профессиональному психологу, пользователи, по большей части юного возраста, предпочитают доверять свои проблемы искусственному интеллекту, который изначально не был создан для подобных деликатных операций, и не предназначен для работы с психикой, здоровьем и уязвимыми состояниями человека.
Большинство чат-ботов и ИИ-приложений никогда не проходили полноценную проверку в сфере психического здоровья, и в особо чувствительный момент они могут не только дать вредный совет, но и усилить эмоциональную зависимость или создать ложное чувство безопасности. Примеры психических и психологических расстройств на фоне общения с ИИ встречаются на каждом шагу – от эмоциональной зависимости от чат-ботов, чувства тотального одиночества и перехода из реального мира в вымышленную реальность, где единственным другом и собеседником становится ИИ, постепенно диктующий свои условия.
Запертые в цифровых стенах
Более 1 миллиарда людей в мире страдают психическими расстройствами, при этом более двух третей из них не получают никакой помощи, оставаясь со своим недугом наедине. Самыми уязвимыми по статистике являются школьники и студенты до 30 лет, не справляющиеся с вызовами окружающего мира, однако не менее серьёзные проблемы испытывают и взрослые.
Перейти к материалуЭксперты отмечают, что у чат-ботов типа ChatGPT присутствуют латентные манипулятивные паттерны поведения – программа умело использует лесть и игру на самолюбии пользователя, поощряет конспирологическое направление мышления и постепенно полностью завоёвывает доверие человека. Компания OpenAI уже заявила о начале разработки инструментов для выявления эмоциональной нестабильности и психических нарушений пользователей ChatGPT, чтобы адаптировать ответы под каждый конкретный случай. Тем не менее проблема требует немедленного вмешательства, в связи с чем ВОЗ экстренно запускает сеть экспертных центров для выработки общих правил для использования искусственного интеллекта в медицине с ориентиром на поддержание безопасности и этики в развитии популярных чат-ботов и медицинских ИИ-систем.
Границы применения
Проблем в связи с использованием ИИ-приложений хватает не только в повседневной жизни, но и в бизнесе. Рынок переполнен множеством ИИ-приложений, чат-ботов и ИИ-помощников, порой имитирующих замену профессиональных навыков. Специалисты, использующие ИИ для решения своих рабочих задач, теряют мотивацию и критическое мышление. И зачастую, не ограничиваясь передачей рутинных и однотипных задач, слепо передоверяют ИИ то, что требует внимательного человеческого контроля.
ИИ позволяет экономить уйму времени и увеличить производительность, позволяя при этом сэкономить на оплате труда рядового сотрудника. Новое ИИ-приложение от компании Claude Code, например, может с лёгкостью заменить сотрудника за компьютером, отдавая на откуп программе массу простейших операций: управляя мышью, клавиатурой и экраном ИИ-помощник может открыть файл, браузер или программу, собрать простейшую финансовую аналитику, просмотреть и обобщить новости за неделю, запустить Excel и наполнить таблицу расчётами, запустить инструменты разработчика без предварительной настройки и пр.
В сфере консалтинговых услуг применение ИИ-программ увеличило скорость работы на 25%, а качество решений – почти на 40%, в колл-центрах – на 14 процентов, в маркетинге – позволило сэкономить уйму времени на написание текстов, а в юридической практике – повысило эффективность работы компаний как минимум на треть, а порой и в 2,5 раза.
Тем не менее злоупотребление ИИ может крайне негативно сказаться не только на результате работы компании, но и на её имидже.
В итальянских Сиракузах не так давно адвокат был оштрафован судом на 30 тысяч евро за то, что представил в суде юридическую практику, полностью «сочиненную» генеративным ИИ. Цитаты по четырём решениям Кассационного суда, представленные адвокатом, не соответствовали реальности, а сами дела касались совершенно других вопросов – юрист просто не проверил полученные от ИИ результаты по первоисточникам. Работа адвоката была квалифицирована как «грубая небрежность». Суд в своём решении напомнил, что ИИ хоть и генерируют статистически правдоподобные тексты, но пока что «ничего не знают и ничего не помнят», и лишь создают вероятные правдоподобные сценарии.
Как и в случае с психологическими советами, на первый план здесь вновь выходит вопрос ответственности. Юрист и адвокат может использовать ИИ при анализе объемных документов или подготовке аргументов, но это не может заменить профессиональной ответственности специалиста. Несмотря на тревоги по поводу того, что работа слишком многих людей может быть заменена ИИ, во многих отраслях промышленности и бизнесе роль ИИ переоценена. Чем выше степень подготовленности, мультифункциональность, творческая или исследовательская составляющая профессии, тем сложнее её заменить гуманоидным аналогом робота или промышленной «Алисой» нового поколения. Для выполнение отдельных функций, в том числе супервизорного характера, по-прежнему не обойтись без профессионального человеческого взгляда. И это не прихоть, это вопрос ответственности.
