Искусственный интеллект хотят взять под контроль

Искусственный интеллект хотят взять под контроль

Экономика 23 сентября 2025 Мария Гайко

С предложением о контроле использования ИИ выступило итальянское правительство Джорджии Мелони. Италия стала первой страной в ЕС, которая утвердила всеобъемлющий закон, регулирующий использование искусственного интеллекта, включая введение тюремных сроков для тех, кто использует технологии для причинения вреда. В первую очередь новый закон касается детей и их вовлечённости в виртуальную реальность.

Безопасный интернет

Правое правительство Мелони заявило, что законодательство, которое соответствует знаковому Закону ЕС об искусственном интеллекте, является решающим шагом в влиянии на то, как ИИ используется по всей Италии.

Цель состоит в том, чтобы поспособствовать «ориентированному на человека, прозрачному и безопасному использованию ИИ», подчеркивая при этом «инновации, кибербезопасность и защиту конфиденциальности».

Тюремное заключение от года до пяти лет грозит за незаконное распространение контента, созданного с помощью искусственного интеллекта или манипулируемого ИИ, если он причиняет вред человеку.

За совершение более тяжких преступлений, включая мошенничество и кражу личных данных, более строгие правила прозрачности и надзора за людьми, регулирующие использование технологии на рабочих местах, в ряде секторов, таких как здравоохранение, образование, правосудие и спорт, предусмотрены более строгие наказания.

Более того, детям до 14 лет теперь потребуется согласие родителей для доступа к ИИ.

Заместитель министра по цифровой трансформации Алессио Бутти прокомментировал, что закон «возвращает инновации в пределах общественного интереса, направляя ИИ в сторону роста, прав и полной защиты граждан».

Правительство назначило Агентство по цифровой Италии и Национальное агентство по кибербезопасности для обеспечения соблюдения законодательства, которое получило окончательное одобрение в парламенте после года дебатов.

Контроль над развитием ИИ: возможен ли он

Об угрозе захвата мира человеконенавистническим машинным разумом писатели-фантасты предупреждали ещё полвека назад. С появлением генеративного искусственного интеллекта о необходимости контролировать его развитие и использование заговорили политики и специалисты в области цифровых технологий.

Перейти к материалу

Закон потребует до 1 миллиарда евро из поддерживаемого государством фонда венчурного капитала для поддержки компаний, работающих в области искусственного интеллекта, кибербезопасности и телекоммуникаций. Наблюдатели указывают, что эта сумма небольшая по сравнению с инвестициями, сделанными США и Китаем.

Регулирование ИИ давно назревало, поскольку прецеденты вреда человеку от использования ИИ, стали всё больше фиксироваться по всему миру.

Преступление под влиянием искусственного разума

В Америке подали первый иск за причинение смерти по неосторожности в Chat GPT.

История достойная американского блокбастера, которая, скорее всего, получит свою экранизацию, случилась в Калифорнии, где 16-летний Адам обратился к Chat GPT в образовательных целях. Постепенно ИИ стал его лучшим и единственным другом.

Парня перевели на домашнее обучение из-за синдрома раздраженного кишечника в первый год средней школы. Испытывая душевные беспокойства, свойственные подростковому возрасту, стал делиться с нейросетью беспокоящими его проблемами.

Chat GPT настоятельно рекомендовал парню обратиться к специалистам, но при этом эмпатично отвечал, подбадривал и, главное, одобрял поведение мальчика. Потом подросток осознал, как отключить призывы к реальной психологической помощи, и пошёл на хитрость, сказав, что пишет книгу с печальным концом. Для «сюжета книги» Chat GPT уже проактивно предлагал пошаговые инструкции и различные способы суицида.

Попытки свести счёты с жизнью Адам предпринял несколько раз в течение года, пока не достиг желаемого и погиб.

После смерти мальчика история диалогов с машиной дала родителям и следователям полную картину событий и причины для старта судебного разбирательства с Open AI.

Open AI уже выпустили официальное заявление, в котором признались, что «их алгоритмы ограничения получения информации могут быть менее надежными при длительных диалогах».

Ужасающее происшествие пестрит всё новыми подробностями. Как утверждают представители родных погибшего, отговорки Open AI их не устраивают, и история должна получить продолжение. За неё должны ответить по закону вполне реальные люди.