Новости
30 мая 2023, 17:26 Лидия Крылова

Лидеры IT- индустрии и учёные поставили риск исчезновения человечества из-за ИИ в один ряд с эпидемиями и ядерной войной

Десятки лидеров индустрии искусственного интеллекта (ИИ), учёных и знаменитостей во вторник опубликовали заявление с призывом снизить риск глобального уничтожения человечества из-за слишком быстрого развития искусственного интеллекта.

«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», — говорится в документе, опубликованном Центром безопасности ИИ.

Заявление было подписано ведущими представителями отрасли, в том числе генеральным директором OpenAI Сэмом Альтманом, так называемым «крёстным отцом» ИИ Джеффри Хинтоном, топ-менеджерами и исследователями из Google DeepMind и Anthropic, главным техническим директором Microsoft Кевином Скоттом и многими другими.

Кадр из фильма «Матрица»

Подписанты подчёркивают опасность неконтролируемого развития искусственного интеллекта.

Заявление последовало за вирусным успехом ChatGPT от OpenAI, который помог усилить гонку вооружений в технологической отрасли, а не развитие самой сферы искусственного интеллекта. В ответ растущее число законодателей, правозащитных групп и технических инсайдеров забили тревогу по поводу того, что новый урожай чат-ботов на базе ИИ может распространять дезинформацию и вытеснять рабочие места.