Лидеры IT- индустрии и учёные поставили риск исчезновения человечества из-за ИИ в один ряд с эпидемиями и ядерной войной
Десятки лидеров индустрии искусственного интеллекта (ИИ), учёных и знаменитостей во вторник опубликовали заявление с призывом снизить риск глобального уничтожения человечества из-за слишком быстрого развития искусственного интеллекта.
«Снижение риска исчезновения из-за ИИ должно стать глобальным приоритетом наряду с другими рисками социального масштаба, такими как пандемии и ядерная война», — говорится в документе, опубликованном Центром безопасности ИИ.
Заявление было подписано ведущими представителями отрасли, в том числе генеральным директором OpenAI Сэмом Альтманом, так называемым «крёстным отцом» ИИ Джеффри Хинтоном, топ-менеджерами и исследователями из Google DeepMind и Anthropic, главным техническим директором Microsoft Кевином Скоттом и многими другими.
Кадр из фильма «Матрица»
Подписанты подчёркивают опасность неконтролируемого развития искусственного интеллекта.
Заявление последовало за вирусным успехом ChatGPT от OpenAI, который помог усилить гонку вооружений в технологической отрасли, а не развитие самой сферы искусственного интеллекта. В ответ растущее число законодателей, правозащитных групп и технических инсайдеров забили тревогу по поводу того, что новый урожай чат-ботов на базе ИИ может распространять дезинформацию и вытеснять рабочие места.