Новости
17 октября 2023, 10:06 O!News

Чат-боты с ИИ могут помочь в планировании атак с применением биооружия

Специалисты протестировали несколько больших языковых моделей (LLM) и выяснили, что они «могут помочь в планировании и осуществлении биологической атаки», пишет The Guardian со ссылкой на доклад корпорации Rand.

В документе отмечается, что предыдущие попытки создания оружия из биологических агентов потерпели неудачи, но ИИ может «быстро устранить такие пробелы в знаниях». Какие именно LLM были протестированы, не уточняется.

Биооружие входит в число серьёзных угроз, связанных с ИИ. В июле гендиректор компании Anthropic Дарио Амодей заявлял, что через несколько лет системы ИИ могут помочь в создании подобного оружия. LLM обучаются на огромных массивах данных, полученных из интернета, и являются основной технологией, лежащей в основе таких чат-ботов, как ChatGPT.

Исследователи из Rand считают, что компании, которые занимаются разработкой ИИ, должны ограничить открытость LLM для разговоров, подобных тем, что приведены в докладе. Напомним, ставку на ИИ делают Пентагон, ЦРУ, силы обороны Израиля и японская полиция.

Экс-исследователь OpenAI выразил мнение, что разработка ИИ может окончиться гибелью для человечества с вероятностью 50 процентов.