После трагедии в Перми власти намерены радикально пересмотреть школьный и вузовский курсы, посвящённые безопасности жизнедеятельности. Интерес представляет и предполагаемое создание программного обеспечения (ПО), позволяющего выявлять проблемных учащихся на основе анализа их письменных работ. По сути, речь идёт об использовании возможностей искусственного интеллекта (ИИ). Работы в этом направлении уже ведутся. В Петербурге создан программный комплекс для защиты детей в интернете. Приложение использует технологии ИИ, которые анализируют контент соцсетей, позволяя выявить участников «групп смерти» или подростков с суицидальными наклонностями. «Октагон» разбирался в международной практике.
От подлодок до детских садов
Группа американских учёных из Университета Западной Вирджинии в августе 2018 года опубликовала исследование под названием «Выявление незаконных наркоторговцев в Instagram с помощью крупномасштабного мультимодального синтеза данных» (Identifying Illicit Drug Dealers on Instagram with Large-scale Multimodal Data Fusion). Созданная ими система машинного обучения изучает посты и фотографии в этой популярной соцсети, идентифицируя среди них те, что принадлежат драгдилерам.
Точность определения запрещённого контента достигает 95 процентов.
Этим летом Северное командование Вооружённых сил США (United States Northern Command, NORTHCOM) закончило серию испытаний в рамках проекта, который называется «Эксперименты по глобальному информационному доминированию» (Global Information Dominance Experiments, GIDE). В систему GIDE интегрированы алгоритмы ИИ, облачные вычисления и данные, полученные со спутников. Она позволяет Пентагону прогнозировать возможное развитие событий на несколько дней вперёд. К примеру, если орбитальный аппарат увидит, что подводная лодка потенциального противника готовится выйти из порта, то машинный разум за считанные секунды проанализирует поступившую информацию и даст необходимые рекомендации, тогда как раньше военные аналитики тратили на это несколько часов или даже суток.
Подведомственный Роскомнадзору Главный радиочастотный центр разместил заказ на разработку системы, задачей которой будет поиск запрещённого контента в Глобальной сети.Фото: Charles Deluvio
Взаимодействием с широким сообществом специалистов занимается Центр интеграции искусственного интеллекта (Artificial Intelligence Integration Center, AI2C), входящий в структуру Вооружённых сил США. Его исследования сосредоточены на четырёх основных направлениях: разведывательной поддержке (дальние точные выстрелы), автоматизированном распознавании угроз (боевая машина следующего поколения), управлении человеческими ресурсами (человеческий капитал) и предиктивном (ускоренном) техническом обслуживании армейского транспорта. Но не только глобальные цели интересуют американских военных. В частности, инженерные войска США (U.S. Army Corps of Engineers) объявили тендер на поставку систем распознавания лиц с использованием ИИ, которые должны обезопасить воспитанников детских садов.
В России одним из безусловных лидеров в области применения машинного интеллекта является Роскомнадзор (РКН).
Подведомственный ему Главный радиочастотный центр 15 сентября разместил на сайте госзакупок заказ на разработку системы «Окулус», задачей которой будет поиск запрещённого контента – публичных призывов к беспорядкам и экстремистской деятельности, распространения детской порнографии, пропаганды наркотиков и суицидов — в Глобальной сети. Конкуренцию РКН в этом отношении может составить разве что мэрия Москвы, известная своей программой «Безопасный город».
Ошибки машинного разума
Но не везде подобные эксперименты с ИИ встречают одобрение. В июне Европейский совет по защите данных и Европейская инспекция по защите данных призвали руководство Евросоюза запретить использование нейронных сетей в целях распознавания лица, походки, отпечатков пальцев человека. Кроме того, европейские регуляторы также считают, что под запрет должна попасть идентификация этнического происхождения, пола, политической и сексуальной ориентации людей. Поскольку такая слежка может привести к дискриминации различных групп населения и исчезновению анонимности.
Уже в сентябре Верховный комиссар по правам человека ООН Мишель Бачелет предложила «в срочном порядке ввести мораторий на продажу и использование систем искусственного интеллекта, которые ведут к серьёзным нарушениям прав человека». Впрочем, хорошо понимая, что её призыв вряд ли будет услышан властями ведущих государств, она «настоятельно рекомендовала отказаться хотя бы на время от технологий слежки в общественных местах и программ, анализирующих поведение людей».
Верховный комиссар по правам человека ООН Мишель Бачелет настоятельно рекомендовала отказаться хотя бы на время от технологий слежки в общественных местах.Фото: Lucid Waters
Опасения критиков всевозможных интеллектуальных систем распознавания людей не кажутся напрасными, потому что уже существует немало способов, которые позволяют обмануть машинный разум. Учёные Университета Пердью (США) провели любопытный опыт. Методика, получившая название «Оптическая атака противника» (Optical Adversarial Attack), состоит в следующем. В ходе эксперимента исследователи спроецировали заранее созданный шаблон на дорожный знак STOP, заставив алгоритм идентификации изображений вместо него увидеть всего лишь предупреждение об ограничении скорости. Американские специалисты утверждают, что этот подход сработает и в случае с военными беспилотниками и системами распознавания лиц, что свидетельствует об их ненадёжности, а следовательно, потенциальной опасности для людей.
Однако, скорее всего, обуздать амбиции ведущих государств мира будет совсем непросто. Слишком уж высоки ставки в этой глобальной игре, всё больше напоминающей гонку вооружений XX века.