Рейтинг@Mail.ru
"Искусственный интеллект как террорист": новые угрозы безопасности - РИА Новости, 19.06.2019
Регистрация пройдена успешно!
Пожалуйста, перейдите по ссылке из письма, отправленного на
Супертег Наука 2021январь
Наука

"Искусственный интеллект как террорист": новые угрозы безопасности

© Depositphotos.com / agsandrewИскусственный интеллект
Искусственный интеллект
Читать ria.ru в
Российские ученые рассмотрели и классифицировали угрозы использования искусственного интеллекта (ИИ) с точки зрения международной информационно-психологической безопасности. Особое внимание было уделено противодействию злонамеренному использованию ИИ террористами. Результаты исследования опубликованы в журнале Russia in Global Affairs.
Опасность злонамеренного использования ИИ
Потенциальная опасность искусственного интеллекта для человечества не раз становилась темой художественных произведений и сегодня входит в число самых обсуждаемых вопросов научно-технического развития. Хотя "Сильный ИИ", способный к самостоятельному системному мышлению, и, возможно, обладающий самосознанием и волей, еще далеко не создан, различные продвинутые версии "Слабого ИИ" выполняют специализированные задачи, казавшиеся фантастикой еще 10 лет назад. Использование ИИ в благих целях (например, в медицине) уже приносит несомненную пользу. Однако в руках террористических и иных преступных организаций постепенно дешевеющие и все более совершенные технологии ИИ могут стать более страшным оружием, чем ядерное.
Искусственный интеллект можно вырастить, считает эксперт
Эмоциональный ИИ сможет сказать: "У меня нет настроения работать"
Исследователи разных стран активно изучают угрозы, которые злонамеренное использование ИИ представляет для общества в целом и отдельных сфер человеческой деятельности, будь это политика, экономика, военное дело и др. Однако угрозы непосредственно для международной информационно-психологической безопасности до сих пор не были выделены в самостоятельную область рассмотрения. Между тем использование ИИ для дестабилизации международных отношений путем целевого высокотехнологичного информационно-психологического воздействия на людей представляет очевидную большую опасность.
Авторы исследования предложили классификацию угроз злонамеренного использования искусственного интеллекта на основе ряда критериев, включающих территориальный охват, скорость и форму распространения. Применение классификации поможет найти способы противодействия и разработать инструменты ответа.
"Будущее удешевление технологий ИИ может создать угрозы принципиально новых терактов. Не исключено использование чат-бота для того, чтобы сконструировать сообщение о подложном мероприятии и убедить потенциальных жертв его посетить. В целях противодействия целесообразно ознакомление общества с новыми угрозами, предписание гражданам с осторожностью относиться к дистанционным контактам с людьми, с которыми они не знакомы лично. Выходом могла бы стать сертификация общественных мероприятий, подтверждающая реальность размещаемой о них информации. Конечно, задачей технических специалистов станет в таком случае защита баз данных о мероприятиях и механизма их сертификации", - рассказала РИА Новости профессор кафедры международной безопасности и внешнеполитической деятельности России РАНХиГС Дарья Базаркина.
Современный уровень технологий и возможностей ИИ позволяет выделить ряд принципиально новых угроз информационно-психологической безопасности человека.
Использование технологий "фальшивых людей" и "deepfake" для международных провокаций
Американская технологическая компания NVIDIA недавно поделилась результатами работы генеративно-конкурентной сетью, обученной генерировать самостоятельно изображения людей ("fakе people"). Нейросеть за секунды создает в большом разрешении изображения лиц несуществующих людей, может добавлять любые культурные и этнические особенности, эмоции, настроение и основана на бесконечной коллекции изображений реальных лиц. В будущем не исключено повторение этого опыта другими разработчиками. При этом преступниками такие изображения могут использоваться для разного рода провокаций, распознать которые может только общество, обладающее системными политехническими знаниями.
"Технология "deepfake" может синтезировать изображение и голос человека. Ее уже начали использовать для создания видеоизображений мировых лидеров, в том числе, президента США Дональда Трампа и президента России Владимира Путина. Ролики deepfake способны манипулировать поведением больших целевых групп и могут быть использованы в информационно-психологическом противоборстве (ИПП) с целью спровоцировать финансовую панику или войну", – рассказал РИА Новости ведущий научный сотрудник Института актуальных международных проблем Дипломатической академии МИД РФ, профессор МГУ Евгений Пашенцев.
Так художник представил себе работу искусственного интеллекта на базе нейронной сети
Искусственный разум: чего ждать людям от умного железа
Анализ тональности – класс методов контент-анализа в компьютерной лингвистике, предназначенный для автоматизированного выявления в текстах эмоционально окрашенной лексики и эмоциональной оценки авторов. Анализ тональности обеспечивается широкой совокупностью источников, таких как блоги, статьи, форумы, опросы и т. д. Это может быть очень эффективным инструментом в ИПП, что, например, подтверждается высоким интересом к подобным разработкам в настоящее время со стороны руководства Командования специальных операций США (The United States Special Operations Command (SOCOM).
"Прогностическое оружие": предсказание поведения людей на основе данных соцсетей
В 2012 году в США "Агентством передовых исследований в сфере разведки" (IARPA) была запущена программа "Распознавание событий на основе ранних моделей с использованием суррогатов" (EMBERS). Целью разработки названо прогнозирование гражданских беспорядков на основе использования ИИ с определением даты, места, протестующей группы населения.
Система обрабатывает данные СМИ и социальных сетей, а также источники более высокого качества, например, экономические показатели. Попадание подобных программ в руки террористов, конечно, тоже крайне опасно. В этом случае вероятной угрозой может стать проведение крупных терактов во время наиболее масштабных социальных выступлений. Дополнительным критерием выбора целей теракта может стать степень социальной и психологической напряженности в тех или иных районах.
По мнению авторов исследования, в качестве меры противодействия прогнозную аналитику могут использовать сами государственные и наднациональные органы для предотвращения социальной напряженности (своевременного принятия социальных, экономических и политических мер, направленных на достижение стабильности в долгосрочной перспективе).
Кроме того, террористические группы могут наносить репутационный ущерб путем использования ботов во время политических кампаний, а также для привлечения новых сторонников или организации убийств политиков.
Захват беспилотников и роботизированных объектов инфраструктуры
Самообучающиеся транспортные системы с управлением на основе ИИ могут быть удобными объектами для высокотехнологичных террористических атак. Захват террористами контроля над системой управления транспортом в большом городе может привести к многочисленным жертвам, вызвать панику и создать психологический климат, который облегчит проведение других преступных действий.
Коммерческие системы могут использоваться для развертывания беспилотных летательных аппаратов или автономных транспортных средств с целью доставки взрывчатых веществ и создания аварий. Серия крупных бедствий способна вызвать ажиотаж в международных СМИ и нанести значительный ущерб информационно-психологической безопасности.
Роботы среди людей: что они делают и как их распознать
Роботы среди людей: что они делают и как их распознать
Исследователи из РАНХиГС и Дипломатической академии МИД РФ заложили в основу своего исследования системный анализ роли ИИ в сфере безопасности, метод сценарного анализа, исторические аналогии и кейс-анализ. Вместе с коллегой из Университета Упсалы (Швеция) Грегом Саймонсом авторы исследования стали соредакторами готовящейся к изданию книги "Терроризм и передовые технологии в информационно-психологическом противоборстве: новые риски, новые возможности противодействия террористической угрозе" с участием исследователей из 11 стран.
По инициативе российских исследователей проблема роли ИИ в контексте угроз международной информационно-психологической безопасности активно обсуждается и будет обсуждаться на международных конференциях и автономных международных исследовательских семинарах. Среди них – прошедшая конференция под эгидой Комиссии РФ по делам ЮНЕСКО и ряда других российских и международных структур в Ханты-Мансийске 9 – 12 июня. В заседании секции по проблеме злонамеренного использования ИИ, сформированной при поддержке Европейско-российской экспертной сети коммуникационного менеджмента (ЕРЭСКМ), приняла активное участие губернатор Ханты-Мансийского автономного округа Наталья Владимировна Комарова. В будущем это IV Ибероамериканский Форум в Санкт-Петербурге 1 – 3 октября 2019 г., Европейская конференция по влиянию искусственного интеллекта и робототехники 31 октября – 1 ноября 2019 года. Авторы исследований выступали с научными докладами в Аргентине, Уругвае, Бразилии, ЮАР и Италии.
По мнению специалистов РАНХиГС и Дипломатической академии, в масштабах России крайне важно наладить формирование долгосрочных целевых программ, так как проблема ИИ и международной информационно-психологической безопасности – это проблема ближайшего будущего.
 
 
 
Лента новостей
0
Сначала новыеСначала старые
loader
Онлайн
Заголовок открываемого материала
Чтобы участвовать в дискуссии,
авторизуйтесь или зарегистрируйтесь
loader
Обсуждения
Заголовок открываемого материала