http://93.174.130.82/news/shownews.aspx?id=4720a2c9-b4b0-4a40-966b-8c25ad40da4c&print=1
© 2024 Российская академия наук
Сотрудники Санкт-Петербургского
федерального исследовательского центра Российской академии наук (СПб ФИЦ РАН)
разработали приложение, которое позволяет автоматически выявлять ботов,
участвующих в кибератаках. В основе нового подхода лежит изучение открытых
данных о развитии ботов по множеству параметров (метрик), анализ которых также
позволяет определить тип бота. Созданное приложение может использоваться
компаниями, которые используют соцсети в коммерческих целях, для выявления и
противодействия целенаправленным вредоносным воздействиям. Результаты
исследования опубликованы в международном журнале Social Network Analysis and Mining.
![1-2 (jpg, 538 Kб)](/FStorage/Download.aspx?id=5c2b2863-d8eb-45c9-8b7c-4713e1a415f3)
Международный центр цифровой
криминалистики СПб ФИЦ РАН.
Сегодня боты являются важным инструментом
для эффективного функционирования социальных сетей. Например, они вовлечены в
работу чатов поддержки пользователей или распространения рекламы, где они
способны заменить целую команду из реальных людей, автоматически распространяя
информацию.
Вместе с тем боты применяются и для
неэтичной деятельности, например, для накрутки рейтингов, написания ложных
положительных отзывов о товарах и распространения дезинформации. При этом
некоторые типы вредоносных ботов могут весьма успешно копировать поведение
настоящих людей и составлять убедительные текстовые сообщения, сделанные при
помощи нейронных сетей. Поэтому их крайне сложно распознать.
«Мы разработали приложение для выявления
ботов, которые сегодня, в частности, активно используются в конкурентной и
репутационной в цифровом пространстве. В основе разработки лежит нейросеть,
учитывающая более тысячи метрик, которые отличают ботов от живых людей. Причем
эти метрики связаны не столько с их текущей активностью, которую боты научились
хорошо имитировать, сколько с тем как они развиваются во времени», –
рассказывает ведущий научный сотрудник Лаборатории проблем компьютерной
безопасности СПб ФИЦ РАН Андрей Чечулин.
![2-2 (jpg, 213 Kб)](/FStorage/Download.aspx?id=5ee54527-1608-424a-889f-a373558a1e45)
Ведущий научный сотрудник Лаборатории
проблем компьютерной безопасности СПб ФИЦ РАН Андрей Чечулин.
Среди метрик, которые использовали ученые
для анализа потенциального бота – «возраст» аккаунта, описание профиля,
оригинальность фото и видео контента, характеристики и связи друзей с ним и
друг с другом и многие другие.
«Например, аккаунт пользователя может
существовать много лет, в то время как бот создается быстро и под конкретную
задачу. Как правило, у бота нет оригинальных фотографий. Аккаунт человека
последовательно развивается в соцсетях: учится, работает, женится, заводит
друзей. Динамика развития этих характеристик у бота иная, а количество друзей и
связи с ними носят более хаотичный порядок», – поясняет Андрей Чечулин.
Чтобы обучить нейросети распознавать ботов
ученые создали экспериментальные группы в соцсетях, в которые ввели специально
подготовленных ботов различных типов. Их эффективность варьировалась по
стоимости, особенностям функционирования, целям, скорости работы – от этих
факторов зависела способность бота успешно подражать реальным пользователям.
Собранные данные о характеристиках этих ботов были использованы для составления
метрик, по которым обучалась нейросеть.
«Результаты эксперимента, показали, что
новый подход действительно работает и позволяет извлекать метрики, необходимые
для более качественного выявления свойств целенаправленных воздействий в
социальных сетях и анализа эволюции вредоносных ботов. В перспективе наше
приложение может стать основой для перехода от простого обнаружения кибератаки
с помощью ботов к более глубокому анализу атакующего и его возможностей», –
рассказывает Андрей Чечулин.
Разработки поддержаны грантом РНФ (№18-71-10094).
Источник: СПб ФИЦ РАН.