Нейросеть определяет ботов независимо от языка, на котором создаются посты и комментарии.
Сотрудники Санкт-Петербургского федерального центра Российской академии наук обучили ИИ выявлять группы вредоносных ботов в соцсетях. Подобные боты используются для накрутки рейтингов, распространения рекламы, написания ложных отзывов и распространения дезинформации.
«Проблема в том, что в мире существует большое количество соцсетей, все они отличаются друг от друга и содержат информацию на разных языках. Однако мы разработали прототип системы для контроля над групповой деятельностью ботов на основе анализа общих входных данных о самих ботах, который не зависит от языка общения и структуры соцсетей», - говорит Андрей Чечулин, сотрудник РАН.
Для создания базы специалисты проанализировали поведение аккаунтов. Оценивали неявные социальные связи между аккаунтами для создания модели искусственного интеллекта. Анализировали активность в социальных сетях и то, как боты взаимодействуют с живыми людьми и другими ботами.
«Для обучения нейросети мы создали специальные группы в социальных сетях, в которые ввели ботов, причем разного качества — и простых, и тех, которые могут хорошо маскироваться под реальных пользователей. После проведения анализа мы оценивали, насколько наши методы правильно определяют ботов и справляются с их маскировкой. Проведенные эксперименты показали, что наши подходы могут обнаруживать даже замаскированных ботов», — считает Андрей Чечулин.
Чечулин также привёл пример, как можно использовать созданный искусственный интеллект.
«Например, мы смотрим аккаунт в соцсети какого-нибудь ресторана, а там масса негативных комментариев. Мы можем выявить, боты их оставили или реальные люди. Если боты, то ресторан поймет, что на него ведется атака. Кроме того, мы можем определить качество и возможности ботов и понять, сколько денег было вложено в эту атаку. Исходя из этих данных, бизнесу будет проще принять меры, чтобы эффективно ответить на эту атаку», — заключил он.