Ученые из Австралии и Бангладеш разработали новую ИИ-модель, которая может находить токсичные комментарии в социальных сетях с точностью 87%. Эта разработка направлена на борьбу с кибербуллингом и ненавистью в интернете.
В ходе исследования ученые протестировали три алгоритма машинного обучения на комментариях на английском и бенгальском языках из различных соцсетей. Оптимизированная версия модели продемонстрировала наивысшую точность – 87,6%, что значительно выше результатов других моделей, показавших 69,9% и 83,4%. Разработчики уверены, что их модель превосходит существующие, которые часто ошибаются и помечают безобидные сообщения как вредоносные.
По словам ведущего автора исследования Афии Ахсан, рост числа агрессивных комментариев в интернете приводит к серьезным психологическим последствиям, таким как тревожность и депрессия. Напомним, что почти 63% россиян сталкивались с оскорблениями в интернете, а каждый пятый делает это часто. Эти показатели возросли на 2 процентных пункта за последний год.
Исследование было представлено на Международной конференции по инновациям и интеллектуальным технологиям 2024 года. Разработчики заявляют, что планируют улучшить модель с помощью нейросетей и могут добавить поддержку дополнительных языков. Также ведутся переговоры с социальными платформами о внедрении технологии для автоматической фильтрации комментариев, что может значительно облегчить контроль за токсичным контентом в социальных сетях.