Несмотря на прогресс в области ИИ, создание эффективных автоматизированных систем для модерации враждебного контента в сети остается чрезвычайно сложной задачей из-за нюансов языка и изобретательности злоумышленников. Основная трудность для ИИ заключается в понимании контекста. Алгоритмы легко справляются с явными оскорблениями, но пасуют перед сарказмом, иронией или кодовыми словами, которые люди используют для маскировки ненависти. То, что является оскорблением в одном контексте, может быть безобидной шуткой в другом, и ИИ часто не хватает культурного и ситуативного понимания, чтобы провести это различие. Другой серьезной проблемой является постоянная "гонка вооружений" между модераторами и теми, кто распространяет ненависть. Как только ИИ-фильтры учатся распознавать определенные слова или фразы, злоумышленники придумывают новые способы их скрыть: используют преднамеренные опечатки, символы или создают новые эвфемизмы. Это требует от разработчиков непрерывного обновления и переобучения моделей. Эксперты сходятся во мнении, что полностью автоматизированная модерация в ближайшем будущем невозможна. Наиболее эффективным подходом является гибридная модель, в которой ИИ выступает в роли первой линии обороны, отсеивая самый очевидный негатив, а сложные и неоднозначные случаи передаются на рассмотрение команде модераторов-людей, обладающих необходимым контекстуальным пониманием.