Новое исследование показало, что в онлайн-сообществах, посвященные ненависти к мужчинам, модели поведения и речевые обороты поразительно схожи с сообществами, посвященными ненависти к женщинам. Исследование предполагает, что разжигание ненависти по признаку пола является распространенным явлением, характерным для токсичных цифровых групп, независимо от пола жертвы. Результаты исследования опубликованы в журнале Scientific Reports.
Социальные сети позволяют людям по всему миру делиться идеями и взглядами в беспрецедентных масштабах. Хотя эти платформы могут способствовать формированию сообществ, они также создают среду, в которой могут распространяться дискриминация и экстремистские идеологии. Одним из неожиданных последствий стало формирование «эхо-камер».
Эхо-камера – это закрытая среда, в которой пользователи сталкиваются только с такой информацией или мнениями, которые отражают и подкрепляют их собственные.
Анонимность в интернете часто способствует формированию таких изолированных пространств. В таких камерах ненавистнические высказывания выступают в качестве механизма коммуникации, который выражает идеологию с использованием оскорбительных стереотипов. Язык вражды направлен против людей по таким признакам, как этническая принадлежность, религия или пол. Гендерно-ориентированный язык вражды – это травля или унижение людей исключительно на основании их пола.
Исторически сложилось так, что исследователи и модераторы контента уделяли большое внимание мизогинии, то есть ненависти или предвзятому отношению к женщинам. Обычный поиск в академических базах данных выявляет сотни тысяч статей, посвященных мизогинии в интернете. за последние два десятилетия. В отличие от этого, академическое внимание к мизандрии, определяемой как ненависть или предвзятое отношение к мужчинам, остается крайне скудным. Исследования, посвященные мизандрии, начали появляться только в 2014 году, оставляя огромные пробелы в научном понимании цифрового домогательства.
Эрика Копполилло, исследовательница из Университета Калабрии и Национального исследовательского совета Италии, инициировала проект по устранению этого пробела в литературе. Копполилло попыталась определить, существуют ли систематические различия между сообществами, ориентированными на мужчин, и сообществами, ориентированными на женщин. Цель состояла в том, чтобы выяснить, влияет ли агрессоров на характер враждебности. Если поведение остается неизменным, это говорит о том, что основной проблемой является токсичность экстремистской онлайн-среды, а не конкретная гендерная динамика.
Для изучения этих вопросов исследование было сосредоточено на Reddit. Эта платформа состоит из тысяч отдельных сообществ, известных как субреддиты, посвященных определенным темам.
Пользователи взаимодействуют, делясь публикациями и комментируя темы, создавая плотные сети общения. Исследователь выбрал четыре субреддита, известных своими экстремистскими взглядами на гендер, в качестве основы для анализа текста.
Две из этих групп были выбраны в качестве примеров мужененавистнических или мизандрических сообществ. Первая – популярный феминистский сабреддит, где обсуждались проблемы женщин, а вторая – радикальный феминистский сабреддит. Последний был заблокирован платформой в 2020 году за разжигание ненависти. В качестве примеров женоненавистнической или мизагонической стороны и, исследовательница выбрала субреддит по защите прав мужчин и группу, посвященную принудительному целибату. Сообщество, посвященное недобровольному целибату, также в конечном итоге было запрещено за пропаганду ненависти и насилия.
В качестве первичных данных использовались текстовые сообщения и комментарии, созданные в период с 2016 по 2022 год.Чтобы обеспечить строгую гендерную направленность анализа, был применен жесткий процесс фильтрации. В группах, исповедующих мизандрию, были отобраны только тексты, содержащие такие термины, как «муж», «мужчины» или «муж». В мизогинических группах в текстах должны были использоваться такие слова, как «женщина», «женщины» или «жена».
Анализ начался с лингвистического сравнения, чтобы определить, какие слова чаще всего используются в этих разговорах. Компьютерный инструмент, предназначенный для обработки человеческого языка, очистил текст, удалив знаки препинания и цифры. Затем исследовательница изучила двадцать наиболее часто употребляемых слов в каждом сообществе. Результаты показали, что наиболее распространенные термины встречались с одинаковой частотой во всех четырех группах.
Не было четких лингвистических границ, разделяющих группы, ориентированные на мужчин, и группы, ориентированные на женщин.
Затем в ходе исследования была измерена токсичность контента, чтобы определить, насколько агрессивными были эти обсуждения. Токсичность относится к тому, насколько грубым, неуважительным или вызывающим ненависть кажется читателю тот или иной комментарий. Для оценки текста исследовательница использовала передовую систему искусственного интеллекта, известную как трансформер.
Трансформер – это модель глубокого обучения, которая понимает контекст слова на основе структуры предложения, в котором оно находится. Эта конкретная модель была обучена на десятках тысяч интернет-постов с комментариями, сделанными вручную, чтобы изучить нюансы разжигания ненависти. Она присваивала каждому сообщению и комментарию оценку токсичности по шкале от совершенно безобидной до крайне токсичной.
Результаты анализа токсичности показали, что большая часть контента во всех четырех сообществах была оценена как нетоксичная. Почти во всех сообществах наблюдалась двойственная картина: больший пик указывал на безвредный текст, а меньший – на высокотоксичный. В двух женоненавистнических сообществах наблюдался несколько более высокий пик крайней токсичности по сравнению с мужененавистническими группами. Тем не менее, общие закономерности распределения токсичности были удивительно схожими.
На третьем этапе исследования оценивались конкретные эмоции, выраженные в текстах. Исследовательница использовала два разных алгоритма машинного обучения, способных распознавать такие эмоции, как печаль, радость, страх и гнев. В рамках этого анализа основное внимание уделялось исключительно негативным эмоциям. Алгоритмы анализировали каждый фрагмент текста, чтобы определить, какая эмоция доминирует: грусть, гнев, страх или ненависть.
При анализе эмоций на уровне общего содержания все четыре сообщества чаще всего выражали ненависть. На втором месте по распространенности была эмоция гнева.
Группа по защите прав мужчин и мейнстримная феминистская группа демонстрировали невероятно схожие эмоциональные паттерны. Группа, вынужденно соблюдающая целибат, немного больше склонялась к грусти, в то время как радикальная феминистская группа немного больше склонялась к страху.
И снова результаты не выявили существенных различий между двумя сторонами. Исследовательница также решила оценить одни и те же эмоции на уровне отдельных пользователей. Вместо того, чтобы просматривать несвязанные посты, алгоритмы вычислили доминирующую эмоцию, которую выражал каждый отдельный пользователь на протяжении всей своей активности в сети. При таком взгляде картина резко менялась.
В мейнстримном феминистском сообществе наблюдался самый высокий уровень ненависти, исходящей от пользователей, за ним следовали радикальное феминистское сообщество и группа по защите прав мужчин. Такой сдвиг в точке зрения позволяет предположить,что в мизандрических сообществах среди активно публикующих пользователей может быть больше негативных настроений, чем в мизогинистских. Наконец, в исследовании были построены карты сетей общения внутри каждого сабреддита. Исследовательница построила визуальные графики, на которых каждый пользователь был точкой, а взаимодействие между двумя пользователями – соединительной линией.
Это позволило исследовательнице измерить структурные свойства каждой сети сообществ. Одним из измеряемых свойств была модульность, которая определяет, насколько сильно сеть делится на более мелкие изолированные подсообщества.
Другим структурным свойством был диаметр сети, который представляет собой самую длинную цепочку связей между двумя пользователями.
Сетевые структуры не соответствовали гендерной направленности субреддитов. Мейнстримная феминистская группа имела больше общих структурных черт, таких как высокая модульность и широкий диаметр, с группой, выступающей за права мужчин. В отличие от этого, диалоговая сеть сообщества, посвященного недобровольному целибату, больше напоминала радикальную феминистскую сеть. Структурный анализ подтвердил, что предполагаемое направление разжигания ненависти не определяет, как организуется онлайн-сообщество.
Эти результаты показывают, что стратегии модерации контента должны нейтрально реагировать на все проявления ненависти. Признание мизандрической враждебности как серьезной проблемы может привести к созданию более безопасного цифрового пространства для всех. Если относиться к мизогинии и мизандрии одинаково серьезно, это подтолкнет платформы к универсальным мерам по пресечению токсичного поведения.
Однако исследование опирается на данные, собранные с открытой интернет-платформы, которые неизбежно содержат помехи и ошибки форматирования. Реальные социальные данные редко бывают идеально чистыми, что может повлиять на автоматизированную оценку. Исследование также в значительной степени опирается на алгоритмы искусственного интеллекта для оценки токсичности и эмоций. Хотя эти компьютерные модели отличаются высокой точностью, они не безупречны.
Эти модели иногда неправильно классифицируют интернет-сленг или сарказм, что может внести некоторую неопределенность в результаты.
Полученные данные также специфичны для анализируемых сообществ Reddit. Динамика контента на других платформах или видеохостингах может дать совершенно другие результаты.
В ходе будущих исследований можно было бы выяснить, способствуют ли аккаунты, созданные искусственными ботами, распространению негатива на этих конкретных форумах. Исследователи также могли бы заняться поиском сильно радикализированных группировок, скрытых в более широких интернет-сообществах.
в Telegram, ВКонтакте или в MAX
Помощь психолога
Психолог в интернете Новости наук о человеке и психологическая помощь. Сайт психолога Андрея Гаврилова.