Результаты тематического моделирования имеют гендерную предвзятость?Python

Программы на Python
Ответить
Anonymous
 Результаты тематического моделирования имеют гендерную предвзятость?

Сообщение Anonymous »

У кого-нибудь была такая проблема?
Похоже, что мое тематическое моделирование дает ответы, в которых преобладают респонденты-мужчины.
Объем ответов на три разных вопроса в каждом случае превышает 800, и в наборе данных нет ничего, что каким-либо образом маркировало бы ответы.
По сути, это просто открытые текстовые предложения и одна переменная. обрабатывается каждый раз.
Но когда я прослеживаю цитату до первоначального респондента, в 75 % случаев по всем трем различным вопросам респондентами были мужчины.
Кто-нибудь понимает, что происходит? или как я мог бы запросить данные на предмет чего-то еще, что могло бы связать каждый ответ? Я вручную проверил пунктуацию, заглавные буквы, ссылку на себя («я делаю это...») и длину предложения, но ничего не осталось очевидным.
Помогите, пожалуйста?
Я вручную проверил пунктуацию, использование заглавных букв, ссылку на себя («я делаю это...») и длину предложения, но ничего очевидного.
#ОБНОВЛЕНИЕ:
Похоже, что мои результаты включают только ответы длиной 15 слов или больше. Гендерное разделение внутри этой подгруппы (50:50) по-прежнему не соответствует искаженному гендерному результату в. модели (75:25 в сторону мужчин)

Подробнее здесь: https://stackoverflow.com/questions/791 ... der-biased
Ответить

Быстрый ответ

Изменение регистра текста: 
Смайлики
:) :( :oops: :roll: :wink: :muza: :clever: :sorry: :angel: :read: *x)
Ещё смайлики…
   
К этому ответу прикреплено по крайней мере одно вложение.

Если вы не хотите добавлять вложения, оставьте поля пустыми.

Максимально разрешённый размер вложения: 15 МБ.

Вернуться в «Python»