Для тех,
кто не делает
поспешных выводов

Сексизм голосовых колонок. Когда роботы начнут делать себе операции по перемене пола

Воскресенье, 9 Февраля 2020, 16:00
Голосовые помощники в смартфонах, "умные колонки" в домах, - неожиданно эти плоды технического прогресса стали объектом для атак со стороны защитников разного рода меньшинств
Фото из открытых источников

Фото из открытых источников

На днях интернет-компания Mail.ru Group впервые показала собственную умную колонку с голосовым помощником "Маруся" - виртуальной женщиной-помощницей. И, возможно, тем самым допустила большую ошибку: теперь компанию могут обвинить в сексизме и пропаганде эксплуатации женщин.

Если кто-то все еще сомневается, что мир сошел с ума, ему стоит почитать Вышедший еще в прошлом году отчет ООН, который указывает, что "цифровые голосовые помощники с женскими голосами усиливают гендерные предубеждения, поскольку их пользователи начинают относиться к женщинам как к обслуживающему персоналу. Иначе говоря, такие колонки закрепляют и усиливают якобы бытующий в обществе стереотип о том, что роль женщины - выполнять распоряжения мужчины.

Женские голоса и даже целые виртуальные женские личности, которые применяются в качестве голосовых помощников с искусственным интеллектом, усиливают впечатление, что женщины должны работать помощниками, и при этом быть послушными, как рабыни. Так считают активистки многочисленных организаций по защите прав меньшинств, а с их подачи теперь - и чиновники ООН. Критики нынешнего положения вещей уверены, что IT-компании не смогли (или, скорее, не захотели) принять защитные меры против оскорбительных или сексистских высказываний пользователей.

"Технология всегда отражает общество, в котором она развивается, - комментирует исследование Сание Гюльзер Корат, директор ЮНЕСКО по вопросам гендерного равенства. - Мы устанавливаем послушные и покорные технологии, притворяющиеся женщинами, в наших домах, машинах и офисах. Их запрограммированная подчиненность влияет на то, как люди разговаривают с женскими голосами, и определяет модели поведения женщин во время реагирования на просьбы и выражения своих мнений".

Она уверена, что современные технологии усиливают гендерные стереотипы и с этим надо что-то делать, поскольку IT-компании не заинтересованы в создании "гендерно нейтральных" голосовых помощников.

В ООН обеспокоены тем, что голосовые помощники уже прочно заняли позиции в нашей жизни и в будущем станут неотъемлемой частью интерфейса многих приложений. Общение с Siri, Alexa, Cortana, Google Assistant или Алисой все чаще заменяет многим из нас общение с живыми людьми.

Эксперты ЮНЕСКО утверждают, что причина доминирования женских голосов - в гендерно-ролевом дисбалансе в технических группах, ведущих разработку передовых технологий. Почему, например, у Siri женский голос? Потому что роль секретаря по умолчанию многими воспринимается как женская роль. На одной из первых презентаций разработчики, демонстрирующие возможности голосового приложения, давали Siri такие же команды, как и секретарше: заказать билеты и цветы, назначить встречу у дантиста.

Теперь разного рода активистки требуют замены уже существующих голосовых помощников на "гендерно-нейтральных" - чтобы не создавалось ложного впечатления, будто женщины "подчинены и терпимы к плохому обращению". Более того, несколько групп разработчиков уже создали голосовые помощники с различными гендерными и расовыми идентичностями. Появился и бесполый Meet Q - специально для людей, не определившихся со своей половой принадлежностью. Вот только на рынке все они пока не пользуются популярностью.

Психологи при этом на стороне производителей классических голосовых помощников. Они говорят: дело не в стереотипных представлениях о профессиях (мало у кого из нас есть личный секретарь), а в привычных гендерных ролях: женщины кажутся нам более внимательными, отзывчивыми и компетентными, а это то, что требуется от голосового помощника. Многочисленные исследования также подтверждают, что женский голос вызывает теплые ассоциации, чувство уюта и защищенности.

Однако теперь уже на уровне ООН IT-компаниям рекомендуется "уделять особое внимание воздействию гендерных предрассудков, закодированных в распространенных приложениях, использующих искусственный интеллект". В числе других рекомендаций - программировать цифровых помощников возражать в ответ на оскорбительные выражения по признаку пола, требовать, чтобы операторы голосовых помощников на базе ИИ с самого начала взаимодействия с пользователями объясняли, что эта технология не является человеческим существом, поощрять обучение женщин и девочек передовым техническим навыкам с целью создания новых технологий женщинами.

Очевидно, "умные колонки" с мужскими или бесполыми голосами скоро встанут в один ряд с такими, например, игрушками, как кукла Барби в инвалидном кресле, лысая кукла, кукла с пигментацией кожи (витилиго), Барби с протезом руки. Политкорректность на марше.

Больше новостей о технологиях и научных разработках читайте в рубрике Техно