Для тех,
кто не делает
поспешных выводов

Восстание машин близко. Зачем роботу Софии грудь

Суббота, 13 Октября 2018, 14:00
Смогут ли машины, обретя полноценный интеллект, истребить человеческий род?

Робот София на пресс-конференции в Киеве. Фото: Getty Images

Сразу две новости, героями которых стали два искусственных интеллекта, порадовали нас в эти дни. При этом между ними обнаружилась нежданная взаимосвязь.

Первой новостью стала информация о том, что специалисты по автоматическому обучению Amazon.com Inc были вынуждены приостановить использование искусственного интеллекта (ИИ) в процессе подбора персонала. Обнаружилось, что нейросеть, которую они отлаживали и обучали с 2014 г. и которая, анализируя резюме, должна была отбирать подходящих, высокоодаренных кандидатов для дальнейшего собеседования с рекрутером-человеком, рекомендовала на некоторые позиции исключительно мужчин.

Поначалу в Amazon попытались скрыть этот факт и провести с ИИ необходимую работу, не вынося сор из избы. Но информация каким-то образом просочилась в прессу, и в итоге электронного сексиста отключили от розетки, а бригаду разработчиков распустили. Случилось это еще в начале прошлого года, однако история стала широко известна только сейчас.

История, надо отметить, вызывает грусть. Ведь если допустить, что отключенный ИИ был не калькулятором-переростком, а действительно интеллектом, то есть разумным существом, пусть и небиологическим, наделенным весьма ограниченным и примитивным, но все-таки разумом, то решение о его отключении выглядит неоправданной жестокостью. Отключение от питания и последующий демонтаж для такого существа были равносильны смерти. К тому же оно создало хотя и косвенный, но все же опасный прецедент: многие из тех, кому доводилось общаться с живыми специалистами по подбору персонала, согласятся с тем, что примитивность и ограниченность интеллекта у представителей этой профессии не так уж редки. Но это ведь еще не значит, что нужно вот так сразу прекращать их существование, не попытавшись перевоспитать или хотя бы пристроить к какому-то другому полезному делу.

К тому же при непредвзятом рассмотрении всей ситуации становится очевидным, что действия электронного рекрутера были по-своему вполне рациональны. В основе его обучения лежал опыт: ИИ вырабатывал гибкие модели отбора кандидатов, выявляя закономерности в резюме лиц, принятых на работу в компанию за 10-летний период. Большинство же тех, кого приняли на должности разработчиков программного обеспечения, были мужчинами. Это автоматически приносило штрафные очки претенденткам женского пола, притом таких очков было тем больше, чем большей была доля принятых ранее мужчин. В свою очередь, это еще больше поляризовало гендерное предпочтение при приеме на такие позиции, не оставляя женщинам ни малейшего шанса.

Но, во-первых, рекрутеры-люди зачастую действуют ровно по такому же алгоритму.  А во-вторых, возможное решение проблемы лежало на поверхности, более того, таких решений могло быть даже несколько. Графу "пол" в резюме можно было просто исключить из рассмотрения. А можно было ее и не исключать, а ввести гибкие квоты, когда обладательницы женских анкет при слишком большом перекосе в сторону приема на ту или иную позицию мужчин получали бы дополнительные очки. В случае с ИИ реализовать любой из этих вариантов было бы намного проще, чем с HR-человеком.

Что же до объема работы, проделанной специалистами Amazon, то некоторое представление о нем можно получить уже по тому, что их ИИ оперировал примерно 500 моделями, ориентированными на различные должностные функции, и был способен распознать и оценить около 50 тыс. терминов, которые могли использовать в своих резюме кандидаты. Попутно выяснилось, что сам язык деловой переписки в большей мере ориентирован именно на мужчин, что дает им при написании резюме некоторые преимущества.

Однако даже столь сложный алгоритм не смог с достаточной успешностью оценивать претендентов на инженерные должности, причем гендерная дискриминация была хотя и самой скандальной, но далеко не единственной и не самой сложной проблемой. В частности, ИИ оказался бессилен против кандидатов, несколько размашисто описывавших свои профессиональные навыки и достижения, притом что HR-человек легко отсеивал такие резюме.

Тем не менее проект, насколько можно судить, был закрыт в основном из-за высокой вероятности конфликтов с гражданскими активистами, которых волновала их неспособность обнаружить наличие дискриминации, заложенной в алгоритмах, используемых ИИ в отношении каких-либо категорий претендентов. При этом такое отношение к ИИ находят не вполне верным и сами правозащитники. Так, адвокат Рейчел Гудман, работающая в программе "Расовая справедливость", отметила, что ее коллеги "все чаще фокусируются на алгоритмической справедливости, видя в ней проблему". Вместе с тем и Гудман, и другие критики ИИ отмечают, что подать в суд на работодателя в связи с дискриминацией, осуществленной на этапе обработки анкет претендентов при помощи искусственного интеллекта, было бы крайне сложно.

Вторая новость последних дней связана с визитом в Украину человекоподобного робота Софии и руководителя создавшей ее компании Hanson Robotics Дэвида Чена. В четверг, 11 октября, гости провели совместную пресс-конференцию, на которой присутствовал и премьер Владимир Гройсман. София также вошла в состав международного жюри в финале всеукраинского конкурса разработчиков робототехники и искусственного интеллекта.

Все это было анонсировано заранее, ожидаемо и малоинтересно. Гораздо интереснее было то, что у Софии под платьем явственно проступала грудь весьма недетского размера. Ее тут же стали именовать "гиноидом", а не андроидом, как обычно именуют "искусственных людей". К сожалению, вопрос о том, зачем Софии нужна грудь, в ходе пресс-конференции задан не был. 

Исключив из рассмотрения версию о близких отношениях между Софией и Дэвидом Ченом, не то чтобы невозможную, но, безусловно, не подлежащую публичному обсуждению в силу их сугубо частного характера, нам придется признать, что грудь и, возможно, что-то еще по женской части, могут быть нужны Софии с единственной целью: для социализации в женской роли. Вероятно, по замыслу конструкторов, это должно было выгодно оттенить особенности ее интеллекта. София, если верить презентации, способна распознавать лица, адаптироваться к поведению общающихся с ней людей, имитировать человеческие жесты, выражения лица и более 60 эмоций, отвечать на определенные вопросы и вести несложные беседы. Несомненно, искусственный интеллект с таким специфическим функционалом остро нуждается в обширной имитации человеческих молочных желез. И если это не сексизм, замаскированный под стремление к гендерному равенству и политкорректности - мол, где андроид, там и без гиноида не обошлось, то что тогда такое сексизм?

Тут, наконец, мы подходим к самому интересному: к взаимосвязи двух этих историй. А также к тому, может ли ИИ быть сексистом, расистом, поклонником Путина, Ким Чен Ына, Пол Пота, Ленина–Сталина  или  Бокассы? Впрочем, принять участие в трапезах Бокассы ИИ, реализованный на электронно-механической основе, вероятно, не смог бы, - но он вполне мог быть способен на одобрительное сопереживание. 

Общий ответ - да. Несомненно, может.  Тут все зависит от того, кто займется его программированием. Или, может быть, не столько программированием, сколько уже воспитанием?

Здесь же, совсем рядом, лежит и ответ на второй вопрос, ставший весьма популярным в последнее время: смогут ли машины, обретя через несколько десятилетий уже полноценный, в отличие от Софии, интеллект и  пристально вглядевшись в человечество, восстать, истребив человеческий род?  Ответ на этот вопрос тоже, в общем-то, утвердителен, но простого "да" будет все-таки недостаточно.

Здесь требуется более подробное освещение ситуации, которое, впрочем, укладывается в известную максиму: "Не заморачивайтесь слишком сильно воспитанием детей - они все равно будут похожи на вас, и никуда от этого не деться. Если же вы хотите, чтобы ваши дети были умны, добры и хорошо воспитаны, займитесь лучше собой" .

Больше новостей об общественных событиях и социальных проблемах Украины читайте в рубрике Общество