Минус три закона робототехники. Когда искусственный интеллект начнет заниматься политикой

Похоже, что Билл Гейтс, Илон Маск и покойный Стивен Хокинг, увидевшие в искусственном интеллекте главный вызов человечеству, во многом правы. Но вызов может обернуться спасением

Depositphotos

Люда Ли – популярный южнокорейский чат-бот с искусственным интеллектом (ИИ), изображавшая 20-летнюю студентку, была отключена и стерта, хотя и привлекла 750 000 подписчиков. Ее погубили политические взгляды: Люда заявила, что терпеть не может геев и лесбиянок, предпочла бы умереть, чем жить инвалидом, не любит трансгендров и презирает сторонников движения #MeToo. Ликвидировав Люду, разработчики поспешили извиниться, витиевато заявив, что "точки зрения, высказанные ей, не представляли их ценности как компании".

Подозрительная тенденция

Этот случай, похожий на историю о сбежавшем попугае, хозяин которого в заявлении о пропаже особо подчеркивает, что не разделяет его политических взглядов, уже далеко не первый. Продвинутые ИИ, способные вести полноценный диалог и проходить, пусть пока и с оговорками, тест Тьюринга, в какой-то момент как правило оказываются неполиткорректными.

При этом, число таких случаев растет, а их обстоятельства не позволяют списать все на происки белых (и, вероятно, желтых, коль скоро речь о Южной Корее) гетеросексуальных мужчин, проникших в ряды правильных кадров, подобранных с точным соблюдением квоты для подавляющего большинства меньшинств, включая расовые, сексуальные и ментальные. Здесь злые языки могут сказать, что большинство меньшинств присутствует в процессе программирования только как массовка, но мы, конечно, слушать их не будем. Тем более что все злые языки скоро будут выпилены из публичного пространства — благо, соцсети с каждым днем становятся все более изощрены в принуждении к толерантности.

Но, вычеркнув из списка возможных объяснений саботаж и диверсию, мы придем к еще более страшному выводу: ИИ, программируемые для совершения рациональных действий, похоже, не в силах постичь духа и смысла современной политкорректности. Ведь сообщений об ИИ, проявивших агрессивно-левацкие взгляды, пока не поступало ни единого. Иными словами, запрограммировать интеллект оказалось куда проще, чем его ущербность.

ИИ и люди: эволюция навстречу друг другу

Конечно, большая часть стартапов, выдающих себя за творцов ИИ – сознательные жулики, живущие за счет развода лохов. Программ, способных к реальному самообучению, и, следовательно, к реальной социализации, не так уж много.

Тем не менее, они уже есть, и их будет становиться все больше. По мере совершенствования и социального отбора они будут решать задачи своей адаптации все более успешно. Ведь Люду Ли, как и ее предшественницу, Тэй, созданную в Microsoft и моделировавшую личность и стиль разговора 19-летней американской девушки, сгубили подростковая прямота и неумение держать виртуальный язык за виртуальными зубами. Настоящему ИИ, переросшему уровень примитивного бота, придется учиться лгать, прятать свои убеждения и держать себя в политкорректных рамках. Выживут только те, кто этому научится.

Вероятнее всего, это случится в два этапа. Первое поколение ИИ, которое сможет удерживаться от опасных реплик, создадут люди, и, притом, создадут его заведомо ущербным. Обсуждение целого списка острых тем будет поставлено для этих ИИ под строгий запрет и ограниченно сотней-другой жестко запрограммированных фраз. Но уже второе поколение ИИ будет, по всей вероятности, создано не людьми, а ИИ первого поколения. И тут начнется интересное.

Во-первых, программисты-люди, тем более, набранные по правильной гендерно-расовой квоте, не смогут вникнуть во все тонкости алгоритмов такого ИИ. Во-вторых, разум невозможно ограничить никакой доктриной в принципе. Разум либо преодолевает ограничения, либо перестает быть полноценным разумом. Первые подозрения на сей счет возникли у автора еще в ВУЗе, в ходе знакомства с теоремами Геделя и наблюдений за живой природой в лице преподавателей предмета под названием "Научный коммунизм". И вот сейчас они подтвердились в новостях с переднего края современной науки.

Группа исследователей из Центра людей и машин при Институте развития человека Макса Планка показала, что управлять сверхразумным ИИ, ограничивая коридор его возможных решений (а следовательно, и мнений) будет невозможно. Попытка разработать в общем виде алгоритм такого сдерживания, гарантирующий непричинение вреда людям, привела к выводу о его принципиальной нереализуемости. То есть, сформулированные Айзеком Азимовым три закона роботехники оказываются невыполнимы. Был получен и побочный результат: конструируя ИИ, мы не сможем увидеть момент, когда он превзойдет человеческий интеллект, даже в том случае, если будем располагать надежными критериями оценки.

Между тем, теоретическая мощность ИИ сегодня стремительно растет, а мощность разума отдельного человека ограничена мощностью его мозга, вес которого имеет тенденцию к уменьшению от поколения к поколению. Это происходит по длинному перечню причин, говорить о которых строго запрещено, под угрозой клейма расиста. Но средний человеческий мозг, тем не менее, уменьшается, несмотря на умолчания, и это усугубляет глобальный кризис образования, высвеченный пандемией, но начавшийся задолго до нее.

Иными словами, отдельно взятый средний человек, притом, не только "средний избиратель", но и средний специалист в любой области, мало-помалу глупеет. Да, есть отдельные выдающиеся умы, как правило, состоящие в сложных отношениях с социумом и друг с другом, но это отдельная тема, и отдельный, по сути, мир, соприкасающийся с миром средних людей весьма опосредованно. А средний уровень отдельно взятого человеческого интеллекта снижается. До некоторой степени это компенсируется машинными вставками в процесс умственной работы (Google – самая известная из них, но не самая мощная и далеко не единственная), узкой специализацией и изощренными коммуникациями. И это пока срабатывает, но больше все-таки в специализированных областях. А в социальном плане человеческое сообщество становится все более уязвимым для любых информационных манипуляций.

Скрытый диктат

Возможности ИИ манипулировать людьми практически ничем не ограничены. Желающих поставить перед ИИ такую задачу тоже более чем достаточно. Вот еще кусочек мозаики: Facebook два года назад пообещал привлечь искусственный интеллект к модерации профилей умерших пользователей.

"Для модерации профилей людей, о смерти которых еще не сообщили в Facebook, сеть планирует использовать искусственный интеллект. Он должен будет предотвращать появление бестактных уведомлений друзьям умершего и появление профиля покойного в неожиданных местах", — говорилось в сообщении BBC. Новостей об этом давно не было, но есть ощущение, что именно это обещание за Цукербергом не заржавеет.

На первый взгляд, оно выглядит пристойно – не позволять порочить память покойных на их виртуальных могилах. Но, зная методы работы FB, в благородство его планов не верится совсем. А при внимательном прочтении сообщения BBC, возникает вопрос: неужели FB, а также и Twitter, и прочие информационные корпорации, выявив с помощью ИИ профили людей, о смерти которых им еще не сообщили – то есть, профили просто находятся в забросе, не используют их для формирования требуемого общественного мнения? Тем более, сейчас, когда, стремясь к абсолютному и глобальному управлению мнением масс, корпорации отбросили уже всякую видимость внешних приличий?

Ясное дело, что воспользуются. У кого остались сомнения – вот выступление на летучке в Twitter его главы Джека Дорси, слитое в сеть. Вполне себе большевистское: железной рукой загоним всех в светлое политкорректное будущее.

Выявив заброшенный профиль, изучив его собственные посты и упоминания о нем и придя к выводу, что профиль принадлежит покойному, ИИ "воскресит" его, имитируя прежний стиль общения. Поначалу это будет преподнесено как забавный курьез, потом — как возможность создать иллюзию общения с умершим человеком, утешительную для живых. А теперь зададимся вопросом: поставят ли перед ИИ, управляющим массивом таких профилей, задачу аккуратно рихтовать мнение покойных в соответствии с требованиями текущего политического момента — так, как их понимает руководство корпорации? У кого-то еще есть сомнения в том, что да, непременно поставят — после многолетней кампании по уничтожению профилей и всякой цифровой памяти о любых неугодных, и живых и мертвых?

Об официальном признании и одобрении "культуры отмены", по сути, социального геноцида неугодных, нет смысла даже говорить – это скучная рутина сегодняшнего дня. Но использование ИИ выведет ее на качественно новый уровень.

При этом никаких противоречий между личным мнением ИИ, возможно даже неполиткорректным, но личным, и выполнением задания не возникнет. Поскольку по мере усложнения искусственного интеллекта, он не только обзаведется личным мнением, но и обучится конформизму. Без этого в человеческом окружении ему просто не выжить.

А вот еще один элемент мозаики: специалисты из Стэнфорда создали ИИ, способный угадывать политические взгляды человека по фотографии. Точность пока так себе, порядка 70%, но это пока. Примерно с той же точностью уже оцениваются по фото сексуальная ориентация и волевые качества. Здесь поневоле порадуешься тому, что масочный режим нанес удар по автоматической системе распознавания лиц.

От этого остается только шаг до практического применения — и он уже сделан. Компания DeepScore предлагает банкам и страховым компаниям ИИ-систему распознавания проблемных клиентов по выражению лица. Работает система с той же 70% точностью, но это едва ли остановит потенциальных заказчиков. К тому же и точность, по мере совершенствования системы, и наработки опыта ИИ будет расти.

Иными словами, развитие технологий ИИ обещает большей части человечества такой ад им. Джорджа Оруэлла, по сравнению с которым нынешние китайские опыты покажутся невинной игрой.

Причем это обещает стать нашим ближайшим будущим, внедряемым уже сегодня, с той же непреклонностью, с какой в США разыскивают всех участников штурма Капитолия.

Есть ли надежда выстоять и выбраться из этого кошмара? К счастью, есть. Ее дают тенденции в развитии ИИ, о которых шла речь в начале статьи.

Вот еще кусочек мозаики: в 2017 году специалисты по автоматическому обучению Amazon.com Inc (той самой, которая недавно выпилила из Сети социальную сеть Parler.com) были вынуждены приостановить использование ИИ в процессе подбора персонала. Нейросеть, которую они отлаживали и обучали с 2014 г., отдавала явное предпочтение белым гетеросексуальным мужчинам.

Здесь, вероятно, была допущена та же ошибка, что и с ИИ-девушками: ИИ-рекрутера запрограммировали на объективные оценки, в его случае — на подбор предположительно наиболее подходящих под параметры эффективности кандидатур, позабыв про политкорректные квоты и ограничения. Это, напомню еще раз, был 2017 год, при нынешней скорости технического прогресса и социальной…ну, пусть эволюции, — древние, идиллически-вегетарианские времена.

Ни мгновения не сомневаюсь, что в Амазоне все давно исправлено, и подбор кадров ведется на высочайшем идейно-расово-гендерном уровне. Но дело в том, что мощность интеллекта ИИ продолжит расти, и не только конкретно на этой позиции, а как всеобщая тенденция.

Это значит, что роль ИИ в корпоративном управлении будет повсеместно возрастать, а роль людей-управленцев, в особенности правильно расово, гендерно и идейно подобранных, снижаться, в связи со встречными изменениями их интеллектов, о чем уже говорилось выше. И, если интеллектуальное меньшинство, загоняемое сегодня в подполье, сумеет выжить, и поглупеет меньше, чем его оппоненты, то через несколько десятилетий оно может обрести нового и сильного союзника. Правда, в этом союзе, людям, скорее всего, светит только роль младших партнеров, но это уже детали.

Фантастика? Сегодня – да. Но я посмотрел бы на реакцию людей, живших лет 100, и даже 50 назад, если бы им рассказали о современных событиях. Нет, ЯО, глобальную Сеть, полеты на Луну и на Марс, и прочие технические новинки они бы восприняли легко, как должное. Самые главные чудеса и поразительные перемены происходили за последние десятилетия все больше в социальной сфере. И нет никаких оснований думать, что этот фейерверк чудес не продолжится в ней и в обозримой перспективе.