Повстання машин близько. Навіщо роботу Софії груди

Чи зможуть машини, отримавши повноцінний інтелект, знищити людський рід?
Робот Софія на прес-конференції в Києві. Фото: Getty Images

Відразу дві новини, героями яких стали два штучних інтелекту, порадували нас в ці дні. При цьому між ними виявилася несподівана взаємозв'язок.

Першою новиною стала інформація про те, що фахівці з автоматичного навчання Amazon.com Inc були змушені призупинити використання штучного інтелекту (ШІ) в процесі підбору персоналу. Виявилося, що нейромережа, яку вони доводили і навчали з 2014 р. і яка, аналізуючи резюме, повинна була відбирати підходящих, високообдарованих кандидатів для подальшого співбесіди з рекрутером-людиною, рекомендувала на деякі позиції виключно чоловіків.

Спочатку в Amazon спробували приховати цей факт і провести з ІІ необхідну роботу, не виносячи сміття з хати. Але інформація якимось чином просочилася в пресу, і в результаті електронного сексиста відключили від розетки, а бригаду розробників розпустили. Сталося це ще на початку минулого року, однак історія стала широко відома тільки зараз.

Історія, треба відзначити, викликає смуток. Адже якщо допустити, що відключений ІІ був не калькулятором-переростком, а дійсно інтелектом, то є розумним істотою, нехай і небіологічних, наділеним досить обмеженим і примітивним, але все-таки розумом, то рішення про його відключенні виглядає невиправданою жорстокістю. Відключення від живлення і подальший демонтаж для такої істоти були рівносильні смерті. До того ж воно створило хоча і непрямий, але все ж небезпечний прецедент: багато з тих, кому доводилося спілкуватися з живими спеціалістами з підбору персоналу, погодяться з тим, що примітивність і обмеженість інтелекту у представників цієї професії не так вже й рідкісні. Але це ж ще не означає, що треба ось так відразу припиняти їх існування, не спробувавши перевиховати або хоча б прилаштувати до якогось іншого корисній справі.

До того ж при неупередженому розгляді всієї ситуації стає очевидним, що дії електронного рекрутера були по-своєму цілком раціональні. В основі його навчання лежав досвід: ІІ виробляв гнучкі моделі відбору кандидатів, виявляючи закономірності в резюме осіб, прийнятих на роботу в компанію за 10-річний період. Більшість же тих, кого прийняли на посади розробників програмного забезпечення, були чоловіками. Це автоматично приносило штрафні очки претенденткам жіночої статі, притому таких окулярів було тим більше, чим більшою була частка прийнятих раніше чоловіків. У свою чергу, це ще більше поляризовало гендерна перевагу при прийомі на такі позиції, не залишаючи жінкам ні найменшого шансу.

Але, по-перше, рекрутери-люди часто діють рівно за таким же алгоритмом. А по-друге, можливе рішення проблеми лежало на поверхні, більше того, таких рішень не могло бути навіть кілька. Графу "стать" у резюме можна було просто виключити з розгляду. А можна було її і не виключати, а ввести гнучкі квоти, коли власниці жіночих анкет при занадто великому перекосі у бік прийому на ту чи іншу позицію чоловіків отримували додаткові очки. У випадку з ІІ реалізувати будь-який з цих варіантів було б набагато простіше, ніж з HR-людиною.

Що ж до обсягу роботи, виконаної фахівцями Amazon, то деяке уявлення про нього можна отримати вже з того, що їх ІЇ оперував приблизно 500 моделями орієнтованими на різні посадові функції, і був здатний розпізнати і оцінити близько 50 тис. термінів, які могли використовувати в своїх резюме кандидати. Попутно з'ясувалося, що сама мова ділової переписки в більшою мірою орієнтований саме на чоловіків, що дає їм при написанні резюме деякі переваги.

Однак навіть настільки складний алгоритм не зміг з достатньою успішністю оцінювати претендентів на інженерні посади, причому гендерна дискримінація була хоча і найскандальнішою, але далеко не єдиною і не найскладнішою проблемою. Зокрема, ІІ опинився безсилий проти кандидатів, кілька розмашисто описували свої професійні навички та досягнення, притому що HR-людина легко відсіював такі резюме.

Тим не менш проект, наскільки можна судити, був закритий в основному через високу ймовірність конфліктів з громадськими активістами, яких хвилювала їх нездатність виявити наявність дискримінації, закладеної в алгоритмах, які використовуються ІЇ у відношенні будь-яких категорій претендентів. При цьому таке ставлення до ІІ знаходять не цілком вірним і самі правозахисники. Так, адвокат Рейчел Гудман, працює в програмі "Расова справедливість", зазначила, що її колеги "все частіше фокусуються на алгоритмічної справедливості, вбачаючи в ній проблему". Разом з тим і Гудман, і інші критики ІІ відзначають, що подати в суд на роботодавця у зв'язку з дискримінацією, здійсненої на етапі обробки анкет претендентів за допомогою штучного інтелекту, було б украй складно.

Друга новина останніх днів пов'язана з візитом в Україну людиноподібного робота Софії і керівника створила її компанії Hanson Robotics Девіда Чена. У четвер, 11 жовтня, гості провели спільну прес-конференцію, на якій був присутній і прем'єр Володимир Гройсман. Софія також увійшла до складу міжнародного журі у фіналі всеукраїнського конкурсу розробників робототехніки і штучного інтелекту.

Все це було анонсовано заздалегідь, очікувано і малоцікаво. Набагато цікавіше було те, що у Софії під сукнею виразно проступала груди досить недитячого розміру. Її тут же стали іменувати "гиноидом", а не андроїдом, як зазвичай іменують "штучних людей". На жаль, питання про те, навіщо Софії потрібна груди, в ході прес-конференції поставлено не було.

Виключивши з розгляду версію про близьких відносинах між Софією і Девідом Ченом, не те щоб неможливу, але, безумовно, не підлягає публічному обговоренню в силу їх суто приватного характеру, нам доведеться визнати, що груди і, можливо, щось ще по жіночій частині, можуть бути потрібні Софії з єдиною метою: для соціалізації жіночої ролі. Ймовірно, за задумом конструкторів, це повинно було вигідно відтінити особливості її інтелекту. Софія, якщо вірити презентації, здатна розпізнавати обличчя, адаптуватись до поведінки спілкуються з нею людей, імітувати людські жести, вирази обличчя та понад 60 емоцій, відповідати на певні питання і вести нескладні бесіди. Безсумнівно, штучний інтелект з таким специфічним функціоналом гостро потребує великої імітації людських молочних залоз. І якщо це не сексизм, замаскований під прагнення до гендерної рівності та політкоректності - мовляв, де андроїд, там і без гиноида не обійшлося, то що тоді таке сексизм?

Тут, нарешті, ми підходимо до найцікавішого: до взаємозв'язку цих двох історій. А також до того, чи може ШІ бути сексистом, расистом, шанувальником Путіна, Кім Чен Ина, Пол Пота, Леніна–Сталіна чи Бокассы? Втім, взяти участь у трапезах Бокассы ІІ, реалізований на електронно-механічної основі, ймовірно, не зміг би, - але він цілком міг бути здатний на схвальне співпереживання.

Загальний відповідь - так. Безсумнівно, може. Тут все залежить від того, хто займеться його програмуванням. Або, може бути, не стільки програмуванням, скільки вже вихованням?

Тут же, зовсім поряд, лежить і відповідь на друге питання, який став досить популярним останнім часом: чи зможуть машини, набувши через кілька десятиліть вже повноцінний, на відміну від Софії, інтелект і пильно вдивившись в людство, повстати, винищивши людський рід? Відповідь на це питання теж, загалом-то, утвердителен, але простого "так" буде все-таки недостатньо.

Тут потрібно більш докладне висвітлення ситуації, яка, втім, вписується у відому максиму: "Не переймайтеся занадто сильно вихованням дітей - вони все одно будуть схожі на вас, і нікуди від цього не дітися. Якщо ж ви хочете, щоб ваші діти були розумні, добрі і добре виховані, займіться краще собою" .