• USD 39.5
  • EUR 42.2
  • GBP 49.1
Спецпроєкти

$1 млрд за не те особа. Чому проблеми Apple не забаряться захоплення Землі штучним інтелектом

Люди мають права, в тому числі право на помилку. Машина – ні. Вона або бездоганна, або небезпечна
Фото: Getty Images
Фото: Getty Images
Реклама на dsnews.ua

Ще нещодавно фахівці з кібербезпеки запевняли, що система розпізнавання осіб від Apple на багато років випереджає найближчих конкурентів - натякаючи, зрозуміло, на Android. А кілька днів тому саме ця система стала причиною судового позову, поданого на компанію.

Нью-йоркський студент Усман Бах був звинувачений в серії крадіжок в магазинах Apple в різних штатах. Крадіжок, яких він не скоював - майже за всіма епізодами Баху вдалося спростувати звинувачення. У тому, що з ним сталося, Бах звинувачує систему розпізнавання осіб, підозрюючи, що саме вона ідентифікувала його як злочинця. Тепер Бах має намір відсудити у Apple 1 млрд доларів компенсації моральної шкоди.

У коментарі до справи компанія намагалася вигородити свій ШІ, заявивши, що в магазинах система розпізнавання осіб не використовується. Однак це історію з помилковою ідентифікацією не тільки не пояснив, але навіть більше заплутало.

Хоча нічого дивного в ній і так предостатньо. Ордер, з яким поліція прийшла заарештувати підозрюваного, містив фото. Бах стверджує, що це фото не має з ним нічого спільного. Є версія, що проблема - у втраченому деякий час тому учнівському квитку. На ньому не було фото, але були особисті дані Баха, якими могли скористатися справжні злодії, а система Apple, просто "сжульничала", зв'язавши ці дані з аккаунтом студента і "не звернувши уваги на те, що "фізична" особа не співпадає з особою в обліковому записі.

Ця гіпотеза частково підтверджується тим, що у відповідь на запит адвоката до компанії надати записи з камер спостереження в пограбованих магазинах, прийшла відповідь, що "таких записів не існує". Це означає, що спостереження не ведеться? Може, й так, якщо компанія використовує свою систему розпізнавання осіб для відстеження людей, підозрюваних у крадіжках. Саме таку версію висунув Усман Бах: злодій авторизировался, використовуючи дані з загубленого документа, а система розпізнавання облич просто "прив'язала" особа злодія до його облікового запису без всякої верифікації. Тому особисті дані в ордері збігаються, а фото - немає.

Цікаво, що Бах при цьому навіть не помітив, що хтось використовує його аккаунт.

Якщо злодій дійсно не схожий на Баха, і зміг вчинити крадіжки, прикрившись його аккаунтом, це компрометує не стільки систему розпізнавання осіб, скільки взагалі систему безпеки Apple. Мільярд студенту, звичайно, не виплатять - сума сильно схудне в процесі суду. Але якщо користувачі зацікавляться цією діркою в безпеці їхніх особистих даних, збитки можуть бути великі.

Реклама на dsnews.ua

Apple поспішила повідомити, що система розпізнавання осіб в магазинах не використовується. Тобто ІЇ поза підозрою.

Але якщо немає ні камер, ні системи розпізнавання осіб - звідки взялося чуже обличчя на ордері про арешт Усмана Баха? Або студент просто так рознервувався, що сам себе не впізнав?

Помилка компанії, яка не залатала вчасно дірку в системі безпеки акаунта користувача, - це звичайна справа. Але на інформаційні простори ця новина вирвалася саме як помилка системи розпізнавання осіб. Помилка штучного інтелекту. Можливо, те, що саме зараз у великих містах США і в Європі дебатуються межі використання ШІ взагалі і системи розпізнавання осіб в особливості - не простий збіг. Ставлення до ІІ і його повсюдного впровадження у широкої публіки досить суперечливе. І якщо раптом виявиться, що хтось постраждав від його помилки, це може загальмувати розробку і впровадження (тобто продаж і прибуток) технології.

Компаніям вигідно підтримувати в масах ілюзію повної безпеки ІІ. Штучний інтелект - це зручно, безпомилково і просто круто. Він знає все, робить за нас більшу частину нецікавої роботи - і робить її швидко і точно, на відміну від нас самих. За цієї рекламної картинкою ховається ще пара менш святкових речей.

Ми зразкове знаємо, що можемо пробачити людському розуму (підказка: якщо особисто своєму - то буквально все). Але що ми готові пробачити штучного інтелекту? Насправді розробники і маркетологи, які прикривають від нас помилки ШІ, абсолютно праві: йому ми готові пробачити зовсім небагато. Можна сказати, нічого.

Усман Бах ще легко відбувся. Він пережив кілька годин неспокійних і зустріч з поліцією, яка рідко буває приємною, але майже за всіма епізодами зміг довести свою невинність. Але що б ви сказали, якби ІІ неправильно визначив ваш діагноз або дозування ліків? Якби ІІ, керуючий машиною, в якій ви сидите, допустив аварію? Якби автономний безпілотник переплутав віслюка з арабської нареченою з віслюком, навьюченным зброєю? Та й камери з розпізнаванням осіб - цей Грааль поліцейських і служб безпеки - як бачите, зовсім небездоганні. Мало того, що вони знайдуть вас навіть у багатолюдній юрбі і ідентифікують як злісного аліментника, так вони ще й помилитися при цьому можуть.

Власне, питання про те, чи варто оснащувати камери спостереження системою розпізнавання осіб, дебатуються - принаймні в Європі і США. На відміну від Китаю, де вони, як відомо, використовуються дуже активно. Західний світ сковує повагу до прайвиси, якого зовсім немає у Сходу.

До чого це призводить? Тільки до того, що Захід починає відставати від Сходу в розробці технології, яку придумали на Заході. Це природно: в Китаї збирають і можуть обробляти (тобто "вчити ІІ") величезні масиви даних, не рахуючись з такими химерами, як правйвиси. Наприклад, один з гігантів розробки системи розпізнавання осіб Cloudwalk щодня сканує більше 1 млрд осіб у 29 провінціях Китаю. У недавньому звіті компанія оголосила, що за чотири роки свого існування допомогла поліції КНР затримати 10 тис. злочинців.

До речі, прес-служба Київської міської державної адміністрації також нещодавно повідомила про впровадження системи розпізнавання осіб. Поки що в тестовому режимі. Передбачається, що система буде підключена до поліції, і якщо вона виявить людини, що знаходиться в розшуку, то вкаже його місцезнаходження поліцейським. Пошук злочинців буде спрощено і прискорено. Цікаво, що в основі проекту - все ті ж китайські розробки.

А ось Microsoft відмовилася надавати поліції свої технології розпізнавання осіб На думку президента компанії Бреда Сміта, компаніям не варто поспішати з впровадженням технологій розпізнавання осіб, оскільки це може призвести до порушення прав людини. Менш педантичним виявилася компанія Amazon, яка неодноразово піддавалася різкій критиці з-за продажу технології розпізнавання осіб поліції.

Для китайської влади, само собою, не стоїть питання про те, чи можна влаштовувати тотальне стеження за всіма, задля того, щоб зловити небагатьох (ось і для КМДА, здається, це теж не питання). Досі справа впиралося тільки в неможливість поставити таку стеження на широку технологічну ногу. Доноси - це, звичайно, чудово, але людський фактор сильно ускладнює обробку інформації. ІЇ, звичайно, ефективніше. І в перспективі - дешевше.

Головний аргумент прихильників введення такої тотального стеження - "ШІ не помиляється". Саме це підкуповує в ІІ китайців, які століттями поклоняються ідеї Справедливого Чиновника. Людина, як відомо, слабкий. Він може оступитися, втомитися, обдурити, просто допустити прикру помилку. ІЇ не може. Він, як міфічний Аргус, може стежити в мільйон око за кожним, оцінювати вчинки неупереджено і, отже, справедливо. Нагрубив продавцю - мінус в карму. Перевів бабусю через дорогу - отримай плюсик. Загалом, як у "Чорному дзеркалі", тільки набагато краще - тут тобі рейтинг просто від поганого настрою або від стервозності ніхто не зіпсує. У машини не буває ні поганого настрою, ні мстивих спонукань, ні ревнощів, ні праведного гніву.

Однак ось як незручно вийшло зі студентом Бахом - хтось помилився, і цілком можливо, що цей хтось- ИИ. Неважливо, як саме він помилився (і навіть помилився насправді), але він вказав поліції на невинного. І як вже говорилося вище, - це не найстрашніше, що може трапитися при помилці ІЇ (або, швидше, помилку, асоційованої з ШІ).

Так, може, даремно ми йому довіряємо?

Питання це звучить дуже часто. І при тому він абсолютно пусте. Тому що нічого краще у нас немає. Це може здатися цинічним, але в даному випадку істина встановлюється шляхом статистики. А статистика - на стороні ІІ. Він помиляється набагато, набагато рідше, ніж люди. Якщо робомобиль Tesla потрапляє в ДТП один раз на 5,3 млн км, а люди - приблизно раз на 791 тис. км (статистика дорожньої безпеки США), то цифри - хоч вони і небездоганні - на користь робомобиля. І 90%-ва точність діагностики і вибору протоколу лікування ІІ-системи WeDoctor, яка працює в сільських місцевостях Китаю, - краще, ніж те, що зазвичай надає сільська медицина Піднебесної. А алгоритми китайській ІІ-системи PereDoc визначають наявність пухлин у пацієнтів з точністю до 99,7%, в той час як досвідчені лікарі - з точністю до 95,3%.

Але ось у чому біда: вирішувати питання простим підрахунком человекомерных сферах - не комільфо. Людині ми схильні пробачити, а ІІ - немає. Тому що всі ми люди і кожен помиляється. Люди мають права, в тому числі право на помилку. Машина - ні. Вона або бездоганна, або небезпечна.

Тому розробники, як можуть, намагаються закрити собою свій ШІ, нехай навіть ціною збитку для репутації. Хоча це виглядає трохи дивно, враховуючи те, що ми все одно приречені на ШІ. Проте в нашого упередження є позитивна сторона: поки ми упереджені, розробники ШІ будуть докладати максимум зусиль до того, щоб зробити своє дітище більш досконалим і знизити ризик помилки.

    Реклама на dsnews.ua