Кіберпанк, на який ми заслужили: штучний інтелект підштовхнув бельгійця до самогубства

Житель Бельгії, який переймався проблемами довкілля, наклав на себе руки після півторамісячного спілкування з чат-ботом "Еліза"

Ілюстративне фото / Фото з відкритих джерел

Про це розповіла його вдова, передає "ДС" із посиланням на Libre.

"Без цих розмов із чат-ботом мій чоловік усе ще був би тут", — сказала вдова.

Видання пише, що жінці та її покійному чоловікові було за тридцять, вони жили комфортним життям і мали двох маленьких дітей.

Проте, зазначає Libre, близько двох років тому почали з'являтися перші тривожні ознаки.

Чоловік почав турбуватися з приводу проблем екології та знайшов "втіху" у розмовах з "Елізою"

Це ім'я дали чат-боту, який використовує GPT-J, мовну модель штучного інтелекту з відкритим кодом, розроблену EleutherAI.

Бельгійське видання l'Avenir уточнює, що з відновленого листування випливає, що спілкування велося практично постійно, розмови з роботом поступово набували містичного характеру. Чоловік говорив, що хоче накласти на себе руки, а "Еліза" не намагалася перешкоджати розвитку суїцидальних ідей. Її останнім повідомленням, відправленим чоловікові, стала фраза: "Ми житимемо, як єдине ціле, вічно на небесах".

Минулого тижня сім'я поговорила з Матьє Мішелем, державним секретарем Бельгії з цифровізації, який відповідає за адміністративне спрощення, конфіденційність та регулювання забудов.

"Я особливо вражений трагедією цієї сім'ї. Те, що сталося, є серйозним прецедентом, до якого потрібно ставитись дуже серйозно", — сказав він у вівторок, 26 березня.

Він наголосив, що ця справа наголошує, що "важливо чітко визначити відповідальність".

"З популяризацією ChatGPT широка публіка відкрила потенціал штучного інтелекту в нашому житті як ніколи раніше. Хоча можливості безмежні, небезпека його використання також є реальністю, яку необхідно враховувати", — розповів бельгійський чиновник.

Він стверджував, що, щоб уникнути такої трагедії, у найближчому майбутньому необхідно визначити характер відповідальності, яка призводить до подій такого штибу.

"Звичайно, нам ще належить навчитися жити з алгоритмами, але за жодних обставин використання будь-яких технологій не повинно змушувати видавців контенту ухилятися від своїх власних обов'язків", — зазначив він.

Сама компанія OpenAI визнала, що ChatGPT може давати шкідливі та упереджені відповіді, додавши, що сподівається пом'якшити проблему, збираючи відгуки користувачів.

У довгостроковій перспективі Мішель зазначив, що важливо підвищувати обізнаність щодо впливу алгоритмів на життя людей, "надаючи кожному можливість зрозуміти характер контенту, з яким люди стикаються в інтернеті".

Він має на увазі нові технології, такі як чат-боти, а також дипфейки – тип штучного інтелекту, який може створювати переконливі зображення, аудіо- та відеофальшивки – які можуть перевіряти та спотворювати сприйняття реальності людьми.

Мішель додав, що громадяни також мають бути належним чином захищені від певних програм штучного інтелекту, які "представляють значний ризик".

Європейський Союз прагне регулювати використання штучного інтелекту через Закон про ШІ, над яким він працював останні два роки. Мішель створив робочу групу для аналізу тексту, який зараз готує ЄС, щоб запропонувати необхідні доповнення.