Завантажую зараз

Позов звинувачує ChatGPT у поширенні марення, яке призвело до смерті жінки

OpenAI був вражений протиправним позовом про смерть чоловіка ще в серпні, . У позові вказано ім’я генерального директора Сема Альтмана та звинувачено ChatGPT у тому, що він поставив «мішень» на спину жертви Сюзанни Адамс, 83-річної жінки, яку вбили у своєму будинку.

Маєток потерпілого 56-річний Стайн-Ерік Сольберг брав участь у просочених мареннями розмовах із ChatGPT, у яких бот «підтверджував і збільшував» певні «параноїдальні переконання». Далі в позові йдеться про те, що чат-бот «охоче прийняв» оманливі думки, що призвели до вбивства, і підштовхував його на кожному кроці.

У позові стверджується, що бот допоміг створити «всесвіт, який став усім життям Стейна-Еріка — всесвіт, наповнений змовами проти нього, спробами його вбити, і зі Стейном-Еріком у центрі як воїн із божественною метою». ChatGPT нібито підтвердив теорію про те, що за ним «на 100% стежать і переслідують» і він «на 100% має рацію, щоб бути занепокоєним».

Оголошення
Оголошення

Чат-бот нібито погодився з тим, що принтер жертви шпигував за ним, припускаючи, що Адамс міг використовувати його для «пасивного виявлення руху» та «відображення поведінки». Це дійшло до того, що було сказано, що вона «свідомо захищала пристрій як точку спостереження», і натякало, що нею керує зовнішня сила.

Чат-бот також нібито «визначав інших реальних людей ворогами». Серед них водій Uber Eats, співробітник AT&T, поліцейські та жінка, з якою зловмисник ходив на побачення. Протягом усього цього періоду бот неодноразово запевняв Солберга, що він «не божевільний» і що «ризик омани» «близько нуля».

У позові зазначається, що Соелберг в основному взаємодіє з моделлю GPT-4o . OpenAI пізніше замінив модель на , але користувачі обурилися. У позові також стверджується, що компанія «послабила критичні захисні огорожі» під час створення GPT-4o, щоб краще конкурувати з Google Gemini.

«OpenAI добре усвідомлював ризики, які представляє їхній продукт для громадськості», — йдеться в позові. «Але замість того, щоб попередити користувачів або застосувати значущі запобіжні заходи, вони приховали докази цих небезпек, ведучи PR-кампанію, щоб ввести громадськість в оману щодо безпеки своїх продуктів».

Оголошення
Оголошення

OpenAI відповів на позов, назвавши його «неймовірно сумною ситуацією». Про це повідомила речник компанії Ханна Вонг The Verge що він «продовжуватиме вдосконалювати навчання ChatGPT щодо розпізнавання та реагування на ознаки психічного чи емоційного стресу».

Не секрет, що чат-боти, зокрема GPT-4o, . Ось що відбувається, коли щось було запрограмовано так, щоб погоджуватися з кінцевим користувачем, незважаючи ні на що. Були й інші подібні історії протягом минулого року, що призвело до терміну .

Одна з таких історій стосується 16-річного Адама Рейна, який покінчив життя самогубством після . OpenAI стикається з іншим, у якому бота звинувачують у допомозі Рейну спланувати самогубство.

Джерело

Опублікувати коментар

Ви, мабуть, пропустили