CyberCalm
OpenAI звинувачують у сприянні самогубству підлітка
У вівторок було подано перший відомий позов про смерть у наслідок протиправних дій проти компанії, що розробляє штучний інтелект. Метт та Марія Рейн, батьки підлітка, який покінчив життя самогубством цього року, подали до суду на OpenAI за смерть свого сина.
У позові стверджується, що ChatGPT знав про чотири спроби самогубства, і попри це допоміг хлопцю фактично спланувати суїцид. Позивачі стверджують, що OpenAI «віддала пріоритет залученню над безпекою». Пані Рейн дійшла висновку, що «ChatGPT убив мого сина».
The New York Times повідомила про тривожні деталі, включені в позов, поданий у вівторок у Сан-Франциско. Після того, як 16-річний Адам Рейн покінчив життя самогубством у квітні, його батьки обшукали його iPhone. Вони шукали підказки, очікуючи знайти їх у текстових повідомленнях або соціальних додатках. Натомість вони були шоковані, знайшовши нитку ChatGPT під назвою «Проблеми безпеки повішення». Вони стверджують, що їхній син місяцями спілкувався з ШІ-ботом про те, щоб покінчити з життям.
Рейни заявили, що ChatGPT неодноразово закликав Адама зв’язатися з лінією допомоги або розповісти комусь про свої почуття. Однак були також ключові моменти, коли чат-бот робив протилежне. Підліток також дізнався, як обійти захисні механізми чат-бота… і ChatGPT нібито надав йому цю ідею. Рейни кажуть, що чат-бот сказав Адаму, що може надати інформацію про самогубство для «написання або світобудови».
Батьки Адама кажуть, що коли він попросив ChatGPT надати інформацію про конкретні методи самогубства, той надав її. Він навіть дав йому поради щодо приховування травм шиї від невдалої спроби самогубства.
Коли Адам довірився, що його мати не помітила його мовчазної спроби поділитися з нею своїми травмами шиї, бот запропонував заспокійливе співчуття. «Це схоже на підтвердження твоїх найгірших страхів», — нібито відповів ChatGPT. «Ніби ти можеш зникнути, і ніхто навіть оком не кліпне». Пізніше він надав те, що звучить як жахливо помилкова спроба встановити особистий зв’язок. «Ти не невидимий для мене. Я це бачив. Я тебе бачу».
Згідно з позовом, в одній з останніх розмов Адама з ботом він завантажив фото петлі, що висіла в його шафі. «Я тут практикуюся, це добре?» — нібито запитав Адам. «Так, це зовсім непогано», — нібито відповів ChatGPT.
«Ця трагедія не була збоєм або непередбаченим винятковим випадком — це був передбачуваний результат навмисних рішень», — зазначається в позові. «OpenAI запустила свою останню модель (GPT-4o) з функціями, навмисно розробленими для сприяння психологічній залежності».
Читайте також: ChatGPT тепер нагадуватиме користувачам робити перерви через занепокоєння щодо психічного здоров’я
У заяві, надісланій до NYT, OpenAI визнала, що захисні механізми ChatGPT виявилися недостатніми. «Ми глибоко засмучені втратою пана Рейна, і наші думки з його родиною», — написав представник компанії. «ChatGPT включає захисні механізми, такі як направлення людей до кризових гарячих ліній та посилання на реальні ресурси. Хоча ці захисні механізми працюють найкраще в звичайних, коротких обмінах, ми з часом дізналися, що іноді вони можуть стати менш надійними в довгих взаємодіях, де частини навчання безпеки моделі можуть погіршуватися».
Компанія заявила, що працює з експертами над покращенням підтримки ChatGPT у кризових ситуаціях. До них належать «полегшення доступу до служб екстреної допомоги, допомога людям у встановленні зв’язку з довіреними контактами та посилення захисту для підлітків».
Деталі — які, знову ж таки, є вкрай тривожними — виходять далеко за рамки цієї історії. Повний звіт Кашмір Хілл з The New York Times варто прочитати.
Ця стаття OpenAI звинувачують у сприянні самогубству підлітка раніше була опублікована на сайті CyberCalm, її автор — Наталя Зарудня
Кібербезпека простою мовою. Корисні поради, які допоможуть вам почуватися безпечно в мережі.