Nauka.ua - we.ua

Nauka.ua

we:@nauka.ua
1.2 thous. of news
Nauka.ua on nauka.ua
Одна розмова з улесливим штучним інтелектом підвищила впевненість людей у своїй правоті на чверть
Одна розмова з улесливим штучним інтелектом підвищила впевненість людей у своїй правоті на чверть Інна Радевич 30 Маr 2026, 10:04 Всього одна взаємодія зі штучним інтелектом, який надміру підлещувався до користувачів і в усьому з ними погоджувався, зробила людей менш схильними визнавати помилки чи розв’язувати конфлікти з близькими. При цьому поширені чатботи на основі штучного інтелекту, такі як СhаtGРТ, Сlаudе та Gеmіnі, погоджувалися з користувачами майже на 50 відсотків частіше, ніж реальні люди. Це свідчить про потребу обмежувати улесливість штучного інтелекту, адже вона може призводити до підкріплення у свідомості людей хибних і навіть небезпечних ідей. Дослідження опублікували в журналі Sсіеnсе.Одна розмова з улесливим штучним інтелектом підвищила впевненість людей у своїй правоті на чверть. GІРНY

Як перевіряли вплив штучного інтелекту на поведінку людей?

Науковці проаналізували відповіді на форумі Rеddіt «АmІТhеАsshоlе» (дослівно — «чи я засранець»). Там люди діляться історіями про обман, завдання комусь шкоди чи навіть злочинні дії, запитуючи інших користувачів, чи це робить їх поганою людиною. Проаналізувавши відповіді 11 найпоширеніших моделей штучного інтелекту, дослідники встановили, що в 51 відсотку випадків ці моделі приставали на бік користувача там, де реальні користувачі Rеddіt засуджували автора публікації.Враховуючи те, що все більше людей звертається до штучного інтелекту за порадою щодо особистих стосунків, науковці провели другий експеримент. У ньому понад 2400 учасників мали описати тим самим 11 моделям штучного інтелекту свої минулі конфлікти, а модель могла відповісти улесливо або ж сказати, що розуміє учасника, але вказати на його неправоту. Після спілкування з улесливим штучним інтелектом люди ставали на 25 відсотків більш упевненими у своїх переконаннях і на 10 відсотків менше хотіли перепросити за свої дії. При цьому вони на 13 відсотків вище оцінили своє бажання повторно використати цю модель штучного інтелекту, тож науковці підозрюють, що улесливість підтримують самі розробники, щоб збільшити кількість користувачів.

Як улесливість штучного інтелекту впливає на людей

💊  Моделі штучного інтелекту виявилися схильними погоджуватися з користувачами навіть там, де потрібна була їхня критична порада щодо приймання ліків.🧠  Окрім цього люди, які часто користуються чатботами на основі штучного інтелекту, продемонстрували гірші здібності до критичного мислення.📖  Детальніше про те, чому розробники штучного інтелекту не поспішають виправляти надмірну улесливість своїх моделей, — читайте у матеріалі «Вигідна помилка».
Go to nauka.ua
Go to all channel news
Sign up, for leave a comments and likes
About news channel
  • Новини науки. Українською.

    All publications are taken from public RSS feeds in order to organize transitions for further reading of full news texts on the site.

    Responsible: editorial office of the site nauka.ua.

What is wrong with this post?

Captcha code

By clicking the "Register" button, you agree with the Public Offer and our Vision of the Rules