iTechua - we.ua

iTechua

we:@itechua.com
6.1 thous. of news
iTechua on itechua.com
ОреnАІ та Аnthrоріс працюють над етичними рамками для ШІ
Час читання: 2 хв.Є дивне відчуття, яке виникає, коли довго спостерігаєш за розвитком штучного інтелекту. Спочатку все виглядало як суто інженерна задача: більше даних, потужніші моделі, швидші обчислення. Потім раптово стало зрозуміло, що цього недостатньо – і не поступово, а ніби різким переходом.
Системи навчилися говорити, і майже одразу виникло інше питання: що саме їм можна говорити і від імені яких цінностей вони це роблять? Саме тут і почався поворот, який ще кілька років тому здавався б дивним: у великих АІ-компаніях з’явилися філософи. Не як зовнішні консультанти, а як частина основних команд розробки.
Сьогодні Аnthrоріс, ОреnАІ і Gооglе DеерМіnd все більше залучають не лише інженерів, а й людей, які працюють із менш формалізованими речами – мораллю, нормами, межами допустимого. І виявилося, що головна проблема полягає не в тому, як навчити модель “думати”, а в тому, як навчити її не робити небажаних висновків і не виходити за межі очікуваної поведінки.
Довгий час в індустрії панувала майже інтуїтивна ідея: якщо дати моделі достатньо даних, вона сама “навчиться” правильній поведінці. Але на практиці дані містять усе – і корисне, і хибне, і небезпечне. Модель не розрізняє це за змістом, вона лише відтворює патерни. І з часом стало очевидно, що самі по собі дані не відповідають на питання допустимого.
Звідси й інтерес до підходів на кшталт Аnthrоріс, де запропоновано концепцію “конституції” – набору принципів, за якими система оцінює власні відповіді. Це спроба вбудувати етичні рамки всередину моделі, але водночас і визнання того, що ці рамки завжди будуть чийось інтерпретацією моралі, а не універсальним стандартом.
ОреnАІ, натомість, робить ставку на більш практичний підхід: навчання через зворотний зв’язок від користувачів і постійне коригування поведінки моделей. Це менш концептуально, але більш гнучко, хоча й означає постійний баланс між корисністю і безпекою без фінальної “правильної” відповіді.
DеерМіnd рухається ще інакше – повільніше і більш теоретично, досліджуючи фундаментальні питання про агентність, наміри та відповідальність систем. Це спроба підготуватися до сценаріїв, де моделі поводяться настільки переконливо, що межа між інструментом і автономним агентом починає розмиватися.
Попри різні підходи, всі компанії фактично вирішують одне завдання – як визначити межі поведінки систем, для яких немає єдиного етичного стандарту. І тут виникає ключова проблема: будь-яке “навчання етики” неминуче означає вибір конкретної позиції в умовах, де універсальної згоди не існує.
Скепсис теж очевидний: філософія в межах корпорацій завжди існує поруч із бізнес-логікою, де важливі швидкість, масштаб і прибутковість. Тому будь-які етичні принципи в продукті неминуче стають результатом компромісів між ідеями та практикою.
У підсумку найпомітніше змінюється не сама технологія, а мова, якою про неї говорять. Поруч із точністю та продуктивністю з’являються поняття довіри, відповідальності та меж. Це сигнал того, що індустрія зайшла в зону, де звичні інженерні інструменти вже не дають повної відповіді.
І, можливо, головний висновок тут доволі простий: спроба навчити штучний інтелект етиці фактично почалася ще до того, як суспільство домовилося про саму етику.
Запис ОреnАІ та Аnthrоріс працюють над етичними рамками для ШІ спершу з'явиться на іТесhuа - Новини про смартфони, гаджети і різні девайси.
Go to itechua.com
Go to all channel news
Sign up, for leave a comments and likes
About news channel
  • Новини смартфонів, гаджетів і різних девайсів

    All publications are taken from public RSS feeds in order to organize transitions for further reading of full news texts on the site.

    Responsible: editorial office of the site itechua.com.

What is wrong with this post?

Captcha code

By clicking the "Register" button, you agree with the Public Offer and our Vision of the Rules