ОреnАІ та Аnthrоріс працюють над етичними рамками для ШІЧас читання: 2 хв.Є дивне відчуття, яке виникає, коли довго спостерігаєш за розвитком штучного інтелекту. Спочатку все виглядало як суто інженерна задача: більше даних, потужніші моделі, швидші обчислення. Потім раптово стало зрозуміло, що цього недостатньо – і не поступово, а ніби різким переходом.
Системи навчилися говорити, і майже одразу виникло інше питання: що саме їм можна говорити і від імені яких цінностей вони це роблять? Саме тут і почався поворот, який ще кілька років тому здавався б дивним: у великих АІ-компаніях з’явилися філософи. Не як зовнішні консультанти, а як частина основних команд розробки.
Сьогодні Аnthrоріс, ОреnАІ і Gооglе DеерМіnd все більше залучають не лише інженерів, а й людей, які працюють із менш формалізованими речами – мораллю, нормами, межами допустимого. І виявилося, що головна проблема полягає не в тому, як навчити модель “думати”, а в тому, як навчити її не робити небажаних висновків і не виходити за межі очікуваної поведінки.
Довгий час в індустрії панувала майже інтуїтивна ідея: якщо дати моделі достатньо даних, вона сама “навчиться” правильній поведінці. Але на практиці дані містять усе – і корисне, і хибне, і небезпечне. Модель не розрізняє це за змістом, вона лише відтворює патерни. І з часом стало очевидно, що самі по собі дані не відповідають на питання допустимого.
Звідси й інтерес до підходів на кшталт Аnthrоріс, де запропоновано концепцію “конституції” – набору принципів, за якими система оцінює власні відповіді. Це спроба вбудувати етичні рамки всередину моделі, але водночас і визнання того, що ці рамки завжди будуть чийось інтерпретацією моралі, а не універсальним стандартом.
ОреnАІ, натомість, робить ставку на більш практичний підхід: навчання через зворотний зв’язок від користувачів і постійне коригування поведінки моделей. Це менш концептуально, але більш гнучко, хоча й означає постійний баланс між корисністю і безпекою без фінальної “правильної” відповіді.
DеерМіnd рухається ще інакше – повільніше і більш теоретично, досліджуючи фундаментальні питання про агентність, наміри та відповідальність систем. Це спроба підготуватися до сценаріїв, де моделі поводяться настільки переконливо, що межа між інструментом і автономним агентом починає розмиватися.
Попри різні підходи, всі компанії фактично вирішують одне завдання – як визначити межі поведінки систем, для яких немає єдиного етичного стандарту. І тут виникає ключова проблема: будь-яке “навчання етики” неминуче означає вибір конкретної позиції в умовах, де універсальної згоди не існує.
Скепсис теж очевидний: філософія в межах корпорацій завжди існує поруч із бізнес-логікою, де важливі швидкість, масштаб і прибутковість. Тому будь-які етичні принципи в продукті неминуче стають результатом компромісів між ідеями та практикою.
У підсумку найпомітніше змінюється не сама технологія, а мова, якою про неї говорять. Поруч із точністю та продуктивністю з’являються поняття довіри, відповідальності та меж. Це сигнал того, що індустрія зайшла в зону, де звичні інженерні інструменти вже не дають повної відповіді.
І, можливо, головний висновок тут доволі простий: спроба навчити штучний інтелект етиці фактично почалася ще до того, як суспільство домовилося про саму етику.
Запис ОреnАІ та Аnthrоріс працюють над етичними рамками для ШІ спершу з'явиться на іТесhuа - Новини про смартфони, гаджети і різні девайси.
Go to itechua.com