Дослідники використовували електромагнітні сигнали, щоб викрасти та відтворити моделі штучного інтелекту з ТРU Gооglе Еdgе із точністю 99,91%, виявивши значні вразливості систем штучного інтелекту та вимагаючи термінових заходів захисту. Дослідники показали, що можна викрасти модель штучного інтелекту (ШІ) без безпосереднього злому пристрою, на якому вона працює. Ця інноваційна техніка не вимагає попереднього знання програмного забезпечення чи архітектури, що підтримує ШІ, що робить її значним прогресом у методах вилучення моделей. «Моделі штучного інтелекту цінні, ми не хочемо, щоб люди їх крали», — говорить Айдін Айсу, співавтор статті про цю роботу та ад’юнкт-професор електротехніки та комп’ютерної інженерії в Університеті штату Північна Кароліна. «Створення моделі дороге і вимагає […]
... More