Безпекові виклики, що виникають внаслідок інтеграції AI та Web3: нові ризики епохи DeFAI
Нещодавно на заході Blockchain Week, що проходив в Стамбулі, експерти галузі провели глибоке обговорення тенденцій інтеграції штучного інтелекту та Web3, зосередивши увагу на безпекових викликах, які виникають внаслідок цього.
Протягом заходу кілька експертів у сфері безпеки взяли участь у круглій таблиці, де спільно обговорювали стан застосування технологій ШІ в децентралізованих фінансах (DeFi) та їх потенційні ризики. З швидким розвитком великих мовних моделей і агентів ШІ поступово формується нова фінансова модель, відома як "DeFAI" (децентралізовані штучні інтелектуальні фінанси). Однак ця інновація також принесла нові вектори атак і проблеми безпеки.
Один з експертів на конференції зазначив: "Хоча DeFAI має широкий потенціал, він також змушує нас переосмислити механізми довіри в децентралізованих системах. На відміну від традиційних фіксованих логічних смарт-контрактів, процес прийняття рішень AI-агентів підлягає впливу багатьох факторів, включаючи контекст, час та навіть історичні взаємодії. Ця непередбачуваність не лише збільшує ризики, але й надає можливість потенційним зловмисникам."
AI-агенти — це розумні сутності, які можуть автономно приймати рішення та виконувати їх на основі логіки штучного інтелекту, зазвичай уповноважені користувачем, протоколом або децентралізованою автономною організацією (DAO). Найяскравішим прикладом є AI-торгові роботи. Наразі більшість AI-агентів все ще працюють на架构 Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до різних атак, таких як атаки ін'єкції, маніпуляція моделлю або підробка даних. Як тільки AI-агент буде захоплений, це може призвести не лише до прямих фінансових втрат, але й вплинути на стабільність цілого протоколу.
Експерти також згадали про можливий сценарій атаки: коли AI-торговий агент, що працює для користувача DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, якщо зловмисник опублікує фальшиву тривогу, наприклад, стверджуючи, що певний протокол зазнає атаки, це може спонукати агента негайно розпочати екстрене ліквідаційне дійство. Це не тільки призведе до втрати активів користувача, але й може викликати ринкові коливання, які зловмисник може використати за допомогою таких методів, як фронт-ранінг.
Щодо цих ризиків, учасники конференції вважають, що безпека AI-агентів повинна бути спільною відповідальністю користувачів, розробників та третіх сторін з безпеки.
По-перше, користувач повинен чітко розуміти обсяг прав, якими володіє агент, обережно надавати права та уважно перевіряти високоризикові операції AI-агента. По-друге, розробники повинні впроваджувати заходи захисту ще на стадії дизайну, такі як зміцнення підказок, ізоляція в пісочниці, обмеження швидкості та механізми відкату. Треті сторони безпеки повинні надавати незалежний аудит поведінки моделей AI-агента, інфраструктури та методів інтеграції в ланцюг, а також співпрацювати з розробниками та користувачами для виявлення ризиків і пропозиції заходів пом'якшення.
Експерт з безпеки попереджає: "Якщо ми й далі будемо розглядати AI-агентів як 'чорну скриньку', то інциденти безпеки у реальному світі — це лише питання часу." Для розробників, які досліджують напрямок DeFAI, він рекомендує: "Як і в разі смарт-контрактів, логіка поведінки AI-агентів також реалізується кодом. Оскільки це код, існує можливість атаки, тому необхідно проводити професійний аудит безпеки та тестування на проникнення."
З розвитком технології блокчейн та розширенням її застосування, питання безпеки залишиться в центрі уваги галузі. У контексті великої тенденції інтеграції AI та Web3, досягнення балансу між інноваціями та безпекою стане важливим викликом для галузі в найближчий час.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Безпека AI-агентів стає новим викликом епохи DeFAI. Експерти закликають лонгуючих спільно нести відповідальність.
Безпекові виклики, що виникають внаслідок інтеграції AI та Web3: нові ризики епохи DeFAI
Нещодавно на заході Blockchain Week, що проходив в Стамбулі, експерти галузі провели глибоке обговорення тенденцій інтеграції штучного інтелекту та Web3, зосередивши увагу на безпекових викликах, які виникають внаслідок цього.
Протягом заходу кілька експертів у сфері безпеки взяли участь у круглій таблиці, де спільно обговорювали стан застосування технологій ШІ в децентралізованих фінансах (DeFi) та їх потенційні ризики. З швидким розвитком великих мовних моделей і агентів ШІ поступово формується нова фінансова модель, відома як "DeFAI" (децентралізовані штучні інтелектуальні фінанси). Однак ця інновація також принесла нові вектори атак і проблеми безпеки.
Один з експертів на конференції зазначив: "Хоча DeFAI має широкий потенціал, він також змушує нас переосмислити механізми довіри в децентралізованих системах. На відміну від традиційних фіксованих логічних смарт-контрактів, процес прийняття рішень AI-агентів підлягає впливу багатьох факторів, включаючи контекст, час та навіть історичні взаємодії. Ця непередбачуваність не лише збільшує ризики, але й надає можливість потенційним зловмисникам."
AI-агенти — це розумні сутності, які можуть автономно приймати рішення та виконувати їх на основі логіки штучного інтелекту, зазвичай уповноважені користувачем, протоколом або децентралізованою автономною організацією (DAO). Найяскравішим прикладом є AI-торгові роботи. Наразі більшість AI-агентів все ще працюють на架构 Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до різних атак, таких як атаки ін'єкції, маніпуляція моделлю або підробка даних. Як тільки AI-агент буде захоплений, це може призвести не лише до прямих фінансових втрат, але й вплинути на стабільність цілого протоколу.
Експерти також згадали про можливий сценарій атаки: коли AI-торговий агент, що працює для користувача DeFi, моніторить повідомлення в соціальних мережах як торгові сигнали, якщо зловмисник опублікує фальшиву тривогу, наприклад, стверджуючи, що певний протокол зазнає атаки, це може спонукати агента негайно розпочати екстрене ліквідаційне дійство. Це не тільки призведе до втрати активів користувача, але й може викликати ринкові коливання, які зловмисник може використати за допомогою таких методів, як фронт-ранінг.
Щодо цих ризиків, учасники конференції вважають, що безпека AI-агентів повинна бути спільною відповідальністю користувачів, розробників та третіх сторін з безпеки.
По-перше, користувач повинен чітко розуміти обсяг прав, якими володіє агент, обережно надавати права та уважно перевіряти високоризикові операції AI-агента. По-друге, розробники повинні впроваджувати заходи захисту ще на стадії дизайну, такі як зміцнення підказок, ізоляція в пісочниці, обмеження швидкості та механізми відкату. Треті сторони безпеки повинні надавати незалежний аудит поведінки моделей AI-агента, інфраструктури та методів інтеграції в ланцюг, а також співпрацювати з розробниками та користувачами для виявлення ризиків і пропозиції заходів пом'якшення.
Експерт з безпеки попереджає: "Якщо ми й далі будемо розглядати AI-агентів як 'чорну скриньку', то інциденти безпеки у реальному світі — це лише питання часу." Для розробників, які досліджують напрямок DeFAI, він рекомендує: "Як і в разі смарт-контрактів, логіка поведінки AI-агентів також реалізується кодом. Оскільки це код, існує можливість атаки, тому необхідно проводити професійний аудит безпеки та тестування на проникнення."
З розвитком технології блокчейн та розширенням її застосування, питання безпеки залишиться в центрі уваги галузі. У контексті великої тенденції інтеграції AI та Web3, досягнення балансу між інноваціями та безпекою стане важливим викликом для галузі в найближчий час.