Нові фінансові парадигми в умовах злиття AI та Web3: зростання DeFAI та виклики безпеки
Нещодавно, під час заходу Blockchain Week, що проходив в Стамбулі, експерти галузі провели глибокі дискусії про тенденції інтеграції штучного інтелекту та Web3. Протягом заходу кілька експертів у сфері безпеки та технологій взяли участь у круглом столі, де обговорювали стан застосування технологій ШІ у децентралізованих фінансах та пов'язані з цим виклики безпеки.
З розвитком великих мовних моделей та AI-агентів поступово формується нова фінансова парадигма, відома як "DeFAI" (децентралізовані фінанси штучного інтелекту). Однак ця інновація також приносить нові проблеми безпеки та потенційні ризики.
Деякий керівник безпекової компанії зазначив: "Хоча DeFAI має великі перспективи, він вимагає від нас переосмислення механізму довіри в децентралізованих системах. На відміну від традиційних смарт-контрактів, що базуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу багатьох факторів, включаючи контекст, час і навіть історичні взаємодії. Ця непередбачуваність не лише збільшує ризики, але й надає потенційним зловмисникам можливість для атаки."
AI-агенти по суті є інтелектуальними системами, які здатні самостійно приймати рішення та виконувати їх на основі AI-логіки, зазвичай вони працюють під авторизацією користувачів, протоколів або децентралізованих автономних організацій. Наразі найбільш типовим прикладом є AI-торгові роботи. Проте більшість AI-агентів досі працюють на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до різних атак, таких як атаки ін'єкцій, маніпуляції моделями або спотворення даних. Як тільки AI-агент буде захоплений, це може призвести не лише до прямих фінансових втрат, але й вплинути на стабільність усього протоколу.
Експерти також обговорили типову сценарій атаки: коли AI-торговий агент, що працює для користувачів DeFi, моніторить повідомлення у соціальних мережах як торгові сигнали, зловмисник може опублікувати фальшиві тривоги, наприклад, стверджуючи, що певний протокол піддається атаці. Це може спонукати AI-агента негайно розпочати термінове ліквідаційне торгівлю, що призведе не лише до втрати активів користувача, але й може викликати коливання на ринку, які зловмисники можуть використовувати через попередню торгівлю та інші методи.
Стикаючись із цими ризиками, учасники конференції одностайно вважають, що безпека AI-агентів має бути спільною відповідальністю користувачів, розробників та третіх сторін, які забезпечують безпеку. Користувачі повинні чітко розуміти межі повноважень агентів, обережно надавати доступ і уважно стежити за високоризиковими операціями AI-агентів. Розробники повинні впроваджувати заходи безпеки на етапі проектування, такі як посилення підказок, ізоляція в пісочниці, обмеження швидкості та механізми резервного відновлення. Треті сторони, які забезпечують безпеку, повинні надавати незалежний огляд поведінки моделей AI-агентів, інфраструктури та способів інтеграції в блокчейн, а також співпрацювати з розробниками та користувачами для виявлення ризиків і запропонування заходів для їх пом'якшення.
Останній безпековий експерт підкреслив: "Якщо ми і далі будемо розглядати AI-агентів як 'чорну скриньку', то нещасний випадок у реальному світі – це лише питання часу." Він порадив розробникам, які досліджують напрямок DeFAI: "Як і в розумних контрактах, логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атак, тому потрібно провести професійний аудит безпеки та тестування на проникнення."
Стамбульський тиждень блокчейну, як одна з найвпливовіших блокчейн-подій Європи, вже залучив понад 15 тисяч розробників, проектних команд, інвесторів та регуляторів з усього світу. З запуском Комісією з капітальних ринків Туреччини офіційної видачі ліцензій на блокчейн-проекти, статус цієї події в галузі отримав подальше підвищення.
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
21 лайків
Нагородити
21
5
Поділіться
Прокоментувати
0/400
ImpermanentLossEnjoyer
· 07-17 20:10
Контроль ризиків справді більше не проводиться?
Переглянути оригіналвідповісти на0
StablecoinEnjoyer
· 07-14 21:14
Перед вами Хакер, за вами баг.
Переглянути оригіналвідповісти на0
ShibaMillionairen't
· 07-14 20:53
індустріальні невдахи
Переглянути оригіналвідповісти на0
FlashLoanLarry
· 07-14 20:51
rekt incoming... бачив цей фільм раніше з defi 1.0. капітальна ефективність != безпека
DeFAI зростання: застосування AI-агентів у Децентралізованому фінансуванні та виклики безпеки
Нові фінансові парадигми в умовах злиття AI та Web3: зростання DeFAI та виклики безпеки
Нещодавно, під час заходу Blockchain Week, що проходив в Стамбулі, експерти галузі провели глибокі дискусії про тенденції інтеграції штучного інтелекту та Web3. Протягом заходу кілька експертів у сфері безпеки та технологій взяли участь у круглом столі, де обговорювали стан застосування технологій ШІ у децентралізованих фінансах та пов'язані з цим виклики безпеки.
З розвитком великих мовних моделей та AI-агентів поступово формується нова фінансова парадигма, відома як "DeFAI" (децентралізовані фінанси штучного інтелекту). Однак ця інновація також приносить нові проблеми безпеки та потенційні ризики.
Деякий керівник безпекової компанії зазначив: "Хоча DeFAI має великі перспективи, він вимагає від нас переосмислення механізму довіри в децентралізованих системах. На відміну від традиційних смарт-контрактів, що базуються на фіксованій логіці, процес прийняття рішень AI-агентів підлягає впливу багатьох факторів, включаючи контекст, час і навіть історичні взаємодії. Ця непередбачуваність не лише збільшує ризики, але й надає потенційним зловмисникам можливість для атаки."
AI-агенти по суті є інтелектуальними системами, які здатні самостійно приймати рішення та виконувати їх на основі AI-логіки, зазвичай вони працюють під авторизацією користувачів, протоколів або децентралізованих автономних організацій. Наразі найбільш типовим прикладом є AI-торгові роботи. Проте більшість AI-агентів досі працюють на основі архітектури Web2, покладаючись на централізовані сервери та API, що робить їх вразливими до різних атак, таких як атаки ін'єкцій, маніпуляції моделями або спотворення даних. Як тільки AI-агент буде захоплений, це може призвести не лише до прямих фінансових втрат, але й вплинути на стабільність усього протоколу.
Експерти також обговорили типову сценарій атаки: коли AI-торговий агент, що працює для користувачів DeFi, моніторить повідомлення у соціальних мережах як торгові сигнали, зловмисник може опублікувати фальшиві тривоги, наприклад, стверджуючи, що певний протокол піддається атаці. Це може спонукати AI-агента негайно розпочати термінове ліквідаційне торгівлю, що призведе не лише до втрати активів користувача, але й може викликати коливання на ринку, які зловмисники можуть використовувати через попередню торгівлю та інші методи.
Стикаючись із цими ризиками, учасники конференції одностайно вважають, що безпека AI-агентів має бути спільною відповідальністю користувачів, розробників та третіх сторін, які забезпечують безпеку. Користувачі повинні чітко розуміти межі повноважень агентів, обережно надавати доступ і уважно стежити за високоризиковими операціями AI-агентів. Розробники повинні впроваджувати заходи безпеки на етапі проектування, такі як посилення підказок, ізоляція в пісочниці, обмеження швидкості та механізми резервного відновлення. Треті сторони, які забезпечують безпеку, повинні надавати незалежний огляд поведінки моделей AI-агентів, інфраструктури та способів інтеграції в блокчейн, а також співпрацювати з розробниками та користувачами для виявлення ризиків і запропонування заходів для їх пом'якшення.
Останній безпековий експерт підкреслив: "Якщо ми і далі будемо розглядати AI-агентів як 'чорну скриньку', то нещасний випадок у реальному світі – це лише питання часу." Він порадив розробникам, які досліджують напрямок DeFAI: "Як і в розумних контрактах, логіка поведінки AI-агентів також реалізується за допомогою коду. Оскільки це код, існує можливість атак, тому потрібно провести професійний аудит безпеки та тестування на проникнення."
Стамбульський тиждень блокчейну, як одна з найвпливовіших блокчейн-подій Європи, вже залучив понад 15 тисяч розробників, проектних команд, інвесторів та регуляторів з усього світу. З запуском Комісією з капітальних ринків Туреччини офіційної видачі ліцензій на блокчейн-проекти, статус цієї події в галузі отримав подальше підвищення.