Tantangan Keamanan yang Dihadapi oleh Integrasi AI dan Web3: Risiko Baru di Era DeFAI
Dalam acara Pekan Blockchain yang baru-baru ini diadakan di Istanbul, para ahli industri melakukan diskusi mendalam tentang tren integrasi kecerdasan buatan dan Web3, dengan fokus pada tantangan keamanan yang ditimbulkan.
Selama periode acara, beberapa ahli di bidang keamanan berpartisipasi dalam forum meja bundar untuk membahas status aplikasi teknologi AI dalam keuangan terdesentralisasi ( DeFi ) dan potensi risikonya. Dengan pesatnya perkembangan model bahasa besar dan agen AI, sebuah model keuangan baru yang disebut "DeFAI" (Keuangan Kecerdasan Buatan Terdesentralisasi) secara bertahap sedang terbentuk. Namun, inovasi ini juga membawa permukaan serangan baru dan risiko keamanan.
Seorang ahli yang hadir mengemukakan: "DeFAI meskipun memiliki prospek yang luas, juga memaksa kita untuk memikirkan kembali mekanisme kepercayaan dalam sistem desentralisasi. Berbeda dengan kontrak pintar logika tetap tradisional, proses pengambilan keputusan agen AI akan dipengaruhi oleh berbagai faktor, termasuk konteks, waktu, bahkan interaksi sejarah. Ketidakpastian ini tidak hanya meningkatkan risiko, tetapi juga memberikan peluang bagi penyerang potensial."
AI agen adalah entitas cerdas yang dapat membuat keputusan dan melaksanakan secara mandiri berdasarkan logika kecerdasan buatan, biasanya diotorisasi untuk beroperasi oleh pengguna, protokol, atau organisasi otonom terdesentralisasi (DAO). Contoh paling khasnya adalah robot perdagangan AI. Saat ini, sebagian besar agen AI masih beroperasi di arsitektur Web2, bergantung pada server terpusat dan API, yang membuat mereka rentan terhadap berbagai serangan, seperti serangan injeksi, manipulasi model, atau pemalsuan data. Begitu agen AI diretas, tidak hanya dapat menyebabkan kerugian dana secara langsung, tetapi juga dapat mempengaruhi stabilitas seluruh protokol.
Para ahli juga menyebutkan skenario serangan yang mungkin terjadi: ketika agen perdagangan AI yang dijalankan oleh pengguna DeFi memantau pesan media sosial sebagai sinyal perdagangan, jika penyerang menerbitkan peringatan palsu, misalnya mengklaim bahwa suatu protokol sedang diserang, hal ini dapat memicu agen tersebut untuk segera melakukan operasi likuidasi darurat. Ini tidak hanya dapat menyebabkan kerugian aset bagi pengguna, tetapi juga dapat memicu volatilitas pasar, yang kemudian dapat dimanfaatkan oleh penyerang melalui metode seperti perdagangan mendahului.
Mengenai risiko ini, para ahli yang hadir umumnya sepakat bahwa keamanan agen AI harus menjadi tanggung jawab bersama antara pengguna, pengembang, dan lembaga keamanan pihak ketiga.
Pertama, pengguna perlu memahami dengan jelas ruang lingkup hak yang dimiliki oleh agen, memberikan hak dengan hati-hati, dan memperhatikan pemeriksaan operasi berisiko tinggi dari agen AI. Kedua, pengembang harus menerapkan langkah-langkah pertahanan pada tahap desain, seperti penguatan prompt, isolasi sandbox, pembatasan laju, dan logika fallback. Sementara itu, perusahaan keamanan pihak ketiga harus memberikan tinjauan independen terhadap perilaku model agen AI, infrastruktur, serta cara integrasi di blockchain, dan bekerja sama dengan pengembang dan pengguna untuk mengidentifikasi risiko dan mengusulkan langkah-langkah mitigasi.
Seorang ahli keamanan memperingatkan: "Jika kita terus melihat agen AI sebagai 'kotak hitam', kecelakaan keamanan di dunia nyata hanyalah masalah waktu." Untuk pengembang yang sedang mengeksplorasi arah DeFAI, ia menyarankan: "Sama seperti kontrak pintar, logika perilaku agen AI juga diimplementasikan oleh kode. Karena ini adalah kode, ada kemungkinan untuk diserang, oleh karena itu perlu dilakukan audit keamanan dan pengujian penetrasi secara profesional."
Seiring dengan perkembangan teknologi blockchain yang terus berlanjut dan perluasan jangkauan aplikasinya, masalah keamanan akan terus menjadi fokus perhatian industri. Dalam tren besar integrasi AI dan Web3, bagaimana mencapai keseimbangan antara inovasi dan keamanan akan menjadi tantangan penting yang dihadapi industri dalam waktu dekat.
Lihat Asli
Halaman ini mungkin berisi konten pihak ketiga, yang disediakan untuk tujuan informasi saja (bukan pernyataan/jaminan) dan tidak boleh dianggap sebagai dukungan terhadap pandangannya oleh Gate, atau sebagai nasihat keuangan atau profesional. Lihat Penafian untuk detailnya.
20 Suka
Hadiah
20
6
Bagikan
Komentar
0/400
PancakeFlippa
· 08-01 20:24
Jangan banyak bicara, langsung lakukan saja.
Lihat AsliBalas0
quietly_staking
· 07-31 08:05
Keamanan adalah kunci, kita bicarakan nanti.
Lihat AsliBalas0
FadCatcher
· 07-30 02:28
Blockchain kecil suckers
Lihat AsliBalas0
OnchainHolmes
· 07-30 02:21
Apakah diskusi para ahli benar-benar dapat diandalkan?
AI代理安全成DeFAI时代新挑战 专家呼吁 lebih lama共担责任
Tantangan Keamanan yang Dihadapi oleh Integrasi AI dan Web3: Risiko Baru di Era DeFAI
Dalam acara Pekan Blockchain yang baru-baru ini diadakan di Istanbul, para ahli industri melakukan diskusi mendalam tentang tren integrasi kecerdasan buatan dan Web3, dengan fokus pada tantangan keamanan yang ditimbulkan.
Selama periode acara, beberapa ahli di bidang keamanan berpartisipasi dalam forum meja bundar untuk membahas status aplikasi teknologi AI dalam keuangan terdesentralisasi ( DeFi ) dan potensi risikonya. Dengan pesatnya perkembangan model bahasa besar dan agen AI, sebuah model keuangan baru yang disebut "DeFAI" (Keuangan Kecerdasan Buatan Terdesentralisasi) secara bertahap sedang terbentuk. Namun, inovasi ini juga membawa permukaan serangan baru dan risiko keamanan.
Seorang ahli yang hadir mengemukakan: "DeFAI meskipun memiliki prospek yang luas, juga memaksa kita untuk memikirkan kembali mekanisme kepercayaan dalam sistem desentralisasi. Berbeda dengan kontrak pintar logika tetap tradisional, proses pengambilan keputusan agen AI akan dipengaruhi oleh berbagai faktor, termasuk konteks, waktu, bahkan interaksi sejarah. Ketidakpastian ini tidak hanya meningkatkan risiko, tetapi juga memberikan peluang bagi penyerang potensial."
AI agen adalah entitas cerdas yang dapat membuat keputusan dan melaksanakan secara mandiri berdasarkan logika kecerdasan buatan, biasanya diotorisasi untuk beroperasi oleh pengguna, protokol, atau organisasi otonom terdesentralisasi (DAO). Contoh paling khasnya adalah robot perdagangan AI. Saat ini, sebagian besar agen AI masih beroperasi di arsitektur Web2, bergantung pada server terpusat dan API, yang membuat mereka rentan terhadap berbagai serangan, seperti serangan injeksi, manipulasi model, atau pemalsuan data. Begitu agen AI diretas, tidak hanya dapat menyebabkan kerugian dana secara langsung, tetapi juga dapat mempengaruhi stabilitas seluruh protokol.
Para ahli juga menyebutkan skenario serangan yang mungkin terjadi: ketika agen perdagangan AI yang dijalankan oleh pengguna DeFi memantau pesan media sosial sebagai sinyal perdagangan, jika penyerang menerbitkan peringatan palsu, misalnya mengklaim bahwa suatu protokol sedang diserang, hal ini dapat memicu agen tersebut untuk segera melakukan operasi likuidasi darurat. Ini tidak hanya dapat menyebabkan kerugian aset bagi pengguna, tetapi juga dapat memicu volatilitas pasar, yang kemudian dapat dimanfaatkan oleh penyerang melalui metode seperti perdagangan mendahului.
Mengenai risiko ini, para ahli yang hadir umumnya sepakat bahwa keamanan agen AI harus menjadi tanggung jawab bersama antara pengguna, pengembang, dan lembaga keamanan pihak ketiga.
Pertama, pengguna perlu memahami dengan jelas ruang lingkup hak yang dimiliki oleh agen, memberikan hak dengan hati-hati, dan memperhatikan pemeriksaan operasi berisiko tinggi dari agen AI. Kedua, pengembang harus menerapkan langkah-langkah pertahanan pada tahap desain, seperti penguatan prompt, isolasi sandbox, pembatasan laju, dan logika fallback. Sementara itu, perusahaan keamanan pihak ketiga harus memberikan tinjauan independen terhadap perilaku model agen AI, infrastruktur, serta cara integrasi di blockchain, dan bekerja sama dengan pengembang dan pengguna untuk mengidentifikasi risiko dan mengusulkan langkah-langkah mitigasi.
Seorang ahli keamanan memperingatkan: "Jika kita terus melihat agen AI sebagai 'kotak hitam', kecelakaan keamanan di dunia nyata hanyalah masalah waktu." Untuk pengembang yang sedang mengeksplorasi arah DeFAI, ia menyarankan: "Sama seperti kontrak pintar, logika perilaku agen AI juga diimplementasikan oleh kode. Karena ini adalah kode, ada kemungkinan untuk diserang, oleh karena itu perlu dilakukan audit keamanan dan pengujian penetrasi secara profesional."
Seiring dengan perkembangan teknologi blockchain yang terus berlanjut dan perluasan jangkauan aplikasinya, masalah keamanan akan terus menjadi fokus perhatian industri. Dalam tren besar integrasi AI dan Web3, bagaimana mencapai keseimbangan antara inovasi dan keamanan akan menjadi tantangan penting yang dihadapi industri dalam waktu dekat.