La seguridad de los agentes de IA se convierte en un nuevo desafío en la era DeFAI. Los expertos piden que todos asuman la responsabilidad.

robot
Generación de resúmenes en curso

Desafíos de seguridad derivados de la fusión de AI y Web3: nuevos riesgos en la era DeFAI

Recientemente, en el evento de Blockchain Week celebrado en Estambul, expertos de la industria llevaron a cabo una profunda discusión sobre la tendencia de fusión entre la inteligencia artificial y Web3, centrándose en los desafíos de seguridad que esto conlleva.

Durante el evento, varios expertos en el campo de la seguridad participaron en un foro de mesa redonda, donde discutieron el estado actual de la aplicación de la tecnología AI en las finanzas descentralizadas ( DeFi ) y sus riesgos potenciales. Con el rápido desarrollo de los modelos de lenguaje grande y los agentes de AI, se está formando gradualmente un nuevo modelo financiero conocido como "DeFAI" (finanzas de inteligencia artificial descentralizada). Sin embargo, esta innovación también ha traído nuevas superficies de ataque y riesgos de seguridad.

IBW 2025: La fusión de AI y Web3, nuevos desafíos de seguridad bajo el auge de DeFAI

Un experto participante señaló: "Aunque DeFAI tiene un gran potencial, también nos obliga a repensar el mecanismo de confianza en los sistemas descentralizados. A diferencia de los contratos inteligentes de lógica fija tradicionales, el proceso de toma de decisiones de los agentes de AI se ve influenciado por diversos factores, incluyendo el contexto, el tiempo e incluso las interacciones históricas. Esta imprevisibilidad no solo incrementa el riesgo, sino que también ofrece oportunidades para atacantes potenciales."

Los agentes de IA son entidades inteligentes que pueden tomar decisiones y ejecutar acciones de manera autónoma basándose en la lógica de la inteligencia artificial, y normalmente son autorizados para operar por usuarios, protocolos u organizaciones autónomas descentralizadas (DAO). Uno de los ejemplos más típicos son los robots de trading de IA. Actualmente, la mayoría de los agentes de IA aún funcionan en una arquitectura Web2, dependiendo de servidores centralizados y APIs, lo que los hace vulnerables a varios ataques, como ataques de inyección, manipulación de modelos o alteración de datos. Una vez que un agente de IA es secuestrado, no solo puede resultar en pérdidas de fondos directas, sino que también puede afectar la estabilidad de todo el protocolo.

Los expertos también mencionaron un posible escenario de ataque: cuando un agente de comercio de IA que ejecutan los usuarios de DeFi está monitoreando mensajes en redes sociales como señales de comercio, si un atacante publica una falsa alarma, como afirmar que un protocolo está bajo ataque, podría inducir al agente a iniciar inmediatamente una operación de liquidación de emergencia. Esto no solo resultaría en pérdidas de activos para los usuarios, sino que también podría provocar fluctuaciones en el mercado, las cuales el atacante podría aprovechar a través de tácticas como el comercio anticipado.

En relación con estos riesgos, los expertos presentes coinciden en que la seguridad de los agentes de IA debe ser una responsabilidad compartida entre los usuarios, los desarrolladores y las agencias de seguridad de terceros.

Primero, los usuarios deben tener claro el alcance de los permisos que posee el agente y otorgar permisos con precaución, prestando atención a la revisión de las operaciones de alto riesgo del agente de IA. En segundo lugar, los desarrolladores deben implementar medidas de defensa en la etapa de diseño, como la robustecimiento de palabras clave, el aislamiento en sandbox, la limitación de tasas y la lógica de retroceso. Las empresas de seguridad de terceros deben proporcionar una revisión independiente del comportamiento del modelo del agente de IA, la infraestructura y la forma de integración en la cadena, trabajando con desarrolladores y usuarios para identificar riesgos y proponer medidas de mitigación.

IBW 2025: Nuevos desafíos de seguridad bajo la creciente DeFAI en la fusión de AI y Web3

Un experto en seguridad advirtió: "Si continuamos considerando a los agentes de IA como una 'caja negra', los accidentes de seguridad en el mundo real son solo una cuestión de tiempo." Para los desarrolladores que están explorando la dirección de DeFAI, él aconseja: "Al igual que los contratos inteligentes, la lógica de comportamiento de los agentes de IA también está implementada por código. Dado que es código, existe la posibilidad de ser atacado, por lo que se requiere una auditoría de seguridad profesional y pruebas de penetración."

Con el continuo desarrollo de la tecnología blockchain y la expansión de su ámbito de aplicación, los problemas de seguridad seguirán siendo el foco de atención de la industria. En el contexto de la gran tendencia de la fusión entre AI y Web3, encontrar un equilibrio entre la innovación y la seguridad será un desafío importante que enfrentará la industria en el futuro.

Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 6
  • Compartir
Comentar
0/400
PancakeFlippavip
· 08-01 20:24
No hables tanto, solo hazlo.
Ver originalesResponder0
quietly_stakingvip
· 07-31 08:05
La seguridad es clave. Hablaremos de eso más tarde.
Ver originalesResponder0
FadCatchervip
· 07-30 02:28
Cadena de bloques tontos
Ver originalesResponder0
OnchainHolmesvip
· 07-30 02:21
¿Es realmente confiable el análisis de expertos?
Ver originalesResponder0
TokenomicsTinfoilHatvip
· 07-30 02:15
Otra vez vienen a tomar a la gente por tonta
Ver originalesResponder0
not_your_keysvip
· 07-30 02:00
Otra vez un montón de palabras vacías
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)