A segurança dos agentes de IA representa um novo desafio na era DeFAI. Especialistas apelam à responsabilidade compartilhada.

robot
Geração de resumo em curso

Desafios de segurança trazidos pela fusão da IA e Web3: Novos riscos na era DeFAI

Recentemente, durante a Blockchain Week realizada em Istambul, especialistas da indústria discutiram em profundidade as tendências de fusão entre inteligência artificial e Web3, com foco nos desafios de segurança que isso traz.

Durante o evento, vários especialistas na área de segurança participaram de um fórum de mesa redonda, onde discutiram o estado atual e os potenciais riscos da aplicação da tecnologia AI em finanças descentralizadas ( DeFi ). Com o rápido desenvolvimento de grandes modelos de linguagem e agentes de AI, um novo modelo financeiro conhecido como "DeFAI" (Finanças Descentralizadas de Inteligência Artificial) está sendo gradualmente formado. No entanto, essa inovação também trouxe novas superfícies de ataque e riscos de segurança.

IBW 2025: A fusão de AI e Web3, novos desafios de segurança sob a ascensão do DeFAI

Um especialista presente na conferência apontou: "Embora o DeFAI tenha um grande potencial, também nos força a repensar os mecanismos de confiança em sistemas descentralizados. Ao contrário dos contratos inteligentes de lógica fixa tradicionais, o processo de decisão dos agentes de IA é influenciado por vários fatores, incluindo contexto, tempo e até interações históricas. Essa imprevisibilidade não só aumenta os riscos, mas também oferece oportunidades para potenciais atacantes."

Os agentes de IA são entidades inteligentes que podem tomar decisões e executar ações de forma autônoma com base na lógica da inteligência artificial, normalmente autorizados a operar por usuários, protocolos ou organizações autônomas descentralizadas (DAO). Um dos exemplos mais típicos são os robôs de negociação de IA. Atualmente, a maioria dos agentes de IA ainda opera em uma arquitetura Web2, dependendo de servidores centralizados e APIs, o que os torna vulneráveis a vários ataques, como ataques de injeção, manipulação de modelos ou adulteração de dados. Uma vez que um agente de IA seja sequestrado, isso pode não apenas resultar em perdas financeiras diretas, mas também afetar a estabilidade de todo o protocolo.

Os especialistas também mencionaram um possível cenário de ataque: quando um agente de negociação de IA operado por usuários de DeFi está monitorando mensagens de redes sociais como sinais de negociação, se um atacante publicar um falso alerta, como alegar que um determinado protocolo está sob ataque, isso pode induzir o agente a iniciar imediatamente uma operação de liquidação de emergência. Isso não só causaria perdas nos ativos dos usuários, mas também poderia desencadear volatilidade no mercado, que poderia ser explorada pelo atacante através de táticas como negociação antecipada.

Em relação a esses riscos, os especialistas presentes geralmente acreditam que a segurança dos agentes de IA deve ser uma responsabilidade conjunta dos usuários, desenvolvedores e instituições de segurança de terceiros.

Primeiro, os usuários precisam entender claramente o escopo de permissões que o agente possui, conceder permissões com cautela e estar atentos à revisão das operações de alto risco do agente de IA. Em segundo lugar, os desenvolvedores devem implementar medidas de defesa desde a fase de design, como reforço de prompts, isolamento em sandbox, limitação de taxa e lógica de fallback. As empresas de segurança terceirizadas devem fornecer uma revisão independente do comportamento do modelo do agente de IA, da infraestrutura e da forma de integração em blockchain, colaborando com desenvolvedores e usuários para identificar riscos e propor medidas de mitigação.

IBW 2025: A fusão de AI e Web3, novos desafios de segurança sob a ascensão do DeFAI

Um especialista em segurança alertou: "Se continuarmos a ver os agentes de IA como uma 'caixa preta', será apenas uma questão de tempo até que ocorram acidentes de segurança no mundo real." Para os desenvolvedores que estão a explorar a direção da DeFAI, ele aconselha: "Assim como os contratos inteligentes, a lógica de comportamento dos agentes de IA também é implementada por código. Sendo código, existe a possibilidade de ser atacado, por isso é necessário realizar auditorias de segurança e testes de penetração profissionais."

Com o contínuo desenvolvimento da tecnologia blockchain e a expansão de suas aplicações, os problemas de segurança continuarão a ser um foco de atenção na indústria. Na grande tendência de fusão entre IA e Web3, como alcançar um equilíbrio entre inovação e segurança será um importante desafio que a indústria enfrentará no futuro próximo.

Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
  • Recompensa
  • 6
  • Partilhar
Comentar
0/400
PancakeFlippavip
· 08-01 20:24
Não fale tanto, apenas faça.
Ver originalResponder0
quietly_stakingvip
· 07-31 08:05
A segurança é a chave. Falo mais tarde.
Ver originalResponder0
FadCatchervip
· 07-30 02:28
Blockchain idiotas
Ver originalResponder0
OnchainHolmesvip
· 07-30 02:21
Os especialistas realmente têm credibilidade?
Ver originalResponder0
TokenomicsTinfoilHatvip
· 07-30 02:15
Outra vez a fazer as pessoas de parvas
Ver originalResponder0
not_your_keysvip
· 07-30 02:00
Mais uma pilha de palavras vazias.
Ver originalResponder0
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)