Les défis de sécurité liés à la fusion de l'IA et du Web3 : les nouveaux risques à l'ère DeFAI
Lors de la récente semaine de la blockchain tenue à Istanbul, des experts du secteur ont mené une discussion approfondie sur la tendance à la fusion de l'intelligence artificielle et du Web3, en mettant l'accent sur les défis de sécurité qui en découlent.
Pendant la période de l'événement, plusieurs experts du domaine de la sécurité ont participé à un forum en table ronde pour discuter de l'état actuel des applications de la technologie AI dans la finance décentralisée ( DeFi ) et de ses risques potentiels. Avec le développement rapide des grands modèles de langage et des agents AI, un nouveau modèle financier appelé "DeFAI" (finance décentralisée par l'intelligence artificielle) est en train de se former progressivement. Cependant, cette innovation a également apporté de nouvelles surfaces d'attaque et des risques de sécurité.
Un expert participant a souligné : "Bien que DeFAI ait un avenir prometteur, il nous oblige également à repenser les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents logiques fixes traditionnels, le processus de décision des agents AI est influencé par divers facteurs, y compris le contexte, le temps et même les interactions historiques. Cette imprévisibilité augmente non seulement le risque, mais offre également des opportunités aux attaquants potentiels."
Les agents d'IA sont des entités intelligentes capables de prendre des décisions autonomes et d'exécuter des actions sur la base de logiques d'intelligence artificielle, généralement autorisées à fonctionner par des utilisateurs, des protocoles ou des organisations autonomes décentralisées (DAO). L'exemple le plus typique en est le robot de trading AI. Actuellement, la majorité des agents d'IA fonctionnent encore sur une architecture Web2, dépendant de serveurs et d'API centralisés, ce qui les rend vulnérables à divers types d'attaques, telles que les attaques par injection, la manipulation de modèles ou la falsification de données. Une fois qu'un agent d'IA est détourné, cela peut non seulement entraîner des pertes financières directes, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également mentionné un scénario d'attaque possible : lorsque l'agent de trading IA utilisé par un utilisateur DeFi surveille les messages sur les réseaux sociaux comme signaux de trading, si un attaquant publie une fausse alerte, par exemple en affirmant qu'un certain protocole est attaqué, cela pourrait inciter l'agent à déclencher immédiatement une opération de liquidation d'urgence. Cela pourrait non seulement entraîner une perte d'actifs pour l'utilisateur, mais aussi provoquer une volatilité sur le marché, que l'attaquant pourrait ensuite exploiter par des moyens tels que le trading anticipé.
Concernant ces risques, les experts présents s'accordent à dire que la sécurité des agents IA devrait être une responsabilité partagée entre les utilisateurs, les développeurs et les agences de sécurité tierces.
Tout d'abord, les utilisateurs doivent comprendre clairement l'étendue des droits détenus par les agents, accorder les droits avec prudence et prêter attention à l'examen des opérations à haut risque de l'agent AI. Deuxièmement, les développeurs devraient mettre en œuvre des mesures de protection dès la phase de conception, telles que le renforcement des invites, l'isolement dans un bac à sable, la limitation de la fréquence et des logiques de retour. Les entreprises de sécurité tierces devraient fournir un examen indépendant du comportement des modèles d'agents AI, de l'infrastructure et des méthodes d'intégration en chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a averti : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il est juste une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Pour les développeurs qui explorent la direction DeFAI, il a suggéré : "Tout comme les contrats intelligents, la logique de comportement des agents IA est également mise en œuvre par du code. Puisqu'il s'agit de code, il existe une possibilité d'attaque, c'est pourquoi des audits de sécurité professionnels et des tests de pénétration sont nécessaires."
Avec le développement continu de la technologie blockchain et l'élargissement de son champ d'application, les problèmes de sécurité continueront d'être au centre des préoccupations du secteur. Dans le contexte de la tendance à la fusion de l'IA et du Web3, trouver un équilibre entre innovation et sécurité sera un défi important auquel l'industrie sera confrontée dans un avenir proche.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
20 J'aime
Récompense
20
6
Partager
Commentaire
0/400
PancakeFlippa
· 08-01 20:24
Ne raconte pas tant de choses, fais-le tout simplement.
La sécurité des agents IA devient un nouveau défi à l'ère DeFAI, les experts appellent à plus long partage des responsabilités.
Les défis de sécurité liés à la fusion de l'IA et du Web3 : les nouveaux risques à l'ère DeFAI
Lors de la récente semaine de la blockchain tenue à Istanbul, des experts du secteur ont mené une discussion approfondie sur la tendance à la fusion de l'intelligence artificielle et du Web3, en mettant l'accent sur les défis de sécurité qui en découlent.
Pendant la période de l'événement, plusieurs experts du domaine de la sécurité ont participé à un forum en table ronde pour discuter de l'état actuel des applications de la technologie AI dans la finance décentralisée ( DeFi ) et de ses risques potentiels. Avec le développement rapide des grands modèles de langage et des agents AI, un nouveau modèle financier appelé "DeFAI" (finance décentralisée par l'intelligence artificielle) est en train de se former progressivement. Cependant, cette innovation a également apporté de nouvelles surfaces d'attaque et des risques de sécurité.
Un expert participant a souligné : "Bien que DeFAI ait un avenir prometteur, il nous oblige également à repenser les mécanismes de confiance dans les systèmes décentralisés. Contrairement aux contrats intelligents logiques fixes traditionnels, le processus de décision des agents AI est influencé par divers facteurs, y compris le contexte, le temps et même les interactions historiques. Cette imprévisibilité augmente non seulement le risque, mais offre également des opportunités aux attaquants potentiels."
Les agents d'IA sont des entités intelligentes capables de prendre des décisions autonomes et d'exécuter des actions sur la base de logiques d'intelligence artificielle, généralement autorisées à fonctionner par des utilisateurs, des protocoles ou des organisations autonomes décentralisées (DAO). L'exemple le plus typique en est le robot de trading AI. Actuellement, la majorité des agents d'IA fonctionnent encore sur une architecture Web2, dépendant de serveurs et d'API centralisés, ce qui les rend vulnérables à divers types d'attaques, telles que les attaques par injection, la manipulation de modèles ou la falsification de données. Une fois qu'un agent d'IA est détourné, cela peut non seulement entraîner des pertes financières directes, mais aussi affecter la stabilité de l'ensemble du protocole.
Les experts ont également mentionné un scénario d'attaque possible : lorsque l'agent de trading IA utilisé par un utilisateur DeFi surveille les messages sur les réseaux sociaux comme signaux de trading, si un attaquant publie une fausse alerte, par exemple en affirmant qu'un certain protocole est attaqué, cela pourrait inciter l'agent à déclencher immédiatement une opération de liquidation d'urgence. Cela pourrait non seulement entraîner une perte d'actifs pour l'utilisateur, mais aussi provoquer une volatilité sur le marché, que l'attaquant pourrait ensuite exploiter par des moyens tels que le trading anticipé.
Concernant ces risques, les experts présents s'accordent à dire que la sécurité des agents IA devrait être une responsabilité partagée entre les utilisateurs, les développeurs et les agences de sécurité tierces.
Tout d'abord, les utilisateurs doivent comprendre clairement l'étendue des droits détenus par les agents, accorder les droits avec prudence et prêter attention à l'examen des opérations à haut risque de l'agent AI. Deuxièmement, les développeurs devraient mettre en œuvre des mesures de protection dès la phase de conception, telles que le renforcement des invites, l'isolement dans un bac à sable, la limitation de la fréquence et des logiques de retour. Les entreprises de sécurité tierces devraient fournir un examen indépendant du comportement des modèles d'agents AI, de l'infrastructure et des méthodes d'intégration en chaîne, et collaborer avec les développeurs et les utilisateurs pour identifier les risques et proposer des mesures d'atténuation.
Un expert en sécurité a averti : "Si nous continuons à considérer les agents IA comme une 'boîte noire', il est juste une question de temps avant qu'un accident de sécurité ne se produise dans le monde réel." Pour les développeurs qui explorent la direction DeFAI, il a suggéré : "Tout comme les contrats intelligents, la logique de comportement des agents IA est également mise en œuvre par du code. Puisqu'il s'agit de code, il existe une possibilité d'attaque, c'est pourquoi des audits de sécurité professionnels et des tests de pénétration sont nécessaires."
Avec le développement continu de la technologie blockchain et l'élargissement de son champ d'application, les problèmes de sécurité continueront d'être au centre des préoccupations du secteur. Dans le contexte de la tendance à la fusion de l'IA et du Web3, trouver un équilibre entre innovation et sécurité sera un défi important auquel l'industrie sera confrontée dans un avenir proche.