# AIとWeb3の融合がもたらすセキュリティの課題:DeFAI時代の新たなリスク最近、イスタンブールで開催されたブロックチェーンウィークイベントでは、業界の専門家たちが人工知能とWeb3の融合のトレンドについて深く議論し、それに伴うセキュリティの課題に重点を置きました。イベント期間中、複数のセキュリティ分野の専門家が円卓フォーラムに参加し、AI技術の分散型金融(DeFi)における適用状況とその潜在的リスクについて共に議論しました。大規模言語モデルとAIエージェントの急速な発展に伴い、「DeFAI」(分散型人工知能金融)と呼ばれる新しい金融モデルが徐々に形成されています。しかし、この革新は新たな攻撃面とセキュリティ上の脅威ももたらしました。! [IBW 2025:AIとWeb3の融合、DeFAIの台頭による新たなセキュリティ課題](https://img-cdn.gateio.im/social/moments-a0a1e7d2a396ea70a1e538a7508b046a)会議に参加していた専門家は指摘しました:"DeFAIは広い展望を持っていますが、私たちに去中心化システムにおける信頼メカニズムを再考させることも迫ります。従来の固定論理のスマートコントラクトとは異なり、AIエージェントの意思決定プロセスは、文脈や時間、さらには過去のインタラクションなど、さまざまな要因の影響を受けます。この予測不可能性はリスクを増加させるだけでなく、潜在的な攻撃者にとっても機会を提供します。"AIエージェントは、人工知能の論理に基づいて自主的に意思決定と実行を行うインテリジェントエージェントであり、通常、ユーザー、プロトコル、または分散型自治組織(DAO)によって許可されて運営されます。最も典型的な例はAIトレーディングボットです。現在、大多数のAIエージェントは依然としてWeb2アーキテクチャ上で動作しており、集中型サーバーとAPIに依存しているため、注入攻撃、モデル操作、データ改ざんなど、さまざまな攻撃に対して脆弱です。一度AIエージェントがハイジャックされると、直接的な資金損失を引き起こすだけでなく、全体のプロトコルの安定性にも影響を及ぼす可能性があります。専門家たちは、DeFiユーザーが運用するAI取引エージェントが取引信号としてソーシャルメディアのメッセージを監視しているときに、攻撃者が虚偽の警告を発表する可能性のある攻撃シナリオについて言及しました。例えば、あるプロトコルが攻撃を受けていると主張することによって、そのエージェントが直ちに緊急清算操作を開始するよう仕向けることができます。これはユーザーの資産損失を引き起こすだけでなく、市場の変動を引き起こし、それを攻撃者が先行取引などの手段を用いて利用する可能性があります。これらのリスクに対して、参加した専門家たちは、AIエージェントの安全性はユーザー、開発者、および第三者の安全機関の共同責任であるべきだと一般的に考えています。まず、ユーザーは代理が持つ権限の範囲を明確に理解し、権限を慎重に付与し、AI代理の高リスク操作を注意して確認する必要があります。次に、開発者は設計段階で防御策を実施すべきであり、例えばプロンプトの強化、サンドボックス隔離、レート制限、フォールバックロジックなどのメカニズムを含みます。そして、第三者のセキュリティ会社はAI代理のモデルの挙動、インフラ、およびブロックチェーン上の統合方法に対して独立した審査を提供し、開発者やユーザーと協力してリスクを特定し、緩和策を提案するべきです。! [IBW 2025:AIとWeb3の融合、DeFAIの台頭による新たなセキュリティ課題](https://img-cdn.gateio.im/social/moments-580c83b37b8f1a74d4d09bcbc9ef024b)セキュリティ専門家が警告しました:"もし私たちがAIエージェントを'ブラックボックス'として見続けるなら、現実世界でのセキュリティ事故が発生するのは時間の問題です。" DeFAIの方向性を探求している開発者に対して、彼は次のように提案します:"スマートコントラクトと同様に、AIエージェントの行動ロジックもコードで実装されています。コードである以上、攻撃される可能性があるため、専門的なセキュリティ監査とペネトレーションテストが必要です。"ブロックチェーン技術の不断の進展と応用範囲の拡大に伴い、安全性の問題は業界の関心の焦点であり続けるでしょう。AIとWeb3の融合という大きなトレンドの中で、革新と安全性の間でバランスを取る方法が、今後しばらくの間、業界が直面する重要な課題となるでしょう。
AI代理安全はDeFAI時代の新たな挑戦 専門家はロング共に責任を負うよう呼びかける
AIとWeb3の融合がもたらすセキュリティの課題:DeFAI時代の新たなリスク
最近、イスタンブールで開催されたブロックチェーンウィークイベントでは、業界の専門家たちが人工知能とWeb3の融合のトレンドについて深く議論し、それに伴うセキュリティの課題に重点を置きました。
イベント期間中、複数のセキュリティ分野の専門家が円卓フォーラムに参加し、AI技術の分散型金融(DeFi)における適用状況とその潜在的リスクについて共に議論しました。大規模言語モデルとAIエージェントの急速な発展に伴い、「DeFAI」(分散型人工知能金融)と呼ばれる新しい金融モデルが徐々に形成されています。しかし、この革新は新たな攻撃面とセキュリティ上の脅威ももたらしました。
! IBW 2025:AIとWeb3の融合、DeFAIの台頭による新たなセキュリティ課題
会議に参加していた専門家は指摘しました:"DeFAIは広い展望を持っていますが、私たちに去中心化システムにおける信頼メカニズムを再考させることも迫ります。従来の固定論理のスマートコントラクトとは異なり、AIエージェントの意思決定プロセスは、文脈や時間、さらには過去のインタラクションなど、さまざまな要因の影響を受けます。この予測不可能性はリスクを増加させるだけでなく、潜在的な攻撃者にとっても機会を提供します。"
AIエージェントは、人工知能の論理に基づいて自主的に意思決定と実行を行うインテリジェントエージェントであり、通常、ユーザー、プロトコル、または分散型自治組織(DAO)によって許可されて運営されます。最も典型的な例はAIトレーディングボットです。現在、大多数のAIエージェントは依然としてWeb2アーキテクチャ上で動作しており、集中型サーバーとAPIに依存しているため、注入攻撃、モデル操作、データ改ざんなど、さまざまな攻撃に対して脆弱です。一度AIエージェントがハイジャックされると、直接的な資金損失を引き起こすだけでなく、全体のプロトコルの安定性にも影響を及ぼす可能性があります。
専門家たちは、DeFiユーザーが運用するAI取引エージェントが取引信号としてソーシャルメディアのメッセージを監視しているときに、攻撃者が虚偽の警告を発表する可能性のある攻撃シナリオについて言及しました。例えば、あるプロトコルが攻撃を受けていると主張することによって、そのエージェントが直ちに緊急清算操作を開始するよう仕向けることができます。これはユーザーの資産損失を引き起こすだけでなく、市場の変動を引き起こし、それを攻撃者が先行取引などの手段を用いて利用する可能性があります。
これらのリスクに対して、参加した専門家たちは、AIエージェントの安全性はユーザー、開発者、および第三者の安全機関の共同責任であるべきだと一般的に考えています。
まず、ユーザーは代理が持つ権限の範囲を明確に理解し、権限を慎重に付与し、AI代理の高リスク操作を注意して確認する必要があります。次に、開発者は設計段階で防御策を実施すべきであり、例えばプロンプトの強化、サンドボックス隔離、レート制限、フォールバックロジックなどのメカニズムを含みます。そして、第三者のセキュリティ会社はAI代理のモデルの挙動、インフラ、およびブロックチェーン上の統合方法に対して独立した審査を提供し、開発者やユーザーと協力してリスクを特定し、緩和策を提案するべきです。
! IBW 2025:AIとWeb3の融合、DeFAIの台頭による新たなセキュリティ課題
セキュリティ専門家が警告しました:"もし私たちがAIエージェントを'ブラックボックス'として見続けるなら、現実世界でのセキュリティ事故が発生するのは時間の問題です。" DeFAIの方向性を探求している開発者に対して、彼は次のように提案します:"スマートコントラクトと同様に、AIエージェントの行動ロジックもコードで実装されています。コードである以上、攻撃される可能性があるため、専門的なセキュリティ監査とペネトレーションテストが必要です。"
ブロックチェーン技術の不断の進展と応用範囲の拡大に伴い、安全性の問題は業界の関心の焦点であり続けるでしょう。AIとWeb3の融合という大きなトレンドの中で、革新と安全性の間でバランスを取る方法が、今後しばらくの間、業界が直面する重要な課題となるでしょう。