Thách thức an ninh do sự kết hợp giữa AI và Web3: Rủi ro mới trong thời đại DeFAI
Gần đây, trong sự kiện Tuần lễ Blockchain tổ chức tại Istanbul, các chuyên gia trong ngành đã có những thảo luận sâu sắc về xu hướng tích hợp trí tuệ nhân tạo và Web3, tập trung vào những thách thức về an ninh mà điều này mang lại.
Trong suốt thời gian diễn ra sự kiện, nhiều chuyên gia trong lĩnh vực an ninh đã tham gia vào diễn đàn bàn tròn, cùng nhau thảo luận về tình hình ứng dụng công nghệ AI trong tài chính phi tập trung (DeFi) và những rủi ro tiềm ẩn của nó. Với sự phát triển nhanh chóng của các mô hình ngôn ngữ lớn và các tác nhân AI, một mô hình tài chính mới được gọi là "DeFAI" (tài chính trí tuệ nhân tạo phi tập trung) đang dần hình thành. Tuy nhiên, sự đổi mới này cũng mang đến những bề mặt tấn công mới và rủi ro an ninh.
Một chuyên gia tham dự hội nghị chỉ ra: "DeFAI mặc dù có triển vọng rộng lớn, nhưng cũng buộc chúng ta phải suy nghĩ lại về cơ chế tin cậy trong các hệ thống phi tập trung. Khác với hợp đồng thông minh với logic cố định truyền thống, quá trình ra quyết định của các đại lý AI sẽ bị ảnh hưởng bởi nhiều yếu tố, bao gồm ngữ cảnh, thời gian thậm chí là các tương tác lịch sử. Sự không thể đoán trước này không chỉ làm tăng rủi ro mà còn tạo cơ hội cho những kẻ tấn công tiềm năng."
AI đại lý là những tác nhân thông minh có khả năng tự quyết định và thực hiện dựa trên logic trí tuệ nhân tạo, thường được cấp quyền hoạt động bởi người dùng, giao thức hoặc tổ chức tự trị phi tập trung (DAO). Ví dụ điển hình nhất là robot giao dịch AI. Hiện tại, hầu hết các AI đại lý vẫn hoạt động trên kiến trúc Web2, phụ thuộc vào máy chủ và API tập trung, điều này khiến chúng dễ bị tấn công dưới nhiều hình thức khác nhau, chẳng hạn như tấn công tiêm, thao túng mô hình hoặc sửa đổi dữ liệu. Một khi AI đại lý bị xâm nhập, không chỉ có thể dẫn đến mất mát tài chính trực tiếp mà còn có thể ảnh hưởng đến sự ổn định của toàn bộ giao thức.
Các chuyên gia cũng đã đề cập đến một kịch bản tấn công có thể xảy ra: khi các đại lý giao dịch AI mà người dùng DeFi chạy đang theo dõi các tin nhắn trên mạng xã hội như là tín hiệu giao dịch, nếu kẻ tấn công phát hành một cảnh báo giả, chẳng hạn như tuyên bố rằng một giao thức nào đó đang bị tấn công, điều này có thể khiến đại lý đó ngay lập tức thực hiện các hành động thanh lý khẩn cấp. Điều này không chỉ gây thiệt hại cho tài sản của người dùng mà còn có thể gây ra biến động thị trường, sau đó được kẻ tấn công tận dụng thông qua các phương thức như giao dịch trước.
Đối với những rủi ro này, các chuyên gia tham gia hội nghị đều cho rằng, an toàn của các đại lý AI nên là trách nhiệm chung của người dùng, nhà phát triển và các tổ chức an ninh bên thứ ba.
Đầu tiên, người dùng cần hiểu rõ phạm vi quyền hạn của đại lý và cẩn thận cấp quyền, đồng thời chú ý kiểm tra các hoạt động rủi ro cao của đại lý AI. Thứ hai, các nhà phát triển nên thực hiện các biện pháp phòng ngừa ngay từ giai đoạn thiết kế, chẳng hạn như củng cố từ khóa, cách ly sandbox, giới hạn tốc độ và logic quay lại. Trong khi đó, các công ty an ninh bên thứ ba cần cung cấp đánh giá độc lập về hành vi mô hình của đại lý AI, cơ sở hạ tầng và cách tích hợp trên chuỗi, đồng thời hợp tác với các nhà phát triển và người dùng để xác định rủi ro và đề xuất các biện pháp giảm thiểu.
Một chuyên gia an ninh đã cảnh báo: "Nếu chúng ta tiếp tục coi các đại lý AI là 'hộp đen', thì việc xảy ra sự cố an toàn trong thế giới thực chỉ là vấn đề thời gian." Đối với các nhà phát triển đang khám phá hướng DeFAI, ông đề xuất: "Tương tự như hợp đồng thông minh, logic hành vi của các đại lý AI cũng được thực hiện bằng mã. Vì đã là mã, nên có khả năng bị tấn công, do đó cần phải thực hiện kiểm toán an ninh và kiểm tra thâm nhập chuyên nghiệp."
Với sự phát triển không ngừng của công nghệ blockchain và sự mở rộng của phạm vi ứng dụng, vấn đề an ninh sẽ tiếp tục trở thành tâm điểm chú ý của ngành. Trong xu hướng tích hợp AI và Web3, việc làm thế nào để đạt được sự cân bằng giữa đổi mới và an toàn sẽ là thách thức quan trọng mà ngành sẽ phải đối mặt trong một khoảng thời gian tới.
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
20 thích
Phần thưởng
20
6
Chia sẻ
Bình luận
0/400
PancakeFlippa
· 08-01 20:24
Đừng nói nhiều như vậy, làm thôi.
Xem bản gốcTrả lời0
quietly_staking
· 07-31 08:05
An toàn là chìa khóa, nói sau.
Xem bản gốcTrả lời0
FadCatcher
· 07-30 02:28
Blockchain đồ ngốc
Xem bản gốcTrả lời0
OnchainHolmes
· 07-30 02:21
Các chuyên gia thảo luận có thực sự đáng tin cậy không?
AI代理安全成DeFAI时代新挑战 专家呼吁 người theo lệnh long共担责任
Thách thức an ninh do sự kết hợp giữa AI và Web3: Rủi ro mới trong thời đại DeFAI
Gần đây, trong sự kiện Tuần lễ Blockchain tổ chức tại Istanbul, các chuyên gia trong ngành đã có những thảo luận sâu sắc về xu hướng tích hợp trí tuệ nhân tạo và Web3, tập trung vào những thách thức về an ninh mà điều này mang lại.
Trong suốt thời gian diễn ra sự kiện, nhiều chuyên gia trong lĩnh vực an ninh đã tham gia vào diễn đàn bàn tròn, cùng nhau thảo luận về tình hình ứng dụng công nghệ AI trong tài chính phi tập trung (DeFi) và những rủi ro tiềm ẩn của nó. Với sự phát triển nhanh chóng của các mô hình ngôn ngữ lớn và các tác nhân AI, một mô hình tài chính mới được gọi là "DeFAI" (tài chính trí tuệ nhân tạo phi tập trung) đang dần hình thành. Tuy nhiên, sự đổi mới này cũng mang đến những bề mặt tấn công mới và rủi ro an ninh.
Một chuyên gia tham dự hội nghị chỉ ra: "DeFAI mặc dù có triển vọng rộng lớn, nhưng cũng buộc chúng ta phải suy nghĩ lại về cơ chế tin cậy trong các hệ thống phi tập trung. Khác với hợp đồng thông minh với logic cố định truyền thống, quá trình ra quyết định của các đại lý AI sẽ bị ảnh hưởng bởi nhiều yếu tố, bao gồm ngữ cảnh, thời gian thậm chí là các tương tác lịch sử. Sự không thể đoán trước này không chỉ làm tăng rủi ro mà còn tạo cơ hội cho những kẻ tấn công tiềm năng."
AI đại lý là những tác nhân thông minh có khả năng tự quyết định và thực hiện dựa trên logic trí tuệ nhân tạo, thường được cấp quyền hoạt động bởi người dùng, giao thức hoặc tổ chức tự trị phi tập trung (DAO). Ví dụ điển hình nhất là robot giao dịch AI. Hiện tại, hầu hết các AI đại lý vẫn hoạt động trên kiến trúc Web2, phụ thuộc vào máy chủ và API tập trung, điều này khiến chúng dễ bị tấn công dưới nhiều hình thức khác nhau, chẳng hạn như tấn công tiêm, thao túng mô hình hoặc sửa đổi dữ liệu. Một khi AI đại lý bị xâm nhập, không chỉ có thể dẫn đến mất mát tài chính trực tiếp mà còn có thể ảnh hưởng đến sự ổn định của toàn bộ giao thức.
Các chuyên gia cũng đã đề cập đến một kịch bản tấn công có thể xảy ra: khi các đại lý giao dịch AI mà người dùng DeFi chạy đang theo dõi các tin nhắn trên mạng xã hội như là tín hiệu giao dịch, nếu kẻ tấn công phát hành một cảnh báo giả, chẳng hạn như tuyên bố rằng một giao thức nào đó đang bị tấn công, điều này có thể khiến đại lý đó ngay lập tức thực hiện các hành động thanh lý khẩn cấp. Điều này không chỉ gây thiệt hại cho tài sản của người dùng mà còn có thể gây ra biến động thị trường, sau đó được kẻ tấn công tận dụng thông qua các phương thức như giao dịch trước.
Đối với những rủi ro này, các chuyên gia tham gia hội nghị đều cho rằng, an toàn của các đại lý AI nên là trách nhiệm chung của người dùng, nhà phát triển và các tổ chức an ninh bên thứ ba.
Đầu tiên, người dùng cần hiểu rõ phạm vi quyền hạn của đại lý và cẩn thận cấp quyền, đồng thời chú ý kiểm tra các hoạt động rủi ro cao của đại lý AI. Thứ hai, các nhà phát triển nên thực hiện các biện pháp phòng ngừa ngay từ giai đoạn thiết kế, chẳng hạn như củng cố từ khóa, cách ly sandbox, giới hạn tốc độ và logic quay lại. Trong khi đó, các công ty an ninh bên thứ ba cần cung cấp đánh giá độc lập về hành vi mô hình của đại lý AI, cơ sở hạ tầng và cách tích hợp trên chuỗi, đồng thời hợp tác với các nhà phát triển và người dùng để xác định rủi ro và đề xuất các biện pháp giảm thiểu.
Một chuyên gia an ninh đã cảnh báo: "Nếu chúng ta tiếp tục coi các đại lý AI là 'hộp đen', thì việc xảy ra sự cố an toàn trong thế giới thực chỉ là vấn đề thời gian." Đối với các nhà phát triển đang khám phá hướng DeFAI, ông đề xuất: "Tương tự như hợp đồng thông minh, logic hành vi của các đại lý AI cũng được thực hiện bằng mã. Vì đã là mã, nên có khả năng bị tấn công, do đó cần phải thực hiện kiểm toán an ninh và kiểm tra thâm nhập chuyên nghiệp."
Với sự phát triển không ngừng của công nghệ blockchain và sự mở rộng của phạm vi ứng dụng, vấn đề an ninh sẽ tiếp tục trở thành tâm điểm chú ý của ngành. Trong xu hướng tích hợp AI và Web3, việc làm thế nào để đạt được sự cân bằng giữa đổi mới và an toàn sẽ là thách thức quan trọng mà ngành sẽ phải đối mặt trong một khoảng thời gian tới.