Trong toàn bộ chuỗi giá trị của trí tuệ nhân tạo, đào tạo mô hình là giai đoạn tiêu tốn tài nguyên lớn nhất và có rào cản kỹ thuật cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ nhàng, quá trình đào tạo cần đầu tư tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Xét từ góc độ kiến trúc, phương pháp đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học liên bang và đào tạo phi tập trung mà bài viết này sẽ tập trung thảo luận.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu năng cao tại chỗ, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc phối hợp sâu sắc này giúp tối ưu hóa hiệu quả chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chống lỗi, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với lợi thế hiệu quả cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương thức chính trong huấn luyện mô hình lớn hiện nay, cốt lõi của nó là chia nhỏ nhiệm vụ huấn luyện mô hình sau đó phân phối đến nhiều máy để cùng thực hiện, nhằm vượt qua giới hạn tính toán và lưu trữ của một máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn bị kiểm soát, điều phối và đồng bộ bởi các tổ chức trung tâm, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết nhanh NVLink, do nút chính đồng bộ hóa các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: mỗi nút đào tạo các tham số dữ liệu khác nhau chia sẻ, cần khớp trọng số mô hình
Song song mô hình: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ.
Ống dẫn song song: Thực hiện theo giai đoạn tuần tự, tăng thông lượng
Phân tán tensor: Chia tách tinh vi tính toán ma trận, nâng cao độ phân giải song song
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như việc một ông chủ chỉ huy từ xa nhiều nhân viên "văn phòng" phối hợp hoàn thành nhiệm vụ. Hiện tại, hầu như tất cả các mô hình lớn chính đều được hoàn thành đào tạo theo cách này.
Phi tập trung đào tạo thì đại diện cho một con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi là: nhiều nút không tin tưởng lẫn nhau hợp tác hoàn thành nhiệm vụ đào tạo mà không cần một điều phối viên trung tâm, thường thông qua giao thức để điều phối phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Khó khăn trong việc phân tách và đồng bộ thiết bị: Khó khăn trong việc phối hợp thiết bị khác nhau, hiệu suất phân tách nhiệm vụ thấp.
Nút thắt hiệu suất truyền thông: Giao tiếp mạng không ổn định, nút thắt đồng bộ gradient rõ ràng
Thiếu thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh xem nút có thực sự tham gia tính toán hay không
Thiếu sự phối hợp thống nhất: không có bộ điều phối trung ương, phân phát nhiệm vụ, cơ chế quay ngược bất thường phức tạp
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mã hóa, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng khả năng "hợp tác hiệu quả + khuyến khích trung thực + kết quả đúng" vẫn đang trong giai đoạn khám phá nguyên mẫu sớm.
Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại chỗ và tập hợp các tham số mô hình. Nó phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời kết hợp lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên phối hợp đáng tin cậy và không có đặc tính hoàn toàn mở và kháng kiểm duyệt. Nó có thể được xem như một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc niềm tin và cơ chế giao tiếp tương đối ôn hòa, thích hợp hơn như một kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế
Xét từ góc độ phương thức huấn luyện, Phi tập trung huấn luyện không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc độ khó trong hợp tác, nó tự nhiên không thích hợp để hoàn thành hiệu quả giữa các nút khác nhau, không tin cậy. Ví dụ, huấn luyện mô hình lớn thường phụ thuộc vào bộ nhớ đồ họa cao, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh mẽ bị giới hạn bởi các quy định pháp lý và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu động lực hợp tác thì thiếu động lực tham gia bên ngoài. Những ranh giới này cùng nhau hình thành những giới hạn thực tế của huấn luyện Phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau liên kết hành vi, nhiệm vụ đào tạo và gán nhãn theo hình thức crowdsourcing, đào tạo mô hình cơ bản nhỏ có kiểm soát tài nguyên, cũng như các cảnh huống đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, tính kết nối thấp và khả năng chịu đựng sức mạnh tính toán đa dạng, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
Phi tập trung đào tạo các dự án kinh điển解析
Hiện tại trong lĩnh vực đào tạo Phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, Gensyn và Flock.io có lộ trình thực hiện tương đối rõ ràng, đã có thể thấy những tiến bộ ban đầu trong việc hiện thực hóa.
Prime Intellect: Huấn luyện đường đi có thể xác minh của mạng lưới hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích hoàn chỉnh.
Giải thích chi tiết cơ chế cốt lõi
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là framework mô hình hóa và thực thi nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng ưu tiên thích ứng, tách rời cấu trúc quy trình đào tạo, suy luận và tải trọng, cho phép mỗi nút đào tạo có thể hoàn thành vòng lặp nhiệm vụ độc lập tại chỗ và hợp tác với cơ chế xác thực và tổng hợp thông qua giao diện chuẩn hóa. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lịch trình trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi kiểm chứng khả năng huấn luyện được đề xuất bởi Prime Intellect, được sử dụng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành việc xác minh cấu trúc nhẹ bằng cách phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát↔cập nhật chiến lược". Đây là lần đầu tiên chuyển đổi quỹ đạo hành vi trong quá trình huấn luyện thành đối tượng có thể kiểm chứng, là đổi mới then chốt để thực hiện phân phối phần thưởng huấn luyện không cần tin cậy, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền bá trọng số bất đồng bộ
SHARDCAST là giao thức phát tán và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế với tính bất đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế phát tán gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi cập nhật từng phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên khái niệm DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt để giải quyết những thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và sự không ổn định của nút. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topological thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ cần dựa vào các nút hàng xóm cục bộ để hoàn thành đào tạo mô hình hợp tác. Kết hợp cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, tăng cường tính khả thi của việc hợp tác đào tạo toàn cầu, là một trong những cơ sở hạ tầng giao tiếp chính để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế cho môi trường đào tạo AI phi tập trung, nhằm giải quyết những điểm nghẽn trong việc thích ứng của các thư viện giao tiếp truyền thống trên các thiết bị khác nhau và mạng lưới băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và khôi phục từ điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể độ dung nạp băng thông của mạng đào tạo và khả năng tương thích thiết bị, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp, góp phần xây dựng một mạng lưới đào tạo hợp tác thực sự mở và không cần tin cậy.
Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần sự cho phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: định nghĩa môi trường đào tạo, mô hình ban đầu, hàm phần thưởng và tiêu chuẩn xác thực
Nút huấn luyện: thực hiện huấn luyện cục bộ, gửi cập nhật trọng số và theo dõi quan sát
Nút xác thực: Sử dụng cơ chế TOPLOC để xác minh tính xác thực của hành vi đào tạo, và tham gia vào việc tính toán phần thưởng và hợp nhất chiến lược.
Quy trình cốt lõi của giao thức bao gồm việc phát hành nhiệm vụ, đào tạo nút, xác thực quỹ đạo, tổng hợp trọng số và phát thưởng, tạo thành một vòng khép kín khuyến khích xoay quanh "hành vi đào tạo thực sự".
INTELLECT-2: Phát hành mô hình huấn luyện phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo bởi các nút phi tập trung không cần tin cậy và đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua việc đào tạo hợp tác của hơn 100 nút GPU không đồng nhất trải dài trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ, thời gian đào tạo vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác không đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là việc triển khai hệ thống đầu tiên của khái niệm "đào tạo chính là đồng thuận" mà Prime Intellect đã đưa ra. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu lần đầu tiên mạng lưới đào tạo phi tập trung thực hiện hóa quá trình đào tạo một cách công khai, có tính xác minh và khép kín động lực kinh tế.
Về hiệu suất, INTELLECT-2 được đào tạo dựa trên QwQ-32B và đã thực hiện đào tạo RL chuyên biệt về mã và toán học, nằm ở trình độ tiên tiến của các mô hình RL mã nguồn mở hiện tại. Mặc dù vẫn chưa vượt qua GPT-4 hoặc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Phi tập trung đào tạo: Mô hình mới và khám phá tiên phong trong lĩnh vực AI
Khám phá ranh giới của Phi tập trung huấn luyện
Trong toàn bộ chuỗi giá trị của trí tuệ nhân tạo, đào tạo mô hình là giai đoạn tiêu tốn tài nguyên lớn nhất và có rào cản kỹ thuật cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn với việc gọi nhẹ nhàng, quá trình đào tạo cần đầu tư tính toán quy mô lớn liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ thuật toán tối ưu hóa cường độ cao, thực sự là "công nghiệp nặng" trong việc xây dựng hệ thống AI. Xét từ góc độ kiến trúc, phương pháp đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học liên bang và đào tạo phi tập trung mà bài viết này sẽ tập trung thảo luận.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu năng cao tại chỗ, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc phối hợp sâu sắc này giúp tối ưu hóa hiệu quả chia sẻ bộ nhớ, đồng bộ hóa độ dốc và cơ chế chống lỗi, rất phù hợp cho việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với lợi thế hiệu quả cao và tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương thức chính trong huấn luyện mô hình lớn hiện nay, cốt lõi của nó là chia nhỏ nhiệm vụ huấn luyện mô hình sau đó phân phối đến nhiều máy để cùng thực hiện, nhằm vượt qua giới hạn tính toán và lưu trữ của một máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn bị kiểm soát, điều phối và đồng bộ bởi các tổ chức trung tâm, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết nhanh NVLink, do nút chính đồng bộ hóa các nhiệm vụ con. Các phương pháp chính bao gồm:
Đào tạo phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như việc một ông chủ chỉ huy từ xa nhiều nhân viên "văn phòng" phối hợp hoàn thành nhiệm vụ. Hiện tại, hầu như tất cả các mô hình lớn chính đều được hoàn thành đào tạo theo cách này.
Phi tập trung đào tạo thì đại diện cho một con đường tương lai có tính mở và khả năng chống kiểm duyệt hơn. Đặc điểm cốt lõi là: nhiều nút không tin tưởng lẫn nhau hợp tác hoàn thành nhiệm vụ đào tạo mà không cần một điều phối viên trung tâm, thường thông qua giao thức để điều phối phân phối nhiệm vụ và hợp tác, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của các đóng góp. Những thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an toàn mã hóa, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng khả năng "hợp tác hiệu quả + khuyến khích trung thực + kết quả đúng" vẫn đang trong giai đoạn khám phá nguyên mẫu sớm.
Học liên bang, như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại chỗ và tập hợp các tham số mô hình. Nó phù hợp với các tình huống chú trọng đến sự tuân thủ quyền riêng tư. Học liên bang có cấu trúc kỹ thuật của đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời kết hợp lợi thế phân tán dữ liệu của đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên phối hợp đáng tin cậy và không có đặc tính hoàn toàn mở và kháng kiểm duyệt. Nó có thể được xem như một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc niềm tin và cơ chế giao tiếp tương đối ôn hòa, thích hợp hơn như một kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
Phi tập trung đào tạo của ranh giới, cơ hội và con đường thực tế
Xét từ góc độ phương thức huấn luyện, Phi tập trung huấn luyện không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc độ khó trong hợp tác, nó tự nhiên không thích hợp để hoàn thành hiệu quả giữa các nút khác nhau, không tin cậy. Ví dụ, huấn luyện mô hình lớn thường phụ thuộc vào bộ nhớ đồ họa cao, độ trễ thấp và băng thông cao, khó có thể phân chia và đồng bộ hiệu quả trong mạng mở; các nhiệm vụ có quyền riêng tư dữ liệu và hạn chế chủ quyền mạnh mẽ bị giới hạn bởi các quy định pháp lý và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu động lực hợp tác thì thiếu động lực tham gia bên ngoài. Những ranh giới này cùng nhau hình thành những giới hạn thực tế của huấn luyện Phi tập trung hiện nay.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau liên kết hành vi, nhiệm vụ đào tạo và gán nhãn theo hình thức crowdsourcing, đào tạo mô hình cơ bản nhỏ có kiểm soát tài nguyên, cũng như các cảnh huống đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, tính kết nối thấp và khả năng chịu đựng sức mạnh tính toán đa dạng, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân tán và các phương thức khác.
Phi tập trung đào tạo các dự án kinh điển解析
Hiện tại trong lĩnh vực đào tạo Phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc hiện thực hóa kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đưa ra nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, Gensyn và Flock.io có lộ trình thực hiện tương đối rõ ràng, đã có thể thấy những tiến bộ ban đầu trong việc hiện thực hóa.
Prime Intellect: Huấn luyện đường đi có thể xác minh của mạng lưới hợp tác học tăng cường tiên phong
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai tham gia đào tạo và nhận được phần thưởng đáng tin cậy cho những đóng góp tính toán của mình. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có khả năng xác minh, tính mở và cơ chế khuyến khích hoàn chỉnh.
Giải thích chi tiết cơ chế cốt lõi
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường bất đồng bộ tách rời
PRIME-RL là framework mô hình hóa và thực thi nhiệm vụ được Prime Intellect tùy chỉnh cho các kịch bản đào tạo Phi tập trung, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường làm đối tượng ưu tiên thích ứng, tách rời cấu trúc quy trình đào tạo, suy luận và tải trọng, cho phép mỗi nút đào tạo có thể hoàn thành vòng lặp nhiệm vụ độc lập tại chỗ và hợp tác với cơ chế xác thực và tổng hợp thông qua giao diện chuẩn hóa. So với quy trình học có giám sát truyền thống, PRIME-RL phù hợp hơn để thực hiện đào tạo linh hoạt trong môi trường không có lịch trình trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC là cơ chế cốt lõi kiểm chứng khả năng huấn luyện được đề xuất bởi Prime Intellect, được sử dụng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà hoàn thành việc xác minh cấu trúc nhẹ bằng cách phân tích quỹ đạo nhất quán cục bộ giữa "chuỗi quan sát↔cập nhật chiến lược". Đây là lần đầu tiên chuyển đổi quỹ đạo hành vi trong quá trình huấn luyện thành đối tượng có thể kiểm chứng, là đổi mới then chốt để thực hiện phân phối phần thưởng huấn luyện không cần tin cậy, cung cấp con đường khả thi để xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền bá trọng số bất đồng bộ
SHARDCAST là giao thức phát tán và tổng hợp trọng số được thiết kế bởi Prime Intellect, được tối ưu hóa cho môi trường mạng thực tế với tính bất đồng bộ, băng thông hạn chế và trạng thái nút thay đổi. Nó kết hợp cơ chế phát tán gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi cập nhật từng phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa nhiều phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi của đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và đào tạo liên tục.
OpenDiLoCo: Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là một khung tối ưu hóa giao tiếp được nhóm Prime Intellect độc lập thực hiện và mã nguồn mở dựa trên khái niệm DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt để giải quyết những thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và sự không ổn định của nút. Kiến trúc của nó dựa trên dữ liệu song song, thông qua việc xây dựng các cấu trúc topological thưa như Ring, Expander, Small-World, tránh được chi phí giao tiếp cao của đồng bộ toàn cầu, chỉ cần dựa vào các nút hàng xóm cục bộ để hoàn thành đào tạo mô hình hợp tác. Kết hợp cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU tiêu dùng và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, tăng cường tính khả thi của việc hợp tác đào tạo toàn cầu, là một trong những cơ sở hạ tầng giao tiếp chính để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện giao tiếp hợp tác
PCCL là thư viện giao tiếp nhẹ được Prime Intellect thiết kế cho môi trường đào tạo AI phi tập trung, nhằm giải quyết những điểm nghẽn trong việc thích ứng của các thư viện giao tiếp truyền thống trên các thiết bị khác nhau và mạng lưới băng thông thấp. PCCL hỗ trợ cấu trúc thưa, nén độ dốc, đồng bộ độ chính xác thấp và khôi phục từ điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần nền tảng hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể độ dung nạp băng thông của mạng đào tạo và khả năng tương thích thiết bị, mở ra "km cuối" cho cơ sở hạ tầng giao tiếp, góp phần xây dựng một mạng lưới đào tạo hợp tác thực sự mở và không cần tin cậy.
Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect xây dựng một mạng lưới huấn luyện không cần sự cho phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào nhiệm vụ và nhận thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm việc phát hành nhiệm vụ, đào tạo nút, xác thực quỹ đạo, tổng hợp trọng số và phát thưởng, tạo thành một vòng khép kín khuyến khích xoay quanh "hành vi đào tạo thực sự".
INTELLECT-2: Phát hành mô hình huấn luyện phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo bởi các nút phi tập trung không cần tin cậy và đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua việc đào tạo hợp tác của hơn 100 nút GPU không đồng nhất trải dài trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ, thời gian đào tạo vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác không đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất, mà còn là việc triển khai hệ thống đầu tiên của khái niệm "đào tạo chính là đồng thuận" mà Prime Intellect đã đưa ra. INTELLECT-2 tích hợp các mô-đun giao thức cốt lõi như PRIME-RL, TOPLOC và SHARDCAST, đánh dấu lần đầu tiên mạng lưới đào tạo phi tập trung thực hiện hóa quá trình đào tạo một cách công khai, có tính xác minh và khép kín động lực kinh tế.
Về hiệu suất, INTELLECT-2 được đào tạo dựa trên QwQ-32B và đã thực hiện đào tạo RL chuyên biệt về mã và toán học, nằm ở trình độ tiên tiến của các mô hình RL mã nguồn mở hiện tại. Mặc dù vẫn chưa vượt qua GPT-4 hoặc