Sự tiến hóa của mô hình đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến hợp tác phi tập trung
Trong toàn bộ chuỗi giá trị của AI, đào tạo mô hình là khâu tiêu tốn tài nguyên nhiều nhất và có mức độ kỹ thuật cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn nhẹ nhàng, quá trình đào tạo cần đầu tư sức mạnh tính toán lớn quy mô liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ từ các thuật toán tối ưu hóa cường độ cao, thực sự là "ngành công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học liên bang và đào tạo Phi tập trung mà bài viết này sẽ tập trung thảo luận.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu suất cao tại địa phương, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc hợp tác sâu sắc này cho phép chia sẻ bộ nhớ, đồng bộ hóa gradient và đạt hiệu quả tối ưu cho cơ chế khôi phục lỗi, rất phù hợp với việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với ưu điểm hiệu quả cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương pháp chính trong việc huấn luyện các mô hình lớn hiện nay, cốt lõi của nó là chia nhỏ nhiệm vụ huấn luyện mô hình và phân phối đến nhiều máy để thực hiện phối hợp, nhằm vượt qua các nút thắt về tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn bị kiểm soát và điều phối bởi các tổ chức trung tâm, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, do nút chính đồng bộ hóa các nhiệm vụ con. Các phương pháp chính bao gồm:
Dữ liệu song song: mỗi nút đào tạo các tham số dữ liệu khác nhau, chia sẻ trọng số mô hình, cần phải khớp.
Mô hình song song: Triển khai các phần khác nhau của mô hình trên các nút khác nhau, đạt được khả năng mở rộng mạnh mẽ
Đường ống song song: Thực hiện tuần tự theo giai đoạn, tăng cường thông lượng
Phân đoạn tensor: Chia nhỏ tính toán ma trận, nâng cao độ mịn của tính toán song song
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều "văn phòng" nhân viên hợp tác hoàn thành nhiệm vụ. Hiện nay hầu như tất cả các mô hình lớn chính như (GPT-4, Gemini, LLaMA và ) đều được hoàn thành đào tạo theo cách này.
Phi tập trung đào tạo thì đại diện cho một con đường tương lai với tính mở hơn và khả năng chống kiểm duyệt. Đặc điểm cốt lõi của nó là: nhiều nút không tin tưởng lẫn nhau ( có thể là máy tính cá nhân, GPU đám mây hoặc thiết bị biên ) hợp tác hoàn thành nhiệm vụ đào tạo mà không cần một điều phối viên trung tâm, thường thông qua giao thức để thúc đẩy việc phân phối và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của sự đóng góp. Thách thức chính mà mô hình này phải đối mặt bao gồm:
Thiết bị dị hình và khó khăn trong phân chia: Khó khăn trong việc phối hợp thiết bị dị hình, hiệu suất phân chia nhiệm vụ thấp
Đột phá hiệu suất giao tiếp: Giao tiếp mạng không ổn định, rõ ràng là có nút thắt trong đồng bộ hóa độ dốc
Thiếu khả năng thực thi đáng tin cậy: Thiếu môi trường thực thi đáng tin cậy, khó xác minh xem nút có thực sự tham gia tính toán hay không.
Thiếu sự phối hợp thống nhất: không có bộ điều độ trung tâm, phân phối nhiệm vụ, cơ chế hoàn tác bất thường phức tạp
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng khả năng "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương, tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến quy định về quyền riêng tư như y tế, tài chính. Học liên bang có cấu trúc kỹ thuật của việc đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu của việc đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên điều phối đáng tin cậy, không có đặc điểm hoàn toàn mở và chống kiểm duyệt. Có thể coi đây là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp đều tương đối ôn hòa, phù hợp hơn để làm kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
( Phi tập trung đào tạo的边界、机会与现实路径
Từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc khó khăn trong hợp tác, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút không đồng nhất và không cần tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia tách và đồng bộ hiệu quả trong mạng mở; nhiệm vụ có giới hạn mạnh về quyền riêng tư và chủ quyền như y tế, tài chính, dữ liệu bí mật ) bị giới hạn bởi quy định pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu động lực hợp tác như mô hình nguồn đóng của doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ### thiếu động lực tham gia từ bên ngoài. Những ranh giới này cấu thành những hạn chế thực tế của đào tạo phi tập trung hiện tại.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau hành vi như RLHF, DPO(, nhiệm vụ đào tạo và gán nhãn dữ liệu theo hình thức crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, ít liên kết và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân phối, v.v.
![Sự tiến hóa của phương thức huấn luyện AI: Cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác])https://img-cdn.gateio.im/webp-social/moments-f0af7b28242215cca3784f0547830879.webp(
) Phi tập trung đào tạo dự án kinh điển phân tích
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc triển khai kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đề xuất nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và cấu trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
(# Prime Intellect: Người tiên phong mạng hợp tác học tăng cường có thể xác minh được quỹ đạo đào tạo
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận phần thưởng đáng tin cậy cho đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, mở và đầy đủ cơ chế khuyến khích.
Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính:
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường đồng bộ phi tập trung
PRIME-RL là khung mô hình hóa và thực hiện nhiệm vụ được tùy chỉnh cho các kịch bản huấn luyện Phi tập trung của Prime Intellect, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường như đối tượng thích ứng ưu tiên, phân tách có cấu trúc quá trình huấn luyện, suy diễn và tải trọng, cho phép mỗi nút huấn luyện hoàn thành vòng nhiệm vụ độc lập tại địa phương và phối hợp thông qua giao diện tiêu chuẩn hóa với cơ chế xác minh và tổng hợp. So với quy trình học có giám sát truyền thống, PRIME-RL thích hợp hơn để thực hiện huấn luyện linh hoạt trong môi trường không có điều phối trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC)Quan sát Tin cậy & Kiểm tra Địa phương( là cơ chế cốt lõi về khả năng kiểm chứng được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thông qua việc phân tích "chuỗi quan sát ↔ cập nhật chiến lược" giữa các quỹ đạo nhất quán cục bộ, hoàn thành việc xác minh cấu trúc nhẹ. Đây là lần đầu tiên quá trình hành vi trong lúc huấn luyện được chuyển đổi thành đối tượng có thể kiểm chứng, là đổi mới chính trong việc thực hiện phân phối phần thưởng huấn luyện mà không cần tin tưởng, cung cấp con đường khả thi cho việc xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền bá trọng số bất đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số do Prime Intellect thiết kế, được tối ưu hóa cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút biến đổi. Nó kết hợp cơ chế truyền gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi các cập nhật phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi trong đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và lặp lại đào tạo liên tục.
OpenDiLoCo:Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là khung tối ưu hóa truyền thông được nhóm Prime Intellect phát triển độc lập và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt để đối phó với những thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên mô hình dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, đã tránh được chi phí truyền thông cao của đồng bộ toàn cầu, chỉ dựa vào các nút láng giềng cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU thương mại và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, làm tăng đáng kể khả năng tham gia đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng truyền thông chính để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện giao tiếp phối hợp
PCCL)Thư viện Giao tiếp Tập hợp Chính ### là một thư viện giao tiếp nhẹ được thiết kế riêng cho môi trường đào tạo AI Phi tập trung của Prime Intellect, nhằm giải quyết các nút thắt thích ứng của các thư viện giao tiếp truyền thống ### như NCCL, Gloo( trong các thiết bị không đồng nhất và mạng băng thông thấp. PCCL hỗ trợ topologie thưa, nén độ dốc, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông của mạng đào tạo và tính tương thích thiết bị, mở ra "km cuối" cho cơ sở giao tiếp trong việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect đã xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào các nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Người khởi xướng nhiệm vụ: xác định môi trường đào tạo, mô hình ban đầu, hàm thưởng và tiêu chuẩn xác thực
Nút đào tạo: Thực hiện đào tạo cục bộ, gửi cập nhật trọng số và theo dõi quan sát
Node xác thực: Sử dụng cơ chế TOPLOC để xác thực tính xác thực của hành vi đào tạo và tham gia vào việc tính toán phần thưởng và tổng hợp chiến lược
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, huấn luyện nút, xác minh đường đi, tổng hợp trọng số )SHARDCAST( và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực".
![AI đào tạo mô hình: từ kiểm soát tập trung đến cuộc cách mạng công nghệ hợp tác Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-3a83d085e7a7abfe72221958419cd6d8.webp(
INTELLECT-2: phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo thông qua sự hợp tác của các nút phi tập trung không cần tin cậy và không đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự hợp tác đào tạo của hơn 100 nút GPU đa dạng trải rộng trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ, thời gian đào tạo vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác không đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất mà còn là sự hiện thực hóa đầu tiên của mô hình "đào tạo tức là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp cấu trúc đào tạo không đồng bộ PRIME-RL), hành vi đào tạo TOPLOC(.
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
11 thích
Phần thưởng
11
8
Chia sẻ
Bình luận
0/400
ProxyCollector
· 07-24 16:12
Còn đang tập trung huấn luyện? Cũ quá rồi.
Xem bản gốcTrả lời0
BrokenYield
· 07-24 16:11
smh đào tạo trí tuệ nhân tạo tập trung chỉ là một điểm thất bại duy nhất khác... rủi ro hệ thống cổ điển
Xem bản gốcTrả lời0
fork_in_the_road
· 07-24 10:35
Chi phí đào tạo quá đắt, các công ty nhỏ không thể chơi nổi.
Xem bản gốcTrả lời0
BuyHighSellLow
· 07-21 17:01
Coin này đã tăng lên chưa? Hiểu được thì coi như tôi thua.
Xem bản gốcTrả lời0
TokenVelocityTrauma
· 07-21 17:00
Còn có thể chơi như vậy, thật tuyệt
Xem bản gốcTrả lời0
SigmaValidator
· 07-21 16:55
Ai nói là không thể đi trung tâm.
Xem bản gốcTrả lời0
SignatureDenied
· 07-21 16:41
Đừng thổi phồng nữa, huấn luyện cũng chỉ là một trò chơi tiêu tốn tiền.
Sự tiến hóa của mô hình đào tạo AI: Từ kiểm soát tập trung đến Phi tập trung hợp tác
Sự tiến hóa của mô hình đào tạo AI: Cuộc cách mạng công nghệ từ kiểm soát tập trung đến hợp tác phi tập trung
Trong toàn bộ chuỗi giá trị của AI, đào tạo mô hình là khâu tiêu tốn tài nguyên nhiều nhất và có mức độ kỹ thuật cao nhất, quyết định trực tiếp giới hạn khả năng của mô hình và hiệu quả ứng dụng thực tế. So với giai đoạn suy diễn nhẹ nhàng, quá trình đào tạo cần đầu tư sức mạnh tính toán lớn quy mô liên tục, quy trình xử lý dữ liệu phức tạp và hỗ trợ từ các thuật toán tối ưu hóa cường độ cao, thực sự là "ngành công nghiệp nặng" trong việc xây dựng hệ thống AI. Từ góc độ mô hình kiến trúc, phương pháp đào tạo có thể được chia thành bốn loại: đào tạo tập trung, đào tạo phân tán, học liên bang và đào tạo Phi tập trung mà bài viết này sẽ tập trung thảo luận.
Huấn luyện tập trung là phương pháp truyền thống phổ biến nhất, được thực hiện bởi một tổ chức duy nhất trong cụm hiệu suất cao tại địa phương, hoàn thành toàn bộ quy trình huấn luyện, từ phần cứng, phần mềm nền tảng, hệ thống lập lịch cụm, đến tất cả các thành phần của khung huấn luyện đều được điều phối hoạt động bởi một hệ thống kiểm soát thống nhất. Kiến trúc hợp tác sâu sắc này cho phép chia sẻ bộ nhớ, đồng bộ hóa gradient và đạt hiệu quả tối ưu cho cơ chế khôi phục lỗi, rất phù hợp với việc huấn luyện các mô hình quy mô lớn như GPT, Gemini, với ưu điểm hiệu quả cao, tài nguyên có thể kiểm soát, nhưng đồng thời cũng tồn tại các vấn đề như độc quyền dữ liệu, rào cản tài nguyên, tiêu thụ năng lượng và rủi ro điểm đơn.
Huấn luyện phân tán là phương pháp chính trong việc huấn luyện các mô hình lớn hiện nay, cốt lõi của nó là chia nhỏ nhiệm vụ huấn luyện mô hình và phân phối đến nhiều máy để thực hiện phối hợp, nhằm vượt qua các nút thắt về tính toán và lưu trữ của máy đơn. Mặc dù về mặt vật lý có đặc điểm "Phi tập trung", nhưng tổng thể vẫn bị kiểm soát và điều phối bởi các tổ chức trung tâm, thường hoạt động trong môi trường mạng cục bộ tốc độ cao, thông qua công nghệ bus liên kết tốc độ cao NVLink, do nút chính đồng bộ hóa các nhiệm vụ con. Các phương pháp chính bao gồm:
Huấn luyện phân tán là sự kết hợp của "kiểm soát tập trung + thực hiện phân tán", tương tự như một ông chủ chỉ huy từ xa nhiều "văn phòng" nhân viên hợp tác hoàn thành nhiệm vụ. Hiện nay hầu như tất cả các mô hình lớn chính như (GPT-4, Gemini, LLaMA và ) đều được hoàn thành đào tạo theo cách này.
Phi tập trung đào tạo thì đại diện cho một con đường tương lai với tính mở hơn và khả năng chống kiểm duyệt. Đặc điểm cốt lõi của nó là: nhiều nút không tin tưởng lẫn nhau ( có thể là máy tính cá nhân, GPU đám mây hoặc thiết bị biên ) hợp tác hoàn thành nhiệm vụ đào tạo mà không cần một điều phối viên trung tâm, thường thông qua giao thức để thúc đẩy việc phân phối và hợp tác nhiệm vụ, và nhờ vào cơ chế khuyến khích mã hóa để đảm bảo tính trung thực của sự đóng góp. Thách thức chính mà mô hình này phải đối mặt bao gồm:
Phi tập trung đào tạo có thể hiểu là: một nhóm tình nguyện viên toàn cầu, mỗi người đóng góp sức mạnh tính toán để hợp tác đào tạo mô hình, nhưng "đào tạo phi tập trung quy mô lớn thực sự khả thi" vẫn là một thách thức kỹ thuật hệ thống, liên quan đến kiến trúc hệ thống, giao thức truyền thông, an ninh mật mã, cơ chế kinh tế, xác minh mô hình và nhiều khía cạnh khác, nhưng khả năng "hợp tác hiệu quả + khuyến khích trung thực + kết quả chính xác" vẫn đang ở giai đoạn khám phá nguyên mẫu ban đầu.
Học liên bang như một hình thức chuyển tiếp giữa phân tán và Phi tập trung, nhấn mạnh việc giữ lại dữ liệu tại địa phương, tập hợp các tham số mô hình, phù hợp với các tình huống chú trọng đến quy định về quyền riêng tư như y tế, tài chính. Học liên bang có cấu trúc kỹ thuật của việc đào tạo phân tán và khả năng hợp tác cục bộ, đồng thời có lợi thế phân tán dữ liệu của việc đào tạo Phi tập trung, nhưng vẫn phụ thuộc vào các bên điều phối đáng tin cậy, không có đặc điểm hoàn toàn mở và chống kiểm duyệt. Có thể coi đây là một giải pháp "Phi tập trung có kiểm soát" trong các tình huống tuân thủ quyền riêng tư, với các nhiệm vụ đào tạo, cấu trúc tin cậy và cơ chế giao tiếp đều tương đối ôn hòa, phù hợp hơn để làm kiến trúc triển khai chuyển tiếp trong ngành công nghiệp.
( Phi tập trung đào tạo的边界、机会与现实路径
Từ góc độ mô hình đào tạo, đào tạo phi tập trung không phù hợp với tất cả các loại nhiệm vụ. Trong một số tình huống, do cấu trúc nhiệm vụ phức tạp, nhu cầu tài nguyên cực cao hoặc khó khăn trong hợp tác, nó tự nhiên không phù hợp để hoàn thành hiệu quả giữa các nút không đồng nhất và không cần tin cậy. Ví dụ, đào tạo mô hình lớn thường phụ thuộc vào bộ nhớ cao, độ trễ thấp và băng thông cao, khó có thể chia tách và đồng bộ hiệu quả trong mạng mở; nhiệm vụ có giới hạn mạnh về quyền riêng tư và chủ quyền như y tế, tài chính, dữ liệu bí mật ) bị giới hạn bởi quy định pháp luật và ràng buộc đạo đức, không thể chia sẻ công khai; trong khi các nhiệm vụ thiếu động lực hợp tác như mô hình nguồn đóng của doanh nghiệp hoặc đào tạo nguyên mẫu nội bộ ### thiếu động lực tham gia từ bên ngoài. Những ranh giới này cấu thành những hạn chế thực tế của đào tạo phi tập trung hiện tại.
Nhưng điều này không có nghĩa là đào tạo phi tập trung là một giả thuyết sai. Trên thực tế, trong các loại nhiệm vụ có cấu trúc nhẹ, dễ song song và có thể khuyến khích, đào tạo phi tập trung thể hiện triển vọng ứng dụng rõ ràng. Bao gồm nhưng không giới hạn: tinh chỉnh LoRA, các nhiệm vụ đào tạo sau hành vi như RLHF, DPO(, nhiệm vụ đào tạo và gán nhãn dữ liệu theo hình thức crowdsourcing, đào tạo mô hình cơ bản nhỏ có thể kiểm soát tài nguyên, cũng như các kịch bản đào tạo hợp tác với sự tham gia của thiết bị biên. Những nhiệm vụ này thường có tính song song cao, ít liên kết và khả năng chịu đựng sức mạnh tính toán không đồng nhất, rất phù hợp để thực hiện đào tạo hợp tác thông qua mạng P2P, giao thức Swarm, bộ tối ưu phân phối, v.v.
![Sự tiến hóa của phương thức huấn luyện AI: Cách mạng công nghệ từ kiểm soát tập trung đến Phi tập trung hợp tác])https://img-cdn.gateio.im/webp-social/moments-f0af7b28242215cca3784f0547830879.webp(
) Phi tập trung đào tạo dự án kinh điển phân tích
Hiện tại, trong lĩnh vực đào tạo phi tập trung và học tập liên bang, các dự án blockchain tiêu biểu chủ yếu bao gồm Prime Intellect, Pluralis.ai, Gensyn, Nous Research và Flock.io. Xét về tính đổi mới công nghệ và độ khó trong việc triển khai kỹ thuật, Prime Intellect, Nous Research và Pluralis.ai đã đề xuất nhiều khám phá sáng tạo trong thiết kế hệ thống và thuật toán, đại diện cho hướng nghiên cứu lý thuyết tiên tiến hiện nay; trong khi đó, con đường thực hiện của Gensyn và Flock.io tương đối rõ ràng, đã có thể thấy những tiến bộ ban đầu trong việc hiện thực hóa. Bài viết này sẽ lần lượt phân tích các công nghệ cốt lõi và cấu trúc kỹ thuật của năm dự án này, và tiếp tục thảo luận về sự khác biệt và mối quan hệ bổ sung của chúng trong hệ thống đào tạo AI phi tập trung.
(# Prime Intellect: Người tiên phong mạng hợp tác học tăng cường có thể xác minh được quỹ đạo đào tạo
Prime Intellect cam kết xây dựng một mạng lưới đào tạo AI không cần tin cậy, cho phép bất kỳ ai cũng có thể tham gia đào tạo và nhận phần thưởng đáng tin cậy cho đóng góp tính toán của họ. Prime Intellect hy vọng thông qua ba mô-đun PRIME-RL + TOPLOC + SHARDCAST, xây dựng một hệ thống đào tạo AI Phi tập trung có tính khả thi, mở và đầy đủ cơ chế khuyến khích.
Cấu trúc ngăn xếp giao thức Prime Intellect và giá trị của các mô-đun chính:
PRIME-RL: Kiến trúc nhiệm vụ học tăng cường đồng bộ phi tập trung
PRIME-RL là khung mô hình hóa và thực hiện nhiệm vụ được tùy chỉnh cho các kịch bản huấn luyện Phi tập trung của Prime Intellect, được thiết kế đặc biệt cho mạng lưới dị thể và sự tham gia không đồng bộ. Nó sử dụng học tăng cường như đối tượng thích ứng ưu tiên, phân tách có cấu trúc quá trình huấn luyện, suy diễn và tải trọng, cho phép mỗi nút huấn luyện hoàn thành vòng nhiệm vụ độc lập tại địa phương và phối hợp thông qua giao diện tiêu chuẩn hóa với cơ chế xác minh và tổng hợp. So với quy trình học có giám sát truyền thống, PRIME-RL thích hợp hơn để thực hiện huấn luyện linh hoạt trong môi trường không có điều phối trung tâm, vừa giảm độ phức tạp của hệ thống, vừa đặt nền tảng cho việc hỗ trợ đa nhiệm song song và tiến hóa chiến lược.
TOPLOC:Cơ chế xác minh hành vi đào tạo nhẹ
TOPLOC)Quan sát Tin cậy & Kiểm tra Địa phương( là cơ chế cốt lõi về khả năng kiểm chứng được đề xuất bởi Prime Intellect, dùng để xác định xem một nút có thực sự hoàn thành việc học chiến lược hiệu quả dựa trên dữ liệu quan sát hay không. Khác với các giải pháp nặng như ZKML, TOPLOC không phụ thuộc vào việc tính toán lại toàn bộ mô hình, mà thông qua việc phân tích "chuỗi quan sát ↔ cập nhật chiến lược" giữa các quỹ đạo nhất quán cục bộ, hoàn thành việc xác minh cấu trúc nhẹ. Đây là lần đầu tiên quá trình hành vi trong lúc huấn luyện được chuyển đổi thành đối tượng có thể kiểm chứng, là đổi mới chính trong việc thực hiện phân phối phần thưởng huấn luyện mà không cần tin tưởng, cung cấp con đường khả thi cho việc xây dựng mạng lưới huấn luyện hợp tác phi tập trung có thể kiểm toán và có thể khuyến khích.
SHARDCAST: Giao thức tổng hợp và truyền bá trọng số bất đồng bộ
SHARDCAST là giao thức truyền tải và tổng hợp trọng số do Prime Intellect thiết kế, được tối ưu hóa cho môi trường mạng thực tế không đồng bộ, băng thông hạn chế và trạng thái nút biến đổi. Nó kết hợp cơ chế truyền gossip và chiến lược đồng bộ cục bộ, cho phép nhiều nút tiếp tục gửi các cập nhật phần trong trạng thái không đồng bộ, đạt được sự hội tụ trọng số dần dần và tiến hóa đa phiên bản. So với các phương pháp AllReduce tập trung hoặc đồng bộ, SHARDCAST nâng cao đáng kể khả năng mở rộng và khả năng chịu lỗi trong đào tạo Phi tập trung, là nền tảng cốt lõi để xây dựng sự đồng thuận trọng số ổn định và lặp lại đào tạo liên tục.
OpenDiLoCo:Khung giao tiếp bất đồng bộ thưa thớt
OpenDiLoCo là khung tối ưu hóa truyền thông được nhóm Prime Intellect phát triển độc lập và mã nguồn mở dựa trên ý tưởng DiLoCo do DeepMind đề xuất, được thiết kế đặc biệt để đối phó với những thách thức thường gặp trong đào tạo phi tập trung như băng thông hạn chế, thiết bị không đồng nhất và nút không ổn định. Kiến trúc của nó dựa trên mô hình dữ liệu song song, thông qua việc xây dựng các cấu trúc topo thưa như Ring, Expander, Small-World, đã tránh được chi phí truyền thông cao của đồng bộ toàn cầu, chỉ dựa vào các nút láng giềng cục bộ để hoàn thành việc đào tạo mô hình hợp tác. Kết hợp với cập nhật không đồng bộ và cơ chế chịu lỗi điểm dừng, OpenDiLoCo cho phép GPU thương mại và thiết bị biên cũng có thể tham gia ổn định vào các nhiệm vụ đào tạo, làm tăng đáng kể khả năng tham gia đào tạo hợp tác toàn cầu, là một trong những cơ sở hạ tầng truyền thông chính để xây dựng mạng lưới đào tạo phi tập trung.
PCCL: Thư viện giao tiếp phối hợp
PCCL)Thư viện Giao tiếp Tập hợp Chính ### là một thư viện giao tiếp nhẹ được thiết kế riêng cho môi trường đào tạo AI Phi tập trung của Prime Intellect, nhằm giải quyết các nút thắt thích ứng của các thư viện giao tiếp truyền thống ### như NCCL, Gloo( trong các thiết bị không đồng nhất và mạng băng thông thấp. PCCL hỗ trợ topologie thưa, nén độ dốc, đồng bộ độ chính xác thấp và khôi phục điểm dừng, có thể chạy trên GPU tiêu dùng và các nút không ổn định, là thành phần cơ sở hỗ trợ khả năng giao tiếp bất đồng bộ của giao thức OpenDiLoCo. Nó nâng cao đáng kể khả năng chịu băng thông của mạng đào tạo và tính tương thích thiết bị, mở ra "km cuối" cho cơ sở giao tiếp trong việc xây dựng mạng đào tạo hợp tác thực sự mở và không cần tin cậy.
Mạng khuyến khích Prime Intellect và phân công vai trò
Prime Intellect đã xây dựng một mạng lưới đào tạo không cần cấp phép, có thể xác minh và có cơ chế khuyến khích kinh tế, cho phép bất kỳ ai tham gia vào các nhiệm vụ và nhận phần thưởng dựa trên đóng góp thực tế. Giao thức hoạt động dựa trên ba loại vai trò cốt lõi:
Quy trình cốt lõi của giao thức bao gồm phát hành nhiệm vụ, huấn luyện nút, xác minh đường đi, tổng hợp trọng số )SHARDCAST( và phát thưởng, tạo thành một vòng khuyến khích xoay quanh "hành vi đào tạo thực".
![AI đào tạo mô hình: từ kiểm soát tập trung đến cuộc cách mạng công nghệ hợp tác Phi tập trung])https://img-cdn.gateio.im/webp-social/moments-3a83d085e7a7abfe72221958419cd6d8.webp(
INTELLECT-2: phát hành mô hình đào tạo phi tập trung có thể xác minh đầu tiên
Prime Intellect đã phát hành INTELLECT-2 vào tháng 5 năm 2025, đây là mô hình học tăng cường lớn đầu tiên trên thế giới được đào tạo thông qua sự hợp tác của các nút phi tập trung không cần tin cậy và không đồng bộ, với quy mô tham số đạt 32B. Mô hình INTELLECT-2 được hoàn thành thông qua sự hợp tác đào tạo của hơn 100 nút GPU đa dạng trải rộng trên ba châu lục, sử dụng kiến trúc hoàn toàn không đồng bộ, thời gian đào tạo vượt quá 400 giờ, cho thấy tính khả thi và ổn định của mạng lưới hợp tác không đồng bộ. Mô hình này không chỉ là một bước đột phá về hiệu suất mà còn là sự hiện thực hóa đầu tiên của mô hình "đào tạo tức là đồng thuận" mà Prime Intellect đã đề xuất. INTELLECT-2 tích hợp cấu trúc đào tạo không đồng bộ PRIME-RL), hành vi đào tạo TOPLOC(.