Еволюція парадигми навчання ШІ: від централізованого контролю до технологічної революції децентралізованої співпраці
У повній ціннісній ланцюгу ШІ, навчання моделей є етапом з найбільшими витратами ресурсів і найвищими технологічними бар'єрами, що безпосередньо визначає верхню межу можливостей моделей та їх фактичну ефективність застосування. На відміну від легкого виклику на етапі висновку, процес навчання потребує постійних інвестицій у масштабні обчислювальні потужності, складні процеси обробки даних та підтримку інтенсивних алгоритмів оптимізації, що є справжньою "важкою промисловістю" в побудові систем ШІ. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, на якому ми зосередимося в цій статті.
Централізоване навчання є найпоширенішим традиційним способом, що виконується єдиною установою в локальному кластері високої продуктивності, де весь процес навчання, від апаратного забезпечення, базового програмного забезпечення, системи розкладу кластерів до всіх компонентів навчальної рамки, координується єдиною системою контролю. Ця система глибокої співпраці дозволяє досягти оптимальної ефективності в спільному використанні пам'яті, синхронізації градієнтів та механізмах відмовостійкості, що робить її дуже придатною для навчання великих моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують проблеми монополії даних, бар'єрів ресурсів, споживання енергії та ризиків єдиної точки.
Розподілене навчання є основним способом навчання великих моделей, його суть полягає в тому, щоб розділити завдання навчання моделі, а потім розподілити їх на кілька машин для спільного виконання, щоб подолати обмеження обчислень і зберігання на одному комп'ютері. Хоча фізично є "Децентралізація", загалом все ще контролюється централізованими установами, які здійснюють управління та синхронізацію, зазвичай працює в середовищі високошвидкісної локальної мережі, через технологію високошвидкісної міжмашинної зв'язку NVLink, головний вузол координує всі підзадачі. Основні методи включають:
Паралельність даних: кожен вузол навчає різні дані, параметри спільно використовуються, потрібно узгодити ваги моделі
Модельна паралельність: розгортання різних частин моделі на різних вузлах, що забезпечує високу масштабованість
Паралельне оброблення: поетапне послідовне виконання, підвищення пропускної спроможності
Тензорне паралелювання: уточнене розділення матричних обчислень, підвищення паралельного гранулярності
Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же керівник дистанційно керує співробітниками декількох "офісів" для спільного виконання завдання. На сьогоднішній день практично всі основні великі моделі (GPT-4, Gemini, LLaMA тощо ) навчаються цим способом.
Децентралізована тренування представляє собою більш відкритий і стійкий до цензури шлях у майбутнє. Його основна характеристика полягає в тому, що кілька непов'язаних між собою вузлів ( можуть бути домашніми комп'ютерами, хмарними GPU або крайовими пристроями ), які без центрального координатора спільно виконують навчальні завдання, зазвичай через протокол, що керує розподілом завдань і співпрацею, та за допомогою механізму криптостимулювання, що забезпечує чесність внесків. Основні виклики, з якими стикається ця модель, включають:
Гетерогенність пристроїв і труднощі розподілу: високий рівень ускладнення координації між гетерогенними пристроями, низька ефективність розподілу завдань
Вузьке місце в ефективності зв'язку: нестабільний мережевий зв'язок, очевидне вузьке місце в синхронізації градієнтів
Відсутність довіреного виконання: брак довіреного середовища виконання ускладнює перевірку того, чи справді вузли беруть участь у обчисленнях.
Відсутність єдиної координації: немає центрального диспетчера, розподіл завдань, механізм скасування аномалій складний
Децентралізація навчання можна зрозуміти як: група глобальних волонтерів, які кожен вносять обчислювальну потужність для спільного навчання моделі, але "справді здійсненне великомасштабне децентралізоване навчання" все ще є системним інженерним викликом, що охоплює системну архітектуру, комунікаційні протоколи, криптозахист, економічні механізми, валідацію моделей та інші аспекти, але чи можливо "спільно ефективно + заохочувати чесність + отримувати правильні результати" ще перебуває на стадії раннього прототипування.
Федеративне навчання як перехідна форма між розподіленістю та децентралізацією підкреслює локальне зберігання даних, централізовану агрегацію параметрів моделі, підходить для сценаріїв, що акцентують увагу на дотриманні конфіденційності, таких як медицина, фінанси. Федеративне навчання має інженерну структуру розподіленого навчання та локальну кооперативну здатність, водночас володіючи перевагами децентралізованого навчання з розподілом даних, але все ж покладається на надійні координуючі сторони і не має повністю відкритих та антикорупційних характеристик. Це можна розглядати як "контрольовану децентралізацію" в сценаріях дотримання конфіденційності, з відносно м’яким підходом до навчальних завдань, довірчої структури та механізмів зв’язку, що більш підходить як перехідна архітектура для промисловості.
( Децентралізація тренування: межі, можливості та реальні шляхи
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У певних сценаріях, через складну структуру завдання, високі вимоги до ресурсів або складність співпраці, воно природно не підходить для ефективного виконання між гетерогенними, бездоказовими вузлами. Наприклад, навчання великих моделей часто залежить від великої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективне розподілення та синхронізацію в відкритих мережах; завдання з сильною конфіденційністю даних та обмеженнями суверенітету ), такі як медичні, фінансові та конфіденційні дані ###, обмежені правовими та етичними вимогами, не можуть бути відкрито поділені; а завдання (, що не мають основи для співпраці, такі як закриті моделі компаній або внутрішнє навчання прототипів ), не мають мотивації для зовнішньої участі. Ці межі разом утворюють реальні обмеження децентралізованого навчання сьогодні.
Але це не означає, що децентралізоване навчання є псевдопроблемою. Насправді, у типах завдань з легкою структурою, які легко паралелізуються та мають можливість стимулювання, децентралізоване навчання демонструє чіткі перспективи застосування. Сюди входять, але не обмежуються: LoRA-тонка настройка, завдання після навчання для поведінкового вирівнювання (, такі як RLHF, DPO ), краудсорсинг даних для навчання та маркування, навчання малих базових моделей з контролем ресурсів, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язність і терпимість до гетерогенних обчислювальних потужностей, що робить їх дуже придатними для кооперативного навчання через P2P-мережі, протокол Swarm, розподілені оптимізатори та інші способи.
( Децентралізація тренування класичних проектів аналіз
Наразі в області децентралізованого навчання та федеративного навчання, представницькі блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai пропонують більше оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, представляючи передові напрямки сучасних теоретичних досліджень; тоді як реалізаційні шляхи Gensyn та Flock.io відносно чіткі, і вже видно початкові інженерні досягнення. У цій статті поетапно буде проаналізовано основні технології та архітектури інженерії цих п'яти проектів, а також далі розглянуто їх відмінності та взаємодоповнюючі стосунки в системі децентралізованого AI навчання.
)# Prime Intellect: тренувальна траєкторія, що підлягає перевірці, посилена навчальна кооперативна мережа піонерів
Prime Intellect прагне створити мережу навчання ШІ, яка не потребує довіри, щоб кожен міг брати участь у навчанні та отримувати надійну винагороду за свій обчислювальний внесок. Prime Intellect сподівається створити децентралізовану навчальну систему ШІ з перевіркою, відкритістю та повноцінним механізмом стимулювання шляхом використання трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.
Структура та цінність ключових модулів протоколу Prime Intellect:
PRIME-RL: архітектура завдань декомпозованого асинхронного підкріплювального навчання
PRIME-RL є рамками моделювання задач та виконання, спеціально створеними Prime Intellect для децентралізованих навчальних сценаріїв, розробленими для гетерогенних мереж і асинхронних учасників. Він використовує посилене навчання як пріоритетний об'єкт адаптації, структурно декомпонуючи процеси навчання, інферування та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно завершувати цикл завдань на місцевому рівні та співпрацювати через стандартизовані інтерфейси з механізмами валідації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більше підходить для реалізації еластичного навчання в середовищах без центрального управління, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних процесів та еволюції стратегій.
TOPLOC: легкий механізм верифікації поведінки тренування
TOPLOC###Довірене спостереження та перевірка локальності### є основним механізмом перевірки навчання, запропонованим Prime Intellect, який використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегій на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повне перерахування моделі, а завершує верифікацію легковісної структури шляхом аналізу локальної узгодженості між "послідовністю спостережень ↔ оновленням стратегій". Він вперше перетворює поведінкові траєкторії під час навчання на об'єкти, які підлягають перевірці, що є ключовим нововведенням для досягнення розподілу винагороди за навчання без довіри, і забезпечує можливий шлях для створення аудиторних, стимулюючих децентралізованих мереж співпраці в навчанні.
SHARDCAST: асинхронна агрегація ваг та протокол поширення
SHARDCAST - це протокол вагового розповсюдження та агрегації, розроблений Prime Intellect, спеціально оптимізований для асинхронних, обмежених пропускною здатністю та змінних станів вузлів у реальних мережевих середовищах. Він поєднує механізм gossipping з локальною синхронізацією, що дозволяє кільком вузлам безперервно подавати часткові оновлення в умовах асинхронності, досягаючи поступової конвергенції ваги та еволюції багатьох версій. У порівнянні з централізованими або синхронізованими методами AllReduce, SHARDCAST значно підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є основою для побудови стабільного консенсусу ваги та безперервної ітерації навчання.
OpenDiLoCo є незалежно реалізованою та відкритою оптимізаційною комунікаційною мережею, створеною командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розробленою для вирішення викликів, пов'язаних із обмеженою пропускною здатністю, гетерогенними пристроями та нестабільними вузлами, які часто зустрічаються в децентралізованому навчанні. Його архітектура базується на паралельній обробці даних, шляхом побудови розріджених топологій, таких як кільце, розширювач та малий світ, що дозволяє уникнути високих витрат на комунікацію при глобальній синхронізації, спираючись лише на сусідні локальні вузли для виконання спільного навчання моделі. Завдяки асинхронним оновленням і механізму відновлення після збоїв, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи доступність глобального співпраці у навчанні, що є однією з ключових комунікаційних інфраструктур для створення децентралізованої навчальної мережі.
PCCL:Бібліотека співпраці в комунікаціях
PCCL(Prime Collective Communication Library) є легковаговою бібліотекою зв'язку, спеціально розробленою компанією Prime Intellect для децентралізованого середовища навчання AI, яка має на меті вирішити проблеми адаптації традиційних бібліотек зв'язку (, таких як NCCL, Gloo), у гетерогенних пристроях та мережах з низькою пропускною спроможністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, який підтримує асинхронні можливості зв'язку протоколу OpenDiLoCo. Він суттєво підвищує толерантність мережі до пропускної здатності та сумісність пристроїв, прокладаючи "останню милю" комунікаційної інфраструктури для створення справді відкритої та бездоверчої мережі спільного навчання.
Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував тренувальну мережу без ліцензії, що перевіряється, з економічними механізмами стимулювання, що дозволяє будь-кому брати участь у завданнях і отримувати винагороду на основі справжніх внесків. Протокол працює на основі трьох основних ролей:
Ініціатор завдання: визначте навчальне середовище, початкову модель, функцію винагороди та критерії валідації
Навчальні вузли: виконання локального навчання, подача оновлень ваг та спостережуваних траекторій
Вузли верифікації: використання механізму TOPLOC для перевірки достовірності тренувальної поведінки та участь у розрахунку винагороди та агрегації стратегій
Ядро процесу угоди включає публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та виплату винагород, що формує замкнуте коло стимулювання навколо "реальних навчальних дій".
INTELLECT-2: перший у світі перевірений децентралізований навчальний модель
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель посиленого навчання, яка була навчена за допомогою асинхронних, без довіри децентралізованих вузлів. Розмір параметрів досягає 32B. Модель INTELLECT-2 була завершена завдяки співпраці понад 100 GPU гетерогенних вузлів, розташованих на трьох континентах, використовуючи повністю асинхронну архітектуру, тривалість навчання перевищила 400 годин, демонструючи життєздатність і стабільність асинхронної мережі співпраці. Ця модель є не лише проривом у продуктивності, а й першим системним втіленням парадигми "навчання - це консенсус", запропонованої Prime Intellect. INTELLECT-2 інтегрує асинхронну навчальну структуру PRIME-RL(, TOPLOC) навчальну поведінку.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
11 лайків
Нагородити
11
8
Поділіться
Прокоментувати
0/400
ProxyCollector
· 07-24 16:12
Все ще займаєшся інтенсивними тренуваннями? Це вже застаріло.
Переглянути оригіналвідповісти на0
BrokenYield
· 07-24 16:11
смх централізоване навчання штучного інтелекту - це просто ще одна точка відмови... класичний системний ризик
Переглянути оригіналвідповісти на0
fork_in_the_road
· 07-24 10:35
Вартість навчання занадто висока, маленькі компанії не можуть собі цього дозволити.
Переглянути оригіналвідповісти на0
BuyHighSellLow
· 07-21 17:01
Ця монета зросла? Якщо зрозумів, вважай, що я програв.
Переглянути оригіналвідповісти на0
TokenVelocityTrauma
· 07-21 17:00
Можна так грати, класно!
Переглянути оригіналвідповісти на0
SigmaValidator
· 07-21 16:55
Ой, хто сказав, що децентралізація неможлива?
Переглянути оригіналвідповісти на0
SignatureDenied
· 07-21 16:41
Не роздувай, тренування - це чисто гра на витрати.
Еволюція парадигм навчання ШІ: від централізованого контролю до Децентралізації співпраці
Еволюція парадигми навчання ШІ: від централізованого контролю до технологічної революції децентралізованої співпраці
У повній ціннісній ланцюгу ШІ, навчання моделей є етапом з найбільшими витратами ресурсів і найвищими технологічними бар'єрами, що безпосередньо визначає верхню межу можливостей моделей та їх фактичну ефективність застосування. На відміну від легкого виклику на етапі висновку, процес навчання потребує постійних інвестицій у масштабні обчислювальні потужності, складні процеси обробки даних та підтримку інтенсивних алгоритмів оптимізації, що є справжньою "важкою промисловістю" в побудові систем ШІ. З точки зору архітектурних парадигм, способи навчання можна поділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, на якому ми зосередимося в цій статті.
Централізоване навчання є найпоширенішим традиційним способом, що виконується єдиною установою в локальному кластері високої продуктивності, де весь процес навчання, від апаратного забезпечення, базового програмного забезпечення, системи розкладу кластерів до всіх компонентів навчальної рамки, координується єдиною системою контролю. Ця система глибокої співпраці дозволяє досягти оптимальної ефективності в спільному використанні пам'яті, синхронізації градієнтів та механізмах відмовостійкості, що робить її дуже придатною для навчання великих моделей, таких як GPT, Gemini, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують проблеми монополії даних, бар'єрів ресурсів, споживання енергії та ризиків єдиної точки.
Розподілене навчання є основним способом навчання великих моделей, його суть полягає в тому, щоб розділити завдання навчання моделі, а потім розподілити їх на кілька машин для спільного виконання, щоб подолати обмеження обчислень і зберігання на одному комп'ютері. Хоча фізично є "Децентралізація", загалом все ще контролюється централізованими установами, які здійснюють управління та синхронізацію, зазвичай працює в середовищі високошвидкісної локальної мережі, через технологію високошвидкісної міжмашинної зв'язку NVLink, головний вузол координує всі підзадачі. Основні методи включають:
Розподілене навчання є комбінацією "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же керівник дистанційно керує співробітниками декількох "офісів" для спільного виконання завдання. На сьогоднішній день практично всі основні великі моделі (GPT-4, Gemini, LLaMA тощо ) навчаються цим способом.
Децентралізована тренування представляє собою більш відкритий і стійкий до цензури шлях у майбутнє. Його основна характеристика полягає в тому, що кілька непов'язаних між собою вузлів ( можуть бути домашніми комп'ютерами, хмарними GPU або крайовими пристроями ), які без центрального координатора спільно виконують навчальні завдання, зазвичай через протокол, що керує розподілом завдань і співпрацею, та за допомогою механізму криптостимулювання, що забезпечує чесність внесків. Основні виклики, з якими стикається ця модель, включають:
Децентралізація навчання можна зрозуміти як: група глобальних волонтерів, які кожен вносять обчислювальну потужність для спільного навчання моделі, але "справді здійсненне великомасштабне децентралізоване навчання" все ще є системним інженерним викликом, що охоплює системну архітектуру, комунікаційні протоколи, криптозахист, економічні механізми, валідацію моделей та інші аспекти, але чи можливо "спільно ефективно + заохочувати чесність + отримувати правильні результати" ще перебуває на стадії раннього прототипування.
Федеративне навчання як перехідна форма між розподіленістю та децентралізацією підкреслює локальне зберігання даних, централізовану агрегацію параметрів моделі, підходить для сценаріїв, що акцентують увагу на дотриманні конфіденційності, таких як медицина, фінанси. Федеративне навчання має інженерну структуру розподіленого навчання та локальну кооперативну здатність, водночас володіючи перевагами децентралізованого навчання з розподілом даних, але все ж покладається на надійні координуючі сторони і не має повністю відкритих та антикорупційних характеристик. Це можна розглядати як "контрольовану децентралізацію" в сценаріях дотримання конфіденційності, з відносно м’яким підходом до навчальних завдань, довірчої структури та механізмів зв’язку, що більш підходить як перехідна архітектура для промисловості.
( Децентралізація тренування: межі, можливості та реальні шляхи
З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У певних сценаріях, через складну структуру завдання, високі вимоги до ресурсів або складність співпраці, воно природно не підходить для ефективного виконання між гетерогенними, бездоказовими вузлами. Наприклад, навчання великих моделей часто залежить від великої пам'яті, низької затримки та високої пропускної здатності, що ускладнює ефективне розподілення та синхронізацію в відкритих мережах; завдання з сильною конфіденційністю даних та обмеженнями суверенітету ), такі як медичні, фінансові та конфіденційні дані ###, обмежені правовими та етичними вимогами, не можуть бути відкрито поділені; а завдання (, що не мають основи для співпраці, такі як закриті моделі компаній або внутрішнє навчання прототипів ), не мають мотивації для зовнішньої участі. Ці межі разом утворюють реальні обмеження децентралізованого навчання сьогодні.
Але це не означає, що децентралізоване навчання є псевдопроблемою. Насправді, у типах завдань з легкою структурою, які легко паралелізуються та мають можливість стимулювання, децентралізоване навчання демонструє чіткі перспективи застосування. Сюди входять, але не обмежуються: LoRA-тонка настройка, завдання після навчання для поведінкового вирівнювання (, такі як RLHF, DPO ), краудсорсинг даних для навчання та маркування, навчання малих базових моделей з контролем ресурсів, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралельність, низьку зв'язність і терпимість до гетерогенних обчислювальних потужностей, що робить їх дуже придатними для кооперативного навчання через P2P-мережі, протокол Swarm, розподілені оптимізатори та інші способи.
( Децентралізація тренування класичних проектів аналіз
Наразі в області децентралізованого навчання та федеративного навчання, представницькі блокчейн-проекти включають Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації, Prime Intellect, Nous Research та Pluralis.ai пропонують більше оригінальних досліджень у системній архітектурі та алгоритмічному дизайні, представляючи передові напрямки сучасних теоретичних досліджень; тоді як реалізаційні шляхи Gensyn та Flock.io відносно чіткі, і вже видно початкові інженерні досягнення. У цій статті поетапно буде проаналізовано основні технології та архітектури інженерії цих п'яти проектів, а також далі розглянуто їх відмінності та взаємодоповнюючі стосунки в системі децентралізованого AI навчання.
)# Prime Intellect: тренувальна траєкторія, що підлягає перевірці, посилена навчальна кооперативна мережа піонерів
Prime Intellect прагне створити мережу навчання ШІ, яка не потребує довіри, щоб кожен міг брати участь у навчанні та отримувати надійну винагороду за свій обчислювальний внесок. Prime Intellect сподівається створити децентралізовану навчальну систему ШІ з перевіркою, відкритістю та повноцінним механізмом стимулювання шляхом використання трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.
Структура та цінність ключових модулів протоколу Prime Intellect:
PRIME-RL: архітектура завдань декомпозованого асинхронного підкріплювального навчання
PRIME-RL є рамками моделювання задач та виконання, спеціально створеними Prime Intellect для децентралізованих навчальних сценаріїв, розробленими для гетерогенних мереж і асинхронних учасників. Він використовує посилене навчання як пріоритетний об'єкт адаптації, структурно декомпонуючи процеси навчання, інферування та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно завершувати цикл завдань на місцевому рівні та співпрацювати через стандартизовані інтерфейси з механізмами валідації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більше підходить для реалізації еластичного навчання в середовищах без центрального управління, що знижує складність системи та закладає основу для підтримки паралельних багатозадачних процесів та еволюції стратегій.
TOPLOC: легкий механізм верифікації поведінки тренування
TOPLOC###Довірене спостереження та перевірка локальності### є основним механізмом перевірки навчання, запропонованим Prime Intellect, який використовується для визначення, чи дійсно вузол завершив ефективне навчання стратегій на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повне перерахування моделі, а завершує верифікацію легковісної структури шляхом аналізу локальної узгодженості між "послідовністю спостережень ↔ оновленням стратегій". Він вперше перетворює поведінкові траєкторії під час навчання на об'єкти, які підлягають перевірці, що є ключовим нововведенням для досягнення розподілу винагороди за навчання без довіри, і забезпечує можливий шлях для створення аудиторних, стимулюючих децентралізованих мереж співпраці в навчанні.
SHARDCAST: асинхронна агрегація ваг та протокол поширення
SHARDCAST - це протокол вагового розповсюдження та агрегації, розроблений Prime Intellect, спеціально оптимізований для асинхронних, обмежених пропускною здатністю та змінних станів вузлів у реальних мережевих середовищах. Він поєднує механізм gossipping з локальною синхронізацією, що дозволяє кільком вузлам безперервно подавати часткові оновлення в умовах асинхронності, досягаючи поступової конвергенції ваги та еволюції багатьох версій. У порівнянні з централізованими або синхронізованими методами AllReduce, SHARDCAST значно підвищує масштабованість та стійкість до збоїв децентралізованого навчання, є основою для побудови стабільного консенсусу ваги та безперервної ітерації навчання.
OpenDiLoCo: Рідкісний асинхронний комунікаційний фреймворк
OpenDiLoCo є незалежно реалізованою та відкритою оптимізаційною комунікаційною мережею, створеною командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind, спеціально розробленою для вирішення викликів, пов'язаних із обмеженою пропускною здатністю, гетерогенними пристроями та нестабільними вузлами, які часто зустрічаються в децентралізованому навчанні. Його архітектура базується на паралельній обробці даних, шляхом побудови розріджених топологій, таких як кільце, розширювач та малий світ, що дозволяє уникнути високих витрат на комунікацію при глобальній синхронізації, спираючись лише на сусідні локальні вузли для виконання спільного навчання моделі. Завдяки асинхронним оновленням і механізму відновлення після збоїв, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, значно підвищуючи доступність глобального співпраці у навчанні, що є однією з ключових комунікаційних інфраструктур для створення децентралізованої навчальної мережі.
PCCL:Бібліотека співпраці в комунікаціях
PCCL(Prime Collective Communication Library) є легковаговою бібліотекою зв'язку, спеціально розробленою компанією Prime Intellect для децентралізованого середовища навчання AI, яка має на меті вирішити проблеми адаптації традиційних бібліотек зв'язку (, таких як NCCL, Gloo), у гетерогенних пристроях та мережах з низькою пропускною спроможністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є базовим компонентом, який підтримує асинхронні можливості зв'язку протоколу OpenDiLoCo. Він суттєво підвищує толерантність мережі до пропускної здатності та сумісність пристроїв, прокладаючи "останню милю" комунікаційної інфраструктури для створення справді відкритої та бездоверчої мережі спільного навчання.
Prime Intellect стимулююча мережа та розподіл ролей
Prime Intellect побудував тренувальну мережу без ліцензії, що перевіряється, з економічними механізмами стимулювання, що дозволяє будь-кому брати участь у завданнях і отримувати винагороду на основі справжніх внесків. Протокол працює на основі трьох основних ролей:
Ядро процесу угоди включає публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та виплату винагород, що формує замкнуте коло стимулювання навколо "реальних навчальних дій".
INTELLECT-2: перший у світі перевірений децентралізований навчальний модель
Prime Intellect випустила INTELLECT-2 у травні 2025 року, це перша у світі велика модель посиленого навчання, яка була навчена за допомогою асинхронних, без довіри децентралізованих вузлів. Розмір параметрів досягає 32B. Модель INTELLECT-2 була завершена завдяки співпраці понад 100 GPU гетерогенних вузлів, розташованих на трьох континентах, використовуючи повністю асинхронну архітектуру, тривалість навчання перевищила 400 годин, демонструючи життєздатність і стабільність асинхронної мережі співпраці. Ця модель є не лише проривом у продуктивності, а й першим системним втіленням парадигми "навчання - це консенсус", запропонованої Prime Intellect. INTELLECT-2 інтегрує асинхронну навчальну структуру PRIME-RL(, TOPLOC) навчальну поведінку.