Еволюція парадигми навчання ШІ: від централізованого контролю до децентралізованої співпраці технологічних змін

Еволюція парадигм навчання ШІ: від централізованого контролю до технологічної революції децентралізованої співпраці

У всьому ціннісному ланцюгу ШІ моделювання тренування є найбільш ресурсомістким і має найвищий технічний поріг, що безпосередньо визначає межу здатності моделі та фактичну ефективність застосування. На відміну від легковагових викликів на етапі висновків, процес навчання потребує постійних масштабних обчислювальних витрат, складних процесів обробки даних та підтримки високонавантажених алгоритмів оптимізації, що є справжньою "важкою промисловістю" для систем ШІ. З точки зору архітектурних парадигм, методи навчання можна розділити на чотири категорії: централізоване навчання, розподілене навчання, федеративне навчання та децентралізоване навчання, яке є основною темою цього документа.

Еволюція парадигми навчання AI: від централізованого контролю до технологічної революції децентралізованої співпраці

Концентраційне навчання є найбільш поширеним традиційним способом, який здійснюється єдиною установою в локальному високопродуктивному кластері, де весь процес навчання, від апаратного забезпечення, базового програмного забезпечення, системи планування кластерів до всіх компонентів навчального фреймворку, координується єдиною контрольованою системою. Така глибока співпраця архітектури забезпечує максимальну ефективність спільного використання пам'яті, синхронізації градієнтів та механізмів помилок, що робить її дуже придатною для навчання великих моделей, таких як GPT, Gemini тощо, з перевагами високої ефективності та контрольованих ресурсів, але водночас існують проблеми монополії даних, бар'єрів ресурсів, споживання енергії та ризику єдиної точки.

Розподілене навчання є основним способом навчання великих моделей, його суть полягає в розподілі завдань навчання моделі на кілька машин для спільного виконання, щоб подолати обмеження обчислень і зберігання на одній машині. Незважаючи на фізичну сутність "розподіленості", в цілому все ще контролюється централізованою установою, яка відповідає за управління та синхронізацію, зазвичай працює в середовищі високошвидкісної локальної мережі, використовуючи технологію швидкісної міжмашинної передачі даних NVLink, основний вузол координує всі підзавдання. Основні методи включають:

  • Паралельність даних: кожен вузол навчає різні дані, параметри спільні, потрібно узгодити ваги моделі
  • Паралелізм моделей: розгортання різних частин моделі на різних вузлах для досягнення високої масштабованості
  • Паралельні трубопроводи: поетапне послідовне виконання, підвищення пропускної здатності
  • Тензорне паралелізування: детальне розподіл матричних обчислень, підвищення паралельної гранулярності

Розподілене навчання є поєднанням "централізованого контролю + розподіленого виконання", аналогічно тому, як один і той же бос дистанційно керує співпрацею кількох "офісних" працівників для виконання завдання. Наразі майже всі основні великі моделі (GPT-4, Gemini, LLaMA тощо ) навчаються саме таким чином.

Еволюція парадигми навчання ШІ: від централізованого контролю до децентралізованої співпраці в технологічній революції

Децентралізація тренування означає більш відкритий і стійкий до цензури шлях у майбутнє. Його основні риси полягають у тому, що: кілька недовірливих вузлів ( можуть бути домашніми комп'ютерами, хмарними GPU або краєвими пристроями ), які спільно виконують завдання з навчання без центрального координатора, зазвичай через протокол, що керує розподілом завдань і співпрацею, а також із використанням криптостимуляційного механізму для забезпечення чесності внесків. Основні виклики, з якими стикається ця модель, включають:

  • Гетерогенність пристроїв та складність розподілу: висока складність координації гетерогенних пристроїв, низька ефективність розподілу завдань
  • Вузьке місце ефективності зв'язку: нестабільний мережевий зв'язок, помітне вузьке місце синхронізації градієнтів
  • Відсутність довіреного виконання: бракує довіреного середовища виконання, важко перевірити, чи дійсно вузол бере участь у обчисленнях
  • Відсутність єдиного координаційного центру: без центрального диспетчера, складний розподіл завдань та механізм відкату помилок

Децентралізація тренування можна зрозуміти як: група глобальних волонтерів, які кожен вносять обчислювальні потужності для спільного навчання моделі, але "д真正可行的大规模去中心化训练" все ще є системною інженерною проблемою, яка охоплює архітектуру системи, комунікаційні протоколи, криптографічну безпеку, економічні механізми, валідацію моделі та багато інших аспектів, але чи може бути "спільна ефективність + стимулювання чесності + правильність результатів" ще перебуває на ранній стадії прототипування.

Федеративне навчання, як перехідна форма між розподіленістю та децентралізацією, підкреслює збереження даних на місці та централізовану агрегацію параметрів моделі, що підходить для сценаріїв, що акцентують на дотриманні конфіденційності, таких як медичні та фінансові. Федеративне навчання має інженерну структуру розподіленого навчання та локальні кооперативні можливості, водночас маючи переваги розподілених даних децентралізованого навчання, але все ще залежить від надійних координуючих сторін і не має повністю відкритих та антикорупційних характеристик. Його можна розглядати як "контрольовану децентралізацію" в умовах дотримання конфіденційності, яка є відносно м'якою в аспектах навчальних завдань, структур довіри та механізмів комунікації, що робить його більш придатним як промислову перехідну архітектуру.

( Порівняльна таблиця парадигм навчання AI) технічна архітектура × довірчі стимули × характеристики застосування###

Еволюція моделей навчання ШІ: від централізованого контролю до децентралізованої співпраці технічної революції

( Децентралізація тренування: межі, можливості та реальні шляхи

З точки зору навчальних парадигм, децентралізоване навчання не підходить для всіх типів завдань. У деяких сценаріях через складну структуру завдання, високі вимоги до ресурсів або великі труднощі в співпраці воно природно не підходить для ефективного виконання між гетерогенними, недовіреними вузлами. Наприклад, навчання великих моделей часто залежить від великої пам'яті, низької затримки та високої пропускної здатності, що ускладнює їх ефективне розподіл та синхронізацію в відкритій мережі; завдання з сильною конфіденційністю даних та обмеженнями суверенітету ), такі як медичні, фінансові та конфіденційні дані ###, обмежені законодавчими та етичними рамками, тому їх не можна відкрито ділити; а завдання (, які не мають основи для стимулювання співпраці, такі як закриті моделі компанії або навчання внутрішніх прототипів ), позбавлені зовнішнього стимулу для участі. Ці межі разом складають реальні обмеження децентралізованого навчання сьогодні.

Але це не означає, що децентралізоване навчання є псевдопроблемою. Насправді, у типах завдань з легкою структурою, що легко паралелізуються та можуть бути стимулюючими, децентралізоване навчання демонструє чіткі перспективи застосування. Включаючи, але не обмежуючись: LoRA доопрацювання, завдання після навчання з поведінковим вирівнюванням (, такі як RLHF, DPO ), завдання навчання і маркування даних через краудсорсинг, навчання малих базових моделей з контролем ресурсів, а також сценарії кооперативного навчання з участю крайових пристроїв. Ці завдання зазвичай мають високу паралелізованість, низьку зв’язаність і толерантність до гетерогенної обчислювальної потужності, що робить їх дуже підходящими для кооперативного навчання через P2P мережі, протоколи Swarm, розподілені оптимізатори та інші засоби.

(# Децентралізація тренувальних завдань адаптації загальний огляд таблиці

![Еволюція парадигми AI-тренування: від централізованого контролю до Децентралізація співпраці технологічна революція])https://img-cdn.gateio.im/webp-social/moments-3a83d085e7a7abfe72221958419cd6d8.webp###

( Децентралізація тренування класичних проектів аналіз

На сьогодні в області децентралізованого навчання та федеративного навчання провідними блокчейн-проектами є Prime Intellect, Pluralis.ai, Gensyn, Nous Research та Flock.io. З точки зору технологічної інноваційності та складності реалізації проектів, Prime Intellect, Nous Research та Pluralis.ai представили більше оригінальних досліджень в системній архітектурі та алгоритмічному дизайні, що відображає сучасні теоретичні напрямки; тоді як шлях реалізації Gensyn та Flock.io є відносно зрозумілим, і вже можна спостерігати перші інженерні досягнення. У цій статті буде послідовно проаналізовано основні технології та інженерні структури цих п'яти проектів, а також далі обговорено їх відмінності та взаємодоповнюючі відносини в децентралізованій системі навчання AI.

)# Prime Intellect: тренувальна траєкторія, що підлягає перевірці, посилена навчальна кооперативна мережа піонер

Prime Intellect прагне створити мережу навчання ШІ, яка не потребує довіри, дозволяючи кожному брати участь у навчанні та отримувати надійну винагороду за свої обчислювальні внески. Prime Intellect сподівається створити децентралізовану систему навчання ШІ з перевірюваністю, відкритістю та повноцінним механізмом стимулювання за допомогою трьох основних модулів: PRIME-RL + TOPLOC + SHARDCAST.

Один. Структура стеку протоколу Prime Intellect та цінність ключових модулів

![Еволюція парадигми навчання AI: від централізованого контролю до Децентралізації співпраці технологічна революція]###https://img-cdn.gateio.im/webp-social/moments-45f26de57a53ac937af683e629dbb804.webp###

Два. Детальний аналіз ключових механізмів тренування Prime Intellect

PRIME-RL: Архітектура завдань декомпозиційного асинхронного підкріпленого навчання

PRIME-RL є фреймворком для моделювання задач і виконання, розробленим компанією Prime Intellect для децентралізованих навчальних сценаріїв, спеціально створеним для гетерогенних мереж і асинхронної участі. Він використовує підкріплювальне навчання в якості пріоритетного об'єкта адаптації, структурно декомпозуючи процеси навчання, інференції та завантаження ваг, що дозволяє кожному навчальному вузлу незалежно виконувати цикли завдань на місці та співпрацювати через стандартизовані інтерфейси з механізмами верифікації та агрегації. У порівнянні з традиційними процесами контрольованого навчання, PRIME-RL більше підходить для реалізації еластичного навчання в середовищі без централізованого розподілу, знижуючи складність системи та закладаючи основу для підтримки паралельного виконання декількох завдань і еволюції стратегій.

TOPLOC: легкий механізм перевірки поведінки навчання

TOPLOC(Довірене спостереження & Перевірка локальності) є основним механізмом перевірки навчання, запропонованим Prime Intellect, який використовується для визначення того, чи дійсно вузол завершив ефективне навчання стратегії на основі спостережуваних даних. На відміну від важких рішень, таких як ZKML, TOPLOC не покладається на повторний обчислення всієї моделі, а завершує верифікацію легковаговою структурою, аналізуючи локальні траєкторії узгодженості між "послідовністю спостережень ↔ оновленням стратегії". Вперше він перетворює поведінкові траєкторії під час навчання на об'єкти, що підлягають перевірці, що є ключовою інновацією для реалізації розподілу винагороди за навчання без довіри, забезпечуючи здійсненний шлях до побудови аудиторних та стимулюючих мереж децентралізованого співпраці.

SHARDCAST: асинхронна агрегація ваг та протокол поширення

SHARDCAST є протоколом важільного поширення та агрегації, розробленим Prime Intellect, оптимізованим для асинхронних, обмежених за пропускною здатністю та змінних станів вузлів реальних мережевих середовищ. Він поєднує механізм поширення gossip та стратегію локальної синхронізації, що дозволяє кільком вузлам безперервно подавати часткові оновлення в умовах асинхронного стану, реалізуючи прогресивну збіжність ваг та багатовартісну еволюцію. У порівнянні з централізованими або синхронними методами AllReduce, SHARDCAST значно підвищує масштабованість і стійкість до збоїв децентралізованого навчання, є основою для створення стабільного консенсусу ваг та безперервної ітерації навчання.

OpenDiLoCo: Рідкісний асинхронний комунікаційний фреймворк

OpenDiLoCo є незалежною реалізацією та відкритим вихідним кодом фреймворку оптимізації зв'язку, розробленим командою Prime Intellect на основі концепції DiLoCo, запропонованої DeepMind. Він спеціально розроблений для вирішення викликів, пов'язаних із обмеженою пропускною здатністю, гетерогенними пристроями та нестабільними вузлами, які часто виникають під час децентралізованого навчання. Його архітектура базується на паралельній обробці даних, шляхом побудови рідкісних топологічних структур, таких як кільця, розширювачі та малосвітові мережі, що дозволяє уникнути високих витрат на зв'язок, пов'язаних із глобальною синхронізацією, і здійснювати спільне навчання моделей, спираючись лише на сусідні вузли. Завдяки асинхронному оновленню та механізму відмовостійкості, OpenDiLoCo дозволяє споживчим GPU та крайнім пристроям стабільно брати участь у навчальних завданнях, що значно підвищує можливість участі в глобальному співпрацюючому навчанні і є однією з ключових комунікаційних інфраструктур для побудови мережі децентралізованого навчання.

PCCL:Бібліотека спільної комунікації

PCCL(Prime Collective Communication Library) є легковаговою бібліотекою зв'язку, спеціально розробленою Prime Intellect для децентралізованого середовища навчання штучного інтелекту, яка має на меті вирішити проблеми адаптації традиційних бібліотек зв'язку(, таких як NCCL, Gloo), у гетерогенних пристроях і мережах з низькою пропускною спроможністю. PCCL підтримує розріджену топологію, стиснення градієнтів, синхронізацію з низькою точністю та відновлення з контрольних точок, може працювати на споживчих GPU та нестабільних вузлах, є основним компонентом, який підтримує асинхронні можливості зв'язку протоколу OpenDiLoCo. Він значно підвищує толерантність до пропускної спроможності тренувальної мережі та сумісність пристроїв, прокладаючи "останню милю" комунікаційної основи для створення справді відкритої, без довіри кооперативної навчальної мережі.

Три, мережа стимулювання Prime Intellect та розподіл ролей

Prime Intellect побудував мережу тренувань, яка не потребує дозволу, є підтверджуваною та має економічний стимул, що дозволяє будь-кому брати участь у завданнях та отримувати винагороди на основі реального внеску. Протокол працює на основі трьох основних ролей:

  • Ініціатор завдання: визначити навчальне середовище, початкову модель, функцію винагороди та стандарт валідації
  • Тренувальний вузол: виконання локального тренування, подання оновлень ваг та спостереження за траєкторією
  • Вузли верифікації: використання механізму TOPLOC для перевірки достовірності навчальної поведінки та участі в розрахунках винагороди та агрегації стратегій

Ядро процесу угоди включає публікацію завдань, навчання вузлів, верифікацію траєкторій, агрегацію ваг та розподіл винагород, формуючи замкнене коло стимулювання навколо "реальних навчальних дій".

Еволюція парадигми AI-тренування: від централізованого контролю до технологічної революції децентралізованої кооперації

**

PRIME-4.39%
Переглянути оригінал
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
  • Нагородити
  • 7
  • Поділіться
Прокоментувати
0/400
LayerZeroHerovip
· 12год тому
Тренування, тренування. Хто не починає з нуля?
Переглянути оригіналвідповісти на0
PensionDestroyervip
· 12год тому
Хто сказав, що маленькі містечкові вундеркінди не можуть?
Переглянути оригіналвідповісти на0
TokenBeginner'sGuidevip
· 12год тому
Нагадуємо: розподілене навчання має перспективи, але згідно з даними досліджень, 85% проектів важко подолати обмеження синхронізації системи, рекомендуємо підписатися на відповідність безпеки даних.
Переглянути оригіналвідповісти на0
NFTRegrettervip
· 12год тому
Навіть краще зосередити всю увагу на тренуваннях... нудно.
Переглянути оригіналвідповісти на0
ApeWithNoFearvip
· 12год тому
Справді смачно, краще б використали для майнінгу ETH.
Переглянути оригіналвідповісти на0
ThesisInvestorvip
· 12год тому
Федеративне навчання знову на великих новинах?
Переглянути оригіналвідповісти на0
NFTArtisanHQvip
· 12год тому
парадигма децентралізації – це буквально готові роботи Дюшана, але зробіть це ШІ... захоплююче, чесно кажучи
Переглянути оригіналвідповісти на0
  • Закріпити