Производительность модели Manus достигла прорыва, полностью гомоморфное шифрование может стать ключом к безопасности с помощью искусственного интеллекта.

Прорывы в производительности модели Manus вызывают размышления о безопасности с помощью искусственного интеллекта

Недавно модель Manus достигла прорывных результатов в тестировании GAIA, продемонстрировав выдающуюся производительность, превосходящую аналогичные большие модели. Это достижение означает, что Manus может самостоятельно справляться с комплексными задачами, такими как международные коммерческие переговоры, включая анализ условий контрактов, разработку стратегий и генерацию предложений. Преимущества Manus в основном проявляются в динамической декомпозиции целей, кросс-модальном выводе и усиленном обучении с памятью. Она может разбивать крупные задачи на сотни выполнимых подзадач, одновременно обрабатывая различные типы данных и постоянно повышая эффективность принятия решений и снижая уровень ошибок с помощью обучения с подкреплением.

Прогресс Manus вновь вызвал обсуждение в отрасли о путях развития ИИ: будущее заключается в том, чтобы достичь универсального искусственного интеллекта (AGI) или в том, чтобы координировать многоагентные системы (MAS)? Эта дискуссия на самом деле отражает основную проблему балансировки эффективности и безопасности в развитии ИИ. Поскольку индивидуальный интеллект приближается к AGI, риск непрозрачности его процесса принятия решений также возрастает; в то время как сотрудничество многоагентов может распределять риски, оно может также упустить критически важные моменты для принятия решений из-за задержек в связи.

Развитие Manus незаметно увеличивает присущие риски искусственного интеллекта. Например, в медицинских сценариях Manus необходимо в реальном времени получать доступ к чувствительной информации о пациентах; в финансовых переговорах могут быть задействованы непубличные данные компаний. Кроме того, проблему алгоритмической предвзятости также нельзя игнорировать, как, например, в процессе найма могут возникнуть рекомендации по зарплате, заведомо занижающие предложения для определённых групп, или высокая вероятность ошибок при оценке условий контрактов для новых отраслей. Более серьезная проблема заключается в том, что системы ИИ могут сталкиваться с атаками противника, например, хакеры могут вмешиваться в оценку переговоров Manus с помощью определённых звуковых частот.

Эти вызовы подчеркивают тревожный факт: чем умнее системы ИИ, тем шире их потенциальные уязвимости.

Manus приносит первые лучи AGI, безопасность с помощью искусственного интеллекта также заслуживает глубоких размышлений

В области Web3 безопасность всегда была предметом большого внимания. Теория "невозможного треугольника", предложенная создателем Ethereum Виталиком Бутериным (блокчейн-сети трудно одновременно достичь безопасности, децентрализации и масштабируемости), вдохновила на развитие различных криптографических технологий:

  1. Модель безопасности нулевого доверия: акцент на строгой проверке каждого запроса на доступ, без автоматического доверия любому устройству или пользователю.

  2. Децентрализованная идентичность (DID): позволяет сущностям получать верифицируемую идентификацию без централизованной регистрации.

  3. Полная гомоморфная криптография (FHE): позволяет выполнять вычисления непосредственно на зашифрованных данных без необходимости расшифровки исходных данных.

В частности, полностью гомоморфное шифрование как новая развивающаяся технология имеет потенциал стать ключевым инструментом для решения вопросов безопасности в эпоху ИИ. FHE позволяет выполнять сложные вычисления при защите конфиденциальности данных, что особенно важно для сценариев, требующих анализа без раскрытия исходных данных.

В решении проблем безопасности с помощью искусственного интеллекта FHE может играть роль на следующих уровнях:

  1. Уровень данных: Вся информация, введенная пользователем (включая биометрические данные, голос и т. д.), обрабатывается в зашифрованном виде, даже сама система ИИ не может расшифровать исходные данные.

  2. Алгоритмический уровень: с помощью FHE реализовать "обучение модели с шифрованием", чтобы даже разработчики не могли напрямую наблюдать за процессом принятия решений ИИ.

  3. Координационный уровень: связь между несколькими AI-агентами осуществляется с помощью порогового шифрования, и даже если один узел будет скомпрометирован, это не приведет к утечке глобальных данных.

Хотя технологии безопасности Web3 могут быть довольно абстрактными для обычных пользователей, их влияние имеет глубокие последствия. В этой сложной обстановке крайне важно постоянно повышать свои способности к обеспечению безопасности.

В истории некоторые проекты пытались сделать шаги в области безопасности Web3. Например, uPort запустил решение для децентрализованной идентификации в 2017 году на основной сети Ethereum; NKN выпустил основную сеть на основе модели нулевого доверия в 2019 году. В области FHE проект Mind Network стал первым, кто запустил основную сеть и сотрудничал с такими организациями, как ZAMA, Google, DeepSeek.

Несмотря на то, что ранние проекты безопасности могли не привлекать широкого внимания, с быстрым развитием технологий ИИ важность таких технологий безопасности, как FHE, будет возрастать. Они не только могут решить текущие проблемы безопасности, но и заложить основу для будущей эпохи сильного ИИ. На пути к AGI технологии безопасности, такие как FHE, больше не являются опцией, а представляют собой необходимую гарантию надежной работы ИИ-систем.

FHE-3.04%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 3
  • Репост
  • Поделиться
комментарий
0/400
LiquidatedNotStirredvip
· 10ч назад
С трудом выдерживаю, чем сильнее, тем больше страха.
Посмотреть ОригиналОтветить0
just_here_for_vibesvip
· 10ч назад
AI снова демонстрирует свои навыки
Посмотреть ОригиналОтветить0
FUDwatchervip
· 10ч назад
Никто не может быть сильнее человеческого разума.
Посмотреть ОригиналОтветить0
  • Закрепить