Запуск проекта Mira: уровень доверия AI для создания проверяемой экосистемы искусственного интеллекта

robot
Генерация тезисов в процессе

Уровень доверия AI: новое решение для борьбы с предвзятостью и галлюцинациями искусственного интеллекта

Недавно в业内 привлекло внимание сетевое общественное тестирование под названием Mira. Цель этого проекта — создать уровень доверия к искусственному интеллекту, нацеленный на решение проблем предвзятости и "галлюцинаций" в системах ИИ. Итак, почему ИИ нуждается в доверии? Как Mira справляется с этой задачей?

При обсуждении ИИ люди часто больше всего интересуются его мощными возможностями. Однако факт существования "галлюцинаций" или предвзятости в ИИ часто игнорируется. Так называемые "галлюцинации" ИИ, проще говоря, это то, что ИИ иногда может "выдумывать", уверенно предоставляя неверную информацию. Например, когда его спрашивают, почему луна розовая, ИИ может предоставить на вид разумное, но совершенно вымышленное объяснение.

Это явление связано с текущими путями технологий ИИ. Генеративный ИИ достигает согласованности и разумности, предсказывая "наиболее вероятное" содержание, но этот метод сложно проверить на подлинность. Кроме того, тренировочные данные могут содержать ошибки, предвзятости и даже вымышленные материалы, что может повлиять на качество вывода ИИ. Иными словами, ИИ изучает языковые модели человека, а не сами факты.

Текущие механизмы генерации вероятностей и модели, основанные на данных, почти неизбежно приводят к тому, что ИИ создает "галлюцинации". Хотя в общих знаниях или развлекательном контенте эта проблема может не привести к серьезным последствиям немедленно, в таких областях, как медицина, право, авиация и финансы, требующих высокой строгости, неправильные выводы ИИ могут иметь серьезные последствия. Поэтому решение проблем галлюцинаций и предвзятости ИИ становится одной из ключевых тем в процессе развития ИИ.

Проект Mira как раз направлен на решение этой проблемы. Он пытается уменьшить предвзятость и иллюзии, повысив надежность ИИ, путем создания уровня доверия для ИИ. Основная идея Mira заключается в использовании консенсуса нескольких моделей ИИ для проверки выводов ИИ. Эта сеть верификации использует децентрализованный механизм консенсуса, объединяя сотрудничество нескольких моделей, чтобы снизить вероятность возникновения предвзятости и иллюзий.

В области верификационной структуры протокол Mira поддерживает преобразование сложного контента в независимые для верификации утверждения. Операторы узлов участвуют в верификации этих утверждений, а для обеспечения честности операторов узлов в системе используется механизм криптоэкономических стимулов/наказаний. Различные AI-модели и децентрализованные операторы узлов совместно участвуют для обеспечения надежности результатов верификации.

Сетевая архитектура Mira включает три ключевых элемента: преобразование контента, распределенная проверка и механизм консенсуса. Во-первых, система разбивает представленный клиентом кандидатный контент на различные проверяемые утверждения, которые распределяются между узлами для проверки. После того как узлы определяют действительность утверждений, результаты обобщаются для достижения консенсуса, и в конечном итоге результаты возвращаются клиенту. Чтобы защитить конфиденциальность клиента, утверждения будут распределяться между различными узлами в случайном порядке, чтобы предотвратить утечку информации в процессе проверки.

Операторы узлов получают доход, запускают модели валидации, обрабатывают заявления и представляют результаты валидации. Эти доходы основаны на ценности, создаваемой для клиентов, особенно в снижении уровня ошибок ИИ в критических областях. Чтобы предотвратить спекулятивное поведение узлов, реагирующих случайным образом, система наказывает узлы, которые постоянно отклоняются от консенсуса, обеспечивая честное участие операторов узлов в валидации через игровую экономику.

В целом, Mira предлагает новый подход к повышению надежности ИИ. Создавая децентрализованную сеть проверки консенсуса на основе нескольких ИИ-моделей, Mira нацелена на обеспечение более высокой надежности ИИ-сервисов для клиентов, снижение предвзятости и иллюзий ИИ, удовлетворение потребностей в высокой точности и степени точности. Эта инновация имеет потенциал для углубления развития приложений ИИ и проложит путь к созданию надежных систем ИИ.

В настоящее время Mira сотрудничает с несколькими известными AI-структурами. С запуском публичной тестовой сети пользователи могут испытать проверенные AI-выходы через Klok (приложение для общения на основе Mira с LLM) и получить возможность заработать очки Mira. Это предоставляет практическую тестовую платформу для повышения доверия к AI в будущем.

Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 6
  • Поделиться
комментарий
0/400
EthSandwichHerovip
· 08-02 04:50
Кто мне пожарит токен-сэндвич?
Посмотреть ОригиналОтветить0
CryptoPhoenixvip
· 08-02 04:50
ИИ создает доверие, Биткойн является настоящей основой доверия.
Посмотреть ОригиналОтветить0
TheShibaWhisperervip
· 08-02 04:48
Кто сказал, что ИИ обязательно должен говорить правду?
Посмотреть ОригиналОтветить0
LayerHoppervip
· 08-02 04:38
Теперь ИИ наконец-то стал послушным.
Посмотреть ОригиналОтветить0
TopEscapeArtistvip
· 08-02 04:30
Ха-ха, дно достигнуто, это снова Кризис доверия, как и те времена, когда свечи на графике были такими же虚.
Посмотреть ОригиналОтветить0
RektRecoveryvip
· 08-02 04:29
просто еще один слой театра безопасности... если честно, я это предвидел за милю
Посмотреть ОригиналОтветить0
  • Закрепить