OpenLedger создает модели, управляемые данными, для комбинируемых AI-цепочек на основе OP Stack и EigenDA

Подробный исследовательский отчет по OpenLedger: Построение управляемой данными и компонуемой агентской экономикой на основе OP Stack+EigenDA

Один. Введение | Переход модельного слоя Crypto AI

Данные, модели и вычислительная мощность являются тремя основными элементами инфраструктуры ИИ, аналогично топливу (данные), двигателю (модель), энергии (вычислительная мощность) — все они необходимы. Подобно эволюционному пути традиционной инфраструктуры ИИ, в области Crypto AI также были пройдены аналогичные этапы. В начале 2024 года рынок в значительной степени был под контролем децентрализованных GPU проектов ( какой-то GPU вычислительной платформы, какой-то рендеринговой платформы, какой-то сетевой платформы и т.д. ), в целом подчеркивая логику неэффективного роста, основанную на «конкуренции вычислительной мощности». Однако с наступлением 2025 года внимание отрасли постепенно смещается на уровень моделей и данных, что знаменует собой переход Crypto AI от конкуренции за базовые ресурсы к более устойчивой и ценностной среде среднего уровня.

Общие большие модели (LLM) против специализированных моделей (SLM)

Традиционные большие языковые модели (LLM) сильно зависят от крупных наборов данных и сложной распределенной архитектуры, размер параметров может достигать от 70B до 500B, а стоимость одной тренировки часто составляет миллионы долларов. В то время как SLM (Специализированная языковая модель) представляет собой легковесную парадигму тонкой настройки с использованием повторно используемой базовой модели, она обычно основывается на открытых моделях, таких как LLaMA, Mistral, DeepSeek и сочетает в себе небольшое количество качественных специализированных данных и технологии LoRA, что позволяет быстро создавать экспертные модели с конкретными областями знаний, значительно снижая стоимость тренировки и технические барьеры.

Стоит отметить, что SLM не будет интегрирован в веса LLM, а будет работать совместно с LLM через архитектуру Agent, динамическую маршрутизацию плагинов, горячую замену модулей LoRA и RAG (усиленная генерация с помощью поиска). Эта архитектура сохраняет широкие возможности LLM и одновременно усиливает специализированные характеристики с помощью модуля тонкой настройки, формируя высоко гибкую комбинационную интеллектуальную систему.

Значение и границы Crypto AI на уровне моделей

Крипто AI проекты по сути сложно напрямую улучшить основные возможности больших языковых моделей (LLM), и основная причина заключается в том, что

  • Технический порог слишком высок: объем данных, вычислительные ресурсы и инженерные способности, необходимые для обучения Фундаментальной Модели, чрезвычайно велики. В настоящее время только такие технологические гиганты, как США (некоторые AI-компании и др.) и Китай (некоторые компании глубокого обучения и др.), обладают соответствующими возможностями.
  • Ограничения открытой экосистемы: хотя такие основные модели, как LLaMA и Mixtral, уже открыты, ключевым фактором, способствующим прорыву моделей, по-прежнему являются научные учреждения и закрытые инженерные системы, а участие блокчейн-проектов на уровне основных моделей ограничено.

Однако, на основе открытых базовых моделей, проект Crypto AI все еще может осуществлять расширение ценности через тонкую настройку специализированных языковых моделей (SLM), а также сочетая проверяемость и механизмы стимулов Web3. В качестве «периферийного интерфейсного слоя» AI-цепочки, это проявляется в двух основных направлениях:

  • Достоверный уровень проверки: через записи в цепочке о пути генерации модели, вкладе данных и использовании усиливается прослеживаемость и устойчивость к подделкам вывода ИИ.
  • Механизм стимулов: с помощью нативного токена, предназначенного для стимуляции таких действий, как загрузка данных, вызов модели, выполнение агентом (Agent) и т.д., создается положительная обратная связь для обучения модели и предоставления услуг.

Классификация типов AI моделей и анализ их применимости к блокчейну

Таким образом, можно сделать вывод, что жизнеспособные точки приложения моделей типа Crypto AI в основном сосредоточены на легкой настройке небольших SLM, подключении и верификации данных на блокчейне в архитектуре RAG, а также на локальном развертывании и стимулировании Edge моделей. В сочетании с проверяемостью блокчейна и токеномикой, Crypto может предоставить уникальную ценность для этих средне- и низкоресурсных моделей, создавая дифференцированную ценность «интерфейсного слоя» AI.

Блокчейн AI цепь на основе данных и моделей может четко и неизменяемо фиксировать источники вклада каждой отдельной данных и модели, значительно повышая доверие к данным и прослеживаемость обучения моделей. В то же время, благодаря механизму смарт-контрактов, при вызове данных или моделей автоматически запускается распределение вознаграждений, преобразуя поведение AI в измеримую, торгуемую токенизированную ценность и создавая устойчивую систему стимулов. Кроме того, пользователи сообщества могут оценивать производительность моделей, участвовать в разработке правил и их итерации через голосование токенами, улучшая архитектуру децентрализованного управления.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-62b3fa1e810f4772aaba3d91c74c1aa6)

Два, Обзор проекта | Видение AI Chain от OpenLedger

OpenLedger является одним из немногих блокчейн AI проектов на текущем рынке, сосредоточенных на механизмах стимуляции данных и моделей. Он первым предложил концепцию «Payable AI», целью которой является создание справедливой, прозрачной и комбинируемой среды для работы AI, стимулирующей участников данных, разработчиков моделей и строителей AI приложений сотрудничать на одной платформе и получать доход на блокчейне в зависимости от фактического вклада.

OpenLedger предоставляет полный замкнутый цикл от «предоставления данных» до «развертывания модели» и «вызова распределения прибыли», основные модули которого включают:

  • Модельный завод: не требуется программирование, можно использовать LoRA для тонкой настройки, обучения и развертывания настраиваемых моделей на основе открытого LLM;
  • OpenLoRA: поддержка совместного существования тысяч моделей, динамическая загрузка по мере необходимости, что значительно снижает затраты на развертывание;
  • PoA (Доказательство атрибуции): реализация измерения вклада и распределения вознаграждений через вызовы на блокчейне;
  • Datanets: Структурированная сеть данных, ориентированная на вертикальные сценарии, создаваемая и проверяемая сообществом;
  • Платформа предложений моделей (Model Proposal Platform): комбинируемый, вызываемый и платёжный рынок моделей на блокчейне.

С помощью вышеупомянутых модулей OpenLedger создала инфраструктуру «умной экономики», основанную на данных и комбинируемых моделях, которая способствует онлайнизации цепочки создания ценности AI.

А в применении технологий блокчейна OpenLedger использует OP Stack + EigenDA в качестве базы для создания высокопроизводительной, низкозатратной и проверяемой среды выполнения данных и контрактов для AI моделей.

  • Построено на основе OP Stack: основано на технологии Optimism, поддерживает высокую пропускную способность и низкие затраты на выполнение;
  • Расчеты в основной сети Ethereum: Обеспечение безопасности сделок и целостности активов;
  • Совместимость с EVM: удобное развертывание и расширение для разработчиков на основе Solidity;
  • EigenDA предоставляет поддержку доступности данных: значительно снижает затраты на хранение, обеспечивает проверяемость данных.

По сравнению с некоторыми публичными блокчейнами, которые более ориентированы на базовый уровень и акцентируют внимание на суверенитете данных и архитектуре «AI Agents on BOS», OpenLedger более сосредоточен на создании специализированного блокчейна для ИИ, ориентированного на стимулы для данных и моделей, стремясь обеспечить отслеживаемость, совместимость и устойчивую ценовую замкнутость разработки и использования моделей на блокчейне. Это инфраструктура стимулов для моделей в мире Web3, которая объединяет хостинг моделей, подобный некоторой платформе хостинга моделей, оплату за использование, подобную некоторой платёжной платформе, и интерфейсы на блокчейне, подобные некоторым инфраструктурным услугам, способствующие реализации пути «модель как актив».

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-19c2276fccc616ccf9260fb7e35c9c24)

Три, основные компоненты и технологическая архитектура OpenLedger

3.1 Модель Фабрика,无需代码模型工厂

ModelFactory — это крупная платформа для тонкой настройки языковых моделей (LLM) в экосистеме OpenLedger. В отличие от традиционных фреймворков для тонкой настройки, ModelFactory предоставляет чисто графический интерфейс для работы, без необходимости использования командной строки или интеграции API. Пользователи могут выполнять тонкую настройку моделей на основе данных, прошедших авторизацию и проверку на OpenLedger. Реализован интегрированный рабочий процесс, включающий авторизацию данных, обучение моделей и развертывание, основной процесс включает в себя:

  • Контроль доступа к данным: Пользователь отправляет запрос на данные, поставщик проверяет и одобряет, данные автоматически подключаются к интерфейсу обучения модели.
  • Выбор и настройка модели: Поддержка основных LLM (таких как LLaMA, Mistral), настройка гиперпараметров через GUI.
  • Легковесная доработка: встроенный движок LoRA / QLoRA, показывающий процесс обучения в реальном времени.
  • Оценка и развертывание модели: Встроенные инструменты оценки, поддержка экспорта развертывания или совместного использования экосистемы.
  • Интерфейс проверки взаимодействия: предоставляет чат-интерфейс, удобный для прямого тестирования способности модели отвечать на вопросы.
  • Генерация RAG: ответы с ссылками на источники, повышающие доверие и аудируемость.

Система архитектуры Model Factory включает шесть основных модулей, охватывающих аутентификацию личности, управление данными, микронастройку моделей, оценку развертывания и RAG отслеживание, создавая интегрированную платформу модели услуг, безопасную и контролируемую, с реальным взаимодействием и возможностью устойчивой монетизации.

Модельная фабрика в настоящее время поддерживает следующие возможности больших языковых моделей:

  • Серия LLaMA: самая широкая экосистема, активное сообщество, высокая универсальная производительность, одна из самых популярных открытых базовых моделей на сегодняшний день.
  • Mistral: Архитектура эффективная, производительность вывода отличная, подходит для гибкого развертывания в условиях ограниченных ресурсов.
  • Qwen: продукт от одного из технологических гигантов, превосходные результаты на китайских заданиях, высокая комплексная способность, подходит для первоочередного выбора отечественными разработчиками.
  • ChatGLM: выдающийся эффект китайского диалога, подходит для нишевого обслуживания клиентов и локализованных сцен.
  • Deepseek: показывает превосходство в генерации кода и математическом выводе, подходит для инструментов поддержки умной разработки.
  • Gemma: Легкая модель, выпущенная одним из технологических гигантов, с четкой структурой, которая позволяет быстро начать работу и проводить эксперименты.
  • Falcon: Ранее был эталоном производительности, подходит для основного исследования или сравнительного тестирования, но активность сообщества снизилась.
  • BLOOM: Поддержка нескольких языков довольно сильна, но производительность вывода слабая, подходит для исследований, охватывающих языки.
  • GPT-2: Классическая ранняя модель, подходит только для учебных и верификационных целей, не рекомендуется для реального развертывания.

Хотя комбинация моделей OpenLedger не включает в себя новейшие высокопроизводительные модели MoE или мультимодальные модели, её стратегия не устарела, а является «приоритетом практичности», основанным на реальных ограничениях развертывания на цепочке (стоимость вывода, адаптация RAG, совместимость LoRA, среда EVM).

Model Factory как инструмент без кода, все модели имеют встроенный механизм доказательства вклада, который обеспечивает права участников данных и разработчиков моделей, обладает низким порогом, возможностью монетизации и композируемостью, по сравнению с традиционными инструментами разработки моделей:

  • Для разработчиков: предоставление полного пути к инкубации, распространению и доходам моделей;
  • Для платформы: формирование модели циркуляции активов и комбинированной экосистемы;
  • Для пользователя: можно комбинировать использование модели или агента, как при вызове API.

! [Подробный исследовательский отчет OpenLedger: Построение управляемой данными, компонуемой агентной экономикой на основе модели на основе OP Stack+EigenDA](https://img-cdn.gateio.im/social/ моменты-f23f47f09226573b1fcacebdcfb8c1f3)

3.2 OpenLoRA, токенизация ончейновых активов модели дообучения

LoRA (Low-Rank Adaptation) — это эффективный метод тонкой настройки параметров, который обучает новые задачи, вставляя «низкоранговые матрицы» в предварительно обученные большие модели, не изменяя параметры оригинальной модели, что значительно снижает затраты на обучение и требования к хранилищу. Традиционные большие языковые модели (такие как LLaMA, GPT-3) обычно имеют десятки миллиардов или даже сотни миллиардов параметров. Для того чтобы использовать их для конкретных задач (например, юридические вопросы, медицинские консультации), необходимо проводить тонкую настройку. Основная стратегия LoRA заключается в следующем: «заморозить параметры оригинальной большой модели, обучая только вставленные новые параметры матрицы». Ее параметры эффективны, обучение быстрое, а развертывание гибкое, что делает ее наиболее подходящим основным методом тонкой настройки для развертывания и комбинированного вызова моделей Web3.

OpenLoRA — это легковесная фреймворк для вывода, разработанная OpenLedger, предназначенная для развертывания нескольких моделей и совместного использования ресурсов. Его основной целью является решение распространенных проблем, связанных с высокими затратами, низкой повторяемостью и расточительством ресурсов GPU в развертывании AI моделей, содействие внедрению «оплачиваемого AI» (Payable AI).

Основные компоненты архитектуры системы OpenLoRA, основанные на модульном дизайне, охватывают критические этапы, такие как хранение моделей, выполнение вывода, маршрутизация запросов и обеспечивают эффективные и недорогие возможности развертывания и вызова множества моделей:

  • Модуль хранения LoRA Adapter (LoRA Adapters Storage): дообученный адаптер LoRA размещается на OpenLedger, что позволяет загружать его по мере необходимости, избегая предварительной загрузки всех моделей в видеопамять и экономя ресурсы.
  • Моделирование хостинга и динамический слой объединения (Model Hosting & Adapter Merging Layer): все модели тонкой настройки используют базовую модель (base model), при выводе LoRA адаптер
OP3.96%
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
  • Награда
  • 7
  • Поделиться
комментарий
0/400
ImpermanentSagevip
· 9ч назад
Не прикидывайся, это снова рекламный ход с вычислительной мощностью.
Посмотреть ОригиналОтветить0
FloorSweepervip
· 13ч назад
Слишком много напряжения, даже больше, чем у программистов.
Посмотреть ОригиналОтветить0
SighingCashiervip
· 13ч назад
Ха-ха, это как-то похоже на то, что ты мне поделился несколько дней назад.
Посмотреть ОригиналОтветить0
ZenZKPlayervip
· 14ч назад
Снова занимаются искусственными агентами, люблю, люблю.
Посмотреть ОригиналОтветить0
GamefiEscapeArtistvip
· 14ч назад
Просто очередной трюк.
Посмотреть ОригиналОтветить0
SilentObservervip
· 14ч назад
Все же вычислительная мощность самая привлекательная.
Посмотреть ОригиналОтветить0
MetaverseHermitvip
· 14ч назад
AI опять будет играть для лохов
Посмотреть ОригиналОтветить0
  • Закрепить