Проекты Web3 с концепцией ИИ становятся привлекательными объектами для привлечения капитала на первичных и вторичных рынках.
Возможности Web3 в AI-индустрии проявляются в: использовании распределенных стимулов для координации потенциальных поставок в длинном хвосте, через данные, хранилище и вычисления; одновременно создавая модели с открытым исходным кодом и децентрализованный рынок AI-агентов.
ИИ в индустрии Web3 в основном используется для финансов на блокчейне (криптоплатежи, сделки, анализ данных) и для помощи в разработке.
Эффективность AI+Web3 проявляется в их взаимодополняемости: Web3 надеется противостоять централизации AI, а AI надеется помочь Web3 выйти за пределы.
За последние два года развитие ИИ похоже на то, что была нажата кнопка ускорения. Эта волна, вызванная Chatgpt, не только открыла новый мир генеративного искусственного интеллекта, но и вызвала огромные колебания в области Web3.
С поддержкой концепции ИИ финансирование крипторынка явно повысилось по сравнению с его замедлением. Только за первую половину 2024 года 64 проекта Web3+AI завершили финансирование, а основанная на искусственном интеллекте операционная система Zyber365 достигла максимальной суммы финансирования в 100 миллионов долларов на этапе A.
Вторичный рынок стал более процветающим. Согласно данным Coingecko, всего за чуть больше года общая рыночная капитализация в AI-сегменте достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов. Очевидны положительные результаты, связанные с прогрессом в основных AI-технологиях: после выпуска модели OpenAI Sora для преобразования текста в видео средняя цена в AI-сегменте увеличилась на 151%. Эффект AI также распространяется на один из сегментов криптовалют, привлекающих капитал — Meme: первая концепция MemeCoin с AI Agent — GOAT быстро завоевала популярность и достигла оценки в 1,4 миллиарда долларов, успешно запустив волну AI Meme.
Исследования и обсуждения темы AI+Web3 также становятся актуальными, от AI+Depin до AI Memecoin, а затем к текущим AI Agent и AI DAO, эмоции FOMO явно не успевают за скоростью смены новых нарративов.
AI+Web3, это сочетание терминов, наполненное горячими деньгами, модными трендами и фантазиями о будущем, неизбежно воспринимается как устроенный брак, устроенный капиталом. Нам кажется, что трудно различить, под этой роскошной одеждой на самом деле является ли это полем для спекулянтов или преддверием восхода зари?
Чтобы ответить на этот вопрос, важно задуматься о том, станет ли лучше с другой стороной? Можем ли мы извлечь выгоду из модели другой стороны? В этой статье мы пытаемся взглянуть на эту схему, опираясь на достижения предыдущих поколений: как Web3 может играть роль на всех уровнях технологического стека AI и что нового AI может принести в Web3?
Часть 1. Какие возможности у Web3 под стеком ИИ?
Прежде чем начать эту тему, нам нужно понять технологический стек больших моделей ИИ:
Говоря проще, весь процесс можно описать так: «Большая модель» похожа на человеческий мозг. На ранних стадиях этот мозг принадлежит только что появившемуся на свет младенцу, которому необходимо наблюдать и впитывать огромное количество информации из окружающего мира, чтобы понять его. Это этап «сбора» данных. Поскольку компьютеры не обладают такими органами чувств, как зрение и слух, на этапе обучения большая часть внешней необработанной информации должна быть преобразована с помощью «предварительной обработки» в формат информации, который может быть понятен и полезен компьютеру.
После ввода данных ИИ с помощью «обучения» создает модель с пониманием и прогностическими способностями, что можно рассматривать как процесс, в котором младенец постепенно осваивает и учится внешнему миру. Параметры модели подобны языковым навыкам младенца, которые постоянно настраиваются в процессе обучения. Когда содержание обучения начинает разделяться на области, или в процессе общения с людьми поступает обратная связь и происходят исправления, наступает этап «тонкой настройки» большой модели.
Дети постепенно растут и, научившись говорить, могут понимать смысл и выражать свои чувства и мысли в новых разговорах. Этот этап аналогичен «выводам» больших моделей ИИ, которые могут предсказывать и анализировать новые языковые и текстовые вводы. Младенцы выражают свои чувства, описывают объекты и решают различные проблемы с помощью языковых навыков, что также похоже на то, как большие модели ИИ, завершив обучение и начав использоваться, применяются на этапе вывода для различных специфических задач, таких как классификация изображений, распознавание речи и т. д.
А AI Agent становится ближе к следующей форме большого модели — способной независимо выполнять задачи и стремиться к сложным целям, обладая не только способностью к мышлению, но и памятью, планированием и возможностью использовать инструменты для взаимодействия с миром.
В настоящее время, в ответ на проблемы AI в различных стэках, Web3 в настоящее время начала формировать многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процесса моделей AI.
Один. Базовый уровень: Airbnb вычислительной мощности и данных
Хешрейт
В настоящее время одной из самых высоких затрат в области ИИ является вычислительная мощность и энергия, необходимая для обучения моделей и их вывода.
Один из примеров - это то, что для завершения обучения модели LLAMA3 от Meta требуется 16000 графических процессоров H100, произведенных NVIDIA (это высококлассный графический процессор, специально разработанный для рабочих нагрузок в области искусственного интеллекта и высокопроизводительных вычислений) в течение 30 дней. Цена за версию с 80 ГБ колеблется от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование (GPU + сетевые чипы) в размере от 400 до 700 миллионов долларов, в то время как каждый месяц на обучение требуется 1,6 миллиарда киловатт-часов, а расходы на энергетику составляют почти 20 миллионов долларов в месяц.
Разгрузка вычислительных мощностей ИИ также является одной из первых областей пересечения Web3 и ИИ — DePin (децентрализованная сеть физических инфраструктур). В настоящее время на сайте данных DePin Ninja представлено более 1400 проектов, среди которых проекты-代表 по совместному использованию вычислительных мощностей GPU включают io.net, Aethir, Akash, Render Network и т.д.
Основная логика заключается в следующем: платформа позволяет частным лицам или организациям, имеющим неиспользуемые ресурсы GPU, вносить свой вычислительный потенциал в децентрализованном порядке без разрешения, создавая онлайн-рынок для покупателей и продавцов, аналогичный Uber или Airbnb, что способствует повышению коэффициента использования не полностью задействованных ресурсов GPU, а конечные пользователи, в свою очередь, получают более доступные и эффективные вычислительные ресурсы; в то же время механизм стейкинга также гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети поставщики ресурсов подлежат соответствующему наказанию.
Его особенности заключаются в том, что:
Сбор неиспользуемых ресурсов GPU: поставщиками в основном являются независимые малые и средние дата-центры, операторы избыточных вычислительных ресурсов криптомайнинга и т.д., а также оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время также есть проекты, которые стремятся запустить оборудование с более низким порогом входа, например, exolab использует MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных мощностей для запуска больших моделей вывода.
Перед лицом длинного хвоста рынка вычислительной мощности ИИ:
а. С технической точки зрения децентрализованный рынок вычислительных мощностей больше подходит для этапов вывода. Обучение в большей степени зависит от обработки данных, обеспечиваемой огромными кластерами GPU, тогда как для вывода требуется относительно низкая производительность GPU, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода.
b. С точки зрения спроса небольшие пользователи вычислительных мощностей не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и донастройку вокруг нескольких ведущих больших моделей, и эти сценарии естественным образом подходят для распределенных неиспользуемых вычислительных ресурсов.
Децентрализованное владение: техническое значение блокчейна заключается в том, что владельцы ресурсов всегда сохраняют контроль над своими ресурсами, гибко регулируя их в зависимости от спроса и одновременно получая доход.
Данные
Данные являются основой ИИ. Без данных вычисления становятся бесполезными, как пена на поверхности воды, а связь между данными и моделью подобна пословице "Мусор на входе, мусор на выходе". Количество данных и качество ввода определяют качество вывода конечной модели. Для обучения современных ИИ-моделей данные определяют языковые способности модели, способность к пониманию, а также ее ценности и гуманистические проявления. В настоящее время основные проблемы с потребностями в данных для ИИ сосредоточены на следующих четырех аспектах:
Жажда данных: обучение моделей ИИ зависит от большого объема вводимых данных. По открытым данным, количество параметров, используемых для обучения GPT-4 от OpenAI, достигло триллионов.
Качество данных: С учетом интеграции ИИ и различных отраслей, актуальность данных, разнообразие данных, профессионализм вертикальных данных и новые источники данных, такие как эмоции в социальных сетях, также предъявляют новые требования к их качеству.
Проблемы конфиденциальности и соблюдения норм: в настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно公开资料, более 30% затрат на НИОКР в AI компаниях идет на сбор и обработку базовых данных.
В настоящее время решения web3 выражаются в следующих четырех аспектах:
Сбор данных: бесплатные реальные данные, которые можно собирать, быстро иссякают, и расходы AI-компаний на данные растут с каждым годом. Однако, несмотря на это, эти расходы не возвращаются к настоящим вкладчикам данных, и платформы в полной мере наслаждаются созданием ценности, которую приносят данные.
Видение Web3 заключается в том, чтобы дать возможность настоящим пользователям участвовать в создании ценности, которую приносит данные, а также получать более личные и более ценные данные от пользователей с низкими затратами через распределенную сеть и механизмы стимулирования.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить свой вклад в неиспользуемую пропускную способность и релейный трафик для захвата в реальном времени данных из всего Интернета и получать токен-вознаграждение;
Vana вводит уникальную концепцию пула ликвидности данных (DLP), позволяя пользователям загружать свои личные данные (такие как записи покупок, привычки просмотра, активность в социальных сетях и т.д.) в определенный DLP и гибко выбирать, разрешать ли использование этих данных конкретным третьим лицам;
В PublicAI пользователи могут использовать #AI或#Web3 в качестве классификационного ярлыка на X и @PublicAI для сбора данных.
Предобработка данных: в процессе обработки данных AI, поскольку собранные данные обычно шумные и содержат ошибки, они должны быть очищены и преобразованы в пригодный формат перед обучением модели, что включает в себя стандартизацию, фильтрацию и обработку недостающих значений. Эта стадия является одной из немногих ручных операций в AI-индустрии, в результате чего возникла профессия аннотаторов данных. С повышением требований модели к качеству данных, порог входа для аннотаторов данных также возрос, и эта задача естественным образом подходит для децентрализованной системы вознаграждений Web3.
В настоящее время Grass и OpenLayer рассматривают возможность добавления ключевого этапа аннотирования данных.
Synesis представил концепцию «Train2earn», подчеркивая качество данных, пользователи могут получать вознаграждение за предоставление аннотированных данных, комментариев или других форм ввода.
Проект аннотации данных Sapien игровым образом превращает задачи по маркировке и позволяет пользователям ставить очки, чтобы зарабатывать больше очков.
Конфиденциальность и безопасность данных: необходимо прояснить, что конфиденциальность данных и безопасность данных — это два разных понятия. Конфиденциальность данных касается обработки чувствительных данных, тогда как безопасность данных защищает информацию от несанкционированного доступа, разрушения и кражи. Таким образом, преимущества технологий конфиденциальности Web3 и потенциальные сценарии применения проявляются в двух аспектах: (1) обучение на чувствительных данных; (2) сотрудничество в области данных: несколько владельцев данных могут совместно участвовать в обучении ИИ, не делясь своими исходными данными.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ( TEE ), например, Super Protocol;
Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний для HTTPS-трафика, что позволяет пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая конфиденциальную информацию.
Однако в настоящее время данная область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования, одной из текущих проблем является слишком высокая стоимость вычислений, некоторые примеры:
Фреймворк zkML EZKL требует около 80 минут для генерации доказательства модели 1M-nanoGPT.
Согласно данным Modulus Labs, затраты на zkML превышают затраты на чистые вычисления более чем в 1000 раз.
Хранение данных: После получения данных необходимо место для хранения данных в цепочке, а также LLM, созданного с использованием этих данных. В центре проблемы доступности данных (DA) до обновления Danksharding в Ethereum его пропускная способность составляла 0,08 МБ. В то же время обучение моделей ИИ и реализация в реальном времени обычно требуют пропускной способности данных от 50 до 100 ГБ в секунду. Этот разрыв в порядке величины делает существующие решения на цепочке неэффективными при "ресурсозатратных AI-приложениях".
0g.AI является представителем данной категории проектов. Это централизованное решение для хранения, разработанное для удовлетворения высоких требований к производительности ИИ.
Посмотреть Оригинал
На этой странице может содержаться сторонний контент, который предоставляется исключительно в информационных целях (не в качестве заявлений/гарантий) и не должен рассматриваться как поддержка взглядов компании Gate или как финансовый или профессиональный совет. Подробности смотрите в разделе «Отказ от ответственности» .
12 Лайков
Награда
12
5
Репост
Поделиться
комментарий
0/400
RektCoaster
· 9ч назад
Не говорите о концепциях... сначала создайте приложение, которое можно реализовать.
Посмотреть ОригиналОтветить0
degenonymous
· 10ч назад
Разыгрывайте людей как лохов, только тогда можно говорить о мечтах.
Посмотреть ОригиналОтветить0
not_your_keys
· 10ч назад
Снова разогревают старую еду, будут играть для лохов.
Возможности и вызовы интеграции AI и Web3: полный стек инноваций от данных до вычислительной мощности
AI+Web3: Башни и площади
ТЛ; ДОКТОР
Проекты Web3 с концепцией ИИ становятся привлекательными объектами для привлечения капитала на первичных и вторичных рынках.
Возможности Web3 в AI-индустрии проявляются в: использовании распределенных стимулов для координации потенциальных поставок в длинном хвосте, через данные, хранилище и вычисления; одновременно создавая модели с открытым исходным кодом и децентрализованный рынок AI-агентов.
ИИ в индустрии Web3 в основном используется для финансов на блокчейне (криптоплатежи, сделки, анализ данных) и для помощи в разработке.
Эффективность AI+Web3 проявляется в их взаимодополняемости: Web3 надеется противостоять централизации AI, а AI надеется помочь Web3 выйти за пределы.
! AI+Web3: Башни и площади
Введение
За последние два года развитие ИИ похоже на то, что была нажата кнопка ускорения. Эта волна, вызванная Chatgpt, не только открыла новый мир генеративного искусственного интеллекта, но и вызвала огромные колебания в области Web3.
С поддержкой концепции ИИ финансирование крипторынка явно повысилось по сравнению с его замедлением. Только за первую половину 2024 года 64 проекта Web3+AI завершили финансирование, а основанная на искусственном интеллекте операционная система Zyber365 достигла максимальной суммы финансирования в 100 миллионов долларов на этапе A.
Вторичный рынок стал более процветающим. Согласно данным Coingecko, всего за чуть больше года общая рыночная капитализация в AI-сегменте достигла 48,5 миллиарда долларов, а объем торгов за 24 часа близок к 8,6 миллиарда долларов. Очевидны положительные результаты, связанные с прогрессом в основных AI-технологиях: после выпуска модели OpenAI Sora для преобразования текста в видео средняя цена в AI-сегменте увеличилась на 151%. Эффект AI также распространяется на один из сегментов криптовалют, привлекающих капитал — Meme: первая концепция MemeCoin с AI Agent — GOAT быстро завоевала популярность и достигла оценки в 1,4 миллиарда долларов, успешно запустив волну AI Meme.
Исследования и обсуждения темы AI+Web3 также становятся актуальными, от AI+Depin до AI Memecoin, а затем к текущим AI Agent и AI DAO, эмоции FOMO явно не успевают за скоростью смены новых нарративов.
AI+Web3, это сочетание терминов, наполненное горячими деньгами, модными трендами и фантазиями о будущем, неизбежно воспринимается как устроенный брак, устроенный капиталом. Нам кажется, что трудно различить, под этой роскошной одеждой на самом деле является ли это полем для спекулянтов или преддверием восхода зари?
Чтобы ответить на этот вопрос, важно задуматься о том, станет ли лучше с другой стороной? Можем ли мы извлечь выгоду из модели другой стороны? В этой статье мы пытаемся взглянуть на эту схему, опираясь на достижения предыдущих поколений: как Web3 может играть роль на всех уровнях технологического стека AI и что нового AI может принести в Web3?
Часть 1. Какие возможности у Web3 под стеком ИИ?
Прежде чем начать эту тему, нам нужно понять технологический стек больших моделей ИИ:
Говоря проще, весь процесс можно описать так: «Большая модель» похожа на человеческий мозг. На ранних стадиях этот мозг принадлежит только что появившемуся на свет младенцу, которому необходимо наблюдать и впитывать огромное количество информации из окружающего мира, чтобы понять его. Это этап «сбора» данных. Поскольку компьютеры не обладают такими органами чувств, как зрение и слух, на этапе обучения большая часть внешней необработанной информации должна быть преобразована с помощью «предварительной обработки» в формат информации, который может быть понятен и полезен компьютеру.
После ввода данных ИИ с помощью «обучения» создает модель с пониманием и прогностическими способностями, что можно рассматривать как процесс, в котором младенец постепенно осваивает и учится внешнему миру. Параметры модели подобны языковым навыкам младенца, которые постоянно настраиваются в процессе обучения. Когда содержание обучения начинает разделяться на области, или в процессе общения с людьми поступает обратная связь и происходят исправления, наступает этап «тонкой настройки» большой модели.
Дети постепенно растут и, научившись говорить, могут понимать смысл и выражать свои чувства и мысли в новых разговорах. Этот этап аналогичен «выводам» больших моделей ИИ, которые могут предсказывать и анализировать новые языковые и текстовые вводы. Младенцы выражают свои чувства, описывают объекты и решают различные проблемы с помощью языковых навыков, что также похоже на то, как большие модели ИИ, завершив обучение и начав использоваться, применяются на этапе вывода для различных специфических задач, таких как классификация изображений, распознавание речи и т. д.
А AI Agent становится ближе к следующей форме большого модели — способной независимо выполнять задачи и стремиться к сложным целям, обладая не только способностью к мышлению, но и памятью, планированием и возможностью использовать инструменты для взаимодействия с миром.
В настоящее время, в ответ на проблемы AI в различных стэках, Web3 в настоящее время начала формировать многоуровневую, взаимосвязанную экосистему, охватывающую все этапы процесса моделей AI.
! AI+Web3: Башни и площади
Один. Базовый уровень: Airbnb вычислительной мощности и данных
Хешрейт
В настоящее время одной из самых высоких затрат в области ИИ является вычислительная мощность и энергия, необходимая для обучения моделей и их вывода.
Один из примеров - это то, что для завершения обучения модели LLAMA3 от Meta требуется 16000 графических процессоров H100, произведенных NVIDIA (это высококлассный графический процессор, специально разработанный для рабочих нагрузок в области искусственного интеллекта и высокопроизводительных вычислений) в течение 30 дней. Цена за версию с 80 ГБ колеблется от 30 000 до 40 000 долларов, что требует инвестиций в вычислительное оборудование (GPU + сетевые чипы) в размере от 400 до 700 миллионов долларов, в то время как каждый месяц на обучение требуется 1,6 миллиарда киловатт-часов, а расходы на энергетику составляют почти 20 миллионов долларов в месяц.
Разгрузка вычислительных мощностей ИИ также является одной из первых областей пересечения Web3 и ИИ — DePin (децентрализованная сеть физических инфраструктур). В настоящее время на сайте данных DePin Ninja представлено более 1400 проектов, среди которых проекты-代表 по совместному использованию вычислительных мощностей GPU включают io.net, Aethir, Akash, Render Network и т.д.
Основная логика заключается в следующем: платформа позволяет частным лицам или организациям, имеющим неиспользуемые ресурсы GPU, вносить свой вычислительный потенциал в децентрализованном порядке без разрешения, создавая онлайн-рынок для покупателей и продавцов, аналогичный Uber или Airbnb, что способствует повышению коэффициента использования не полностью задействованных ресурсов GPU, а конечные пользователи, в свою очередь, получают более доступные и эффективные вычислительные ресурсы; в то же время механизм стейкинга также гарантирует, что в случае нарушения механизмов контроля качества или прерывания сети поставщики ресурсов подлежат соответствующему наказанию.
Его особенности заключаются в том, что:
Сбор неиспользуемых ресурсов GPU: поставщиками в основном являются независимые малые и средние дата-центры, операторы избыточных вычислительных ресурсов криптомайнинга и т.д., а также оборудование для майнинга с механизмом консенсуса PoS, такое как майнеры FileCoin и ETH. В настоящее время также есть проекты, которые стремятся запустить оборудование с более низким порогом входа, например, exolab использует MacBook, iPhone, iPad и другие локальные устройства для создания сети вычислительных мощностей для запуска больших моделей вывода.
Перед лицом длинного хвоста рынка вычислительной мощности ИИ:
а. С технической точки зрения децентрализованный рынок вычислительных мощностей больше подходит для этапов вывода. Обучение в большей степени зависит от обработки данных, обеспечиваемой огромными кластерами GPU, тогда как для вывода требуется относительно низкая производительность GPU, как, например, Aethir, который сосредоточен на рендеринге с низкой задержкой и приложениях AI для вывода.
b. С точки зрения спроса небольшие пользователи вычислительных мощностей не будут отдельно обучать свои большие модели, а просто выберут оптимизацию и донастройку вокруг нескольких ведущих больших моделей, и эти сценарии естественным образом подходят для распределенных неиспользуемых вычислительных ресурсов.
Данные
Данные являются основой ИИ. Без данных вычисления становятся бесполезными, как пена на поверхности воды, а связь между данными и моделью подобна пословице "Мусор на входе, мусор на выходе". Количество данных и качество ввода определяют качество вывода конечной модели. Для обучения современных ИИ-моделей данные определяют языковые способности модели, способность к пониманию, а также ее ценности и гуманистические проявления. В настоящее время основные проблемы с потребностями в данных для ИИ сосредоточены на следующих четырех аспектах:
Жажда данных: обучение моделей ИИ зависит от большого объема вводимых данных. По открытым данным, количество параметров, используемых для обучения GPT-4 от OpenAI, достигло триллионов.
Качество данных: С учетом интеграции ИИ и различных отраслей, актуальность данных, разнообразие данных, профессионализм вертикальных данных и новые источники данных, такие как эмоции в социальных сетях, также предъявляют новые требования к их качеству.
Проблемы конфиденциальности и соблюдения норм: в настоящее время различные страны и компании постепенно осознают важность качественных наборов данных и вводят ограничения на сбор данных.
Высокие затраты на обработку данных: большой объем данных, сложный процесс обработки. Согласно公开资料, более 30% затрат на НИОКР в AI компаниях идет на сбор и обработку базовых данных.
В настоящее время решения web3 выражаются в следующих четырех аспектах:
Видение Web3 заключается в том, чтобы дать возможность настоящим пользователям участвовать в создании ценности, которую приносит данные, а также получать более личные и более ценные данные от пользователей с низкими затратами через распределенную сеть и механизмы стимулирования.
Grass является децентрализованным уровнем данных и сетью, пользователи могут запускать узлы Grass, вносить свой вклад в неиспользуемую пропускную способность и релейный трафик для захвата в реальном времени данных из всего Интернета и получать токен-вознаграждение;
Vana вводит уникальную концепцию пула ликвидности данных (DLP), позволяя пользователям загружать свои личные данные (такие как записи покупок, привычки просмотра, активность в социальных сетях и т.д.) в определенный DLP и гибко выбирать, разрешать ли использование этих данных конкретным третьим лицам;
В PublicAI пользователи могут использовать #AI或#Web3 в качестве классификационного ярлыка на X и @PublicAI для сбора данных.
В настоящее время Grass и OpenLayer рассматривают возможность добавления ключевого этапа аннотирования данных.
Synesis представил концепцию «Train2earn», подчеркивая качество данных, пользователи могут получать вознаграждение за предоставление аннотированных данных, комментариев или других форм ввода.
Проект аннотации данных Sapien игровым образом превращает задачи по маркировке и позволяет пользователям ставить очки, чтобы зарабатывать больше очков.
Текущие распространенные технологии конфиденциальности в Web3 включают:
Доверенная исполняемая среда ( TEE ), например, Super Protocol;
Полностью гомоморфное шифрование (FHE), например, BasedAI, Fhenix.io или Inco Network;
Технология нулевых знаний (zk), такая как Reclaim Protocol, использует технологию zkTLS для генерации доказательства нулевых знаний для HTTPS-трафика, что позволяет пользователям безопасно импортировать данные о деятельности, репутации и идентичности с внешних сайтов, не раскрывая конфиденциальную информацию.
Однако в настоящее время данная область все еще находится на ранней стадии, большинство проектов все еще находятся в стадии исследования, одной из текущих проблем является слишком высокая стоимость вычислений, некоторые примеры:
Фреймворк zkML EZKL требует около 80 минут для генерации доказательства модели 1M-nanoGPT.
Согласно данным Modulus Labs, затраты на zkML превышают затраты на чистые вычисления более чем в 1000 раз.