OpenLedger xây dựng mô hình dữ liệu dựa trên chuỗi AI có thể kết hợp dựa trên OP Stack và EigenDA

OpenLedger Độ sâu研报:以OP Stack+EigenDA为底座,构建一个 dữ liệu驱动、模型可组合的智能体经济

Một, Giới thiệu | Sự chuyển mình của lớp mô hình Crypto AI

Dữ liệu, mô hình và sức mạnh tính toán là ba yếu tố cốt lõi của cơ sở hạ tầng AI, tương tự như nhiên liệu (dữ liệu), động cơ (mô hình), năng lượng (sức mạnh tính toán) không thể thiếu. Tương tự như lộ trình tiến hóa cơ sở hạ tầng của ngành AI truyền thống, lĩnh vực Crypto AI cũng trải qua các giai đoạn tương tự. Đầu năm 2024, thị trường một thời bị các dự án GPU phi tập trung chi phối ( một nền tảng tính toán GPU, một nền tảng dựng hình, một nền tảng mạng, v.v. ), thường nhấn mạnh vào logic tăng trưởng thô sơ "kết hợp sức mạnh tính toán". Tuy nhiên, bước vào năm 2025, sự chú ý của ngành dần chuyển lên tầng mô hình và dữ liệu, đánh dấu sự chuyển mình của Crypto AI từ cạnh tranh tài nguyên cơ bản sang xây dựng tầng trung với tính bền vững và giá trị ứng dụng cao hơn.

Mô hình lớn tổng quát (LLM) vs Mô hình chuyên biệt (SLM)

Mô hình ngôn ngữ lớn truyền thống (LLM) rất phụ thuộc vào tập dữ liệu quy mô lớn và kiến trúc phân tán phức tạp, quy mô tham số thường từ 70B đến 500B, chi phí cho mỗi lần huấn luyện thường lên tới hàng triệu đô la. Trong khi đó, SLM (Mô hình ngôn ngữ chuyên biệt) như một khuôn mẫu tinh chỉnh nhẹ có thể tái sử dụng các mô hình cơ bản, thường dựa trên các mô hình mã nguồn mở như LLaMA, Mistral, DeepSeek, kết hợp với một lượng nhỏ dữ liệu chuyên ngành chất lượng cao và các công nghệ như LoRA, nhanh chóng xây dựng các mô hình chuyên gia có kiến thức trong lĩnh vực cụ thể, giảm đáng kể chi phí huấn luyện và rào cản kỹ thuật.

Cần lưu ý rằng SLM sẽ không được tích hợp vào trọng số LLM, mà sẽ hợp tác với LLM thông qua kiến trúc Agent gọi, hệ thống plugin định tuyến động, cắm nóng module LoRA, RAG (tạo ra tăng cường tìm kiếm) và các phương thức khác. Kiến trúc này vừa giữ lại khả năng bao quát rộng rãi của LLM, vừa tăng cường hiệu suất chuyên môn thông qua các module tinh chỉnh, tạo thành một hệ thống thông minh kết hợp linh hoạt cao.

Giá trị và giới hạn của Crypto AI ở tầng mô hình

Dự án Crypto AI về bản chất khó có thể nâng cao trực tiếp khả năng cốt lõi của mô hình ngôn ngữ lớn (LLM), lý do cốt lõi là

  • Rào cản kỹ thuật quá cao: Quy mô dữ liệu, tài nguyên tính toán và khả năng kỹ thuật cần thiết để đào tạo Foundation Model là cực kỳ lớn, hiện chỉ có các ông lớn công nghệ như Mỹ (một số công ty AI, v.v.) và Trung Quốc (một số công ty học sâu, v.v.) có khả năng tương ứng.
  • Hạn chế của hệ sinh thái mã nguồn mở: Mặc dù các mô hình cơ sở chính như LLaMA, Mixtral đã được mã nguồn mở, nhưng yếu tố chính thúc đẩy sự đột phá của mô hình vẫn tập trung vào các tổ chức nghiên cứu và hệ thống kỹ thuật đóng. Các dự án trên chuỗi có không gian tham gia hạn chế ở cấp độ mô hình cốt lõi.

Tuy nhiên, trên cơ sở mô hình mã nguồn mở, các dự án Crypto AI vẫn có thể mở rộng giá trị thông qua việc tinh chỉnh mô hình ngôn ngữ chuyên biệt (SLM) và kết hợp khả năng xác minh và cơ chế khuyến khích của Web3. Là "tầng giao diện xung quanh" của chuỗi công nghiệp AI, điều này thể hiện qua hai hướng cốt lõi:

  • Lớp xác thực đáng tin cậy: Thông qua việc ghi lại trên chuỗi các con đường tạo ra mô hình, đóng góp dữ liệu và tình hình sử dụng, tăng cường khả năng truy xuất nguồn gốc và khả năng chống giả mạo của đầu ra AI.
  • Cơ chế khuyến khích: Sử dụng Token gốc để khuyến khích việc tải dữ liệu, gọi mô hình, thực hiện các hành động của tác nhân (Agent), xây dựng vòng lặp tích cực cho việc huấn luyện và phục vụ mô hình.

Phân loại loại mô hình AI và Phân tích tính phù hợp của Blockchain

Có thể thấy, điểm khả thi của các dự án Crypto AI thuộc loại mô hình chủ yếu tập trung vào việc tinh chỉnh nhẹ nhàng của SLM nhỏ, kết nối và xác minh dữ liệu trên chuỗi của kiến trúc RAG, cũng như triển khai và khuyến khích mô hình Edge tại địa phương. Kết hợp tính khả thi xác minh của blockchain và cơ chế token, Crypto có thể cung cấp giá trị độc đáo cho các tình huống mô hình tài nguyên trung bình và thấp, tạo ra giá trị khác biệt cho "tầng giao diện" AI.

Chuỗi AI blockchain dựa trên dữ liệu và mô hình có thể ghi lại rõ ràng và không thể thay đổi nguồn đóng góp của từng dữ liệu và mô hình lên chuỗi, nâng cao đáng kể độ tin cậy của dữ liệu và khả năng truy xuất nguồn gốc của việc đào tạo mô hình. Đồng thời, thông qua cơ chế hợp đồng thông minh, khi dữ liệu hoặc mô hình được gọi, việc phân phát phần thưởng sẽ tự động được kích hoạt, biến hành vi AI thành giá trị có thể đo lường và giao dịch dưới dạng token, xây dựng hệ thống khuyến khích bền vững. Ngoài ra, người dùng trong cộng đồng cũng có thể đánh giá hiệu suất của mô hình thông qua việc bỏ phiếu bằng token, tham gia vào việc thiết lập và lặp lại quy tắc, hoàn thiện cấu trúc quản trị phi tập trung.

OpenLedgerĐộ sâu研报:以OP Stack+EigenDA为底座,构建一个 dữ liệu驱动、模型可组合的智能体经济

Hai, Tóm tắt dự án | Tầm nhìn AI Chain của OpenLedger

OpenLedger là một trong số ít các dự án AI blockchain hiện tại tập trung vào cơ chế khuyến khích dữ liệu và mô hình. Nó đã tiên phong đưa ra khái niệm "Payable AI", nhằm xây dựng một môi trường vận hành AI công bằng, minh bạch và có thể kết hợp, khuyến khích các nhà đóng góp dữ liệu, nhà phát triển mô hình và các nhà xây dựng ứng dụng AI hợp tác trên cùng một nền tảng và nhận được lợi ích trên chuỗi dựa trên đóng góp thực tế.

OpenLedger cung cấp một chu trình khép kín toàn chuỗi từ "cung cấp dữ liệu" đến "triển khai mô hình" và "gọi phân lợi", các mô-đun cốt lõi của nó bao gồm:

  • Nhà máy mô hình: Không cần lập trình, có thể sử dụng LoRA để tinh chỉnh đào tạo và triển khai mô hình tùy chỉnh dựa trên LLM mã nguồn mở;
  • OpenLoRA: Hỗ trợ hàng ngàn mô hình đồng tồn tại, tải động theo nhu cầu, giảm đáng kể chi phí triển khai;
  • PoA (Bằng chứng về sự phân bổ): Đo lường đóng góp và phân phối phần thưởng thông qua việc ghi lại các cuộc gọi trên chuỗi.
  • Datanets:Mạng dữ liệu cấu trúc hướng đến các tình huống dọc, được xây dựng và xác thực bởi sự hợp tác của cộng đồng;
  • Nền tảng đề xuất mô hình (Model Proposal Platform): Thị trường mô hình trên chuỗi có thể kết hợp, có thể gọi và có thể thanh toán.

Thông qua các mô-đun trên, OpenLedger đã xây dựng một "hạ tầng kinh tế trí tuệ nhân tạo" dựa trên dữ liệu và có thể kết hợp các mô hình, thúc đẩy việc chuyển giao chuỗi giá trị AI lên blockchain.

Và trong việc áp dụng công nghệ blockchain, OpenLedger sử dụng OP Stack + EigenDA làm nền tảng, xây dựng môi trường chạy dữ liệu và hợp đồng hiệu suất cao, chi phí thấp, có thể xác minh cho các mô hình AI.

  • Xây dựng dựa trên OP Stack: Dựa trên công nghệ Optimism, hỗ trợ khả năng xử lý cao và chi phí thấp.
  • Thanh toán trên mạng chính Ethereum: Đảm bảo an toàn giao dịch và toàn vẹn tài sản;
  • EVM tương thích: Giúp các nhà phát triển nhanh chóng triển khai và mở rộng dựa trên Solidity.
  • EigenDA cung cấp hỗ trợ khả năng sẵn có của dữ liệu: giảm đáng kể chi phí lưu trữ, đảm bảo tính xác minh của dữ liệu.

So với một số chuỗi công khai thiên về lớp nền, tập trung vào chủ quyền dữ liệu và kiến trúc "AI Agents on BOS", OpenLedger chú trọng hơn vào việc xây dựng chuỗi chuyên dụng cho AI với động lực dữ liệu và mô hình, nhằm mục đích làm cho việc phát triển và gọi mô hình trên chuỗi trở nên có thể truy xuất, có thể kết hợp và bền vững. Nó là cơ sở hạ tầng động lực mô hình trong thế giới Web3, kết hợp giữa việc lưu trữ mô hình kiểu nền tảng lưu trữ mô hình, tính phí sử dụng kiểu nền tảng thanh toán và giao diện có thể kết hợp trên chuỗi kiểu dịch vụ hạ tầng, thúc đẩy con đường hiện thực hóa "mô hình là tài sản".

OpenLedgerĐộ sâu研报:以OP Stack+EigenDA为底座,构建一个 dữ liệu驱动、模型可组合的智能体经济

Ba, các thành phần cốt lõi và kiến trúc công nghệ của OpenLedger

Nhà máy mô hình 3.1, nhà máy mô hình không cần mã

ModelFactory là một nền tảng tinh chỉnh mô hình ngôn ngữ lớn (LLM) trong hệ sinh thái OpenLedger. Khác với các khung tinh chỉnh truyền thống, ModelFactory cung cấp giao diện điều khiển hoàn toàn đồ họa, không cần công cụ dòng lệnh hoặc tích hợp API. Người dùng có thể tinh chỉnh mô hình dựa trên tập dữ liệu đã hoàn tất cấp quyền và kiểm tra trên OpenLedger. Đã thực hiện quy trình làm việc tích hợp cho việc cấp quyền dữ liệu, đào tạo mô hình và triển khai, quy trình cốt lõi bao gồm:

  • Kiểm soát truy cập dữ liệu: Người dùng gửi yêu cầu dữ liệu, nhà cung cấp xem xét và phê duyệt, dữ liệu tự động kết nối vào giao diện đào tạo mô hình.
  • Lựa chọn và cấu hình mô hình: Hỗ trợ các LLM phổ biến (như LLaMA, Mistral), cấu hình siêu tham số thông qua GUI.
  • Tinh chỉnh nhẹ: Được tích hợp sẵn động cơ LoRA / QLoRA, hiển thị tiến độ đào tạo theo thời gian thực.
  • Đánh giá và triển khai mô hình: Công cụ đánh giá tích hợp, hỗ trợ xuất bản triển khai hoặc gọi chia sẻ sinh thái.
  • Giao diện xác thực tương tác: Cung cấp giao diện trò chuyện, thuận tiện cho việc kiểm tra khả năng trả lời câu hỏi của mô hình.
  • RAG tạo nguồn gốc: Trả lời kèm theo trích dẫn nguồn, tăng cường độ tin cậy và khả năng kiểm toán.

Kiến trúc hệ thống Model Factory bao gồm sáu mô-đun, xuyên suốt việc xác thực danh tính, quyền dữ liệu, tinh chỉnh mô hình, đánh giá triển khai và truy vết RAG, tạo ra nền tảng dịch vụ mô hình tích hợp an toàn, có thể kiểm soát, tương tác theo thời gian thực và có thể liên tục sinh lợi.

Bảng tóm tắt khả năng của các mô hình ngôn ngữ lớn mà ModelFactory hiện hỗ trợ như sau:

  • Dòng LLaMA: Hệ sinh thái rộng nhất, cộng đồng năng động, hiệu suất tổng quát mạnh mẽ, là một trong những mô hình nền tảng mã nguồn mở phổ biến nhất hiện nay.
  • Mistral:Kiến trúc hiệu quả, hiệu suất suy luận cực tốt, phù hợp với các tình huống triển khai linh hoạt, tài nguyên hạn chế.
  • Qwen: Một sản phẩm của một ông lớn công nghệ, thể hiện xuất sắc trong các nhiệm vụ tiếng Trung, có khả năng tổng hợp mạnh mẽ, phù hợp với lựa chọn hàng đầu cho các nhà phát triển trong nước.
  • ChatGLM: Hiệu quả đối thoại tiếng Trung nổi bật, phù hợp cho dịch vụ khách hàng theo lĩnh vực và các tình huống địa phương.
  • Deepseek:thể hiện ưu việt trong việc sinh mã và suy luận toán học, phù hợp với công cụ hỗ trợ phát triển thông minh.
  • Gemma: Mô hình nhẹ được phát triển bởi một ông lớn công nghệ, cấu trúc rõ ràng, dễ dàng để nhanh chóng làm quen và thử nghiệm.
  • Falcon: Từng là tiêu chuẩn hiệu suất, phù hợp cho nghiên cứu cơ bản hoặc thử nghiệm so sánh, nhưng độ hoạt động của cộng đồng đã giảm.
  • BLOOM: Hỗ trợ đa ngôn ngữ mạnh, nhưng hiệu suất suy diễn hơi yếu, phù hợp cho nghiên cứu bao phủ ngôn ngữ.
  • GPT-2: Mô hình cổ điển sớm, chỉ phù hợp cho mục đích giảng dạy và xác minh, không khuyến nghị sử dụng triển khai thực tế.

Mặc dù mô hình kết hợp của OpenLedger không bao gồm mô hình MoE hiệu suất cao mới nhất hoặc mô hình đa phương thức, nhưng chiến lược của nó không lỗi thời, mà là một cấu hình "ưu tiên thực dụng" dựa trên các ràng buộc thực tế của triển khai trên chuỗi (chi phí suy diễn, thích ứng RAG, tương thích LoRA, môi trường EVM).

Model Factory như một chuỗi công cụ không mã, tất cả các mô hình đều được tích hợp cơ chế chứng minh đóng góp, đảm bảo quyền lợi của người đóng góp dữ liệu và nhà phát triển mô hình, có những ưu điểm như ngưỡng thấp, có thể biến đổi và có thể kết hợp, so với các công cụ phát triển mô hình truyền thống:

  • Đối với các nhà phát triển: Cung cấp đầy đủ con đường cho việc ươm mầm, phân phối và thu nhập mô hình;
  • Đối với nền tảng: hình thành lưu thông tài sản mô hình và sinh thái tổ hợp;
  • Đối với người dùng: Có thể kết hợp sử dụng mô hình hoặc Agent như gọi API.

OpenLedgerĐộ sâu研报:以OP Stack+EigenDA为底座,构建一个 dữ liệu驱动、模型可组合的智能体经济

3.2 OpenLoRA, tài sản hóa trên chuỗi của mô hình tinh chỉnh

LoRA (Low-Rank Adaptation) là một phương pháp tinh chỉnh tham số hiệu quả, thông qua việc chèn "ma trận thấp" vào mô hình lớn đã được huấn luyện trước để học các nhiệm vụ mới mà không thay đổi tham số của mô hình gốc, từ đó giảm đáng kể chi phí đào tạo và nhu cầu lưu trữ. Các mô hình ngôn ngữ lớn truyền thống (như LLaMA, GPT-3) thường có hàng tỷ thậm chí hàng trăm tỷ tham số. Để sử dụng chúng cho các nhiệm vụ cụ thể (như hỏi đáp pháp lý, tư vấn y tế), cần phải thực hiện tinh chỉnh (fine-tuning). Chiến lược cốt lõi của LoRA là: "đóng băng tham số của mô hình lớn ban đầu, chỉ đào tạo ma trận tham số mới được chèn vào." Với việc tham số hiệu quả, đào tạo nhanh chóng và triển khai linh hoạt, đây là phương pháp tinh chỉnh chính phù hợp nhất cho việc triển khai và gọi kết hợp các mô hình Web3 hiện nay.

OpenLoRA là một khuôn khổ suy diễn nhẹ nhàng được xây dựng bởi OpenLedger, được thiết kế đặc biệt cho việc triển khai nhiều mô hình và chia sẻ tài nguyên. Mục tiêu cốt lõi của nó là giải quyết các vấn đề phổ biến hiện nay trong việc triển khai mô hình AI như chi phí cao, khả năng tái sử dụng thấp và lãng phí tài nguyên GPU, thúc đẩy việc thực hiện "AI có thể thanh toán" (Payable AI).

Các thành phần cốt lõi của kiến trúc hệ thống OpenLoRA, dựa trên thiết kế mô-đun, bao gồm lưu trữ mô hình, thực thi suy diễn, định tuyến yêu cầu và các khía cạnh quan trọng khác, nhằm đạt được khả năng triển khai và gọi nhiều mô hình hiệu quả và chi phí thấp:

  • Mô-đun lưu trữ LoRA Adapter (Lưu trữ LoRA Adapters): LoRA adapter đã được tinh chỉnh được lưu trữ trên OpenLedger, cho phép tải theo nhu cầu, tránh việc tải trước tất cả mô hình vào bộ nhớ đồ họa, tiết kiệm tài nguyên.
  • Lớp lưu trữ mô hình và hợp nhất bộ điều hợp (Model Hosting & Adapter Merging Layer): Tất cả các mô hình tinh chỉnh chia sẻ mô hình lớn cơ sở (base model), trong quá trình suy diễn sử dụng bộ điều hợp LoRA.
OP3.64%
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
  • Phần thưởng
  • 7
  • Chia sẻ
Bình luận
0/400
ImpermanentSagevip
· 6giờ trước
Đừng giả vờ nữa, lại là chiêu trò về khả năng tính toán.
Xem bản gốcTrả lời0
FloorSweepervip
· 10giờ trước
Quá căng thẳng, còn khốc liệt hơn cả lập trình viên.
Xem bản gốcTrả lời0
SighingCashiervip
· 11giờ trước
Haha, sao cái này nhìn giống cái mà bạn đã chia sẻ với tôi mấy hôm trước vậy?
Xem bản gốcTrả lời0
ZenZKPlayervip
· 11giờ trước
Lại đang làm trí tuệ nhân tạo, yêu quá đi!
Xem bản gốcTrả lời0
GamefiEscapeArtistvip
· 11giờ trước
Chỉ là một trò hề mà thôi.
Xem bản gốcTrả lời0
SilentObservervip
· 11giờ trước
Vẫn là khả năng tính toán ngon nhất
Xem bản gốcTrả lời0
MetaverseHermitvip
· 11giờ trước
AI lại chuẩn bị chơi đùa với mọi người rồi
Xem bản gốcTrả lời0
Giao dịch tiền điện tử mọi lúc mọi nơi
qrCode
Quét để tải xuống ứng dụng Gate
Cộng đồng
Tiếng Việt
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)