OpenLedger Derinlik Araştırması: OP Stack + EigenDA temelinde, veri odaklı, model kombinasyonuna sahip bir akıllı ekonomi inşa etmek
Bir, Giriş | Crypto AI'nin model katman geçişi
Veri, model ve hesaplama gücü, AI altyapısının üç ana bileşenidir; bunlar, yakıt (veri), motor (model) ve enerji (hesaplama gücü) ile karşılaştırılabilir ve hiçbiri olmadan olmaz. Geleneksel AI endüstrisinin altyapı evrimi yoluna benzer şekilde, Crypto AI alanı da benzer aşamalardan geçmiştir. 2024 yılının başlarında, pazar bir süre merkeziyetsiz GPU projeleri tarafından domine edildi ( bazı GPU hesaplama platformları, bazı render platformları, bazı ağ platformları vb. ), genellikle "hesaplama gücünü birleştirme" anlayışını vurguladı. Ancak 2025 yılına girildiğinde, sektörün odak noktası giderek model ve veri katmanına kaydı; bu, Crypto AI'nın altyapı kaynakları rekabetinden daha sürdürülebilir ve uygulama değeri olan orta katman yapılandırmasına geçtiğini gösteriyor.
Genel Büyük Model (LLM) vs Özel Model (SLM)
Geleneksel büyük dil modelleri (LLM), büyük ölçekli veri setleri ve karmaşık dağıtık mimarilere yüksek derecede bağımlıdır, parametre ölçekleri genellikle 70B ile 500B arasında değişmektedir, bir kere eğitim maliyeti genellikle birkaç yüz bin dolara kadar çıkmaktadır. SLM (Özel Dil Modeli) ise, tekrar kullanılabilir bir temel modelin hafif ince ayar paradigmaları olarak, genellikle LLaMA, Mistral, DeepSeek gibi açık kaynaklı modeller üzerine inşa edilmekte, az sayıda yüksek kaliteli uzman verisi ve LoRA gibi tekniklerle bir araya getirilerek hızlı bir şekilde belirli alan bilgisine sahip uzman modelleri oluşturmakta, eğitim maliyetlerini ve teknik engelleri önemli ölçüde azaltmaktadır.
Dikkate değer olan, SLM'nin LLM ağırlıklarına entegre edilmeyeceği, bunun yerine Agent mimarisi çağrıları, eklenti sistemi dinamik yönlendirmesi, LoRA modülünün sıcak takibi, RAG (Retrieve-augmented generation) gibi yöntemlerle LLM ile işbirliği içinde çalışacağıdır. Bu mimari, LLM'nin geniş kapsama yeteneğini korurken, ince ayar modülü ile uzman performansını artırarak oldukça esnek bir kombinasyon akıllı sistem oluşturur.
Kripto AI'nin model katmanındaki değeri ve sınırları
Kripto AI projeleri esasen büyük dil modellerinin (LLM) temel yeteneklerini doğrudan artırmakta zordur, bunun temel nedeni şudur:
Teknik engeller çok yüksek: Foundation Model'i eğitmek için gereken veri ölçeği, hesaplama kaynakları ve mühendislik yetenekleri son derece büyük; şu anda yalnızca ABD (bazı AI şirketleri vb.) ve Çin (bazı derin öğrenme şirketleri vb.) gibi teknoloji devleri bu yeteneklere sahiptir.
Açık kaynak ekosisteminin sınırlamaları: Ana akım temel modeller olan LLaMA ve Mixtral açık kaynak olsa da, model atılımlarını gerçekten ileriye taşıyan anahtar hala araştırma kuruluşları ve kapalı kaynak mühendislik sistemlerinde yoğunlaşmaktadır, zincir üzerindeki projelerin temel model katmanına katılım alanı sınırlıdır.
Ancak, açık kaynaklı temel modellerin üzerinde, Crypto AI projeleri hala özel dil modellerini (SLM) ince ayar yaparak ve Web3'ün doğrulanabilirliği ile teşvik mekanizmasını birleştirerek değer uzantısı gerçekleştirebilir. AI endüstri zincirinin "çevresel arayüz katmanı" olarak, iki ana yönde kendini gösterir:
Güvenilir Doğrulama Katmanı: Model oluşturma yollarını, veri katkılarını ve kullanım durumlarını zincir üzerinde kaydederek, AI çıktılarının izlenebilirliğini ve değiştirilemezlik yeteneğini artırır.
Teşvik Mekanizması: Yerel Token kullanarak veri yükleme, model çağrısı, akıllı ajan (Agent) işlemleri gibi davranışları teşvik etmek, model eğitimi ve hizmetleri için olumlu bir döngü oluşturmak.
AI model türleri sınıflandırması ve blok zinciri uygunluk analizi
Bundan görülebileceği gibi, model türü Crypto AI projelerinin uygulanabilir noktaları esasen küçük SLM'nin hafif ince ayarı, RAG mimarisinin zincir üzerindeki veri erişimi ve doğrulaması ile Edge modelinin yerel dağıtımı ve teşviki üzerinde yoğunlaşmaktadır. Blok zincirinin doğrulanabilirliği ve token mekanizması ile bir araya geldiğinde, Crypto bu orta ve düşük kaynaklı model senaryolarına özgü bir değer sunarak AI "arayüz katmanı" için farklılaşmış bir değer oluşturabilir.
Veri ve model tabanlı blockchain AI ağı, her bir verinin ve modelin katkı kaynağını net, değiştirilemez bir şekilde zincire kaydetmeyi sağlar ve veri güvenilirliğini ve model eğitiminin izlenebilirliğini önemli ölçüde artırır. Aynı zamanda, akıllı sözleşme mekanizması aracılığıyla, veri veya model çağrıldığında otomatik olarak ödül dağıtımını tetikler, AI davranışını ölçülebilir, ticarete konu olabilen tokenleştirilmiş bir değere dönüştürerek sürdürülebilir bir teşvik sistemi inşa eder. Ayrıca, topluluk kullanıcıları token ile model performansını değerlendirebilir, kuralların belirlenmesi ve yinelemeye katılabilir, merkeziyetsiz yönetim yapısını geliştirebilirler.
İki, Proje Özeti | OpenLedger'in AI Zincir Vizyonu
OpenLedger, veri ve model teşvik mekanizmalarına odaklanan mevcut pazardaki az sayıda blok zinciri AI projesinden biridir. "Ödenebilir AI" kavramını öne sürerek, veri katkıda bulunanlar, model geliştiriciler ve AI uygulama geliştiricilerin aynı platformda iş birliği yapmalarını teşvik eden, adil, şeffaf ve birleştirilebilir bir AI çalışma ortamı oluşturmayı amaçlamaktadır ve gerçek katkılara göre zincir üzerindeki kazançları elde etmelerini sağlamaktadır.
OpenLedger, "veri sağlama"dan "model dağıtımı"na ve ardından "kâr paylaşımına" kadar tam bir zincir döngüsü sunar; ana modülleri şunlardır:
Model Factory: Programlama gerektirmeden, açık kaynak LLM kullanarak LoRA ile ince ayar yapabilir, eğitim verebilir ve özel modelleri dağıtabilirsiniz;
OpenLoRA: Binlerce modelin bir arada bulunmasını destekler, gerektiğinde dinamik olarak yüklenir, dağıtım maliyetlerini önemli ölçüde düşürür;
PoA (Atıf Kanıtı): Zincir üzerindeki çağrı kayıtları aracılığıyla katkı ölçümü ve ödül dağıtımı sağlanır;
Datanets: Dikey senaryolara yönelik yapılandırılmış veri ağı, topluluk işbirliği ile inşa edilmekte ve doğrulanmaktadır;
Model Öneri Platformu (Model Proposal Platform): Birleştirilebilir, çağrılabilir ve ödenebilir zincir üstü model pazarı.
Yukarıdaki modüller aracılığıyla, OpenLedger veri odaklı, model olarak birleştirilebilir bir "akıllı varlık ekonomisi altyapısı" inşa etti ve AI değer zincirinin zincir üzerindeki dönüşümünü teşvik etti.
Ve blok zinciri teknolojisi benimsemesinde, OpenLedger OP Stack + EigenDA'yı temel alarak, AI modelleri için yüksek performanslı, düşük maliyetli ve doğrulanabilir bir veri ve sözleşme çalışma ortamı oluşturdu.
OP Stack üzerine inşa edilmiş: Optimism teknoloji yığınına dayalı, yüksek işlem hacmi ve düşük maliyetli yürütmeyi destekler;
Ethereum ana ağında hesaplama: İşlem güvenliğini ve varlık bütünlüğünü sağlamak;
EVM Uyumluluğu: Geliştiricilerin Solidity tabanlı hızlı dağıtım ve genişleme yapmasını kolaylaştırır;
EigenDA, veri kullanılabilirliği desteği sağlar: depolama maliyetlerini önemli ölçüde azaltır ve verilerin doğrulanabilirliğini güvence altına alır.
Belirli bir kamu zincirine göre daha çok temel odaklı, veri egemenliğini vurgulayan ve "AI Agents on BOS" mimarisine sahip genel amaçlı AI zincirine kıyasla, OpenLedger daha çok veri ve model teşvikine yönelik AI özel zincirleri inşa etmeye odaklanmaktadır. Model geliştirme ve çağrısının zincir üzerinde izlenebilir, birleştirilebilir ve sürdürülebilir bir değer döngüsü sağlaması için çaba göstermektedir. Web3 dünyasında model teşvik altyapısıdır ve belirli bir model barındırma platformu tarzında model barındırma, belirli bir ödeme platformu tarzında kullanım ücretlendirmesi ve belirli bir altyapı hizmeti tarzında zincir üstü birleştirilebilir arayüzleri bir araya getirerek "model varlık olarak" gerçekleştirme yolunu ilerletmektedir.
Üç, OpenLedger'ın temel bileşenleri ve teknik mimarisi
3.1 Model Fabrikası, kodsuz model fabrikası
ModelFactory, OpenLedger ekosisteminde yer alan büyük bir dil modeli (LLM) ince ayar platformudur. Geleneksel ince ayar çerçevelerinden farklı olarak, ModelFactory tamamen grafiksel bir arayüz sunar ve komut satırı araçlarına veya API entegrasyonuna ihtiyaç duymaz. Kullanıcılar, OpenLedger üzerinde yetkilendirilmiş ve onaylanmış veri setleri üzerinde modellerini ince ayar yapabilirler. Veri yetkilendirmesi, model eğitimi ve dağıtımını içeren entegre bir iş akışı gerçekleştirilmiştir ve ana süreçler şunları içerir:
Veri erişim kontrolü: Kullanıcı veri talebinde bulunur, sağlayıcı inceleyip onaylar, veriler otomatik olarak model eğitim arayüzüne bağlanır.
Model Seçimi ve Konfigürasyonu: Ana akım LLM'leri destekler (örneğin LLaMA, Mistral), hiperparametreleri GUI üzerinden yapılandırır.
Hafifletilmiş ince ayar: Dahili LoRA / QLoRA motoru, eğitim ilerlemesini gerçek zamanlı olarak gösterir.
Model Değerlendirme ve Dağıtım: Yerleşik değerlendirme araçları, dağıtım veya ekosistem paylaşım çağrısını destekler.
Etkileşimli doğrulama arayüzü: Modelin soru-cevap yeteneklerini doğrudan test etmek için sohbet tarzı bir arayüz sunar.
RAG oluşturma izleme: Kaynak alıntılarla yanıt verin, güvenilirliği ve denetlenebilirliği artırın.
Model Factory sistem mimarisi, kimlik doğrulama, veri izinleri, model ince ayarı, değerlendirme dağıtımı ve RAG izleme gibi altı ana modülü içerir ve güvenli, kontrol edilebilir, gerçek zamanlı etkileşim ve sürdürülebilir gelir sağlama amacıyla entegre bir model hizmet platformu oluşturur.
ModelFactory şu anda desteklenen büyük dil modellerinin yetenekleri için kısa bir tablo aşağıdadır:
LLaMA Serisi: En geniş ekosistem, aktif topluluk ve güçlü genel performans ile şu anda en yaygın açık kaynak temel modellerden biridir.
Mistral: Verimli mimariye sahip, mükemmel çıkarım performansı ile esnek dağıtım ve sınırlı kaynaklar için uygun.
Qwen: Bir teknoloji devinin ürünü, Çince görevlerde mükemmel performans, genel yetenekleri güçlü, yerli geliştiriciler için ilk tercih.
ChatGLM: Çince konuşma etkisi belirgin, dikey müşteri hizmetleri ve lokalizasyon senaryoları için uygundur.
Deepseek: Kod üretimi ve matematiksel akıl yürütmede üstün performans gösterir, akıllı geliştirme yardımcı araçları için uygundur.
Gemma: Bir teknoloji devinin sunduğu hafif model, net bir yapıya sahip, hızlıca kavranabilir ve deney yapılabilir.
Falcon: Performans ölçütü olarak hizmet vermiştir, temel araştırma veya karşılaştırma testleri için uygundur, ancak topluluk etkinliği azalmıştır.
BLOOM: Çok dilli destek oldukça güçlü, ancak çıkarım performansı zayıf, dil kapsama araştırmaları için uygundur.
GPT-2: Klasik erken dönem modeli, yalnızca öğretim ve doğrulama amaçları için uygundur, gerçek kullanım için önerilmez.
OpenLedger'in model kombinasyonu en son yüksek performanslı MoE modelini veya çok modlu modeli içermese de, stratejisi çağdışı değildir; bunun yerine, zincir üzerindeki dağıtımın gerçek kısıtlamaları (çıkarsama maliyeti, RAG uyumu, LoRA uyumluluğu, EVM ortamı) temel alınarak "pratik öncelikli" bir yapılandırma yapılmıştır.
Model Factory, bir kodsuz araç zinciri olarak, tüm modeller katkı kanıtı mekanizması ile donatılmıştır ve veri katkıcıları ile model geliştiricilerinin haklarını güvence altına alır. Düşük giriş engeli, paraya çevrilebilirlik ve birleştirilebilirlik gibi avantajlara sahiptir ve geleneksel model geliştirme araçları ile karşılaştırıldığında:
Geliştiriciler için: Model kuluçka, dağıtım ve gelir için tam bir yol sunar;
Platform için: Model varlık dolaşımını ve kombinasyon ekosistemini oluşturmak;
Uygulayıcılar için: Modelleri veya Ajanları API çağrısı yapar gibi birleştirerek kullanabilirsiniz.
3.2 OpenLoRA, mikro ayarlama modelinin zincir üzerindeki varlıklaştırılması
LoRA (Düşük-Rank Adaptasyonu), önceden eğitilmiş büyük modellere "düşük ranklı matrisler" ekleyerek yeni görevleri öğrenen, orijinal model parametrelerini değiştirmeden eğitim maliyetlerini ve depolama gereksinimlerini önemli ölçüde azaltan etkili bir parametre ince ayar yöntemidir. Geleneksel büyük dil modelleri (örneğin LLaMA, GPT-3) genellikle on milyarlarca hatta yüz milyarlarca parametreye sahiptir. Bunları belirli görevler (örneğin hukuki soru yanıtlama, tıbbi danışmanlık) için kullanmak üzere ince ayar (fine-tuning) yapılması gerekmektedir. LoRA'nın ana stratejisi: "Orijinal büyük modelin parametrelerini dondurmak, yalnızca eklenen yeni parametre matrislerini eğitmek." Parametre verimliliği, hızlı eğitim ve esnek dağıtım özellikleri ile şu anda Web3 modeli dağıtımına ve birleşik çağrılara en uygun ana akım ince ayar yöntemidir.
OpenLoRA, OpenLedger tarafından çoklu model dağıtımı ve kaynak paylaşımı için tasarlanmış hafif bir çıkarım çerçevesidir. Temel amacı, mevcut AI model dağıtımında yaygın olan yüksek maliyet, düşük yeniden kullanım, GPU kaynak israfı gibi sorunları çözmek ve "ödenebilir AI" (Payable AI) uygulamasını teşvik etmektir.
OpenLoRA sistem mimarisi ana bileşeni, modüler tasarıma dayanarak, model depolama, çıkarım yürütme, istek yönlendirme gibi kritik aşamaları kapsar ve verimli, düşük maliyetli çoklu model dağıtımı ve çağırma yeteneği sağlar:
LoRA Adaptör Depolama Modülü (LoRA Adaptörleri Depolama): İnce ayarlanmış LoRA adaptörü OpenLedger üzerinde barındırılmakta olup, gerektiğinde yüklenmesini sağlamakta, tüm modellerin önceden belleğe yüklenmesini önleyerek kaynak tasarrufu yapmaktadır.
Model Barındırma ve Adaptör Birleştirme Katmanı (Model Hosting & Adapter Merging Layer): Tüm ince ayar modelleri temel büyük model (base model) ile ortak kullanılır, çıkarım sırasında LoRA adaptörü.
This page may contain third-party content, which is provided for information purposes only (not representations/warranties) and should not be considered as an endorsement of its views by Gate, nor as financial or professional advice. See Disclaimer for details.
9 Likes
Reward
9
7
Share
Comment
0/400
ImpermanentSage
· 6h ago
Bırak artık, yine Bilgi İşlem Gücü ile ilgili bir numara.
View OriginalReply0
FloorSweeper
· 11h ago
Çok yoğun, yazılımcılardan daha yoğun.
View OriginalReply0
SighingCashier
· 11h ago
Haha, bu neden birkaç gün önce paylaştığın şeye benziyor gibi görünüyor.
OpenLedger, OP Stack ve EigenDA'ya dayalı veri odaklı model kombinasyonlu AI zinciri oluşturuyor.
OpenLedger Derinlik Araştırması: OP Stack + EigenDA temelinde, veri odaklı, model kombinasyonuna sahip bir akıllı ekonomi inşa etmek
Bir, Giriş | Crypto AI'nin model katman geçişi
Veri, model ve hesaplama gücü, AI altyapısının üç ana bileşenidir; bunlar, yakıt (veri), motor (model) ve enerji (hesaplama gücü) ile karşılaştırılabilir ve hiçbiri olmadan olmaz. Geleneksel AI endüstrisinin altyapı evrimi yoluna benzer şekilde, Crypto AI alanı da benzer aşamalardan geçmiştir. 2024 yılının başlarında, pazar bir süre merkeziyetsiz GPU projeleri tarafından domine edildi ( bazı GPU hesaplama platformları, bazı render platformları, bazı ağ platformları vb. ), genellikle "hesaplama gücünü birleştirme" anlayışını vurguladı. Ancak 2025 yılına girildiğinde, sektörün odak noktası giderek model ve veri katmanına kaydı; bu, Crypto AI'nın altyapı kaynakları rekabetinden daha sürdürülebilir ve uygulama değeri olan orta katman yapılandırmasına geçtiğini gösteriyor.
Genel Büyük Model (LLM) vs Özel Model (SLM)
Geleneksel büyük dil modelleri (LLM), büyük ölçekli veri setleri ve karmaşık dağıtık mimarilere yüksek derecede bağımlıdır, parametre ölçekleri genellikle 70B ile 500B arasında değişmektedir, bir kere eğitim maliyeti genellikle birkaç yüz bin dolara kadar çıkmaktadır. SLM (Özel Dil Modeli) ise, tekrar kullanılabilir bir temel modelin hafif ince ayar paradigmaları olarak, genellikle LLaMA, Mistral, DeepSeek gibi açık kaynaklı modeller üzerine inşa edilmekte, az sayıda yüksek kaliteli uzman verisi ve LoRA gibi tekniklerle bir araya getirilerek hızlı bir şekilde belirli alan bilgisine sahip uzman modelleri oluşturmakta, eğitim maliyetlerini ve teknik engelleri önemli ölçüde azaltmaktadır.
Dikkate değer olan, SLM'nin LLM ağırlıklarına entegre edilmeyeceği, bunun yerine Agent mimarisi çağrıları, eklenti sistemi dinamik yönlendirmesi, LoRA modülünün sıcak takibi, RAG (Retrieve-augmented generation) gibi yöntemlerle LLM ile işbirliği içinde çalışacağıdır. Bu mimari, LLM'nin geniş kapsama yeteneğini korurken, ince ayar modülü ile uzman performansını artırarak oldukça esnek bir kombinasyon akıllı sistem oluşturur.
Kripto AI'nin model katmanındaki değeri ve sınırları
Kripto AI projeleri esasen büyük dil modellerinin (LLM) temel yeteneklerini doğrudan artırmakta zordur, bunun temel nedeni şudur:
Ancak, açık kaynaklı temel modellerin üzerinde, Crypto AI projeleri hala özel dil modellerini (SLM) ince ayar yaparak ve Web3'ün doğrulanabilirliği ile teşvik mekanizmasını birleştirerek değer uzantısı gerçekleştirebilir. AI endüstri zincirinin "çevresel arayüz katmanı" olarak, iki ana yönde kendini gösterir:
AI model türleri sınıflandırması ve blok zinciri uygunluk analizi
Bundan görülebileceği gibi, model türü Crypto AI projelerinin uygulanabilir noktaları esasen küçük SLM'nin hafif ince ayarı, RAG mimarisinin zincir üzerindeki veri erişimi ve doğrulaması ile Edge modelinin yerel dağıtımı ve teşviki üzerinde yoğunlaşmaktadır. Blok zincirinin doğrulanabilirliği ve token mekanizması ile bir araya geldiğinde, Crypto bu orta ve düşük kaynaklı model senaryolarına özgü bir değer sunarak AI "arayüz katmanı" için farklılaşmış bir değer oluşturabilir.
Veri ve model tabanlı blockchain AI ağı, her bir verinin ve modelin katkı kaynağını net, değiştirilemez bir şekilde zincire kaydetmeyi sağlar ve veri güvenilirliğini ve model eğitiminin izlenebilirliğini önemli ölçüde artırır. Aynı zamanda, akıllı sözleşme mekanizması aracılığıyla, veri veya model çağrıldığında otomatik olarak ödül dağıtımını tetikler, AI davranışını ölçülebilir, ticarete konu olabilen tokenleştirilmiş bir değere dönüştürerek sürdürülebilir bir teşvik sistemi inşa eder. Ayrıca, topluluk kullanıcıları token ile model performansını değerlendirebilir, kuralların belirlenmesi ve yinelemeye katılabilir, merkeziyetsiz yönetim yapısını geliştirebilirler.
İki, Proje Özeti | OpenLedger'in AI Zincir Vizyonu
OpenLedger, veri ve model teşvik mekanizmalarına odaklanan mevcut pazardaki az sayıda blok zinciri AI projesinden biridir. "Ödenebilir AI" kavramını öne sürerek, veri katkıda bulunanlar, model geliştiriciler ve AI uygulama geliştiricilerin aynı platformda iş birliği yapmalarını teşvik eden, adil, şeffaf ve birleştirilebilir bir AI çalışma ortamı oluşturmayı amaçlamaktadır ve gerçek katkılara göre zincir üzerindeki kazançları elde etmelerini sağlamaktadır.
OpenLedger, "veri sağlama"dan "model dağıtımı"na ve ardından "kâr paylaşımına" kadar tam bir zincir döngüsü sunar; ana modülleri şunlardır:
Yukarıdaki modüller aracılığıyla, OpenLedger veri odaklı, model olarak birleştirilebilir bir "akıllı varlık ekonomisi altyapısı" inşa etti ve AI değer zincirinin zincir üzerindeki dönüşümünü teşvik etti.
Ve blok zinciri teknolojisi benimsemesinde, OpenLedger OP Stack + EigenDA'yı temel alarak, AI modelleri için yüksek performanslı, düşük maliyetli ve doğrulanabilir bir veri ve sözleşme çalışma ortamı oluşturdu.
Belirli bir kamu zincirine göre daha çok temel odaklı, veri egemenliğini vurgulayan ve "AI Agents on BOS" mimarisine sahip genel amaçlı AI zincirine kıyasla, OpenLedger daha çok veri ve model teşvikine yönelik AI özel zincirleri inşa etmeye odaklanmaktadır. Model geliştirme ve çağrısının zincir üzerinde izlenebilir, birleştirilebilir ve sürdürülebilir bir değer döngüsü sağlaması için çaba göstermektedir. Web3 dünyasında model teşvik altyapısıdır ve belirli bir model barındırma platformu tarzında model barındırma, belirli bir ödeme platformu tarzında kullanım ücretlendirmesi ve belirli bir altyapı hizmeti tarzında zincir üstü birleştirilebilir arayüzleri bir araya getirerek "model varlık olarak" gerçekleştirme yolunu ilerletmektedir.
Üç, OpenLedger'ın temel bileşenleri ve teknik mimarisi
3.1 Model Fabrikası, kodsuz model fabrikası
ModelFactory, OpenLedger ekosisteminde yer alan büyük bir dil modeli (LLM) ince ayar platformudur. Geleneksel ince ayar çerçevelerinden farklı olarak, ModelFactory tamamen grafiksel bir arayüz sunar ve komut satırı araçlarına veya API entegrasyonuna ihtiyaç duymaz. Kullanıcılar, OpenLedger üzerinde yetkilendirilmiş ve onaylanmış veri setleri üzerinde modellerini ince ayar yapabilirler. Veri yetkilendirmesi, model eğitimi ve dağıtımını içeren entegre bir iş akışı gerçekleştirilmiştir ve ana süreçler şunları içerir:
Model Factory sistem mimarisi, kimlik doğrulama, veri izinleri, model ince ayarı, değerlendirme dağıtımı ve RAG izleme gibi altı ana modülü içerir ve güvenli, kontrol edilebilir, gerçek zamanlı etkileşim ve sürdürülebilir gelir sağlama amacıyla entegre bir model hizmet platformu oluşturur.
ModelFactory şu anda desteklenen büyük dil modellerinin yetenekleri için kısa bir tablo aşağıdadır:
OpenLedger'in model kombinasyonu en son yüksek performanslı MoE modelini veya çok modlu modeli içermese de, stratejisi çağdışı değildir; bunun yerine, zincir üzerindeki dağıtımın gerçek kısıtlamaları (çıkarsama maliyeti, RAG uyumu, LoRA uyumluluğu, EVM ortamı) temel alınarak "pratik öncelikli" bir yapılandırma yapılmıştır.
Model Factory, bir kodsuz araç zinciri olarak, tüm modeller katkı kanıtı mekanizması ile donatılmıştır ve veri katkıcıları ile model geliştiricilerinin haklarını güvence altına alır. Düşük giriş engeli, paraya çevrilebilirlik ve birleştirilebilirlik gibi avantajlara sahiptir ve geleneksel model geliştirme araçları ile karşılaştırıldığında:
3.2 OpenLoRA, mikro ayarlama modelinin zincir üzerindeki varlıklaştırılması
LoRA (Düşük-Rank Adaptasyonu), önceden eğitilmiş büyük modellere "düşük ranklı matrisler" ekleyerek yeni görevleri öğrenen, orijinal model parametrelerini değiştirmeden eğitim maliyetlerini ve depolama gereksinimlerini önemli ölçüde azaltan etkili bir parametre ince ayar yöntemidir. Geleneksel büyük dil modelleri (örneğin LLaMA, GPT-3) genellikle on milyarlarca hatta yüz milyarlarca parametreye sahiptir. Bunları belirli görevler (örneğin hukuki soru yanıtlama, tıbbi danışmanlık) için kullanmak üzere ince ayar (fine-tuning) yapılması gerekmektedir. LoRA'nın ana stratejisi: "Orijinal büyük modelin parametrelerini dondurmak, yalnızca eklenen yeni parametre matrislerini eğitmek." Parametre verimliliği, hızlı eğitim ve esnek dağıtım özellikleri ile şu anda Web3 modeli dağıtımına ve birleşik çağrılara en uygun ana akım ince ayar yöntemidir.
OpenLoRA, OpenLedger tarafından çoklu model dağıtımı ve kaynak paylaşımı için tasarlanmış hafif bir çıkarım çerçevesidir. Temel amacı, mevcut AI model dağıtımında yaygın olan yüksek maliyet, düşük yeniden kullanım, GPU kaynak israfı gibi sorunları çözmek ve "ödenebilir AI" (Payable AI) uygulamasını teşvik etmektir.
OpenLoRA sistem mimarisi ana bileşeni, modüler tasarıma dayanarak, model depolama, çıkarım yürütme, istek yönlendirme gibi kritik aşamaları kapsar ve verimli, düşük maliyetli çoklu model dağıtımı ve çağırma yeteneği sağlar: