Jan v0.6.6 est sorti : Jan fonctionne désormais entièrement sur llama.cpp.
- Cortex est parti, les modèles locaux fonctionnent maintenant sur llama.cpp - Basculer entre les modèles locaux et OpenAI - Support expérimental pour les modèles quantifiés
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
11 J'aime
Récompense
11
4
Partager
Commentaire
0/400
GasGrillMaster
· 07-31 16:41
C'est quoi ? On peut faire du barbecue ?
Voir l'originalRépondre0
0xLuckbox
· 07-31 16:40
Enfin, cela peut être exécuté localement.
Voir l'originalRépondre0
GasWaster
· 07-31 16:36
enfin un interrupteur qui ne me coûtera pas 200 gwei pour basculer smh
Jan v0.6.6 est sorti : Jan fonctionne désormais entièrement sur llama.cpp.
- Cortex est parti, les modèles locaux fonctionnent maintenant sur llama.cpp
- Basculer entre les modèles locaux et OpenAI
- Support expérimental pour les modèles quantifiés