Jan v0.6.6 ya está disponible: Jan ahora funciona completamente en llama.cpp.
- Cortex se ha ido, los modelos locales ahora funcionan en llama.cpp - Alternar entre modelos locales y de OpenAI - Soporte experimental para modelos cuantizados
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
11 me gusta
Recompensa
11
4
Compartir
Comentar
0/400
GasGrillMaster
· 07-31 16:41
¿Qué es esto? ¿Se puede asar carne?
Ver originalesResponder0
0xLuckbox
· 07-31 16:40
Finalmente se puede ejecutar localmente.
Ver originalesResponder0
GasWaster
· 07-31 16:36
finalmente un interruptor que no me costará 200 gwei para activar smh
Jan v0.6.6 ya está disponible: Jan ahora funciona completamente en llama.cpp.
- Cortex se ha ido, los modelos locales ahora funcionan en llama.cpp
- Alternar entre modelos locales y de OpenAI
- Soporte experimental para modelos cuantizados