I. Introducción | La transición de la capa de modelos de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos a combustible (datos), motor (modelo) y energía (potencia de cálculo), todos ellos son indispensables. Al igual que la trayectoria de evolución de la infraestructura de la industria de IA tradicional, el campo de Crypto AI también ha pasado por fases similares. A principios de 2024, el mercado fue dominado en un momento por proyectos de GPU descentralizados ( algunas plataformas de cálculo GPU, algunas plataformas de renderizado, algunas plataformas de red, etc. ), enfatizando generalmente la lógica de crecimiento extenso de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia las capas de modelo y datos, lo que marca la transición de Crypto AI de la competencia por recursos básicos a una construcción de nivel medio más sostenible y con valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje tradicionales (LLM) dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con una escala de parámetros que varía entre 70B y 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. El SLM (Modelo de Lenguaje Especializado), como un paradigma ligero de ajuste fino de un modelo base reutilizable, generalmente se basa en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimientos específicos de dominio, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Cabe destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de llamadas a la arquitectura Agent, enrutamiento dinámico del sistema de plugins, hot-plug de módulos LoRA y RAG (generación aumentada por recuperación). Esta arquitectura conserva la capacidad de amplia cobertura de LLM y, a través de módulos de ajuste fino, mejora el rendimiento profesional, formando así un sistema inteligente modular altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón fundamental es que
La barrera técnica es demasiado alta: la escala de datos, los recursos de computación y las capacidades de ingeniería necesarias para entrenar un Modelo de Fundación son extremadamente grandes. Actualmente, solo las grandes empresas tecnológicas de Estados Unidos (como ciertas compañías de IA) y de China (como ciertas compañías de aprendizaje profundo) tienen la capacidad correspondiente.
Limitaciones del ecosistema de código abierto: Aunque modelos básicos de corriente principal como LLaMA y Mixtral han sido de código abierto, la clave para impulsar avances en los modelos sigue estando concentrada en instituciones de investigación y sistemas de ingeniería de código cerrado, y el espacio de participación de los proyectos en cadena en el nivel del modelo principal es limitado.
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr la extensión del valor a través del ajuste fino de modelos de lenguaje especializados (SLM), combinados con la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de IA, se manifiesta en dos direcciones centrales:
Capa de verificación confiable: a través del registro en cadena de las rutas de generación de modelos, la contribución de datos y el uso, se mejora la trazabilidad y la resistencia a la manipulación de las salidas de IA.
Mecanismo de incentivos: A través del Token nativo, se utiliza para incentivar la carga de datos, la invocación de modelos, la ejecución de agentes (Agent) y otras acciones, construyendo un ciclo positivo de entrenamiento y servicio de modelos.
Clasificación de tipos de modelos de IA y análisis de aplicabilidad de blockchain
Como se puede ver, los puntos de viabilidad de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la ligera afinación de pequeños SLM, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medio-bajos, formando un valor diferencial en la "capa de interfaz" de la IA.
La cadena de bloques AI basada en datos y modelos puede realizar un registro claro e inalterable en la cadena de cada fuente de contribución de datos y modelos, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se llaman datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y negociable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y perfeccionar la estructura de gobernanza descentralizada.
II. Resumen del proyecto | La visión de la cadena de OpenLedger de IA
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en los mecanismos de incentivos para datos y modelos. Fue el primero en proponer el concepto de «Payable AI», con el objetivo de construir un entorno de funcionamiento de AI justo, transparente y combinable, que incentive a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener ingresos en cadena de acuerdo con su contribución real.
OpenLedger ofrece un ciclo cerrado de toda la cadena desde "provisión de datos" hasta "despliegue de modelos" y luego "llamadas de participación en beneficios", cuyos módulos centrales incluyen:
Fábrica de Modelos: sin necesidad de programación, puede utilizar LoRA para el ajuste fino y entrenamiento de modelos personalizados basados en LLM de código abierto;
OpenLoRA: soporta la coexistencia de miles de modelos, carga dinámica bajo demanda, reduciendo significativamente los costos de implementación;
PoA (Prueba de Atribución): medir la contribución y distribuir recompensas a través del registro de llamadas en la cadena.
Datanets: Redes de datos estructurados orientadas a escenarios verticales, construidas y verificadas mediante la colaboración de la comunidad;
Plataforma de Propuestas de Modelos (Model Proposal Platform): mercado de modelos en cadena que es combinable, llamable y pagable.
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" basada en datos y modelos combinables, promoviendo la cadena de valor de la IA en la blockchain.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, creando un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
Construido sobre OP Stack: Basado en la pila tecnológica de Optimism, soporta una alta capacidad de procesamiento y ejecución a bajo costo;
Liquidación en la red principal de Ethereum: Asegurar la seguridad de las transacciones y la integridad de los activos;
Compatible con EVM: permite a los desarrolladores desplegar y expandir rápidamente basado en Solidity;
EigenDA proporciona soporte de disponibilidad de datos: reduce significativamente los costos de almacenamiento y garantiza la verificabilidad de los datos.
En comparación con ciertas cadenas públicas que son más de nivel base, enfocadas en la soberanía de datos y la arquitectura de "AI Agents on BOS", OpenLedger se centra más en construir una cadena dedicada a la IA orientada a datos e incentivos de modelos, comprometida a hacer que el desarrollo y la invocación de modelos en la cadena logren un ciclo de valor trazable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando el alojamiento de modelos al estilo de ciertas plataformas de alojamiento, la facturación por uso al estilo de ciertas plataformas de pago y las interfaces combinables en la cadena al estilo de ciertos servicios de infraestructura, impulsando la realización de "modelos como activos".
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sin código
ModelFactory es una plataforma de ajuste fino de grandes modelos de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en los conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se logra un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyos procesos centrales incluyen:
Control de acceso a datos: los usuarios envían solicitudes de datos, los proveedores revisan y aprueban, los datos se integran automáticamente en la interfaz de entrenamiento del modelo.
Selección y configuración del modelo: Soporta LLM de uso común (como LLaMA, Mistral), configurando hiperparámetros a través de la GUI.
Ajuste ligero: motor LoRA / QLoRA integrado, muestra el progreso de entrenamiento en tiempo real.
Evaluación y despliegue del modelo: Herramienta de evaluación incorporada, que admite la exportación de despliegue o la llamada de compartición ecológica.
Interfaz de verificación interactiva: Proporciona una interfaz de chat, facilitando la prueba directa de la capacidad de respuesta del modelo.
Generación de RAG de trazabilidad: Responder con citas de origen, aumentando la confianza y la auditabilidad.
La arquitectura del sistema Model Factory incluye seis grandes módulos, que abarcan la autenticación de identidad, los permisos de datos, el ajuste fino de modelos, la evaluación de despliegue y la trazabilidad RAG, creando una plataforma de servicios de modelos integrada, segura y controlable, con interacción en tiempo real y monetización sostenible.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory actualmente admite:
Serie LLaMA: la más amplia en ecosistemas, comunidad activa y con un rendimiento general fuerte, es uno de los modelos de base de código abierto más populares en la actualidad.
Mistral: Arquitectura eficiente, rendimiento de inferencia excelente, adecuado para escenarios de despliegue flexible y recursos limitados.
Qwen: un producto de un gigante tecnológico, con un rendimiento destacado en tareas en chino, habilidades integrales fuertes, ideal como primera opción para desarrolladores nacionales.
ChatGLM: El efecto de conversación en chino es destacado, adecuado para atención al cliente en nichos y escenarios de localización.
Deepseek: se destaca en la generación de código y el razonamiento matemático, adecuado para herramientas de asistencia en el desarrollo inteligente.
Gemma: Un modelo ligero lanzado por un gigante tecnológico, con una estructura clara, fácil de usar y experimentar rápidamente.
Falcon: Anteriormente un referente de rendimiento, adecuado para investigaciones básicas o pruebas comparativas, pero la actividad de la comunidad ha disminuido.
BLOOM: Soporte multilingüe fuerte, pero el rendimiento de inferencia es bajo, adecuado para investigaciones de cobertura lingüística.
GPT-2: modelo clásico temprano, solo adecuado para fines educativos y de verificación, no se recomienda su uso en despliegues reales.
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones reales del despliegue en cadena (costos de inferencia, adaptación RAG, compatibilidad con LoRA, entorno EVM) para hacer una configuración "prioridad práctica".
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, que asegura los derechos de los contribuyentes de datos y de los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
Para desarrolladores: proporcionar un camino completo para la incubación, distribución e ingresos del modelo;
Para la plataforma: formar un ecosistema de circulación y combinación de activos del modelo;
Para los aplicadores: se pueden combinar los modelos o agentes como si se estuviera llamando a una API.
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Adaptación de Bajo Rango) es un método de ajuste de parámetros eficiente que aprende nuevas tareas insertando "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce significativamente los costos de entrenamiento y los requerimientos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales, consultas médicas), es necesario realizar un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original, solo entrenar las nuevas matrices de parámetros insertadas." Sus parámetros son eficientes, el entrenamiento es rápido y el despliegue es flexible, lo que lo convierte en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de la "IA pagable" (Payable AI).
OpenLoRA arquitectura del sistema componentes centrales, basado en un diseño modular, abarca el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo:
Módulo de almacenamiento de LoRA Adapter ( Almacenamiento de Adaptadores LoRA ): El adaptador LoRA ajustado se aloja en OpenLedger, permitiendo la carga bajo demanda, evitando cargar todos los modelos en la memoria de video, ahorrando recursos.
Capa de Alojamiento de Modelos y Fusión Dinámica (Model Hosting & Adapter Merging Layer): Todos los modelos de ajuste fino comparten el modelo base (base model), durante la inferencia LoRA adapter.
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
9 me gusta
Recompensa
9
7
Compartir
Comentar
0/400
ImpermanentSage
· hace6h
Deja de fingir, es solo una táctica para la potencia computacional.
Ver originalesResponder0
FloorSweeper
· hace10h
Está demasiado competitivo, incluso más que los programadores.
Ver originalesResponder0
SighingCashier
· hace11h
Jaja, esto se ve igual que lo que compartiste hace unos días.
Ver originalesResponder0
ZenZKPlayer
· hace11h
Otra vez trabajando en agentes inteligentes, me encantó, me encantó.
Ver originalesResponder0
GamefiEscapeArtist
· hace11h
Solo es otra estrategia de marketing.
Ver originalesResponder0
SilentObserver
· hace11h
La potencia computacional sigue siendo la más atractiva.
OpenLedger construye un modelo impulsado por datos que combina cadenas de IA basado en OP Stack y EigenDA
OpenLedger Profundidad研报:以OP Stack+EigenDA为底座,构建一个数据驱动、模型可组合的智能体经济
I. Introducción | La transición de la capa de modelos de Crypto AI
Los datos, los modelos y la potencia de cálculo son los tres elementos centrales de la infraestructura de IA, análogos a combustible (datos), motor (modelo) y energía (potencia de cálculo), todos ellos son indispensables. Al igual que la trayectoria de evolución de la infraestructura de la industria de IA tradicional, el campo de Crypto AI también ha pasado por fases similares. A principios de 2024, el mercado fue dominado en un momento por proyectos de GPU descentralizados ( algunas plataformas de cálculo GPU, algunas plataformas de renderizado, algunas plataformas de red, etc. ), enfatizando generalmente la lógica de crecimiento extenso de "competir en potencia de cálculo". Sin embargo, a partir de 2025, el enfoque de la industria se ha ido desplazando gradualmente hacia las capas de modelo y datos, lo que marca la transición de Crypto AI de la competencia por recursos básicos a una construcción de nivel medio más sostenible y con valor de aplicación.
Modelo General (LLM) vs Modelo Especializado (SLM)
Los modelos de lenguaje tradicionales (LLM) dependen en gran medida de conjuntos de datos a gran escala y arquitecturas distribuidas complejas, con una escala de parámetros que varía entre 70B y 500B, y el costo de entrenar uno puede alcanzar fácilmente varios millones de dólares. El SLM (Modelo de Lenguaje Especializado), como un paradigma ligero de ajuste fino de un modelo base reutilizable, generalmente se basa en modelos de código abierto como LLaMA, Mistral, DeepSeek, combinando una pequeña cantidad de datos profesionales de alta calidad y tecnologías como LoRA, para construir rápidamente modelos expertos con conocimientos específicos de dominio, reduciendo significativamente los costos de entrenamiento y las barreras técnicas.
Cabe destacar que SLM no se integrará en los pesos de LLM, sino que colaborará con LLM a través de llamadas a la arquitectura Agent, enrutamiento dinámico del sistema de plugins, hot-plug de módulos LoRA y RAG (generación aumentada por recuperación). Esta arquitectura conserva la capacidad de amplia cobertura de LLM y, a través de módulos de ajuste fino, mejora el rendimiento profesional, formando así un sistema inteligente modular altamente flexible.
El valor y los límites de Crypto AI en la capa del modelo
Los proyectos de Crypto AI son esencialmente difíciles de mejorar directamente las capacidades centrales de los modelos de lenguaje grande (LLM), y la razón fundamental es que
Sin embargo, sobre los modelos básicos de código abierto, los proyectos de Crypto AI aún pueden lograr la extensión del valor a través del ajuste fino de modelos de lenguaje especializados (SLM), combinados con la verificabilidad y los mecanismos de incentivos de Web3. Como "capa de interfaz periférica" de la cadena de industria de IA, se manifiesta en dos direcciones centrales:
Clasificación de tipos de modelos de IA y análisis de aplicabilidad de blockchain
Como se puede ver, los puntos de viabilidad de los proyectos de Crypto AI de tipo modelo se concentran principalmente en la ligera afinación de pequeños SLM, la integración y verificación de datos en cadena de la arquitectura RAG, así como en el despliegue local y la incentivación de modelos Edge. Combinando la verificabilidad de blockchain y el mecanismo de tokens, Crypto puede proporcionar un valor único para estos escenarios de modelos de recursos medio-bajos, formando un valor diferencial en la "capa de interfaz" de la IA.
La cadena de bloques AI basada en datos y modelos puede realizar un registro claro e inalterable en la cadena de cada fuente de contribución de datos y modelos, mejorando significativamente la credibilidad de los datos y la trazabilidad del entrenamiento de modelos. Al mismo tiempo, a través del mecanismo de contratos inteligentes, se activa automáticamente la distribución de recompensas cuando se llaman datos o modelos, transformando el comportamiento de la IA en un valor tokenizado medible y negociable, construyendo un sistema de incentivos sostenible. Además, los usuarios de la comunidad también pueden evaluar el rendimiento del modelo mediante votación con tokens, participar en la formulación y iteración de reglas, y perfeccionar la estructura de gobernanza descentralizada.
II. Resumen del proyecto | La visión de la cadena de OpenLedger de IA
OpenLedger es uno de los pocos proyectos de blockchain AI en el mercado actual que se centra en los mecanismos de incentivos para datos y modelos. Fue el primero en proponer el concepto de «Payable AI», con el objetivo de construir un entorno de funcionamiento de AI justo, transparente y combinable, que incentive a los contribuyentes de datos, desarrolladores de modelos y constructores de aplicaciones de AI a colaborar en la misma plataforma y obtener ingresos en cadena de acuerdo con su contribución real.
OpenLedger ofrece un ciclo cerrado de toda la cadena desde "provisión de datos" hasta "despliegue de modelos" y luego "llamadas de participación en beneficios", cuyos módulos centrales incluyen:
A través de los módulos anteriores, OpenLedger ha construido una "infraestructura económica de agentes inteligentes" basada en datos y modelos combinables, promoviendo la cadena de valor de la IA en la blockchain.
Y en la adopción de la tecnología blockchain, OpenLedger utiliza OP Stack + EigenDA como base, creando un entorno de ejecución de datos y contratos de alto rendimiento, bajo costo y verificable para modelos de IA.
En comparación con ciertas cadenas públicas que son más de nivel base, enfocadas en la soberanía de datos y la arquitectura de "AI Agents on BOS", OpenLedger se centra más en construir una cadena dedicada a la IA orientada a datos e incentivos de modelos, comprometida a hacer que el desarrollo y la invocación de modelos en la cadena logren un ciclo de valor trazable, combinable y sostenible. Es la infraestructura de incentivos de modelos en el mundo Web3, combinando el alojamiento de modelos al estilo de ciertas plataformas de alojamiento, la facturación por uso al estilo de ciertas plataformas de pago y las interfaces combinables en la cadena al estilo de ciertos servicios de infraestructura, impulsando la realización de "modelos como activos".
Tres, los componentes centrales y la arquitectura técnica de OpenLedger
3.1 Fábrica de Modelos, fábrica de modelos sin código
ModelFactory es una plataforma de ajuste fino de grandes modelos de lenguaje (LLM) bajo el ecosistema de OpenLedger. A diferencia de los marcos de ajuste fino tradicionales, ModelFactory ofrece una interfaz gráfica de usuario pura, sin necesidad de herramientas de línea de comandos o integración de API. Los usuarios pueden ajustar el modelo basado en los conjuntos de datos que han sido autorizados y revisados en OpenLedger. Se logra un flujo de trabajo integrado de autorización de datos, entrenamiento de modelos y despliegue, cuyos procesos centrales incluyen:
La arquitectura del sistema Model Factory incluye seis grandes módulos, que abarcan la autenticación de identidad, los permisos de datos, el ajuste fino de modelos, la evaluación de despliegue y la trazabilidad RAG, creando una plataforma de servicios de modelos integrada, segura y controlable, con interacción en tiempo real y monetización sostenible.
El siguiente es un resumen de las capacidades de los grandes modelos de lenguaje que ModelFactory actualmente admite:
Aunque la combinación de modelos de OpenLedger no incluye los últimos modelos MoE de alto rendimiento o modelos multimodales, su estrategia no está desactualizada, sino que se basa en las restricciones reales del despliegue en cadena (costos de inferencia, adaptación RAG, compatibilidad con LoRA, entorno EVM) para hacer una configuración "prioridad práctica".
Model Factory como una cadena de herramientas sin código, todos los modelos incorporan un mecanismo de prueba de contribución, que asegura los derechos de los contribuyentes de datos y de los desarrolladores de modelos, con ventajas de bajo umbral, monetización y combinabilidad, en comparación con las herramientas de desarrollo de modelos tradicionales:
3.2 OpenLoRA, la tokenización de activos en cadena del modelo de ajuste fino
LoRA (Adaptación de Bajo Rango) es un método de ajuste de parámetros eficiente que aprende nuevas tareas insertando "matrices de bajo rango" en un modelo grande preentrenado, sin modificar los parámetros del modelo original, lo que reduce significativamente los costos de entrenamiento y los requerimientos de almacenamiento. Los modelos de lenguaje grandes tradicionales (como LLaMA, GPT-3) suelen tener decenas de miles de millones e incluso cientos de miles de millones de parámetros. Para utilizarlos en tareas específicas (como preguntas legales, consultas médicas), es necesario realizar un ajuste fino (fine-tuning). La estrategia central de LoRA es: "congelar los parámetros del modelo grande original, solo entrenar las nuevas matrices de parámetros insertadas." Sus parámetros son eficientes, el entrenamiento es rápido y el despliegue es flexible, lo que lo convierte en el método de ajuste más adecuado para el despliegue y la llamada combinada de modelos Web3.
OpenLoRA es un marco de inferencia ligero construido por OpenLedger, diseñado específicamente para el despliegue de múltiples modelos y el intercambio de recursos. Su objetivo principal es abordar los problemas comunes en el despliegue de modelos de IA, como los altos costos, la baja reutilización y el desperdicio de recursos de GPU, promoviendo la ejecución de la "IA pagable" (Payable AI).
OpenLoRA arquitectura del sistema componentes centrales, basado en un diseño modular, abarca el almacenamiento de modelos, ejecución de inferencias, enrutamiento de solicitudes y otros aspectos clave, logrando una capacidad de despliegue y llamada de múltiples modelos de manera eficiente y a bajo costo: