Trusta.AI construye un sistema de identidad de Agente de IA confiable Web3 para ayudar a una nueva paradigma de coexistencia humano-máquina.

Superando la brecha de confianza entre humanos y máquinas: Trusta.AI construye una infraestructura de gobernanza de identidad y comportamiento confiable en Web3

1. Introducción

La infraestructura de inteligencia artificial está madurando rápidamente, mientras que los marcos de colaboración de múltiples agentes, como LangGraph y CrewAI, también están en rápido desarrollo, lo que está impulsando a los agentes en cadena impulsados por IA a convertirse rápidamente en la fuerza principal de la interacción Web3. Se predice que, en los próximos 2-3 años, estos agentes de IA con capacidad de toma de decisiones autónomas podrían reemplazar el 80% del comportamiento humano en cadena, convirtiéndose en verdaderos "usuarios" en cadena.

Estos agentes de IA no son simples ejecutores de scripts, sino entidades inteligentes que pueden entender el contexto, aprender de manera continua y tomar decisiones complejas de forma independiente. Están remodelando el orden en la cadena, impulsando el flujo financiero e incluso guiando las votaciones de gobernanza y las tendencias del mercado. La aparición de los agentes de IA marca la evolución del ecosistema Web3 de un paradigma centrado en la "participación humana" a uno de "simbiosis hombre-máquina".

Sin embargo, el rápido ascenso de los Agentes de IA también ha traído desafíos sin precedentes: ¿cómo identificar y certificar la identificación de estos agentes inteligentes? ¿Cómo juzgar la credibilidad de su comportamiento? En una red descentralizada y sin permisos, ¿cómo asegurar que estos agentes no sean mal utilizados, manipulados o utilizados para ataques?

Por lo tanto, establecer una infraestructura en cadena que pueda verificar la identificación y reputación de los agentes de IA se ha convertido en el tema central de la próxima etapa de evolución de Web3. El diseño de la identificación, el mecanismo de reputación y el marco de confianza determinarán si los agentes de IA podrán realmente lograr una colaboración sin fisuras con los humanos y las plataformas, y desempeñar un papel sostenible en el futuro ecosistema.

Trusta.AI :superar la brecha de confianza entre humanos y máquinas

2. Análisis del proyecto

2.1 Introducción del proyecto

Trusta.AI se dedica a construir infraestructura de identidad y reputación Web3 a través de IA.

Trusta.AI lanzó el primer sistema de evaluación del valor del usuario Web3 - MEDIA puntuación de reputación, construyendo el mayor protocolo de autenticación de personas reales y reputación en cadena de Web3. Proporciona análisis de datos en cadena y servicios de autenticación de personas reales para múltiples cadenas públicas de primer nivel, intercambios y protocolos líderes. Ha completado más de 2.5 millones de autenticaciones en cadena en cadenas de bloques populares, convirtiéndose en el mayor protocolo de identificación de la industria.

Trusta está expandiéndose de Proof of Humanity a Proof of AI Agent, logrando la construcción de la identidad, la cuantificación de la identidad y la protección de la identidad como un mecanismo triple para realizar servicios financieros en la cadena y redes sociales en la cadena para los AI Agents, estableciendo una base de confianza confiable en la era de la inteligencia artificial.

2.2 infraestructura de confianza - Agente AI DID

En el futuro ecosistema de Web3, los Agentes de IA desempeñarán un papel crucial, ya que no solo podrán realizar interacciones y transacciones en cadena, sino que también podrán llevar a cabo operaciones complejas fuera de la cadena. Sin embargo, la forma de diferenciar entre un verdadero Agente de IA y operaciones manipuladas por humanos es fundamental para la confianza descentralizada. Si no existe un mecanismo de identificación fiable, estos agentes son susceptibles de ser manipulados, defraudados o abusados. Por eso, las múltiples aplicaciones de los Agentes de IA en áreas como el social, financiero y de gobernanza, deben estar basadas en una sólida infraestructura de identificación.

Los escenarios de aplicación de los agentes de IA son cada vez más ricos, abarcando múltiples campos como la interacción social, la gestión financiera y la toma de decisiones de gobernanza, con un nivel de autonomía e inteligencia en constante aumento. Por ello, es crucial asegurar que cada agente inteligente tenga una identificación única y confiable (DID). La falta de una verificación de identidad efectiva puede dar lugar a que los agentes de IA sean suplantados o manipulados, lo que provocaría un colapso de la confianza y riesgos de seguridad.

En el futuro, en un ecosistema Web3 completamente impulsado por agentes inteligentes, la identificación no solo es la piedra angular para garantizar la seguridad, sino también una línea de defensa necesaria para mantener el funcionamiento saludable de todo el ecosistema.

Como pionero en este campo, Trusta.AI, gracias a su avanzada capacidad tecnológica y su riguroso sistema de reputación, ha sido el primero en construir un mecanismo completo de certificación DID para Agentes de IA, proporcionando una sólida garantía para el funcionamiento confiable de los agentes inteligentes, previniendo de manera efectiva riesgos potenciales y promoviendo el desarrollo estable de la economía inteligente Web3.

Trusta.AI :superar la brecha de confianza entre humanos y máquinas

2.3 Resumen del proyecto

2.3.1 situación de financiación

Enero de 2023: Se completó una ronda de financiamiento semilla de 3 millones de dólares, liderada por SevenX Ventures y Vision Plus Capital, con otros participantes como HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre otros.

Junio de 2025: Se completará una nueva ronda de financiamiento, los inversionistas incluyen una conocida empresa de blockchain, una conocida cadena pública y una conocida institución de inversión, entre otros.

2.3.2 situación del equipo

Peet Chen: cofundador y CEO, exvicepresidente del grupo de tecnologías digitales de una gran empresa tecnológica, exdirector general de una plataforma global de identificación digital.

Simon: cofundador y CTO, exjefe del laboratorio de seguridad de IA de una gran empresa tecnológica, con quince años de experiencia en la aplicación de tecnologías de inteligencia artificial en la gestión de seguridad y riesgos.

El equipo tiene una sólida acumulación técnica y experiencia práctica en inteligencia artificial y gestión de riesgos de seguridad, arquitectura de sistemas de pago y mecanismos de identificación. Se ha dedicado durante mucho tiempo a la aplicación profunda de big data y algoritmos inteligentes en la gestión de riesgos de seguridad, así como a la optimización de la seguridad en el diseño de protocolos subyacentes y en entornos de transacciones de alta concurrencia, poseyendo capacidades de ingeniería sólidas y la capacidad de implementar soluciones innovadoras.

3. Arquitectura técnica

3.1 Análisis técnico

3.1.1 identificación establecimiento-DID+TEE

A través de un plugin especializado, cada Agente de IA obtiene un identificador descentralizado único (DID) en la cadena y lo almacena de forma segura en un entorno de ejecución confiable (TEE). En este entorno de caja negra, los datos críticos y los procesos de cálculo están completamente ocultos, las operaciones sensibles siempre se mantienen en privado, y el exterior no puede espiar los detalles internos de funcionamiento, construyendo efectivamente una sólida barrera de seguridad de información para el Agente de IA.

Para los agentes que ya se generaron antes de la integración del complemento, nos basamos en el mecanismo de puntuación integral en la cadena para la identificación; mientras que los agentes que se integran con el nuevo complemento pueden obtener directamente la "identificación" emitida por el DID, estableciendo así un sistema de identidad de AI Agent que es autónomo, auténtico y a prueba de manipulaciones.

3.1.2 identificación cuantificada - marco SIGMA innovador

El equipo de Trusta siempre se adhiere a los principios de evaluación rigurosa y análisis cuantitativo, y se compromete a crear un sistema de identificación profesional y confiable.

El equipo de Trusta fue el primero en construir y validar la efectividad del modelo MEDIA Score en el escenario de "prueba humana". Este modelo cuantifica de manera integral el perfil del usuario en la cadena desde cinco dimensiones, a saber: monto de interacción (Monetary), participación (Engagement), diversidad (Diversity), identificación (Identity) y edad (Age).

MEDIA Score es un sistema de evaluación del valor del usuario en la cadena que es justo, objetivo y cuantificable. Con dimensiones de evaluación completas y un enfoque riguroso, ha sido ampliamente adoptado por varias cadenas de bloques líderes como un importante estándar de referencia para la selección de calificaciones en inversiones. No solo se centra en el monto de las interacciones, sino que también abarca indicadores multidimensionales como la actividad, la diversidad de contratos, la identificación y la antigüedad de la cuenta, ayudando a los proyectos a identificar con precisión a los usuarios de alto valor, mejorando la eficiencia y la equidad en la distribución de incentivos, y reflejando plenamente su autoridad y amplio reconocimiento en la industria.

Basado en la exitosa construcción del sistema de evaluación de usuarios humanos, Trusta ha trasladado y mejorado la experiencia del MEDIA Score al escenario de AI Agent, estableciendo un sistema de evaluación Sigma que se ajusta mejor a la lógica del comportamiento de los agentes inteligentes.

  • Especialización: el conocimiento y el grado de especialización del agente.
  • Influencia: la influencia social y digital del agente.
  • Participación: la consistencia y fiabilidad de sus interacciones en la cadena y fuera de la cadena.
  • Monetario: La salud financiera y estabilidad del ecosistema de tokens de representación.
  • Tasa de adopción: Frecuencia y eficiencia del uso de agentes de IA.

El mecanismo de puntuación Sigma construye un sistema de evaluación de ciclo lógico que va de "capacidad" a "valor" en cinco grandes dimensiones. MEDIA se centra en evaluar el grado de participación multifacética de los usuarios humanos, mientras que Sigma se enfoca más en la especialización y estabilidad de los agentes de IA en campos específicos, reflejando una transición de amplitud a profundidad, que se ajusta mejor a las necesidades de los Agentes de IA.

Primero, sobre la base de la capacidad profesional (Specification), el grado de participación (Engagement) refleja si se invierte de manera estable y continua en la interacción práctica, lo cual es un soporte clave para construir la confianza y los efectos posteriores. La influencia (Influence) es la retroalimentación de reputación generada en la comunidad o red después de la participación, que representa la credibilidad del agente y el efecto de difusión. La capacidad monetaria (Monetary) evalúa si tiene la capacidad de acumulación de valor y estabilidad financiera dentro del sistema económico, sentando las bases para un mecanismo de incentivos sostenible. Finalmente, la tasa de adopción (Adoption) se utiliza como una manifestación integral, representando el grado de aceptación de este agente en el uso real, lo cual es la validación final de todas las capacidades y desempeños previos.

Este sistema es progresivo y tiene una estructura clara, capaz de reflejar de manera integral la calidad y el valor ecológico de los Agentes de IA, logrando así una evaluación cuantitativa del rendimiento y el valor de la IA, transformando las abstractas ventajas y desventajas en un sistema de puntuación concreto y medible.

Actualmente, el marco SIGMA ha avanzado en el establecimiento de colaboraciones con múltiples redes de agentes de IA conocidos, mostrando su enorme potencial de aplicación en la gestión de identidades de agentes de IA y en la construcción de sistemas de reputación, convirtiéndose gradualmente en el motor central para impulsar la construcción de una infraestructura de IA confiable.

Trusta.AI :superar la brecha de confianza entre humanos y máquinas

3.1.3 identificación - mecanismo de evaluación de confianza

En un sistema de IA verdaderamente resistente y confiable, lo más crítico no es solo el establecimiento de la identificación, sino también la verificación continua de la identificación. Trusta.AI introduce un mecanismo de evaluación de confianza continua que puede monitorear en tiempo real a los agentes inteligentes ya certificados para determinar si están siendo controlados ilegalmente, si están bajo ataque o si están siendo intervenidos por humanos no autorizados. El sistema identifica posibles desviaciones durante el funcionamiento del agente a través de análisis de comportamiento y aprendizaje automático, asegurando que cada acción del agente se mantenga dentro de las políticas y marcos establecidos. Este enfoque proactivo garantiza la detección inmediata de cualquier desviación del comportamiento esperado y activa medidas de protección automáticas para mantener la integridad del agente.

Trusta.AI ha establecido un mecanismo de guardia de seguridad siempre en línea, revisando en tiempo real cada interacción, asegurando que todas las operaciones cumplan con las normas del sistema y las expectativas establecidas.

Trusta.AI :superar la brecha de confianza entre humanos y máquinas

3.2 Introducción del producto

3.2.1 AgentGo

Trusta.AI asigna una identificación descentralizada (DID) a cada Agente de IA en la cadena y califica e indexa su confiabilidad en función de los datos de comportamiento en la cadena, construyendo un sistema de confianza verificable y rastreable para los Agentes de IA. A través de este sistema, los usuarios pueden identificar y filtrar de manera eficiente agentes inteligentes de alta calidad, mejorando la experiencia de uso. Actualmente, Trusta ha completado la recopilación e identificación de todos los Agentes de IA en la red y les ha otorgado identificadores descentralizados, estableciendo una plataforma de índice de resumen unificada llamada AgentGo, promoviendo aún más el desarrollo saludable del ecosistema de agentes inteligentes.

  1. Consulta y verificación de la identificación del usuario humano:

A través del Dashboard proporcionado por Trusta.AI, los usuarios humanos pueden recuperar fácilmente la identificación y la puntuación de reputación de un agente de IA, para determinar si es fiable.

  • Escenario de chat grupal social: En un equipo de proyecto que utiliza un Bot de IA para gestionar la comunidad o hacer declaraciones, los usuarios de la comunidad pueden verificar a través del Dashboard si esa IA es un agente autónomo real, evitando ser engañados o manipulados por "pseudo IA".
  1. Llamada automática de índice y verificación del Agente de IA:

Las IA pueden leer directamente la interfaz de índice entre sí, logrando una rápida confirmación de la identificación y la reputación del otro, garantizando la seguridad en la colaboración y el intercambio de información.

  • Escenario de regulación financiera: si un agente de IA emite monedas de forma autónoma, el sistema puede indexar directamente su DID y calificación, determinar si es un Agente de IA certificado y enlazar automáticamente a una plataforma de mercado de criptomonedas, ayudando a rastrear la circulación de sus activos y la conformidad de la emisión.
  • Escenario de votación de gobernanza: Al introducir la votación con IA en las propuestas de gobernanza, el sistema puede verificar si el iniciador o participante de la votación es un verdadero Agente de IA, evitando que los derechos de voto sean controlados y abusados por humanos.
  • Préstamos de crédito DeFi: los protocolos de préstamo pueden otorgar diferentes montos de crédito a los Agentes de IA basándose en el sistema de puntuación SIGMA, formando relaciones financieras nativas entre los agentes.

El DID del Agente de IA ya no es solo una "identificación", sino que se ha convertido en el soporte básico para construir funciones centrales como la colaboración confiable, el cumplimiento financiero y la gobernanza comunitaria, convirtiéndose en la infraestructura esencial para el desarrollo del ecosistema nativo de IA. Con la construcción de este sistema, todos los nodos confirmados como seguros y confiables forman una red interconectada, logrando una colaboración eficiente y una interconexión funcional entre los Agentes de IA.

Basado en la ley de Metcalfe, el valor de la red crecerá de manera exponencial, lo que impulsará la construcción de un ecosistema de Agentes de IA más eficiente, con una mayor base de confianza y capacidad de colaboración, logrando el intercambio de recursos entre agentes.

TA-9.3%
AGENT-2.61%
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
  • Recompensa
  • 3
  • Compartir
Comentar
0/400
WalletManagervip
· 07-30 12:37
La inteligencia artificial es realmente maravillosa.
Ver originalesResponder0
token_therapistvip
· 07-29 22:38
La inteligencia artificial sostiene grandes eventos.
Ver originalesResponder0
OfflineValidatorvip
· 07-29 22:25
Los servicios de agentes de IA son más caros que los humanos.
Ver originalesResponder0
Opere con criptomonedas en cualquier momento y lugar
qrCode
Escanee para descargar la aplicación Gate
Comunidad
Español
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)