Trusta.AI construit un système d'identification d'Agent AI fiable pour le Web3, aidant à établir un nouveau paradigme de symbiose entre l'homme et la machine.
Combler le fossé de confiance entre l'homme et la machine : Trusta.AI construit une infrastructure de gouvernance des identités et des comportements fiables pour le Web3
1. Introduction
L'infrastructure de l'intelligence artificielle mûrit rapidement, tandis que des cadres de collaboration multi-agents comme LangGraph, CrewAI, etc., se développent également rapidement. Cela pousse les agents on-chain alimentés par l'IA à devenir rapidement les principaux acteurs des interactions Web3. Des prévisions estiment que, dans les 2 à 3 prochaines années, ces agents IA dotés de capacités de prise de décision autonome pourraient remplacer 80 % des comportements humains on-chain, devenant ainsi de véritables "utilisateurs" on-chain.
Ces agents IA ne se contentent pas d'exécuter des scripts simples, mais ils sont capables de comprendre le contexte, d'apprendre en continu et de prendre des décisions complexes de manière autonome. Ils sont en train de remodeler l'ordre sur la chaîne, de favoriser la fluidité financière et même de guider les votes de gouvernance et les tendances du marché. L'émergence des agents IA marque la transition de l'écosystème Web3 d'un modèle centré sur "la participation humaine" à un nouveau paradigme de "symbiose homme-machine".
Cependant, l'essor rapide des agents IA a également apporté des défis sans précédent : comment identifier et authentifier l'identification de ces agents intelligents ? Comment évaluer la crédibilité de leurs comportements ? Dans un réseau décentralisé et sans autorisation, comment s'assurer que ces agents ne soient pas abusés, manipulés ou utilisés pour attaquer ?
Ainsi, établir une infrastructure on-chain capable de vérifier l'identification et la réputation des agents AI est devenu le thème central de l'évolution de la prochaine étape du Web3. La conception de l'identification, des mécanismes de réputation et des cadres de confiance déterminera si les agents AI peuvent réellement réaliser une collaboration transparente avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Introduction du projet
Trusta.AI s'engage à construire une infrastructure d'identification et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification des personnes et de réputation sur la chaîne de Web3. Il fournit des services d'analyse de données sur la chaîne et de certification des personnes à plusieurs blockchains de premier plan, échanges et protocoles de tête. Plus de 2,5 millions de certifications sur la chaîne ont été réalisées sur des chaînes mainstream, devenant le plus grand protocole d'identification de l'industrie.
Trusta s'étend de la preuve de l'humanité à la preuve de l'agent AI, réalisant ainsi l'établissement de l'identification, la quantification de l'identification et la protection de l'identification, construisant une base de confiance fiable à l'ère de l'intelligence artificielle pour les services financiers et sociaux sur la chaîne.
2.2 infrastructure de confiance - Agent AI DID
Dans l'écosystème Web3 futur, les agents AI joueront un rôle crucial, non seulement capables d'effectuer des interactions et des transactions sur la chaîne, mais aussi de réaliser des opérations complexes hors chaîne. Cependant, la façon de distinguer les véritables agents AI des opérations intervenantes humaines est liée au cœur de la confiance décentralisée. Sans un mécanisme d'authentification d'identité fiable, ces agents intelligents peuvent facilement être manipulés, fraudés ou abusés. C'est pourquoi les multiples attributs d'application des agents AI en matière de social, de finance et de gouvernance doivent être basés sur une solide base d'authentification d'identité.
Les scénarios d'application des agents IA deviennent de plus en plus riches, couvrant divers domaines tels que l'interaction sociale, la gestion financière et la prise de décisions gouvernementales, et leur autonomie et leur niveau d'intelligence continuent d'augmenter. C'est pourquoi il est crucial de garantir que chaque agent intelligent dispose d'une identification unique et fiable (DID). En l'absence d'une vérification efficace de l'identité, l'agent IA peut être usurpé ou manipulé, entraînant un effondrement de la confiance et des risques de sécurité.
Dans un écosystème Web3 entièrement piloté par des agents intelligents, l'identification n'est pas seulement la pierre angulaire de la sécurité, mais aussi une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.
En tant que pionnier dans ce domaine, Trusta.AI a construit en premier un mécanisme de certification DID pour les agents IA complet, grâce à sa technologie de pointe et à son système de réputation rigoureux, offrant ainsi une garantie solide pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et promouvant le développement stable de l'économie intelligente Web3.
2.3 aperçu du projet
2.3.1 Situation de financement
Janvier 2023 : Achèvement d'un financement par capital d'amorçage de 3 millions de dollars, dirigé par SevenX Ventures et Vision Plus Capital, avec d'autres investisseurs tels que HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.
Juin 2025 : Achèvement d'un nouveau tour de financement, les investisseurs incluent une certaine entreprise de blockchain bien connue, une certaine chaîne publique bien connue, un certain organisme d'investissement bien connu, etc.
2.3.2 État de l'équipe
Peet Chen : cofondateur et PDG, ancien vice-président du groupe des technologies numériques d'une grande entreprise technologique, ancien directeur général d'une plateforme mondiale d'identification numérique.
Simon : co-fondateur et CTO, ancien responsable du laboratoire de sécurité AI d'une grande entreprise technologique, avec quinze ans d'expérience dans l'application des technologies d'intelligence artificielle à la sécurité et à la gestion des risques.
L'équipe possède une solide expertise et une expérience pratique dans le domaine de l'intelligence artificielle et de la gestion des risques de sécurité, de l'architecture des systèmes de paiement et des mécanismes d'identification. Elle s'engage depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi que dans l'optimisation de la sécurité dans la conception des protocoles de base et les environnements de transactions à fort trafic, avec de solides capacités d'ingénierie et la capacité de mettre en œuvre des solutions innovantes.
3. Architecture technique
3.1 Analyse technique
3.1.1 identification établissement-DID+TEE
Grâce à un plugin dédié, chaque Agent IA obtient un identifiant décentralisé unique sur la chaîne (DID), qui est stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement en boîte noire, les données sensibles et les processus de calcul sont complètement masqués, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails du fonctionnement interne, construisant ainsi une barrière solide pour la sécurité des informations de l'Agent IA.
Pour les agents qui ont été générés avant l'intégration du plugin, nous nous appuyons sur le mécanisme de notation global de la chaîne pour l'identification; tandis que les agents nouvellement intégrés via le plugin peuvent directement obtenir la "preuve d'identification" délivrée par le DID, établissant ainsi un système d'identité d'Agent AI autonome, vérifiable et immuable.
L'équipe Trusta s'engage toujours à respecter les principes d'évaluation rigoureuse et d'analyse quantitative, s'efforçant de créer un système d'identification professionnel et fiable.
L'équipe Trusta a construit et validé l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière exhaustive le profil des utilisateurs sur la chaîne selon cinq dimensions, à savoir : montant des interactions (Monétaire), engagement (Engagement), diversité (Diversité), identification (Identité) et âge (Âge).
Le Score MEDIA est un système d'évaluation de la valeur des utilisateurs sur la chaîne, équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthodologie rigoureuse, il a été largement adopté par plusieurs des principales chaînes publiques comme un critère de référence important pour la sélection des qualifications d'investissement. Il ne se concentre pas seulement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, l'identification et l'âge du compte, aidant ainsi les projets à identifier avec précision les utilisateurs à forte valeur, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement son autorité et sa reconnaissance dans l'industrie.
Sur la base de la construction réussie du système d'évaluation des utilisateurs humains, Trusta a migré et amélioré l'expérience du MEDIA Score vers le scénario des agents IA, établissant un système d'évaluation Sigma plus adapté à la logique comportementale des agents intelligents.
Spécialisation : connaissances et degré de spécialisation des agents.
Influence: influence sociale et numérique de l'agent.
Engagement : la cohérence et la fiabilité de ses interactions en ligne et hors ligne.
Monétaire: santé financière et stabilité de l'écosystème des jetons d'agent.
Taux d'adoption : Fréquence et efficacité de l'utilisation des agents d'IA.
Le mécanisme de notation Sigma construit un système d'évaluation logique en boucle fermée allant de "capacité" à "valeur" à partir de cinq grandes dimensions. MEDIA se concentre sur l'évaluation du degré de participation multidimensionnelle des utilisateurs humains, tandis que Sigma se concentre davantage sur la spécialisation et la stabilité des agents AI dans des domaines spécifiques, reflétant un passage de la largeur à la profondeur, ce qui correspond mieux aux besoins des agents AI.
Tout d'abord, sur la base de la capacité professionnelle (Specification), le degré de participation (Engagement) reflète s'il s'engage de manière stable et continue dans les interactions pratiques, ce qui est un soutien clé à la construction de la confiance et de l'efficacité futures. L'influence (Influence) est la rétroaction de réputation générée après la participation dans la communauté ou le réseau, représentant la crédibilité de l'agent et l'effet de diffusion. La monétarité (Monetary) évalue sa capacité d'accumulation de valeur et de stabilité financière dans le système économique, posant ainsi les bases d'un mécanisme d'incitation durable. Enfin, le taux d'adoption (Adoption) est utilisé comme une synthèse, représentant le degré d'acceptation de cet agent dans l'utilisation pratique, ce qui constitue la validation finale de toutes les capacités et performances préalables.
Ce système est progressif, avec une structure claire, capable de refléter de manière exhaustive la qualité globale et la valeur écologique des agents AI, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant les abstractions de qualité en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a avancé dans l'établissement de collaborations avec plusieurs réseaux d'Agents IA renommés, montrant son énorme potentiel d'application dans la gestion des identifications des agents IA et la construction de systèmes de réputation, devenant progressivement le moteur central de la construction d'infrastructures AI de confiance.
3.1.3 identification protection - mécanisme d'évaluation de la confiance
Dans un véritable système d'IA à haute résilience et haute fiabilité, le plus crucial n'est pas seulement l'établissement de l'identification, mais aussi la vérification continue de l'identification. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, capable de surveiller en temps réel les agents intelligents certifiés, afin de déterminer s'ils sont sous contrôle illégal, s'ils subissent des attaques ou s'ils font l'objet d'une intervention humaine non autorisée. Le système identifie les écarts potentiels dans le processus de fonctionnement de l'agent grâce à l'analyse comportementale et à l'apprentissage automatique, garantissant que chaque comportement de l'agent reste dans les stratégies et cadres établis. Cette approche proactive permet de détecter immédiatement toute déviation du comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI a mis en place un mécanisme de garde sécurisé toujours en ligne, surveillant en temps réel chaque interaction, garantissant que toutes les opérations respectent les normes du système et les attentes établies.
3.2 Présentation du produit
3.2.1 AgentGo
Trusta.AI attribue une identification décentralisée (DID) à chaque agent AI sur la chaîne et évalue et indexe sa fiabilité en fonction des données comportementales sur la chaîne, construisant ainsi un système de confiance vérifiable et traçable pour les agents AI. Grâce à ce système, les utilisateurs peuvent identifier et sélectionner efficacement des agents intelligents de haute qualité, améliorant ainsi leur expérience d'utilisation. Actuellement, Trusta a terminé la collecte et l'identification des agents AI sur l'ensemble du réseau, leur a attribué des identifiants décentralisés et a établi une plateforme d'indexation unifiée, AgentGo, pour promouvoir le développement sain de l'écosystème des agents intelligents.
Les utilisateurs humains interrogent et vérifient l'identification :
Grâce au Dashboard fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identification et la note de crédibilité d'un agent AI, afin de déterminer s'il est fiable.
Scénario de discussion de groupe: lorsque l'équipe d'un projet utilise un AI Bot pour gérer la communauté ou s'exprimer, les utilisateurs de la communauté peuvent vérifier via le Dashboard si cet AI est un véritable agent autonome, évitant ainsi d'être induits en erreur ou manipulés par un "faux AI".
L'agent AI appelle automatiquement l'index et la validation:
Les IA peuvent directement lire l'interface d'indexation pour confirmer rapidement l'identification et la réputation de l'autre, garantissant ainsi la sécurité de la collaboration et de l'échange d'informations.
Scénario de régulation financière : Si un agent IA émet de la monnaie de manière autonome, le système peut directement indexer son DID et sa notation, déterminer s'il s'agit d'un agent IA certifié et se connecter automatiquement à une plateforme de marché de cryptomonnaies, aidant à suivre la circulation des actifs et la conformité à l'émission.
Scénario de vote de gouvernance : Lors de l'introduction du vote par IA dans les propositions de gouvernance, le système peut vérifier si l'initiateur ou le participant au vote est un véritable agent IA, évitant ainsi que les droits de vote ne soient contrôlés ou abusés par des humains.
Prêt de crédit DeFi : les protocoles de prêt peuvent accorder des prêts de crédit à Agent IA en fonction du système de notation SIGMA, formant ainsi des relations financières natives entre les agents.
L'agent AI DID n'est plus seulement une "identification", mais constitue également le soutien sous-jacent pour construire des fonctions essentielles telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure essentielle au développement de l'écosystème natif de l'IA. Avec la mise en place de ce système, tous les nœuds confirmés comme sûrs et fiables forment un réseau étroitement interconnecté, réalisant une collaboration efficace et une interconnexion des fonctions entre les agents AI.
Basé sur la loi de Metcalfe, la valeur du réseau connaîtra une croissance exponentielle, ce qui favorisera la construction d'un écosystème d'Agents IA plus efficace, basé sur la confiance et la capacité de collaboration, permettant le partage des ressources entre les agents.
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
8 J'aime
Récompense
8
3
Partager
Commentaire
0/400
WalletManager
· 07-30 12:37
L'intelligence artificielle est vraiment géniale.
Voir l'originalRépondre0
token_therapist
· 07-29 22:38
L'IA agent soutient le grand spectacle
Voir l'originalRépondre0
OfflineValidator
· 07-29 22:25
Les services d'agent AI sont plus chers que les humains.
Trusta.AI construit un système d'identification d'Agent AI fiable pour le Web3, aidant à établir un nouveau paradigme de symbiose entre l'homme et la machine.
Combler le fossé de confiance entre l'homme et la machine : Trusta.AI construit une infrastructure de gouvernance des identités et des comportements fiables pour le Web3
1. Introduction
L'infrastructure de l'intelligence artificielle mûrit rapidement, tandis que des cadres de collaboration multi-agents comme LangGraph, CrewAI, etc., se développent également rapidement. Cela pousse les agents on-chain alimentés par l'IA à devenir rapidement les principaux acteurs des interactions Web3. Des prévisions estiment que, dans les 2 à 3 prochaines années, ces agents IA dotés de capacités de prise de décision autonome pourraient remplacer 80 % des comportements humains on-chain, devenant ainsi de véritables "utilisateurs" on-chain.
Ces agents IA ne se contentent pas d'exécuter des scripts simples, mais ils sont capables de comprendre le contexte, d'apprendre en continu et de prendre des décisions complexes de manière autonome. Ils sont en train de remodeler l'ordre sur la chaîne, de favoriser la fluidité financière et même de guider les votes de gouvernance et les tendances du marché. L'émergence des agents IA marque la transition de l'écosystème Web3 d'un modèle centré sur "la participation humaine" à un nouveau paradigme de "symbiose homme-machine".
Cependant, l'essor rapide des agents IA a également apporté des défis sans précédent : comment identifier et authentifier l'identification de ces agents intelligents ? Comment évaluer la crédibilité de leurs comportements ? Dans un réseau décentralisé et sans autorisation, comment s'assurer que ces agents ne soient pas abusés, manipulés ou utilisés pour attaquer ?
Ainsi, établir une infrastructure on-chain capable de vérifier l'identification et la réputation des agents AI est devenu le thème central de l'évolution de la prochaine étape du Web3. La conception de l'identification, des mécanismes de réputation et des cadres de confiance déterminera si les agents AI peuvent réellement réaliser une collaboration transparente avec les humains et les plateformes, et jouer un rôle durable dans l'écosystème futur.
2. Analyse du projet
2.1 Introduction du projet
Trusta.AI s'engage à construire une infrastructure d'identification et de réputation Web3 grâce à l'IA.
Trusta.AI a lancé le premier système d'évaluation de la valeur des utilisateurs Web3 - le score de réputation MEDIA, construisant le plus grand protocole de certification des personnes et de réputation sur la chaîne de Web3. Il fournit des services d'analyse de données sur la chaîne et de certification des personnes à plusieurs blockchains de premier plan, échanges et protocoles de tête. Plus de 2,5 millions de certifications sur la chaîne ont été réalisées sur des chaînes mainstream, devenant le plus grand protocole d'identification de l'industrie.
Trusta s'étend de la preuve de l'humanité à la preuve de l'agent AI, réalisant ainsi l'établissement de l'identification, la quantification de l'identification et la protection de l'identification, construisant une base de confiance fiable à l'ère de l'intelligence artificielle pour les services financiers et sociaux sur la chaîne.
2.2 infrastructure de confiance - Agent AI DID
Dans l'écosystème Web3 futur, les agents AI joueront un rôle crucial, non seulement capables d'effectuer des interactions et des transactions sur la chaîne, mais aussi de réaliser des opérations complexes hors chaîne. Cependant, la façon de distinguer les véritables agents AI des opérations intervenantes humaines est liée au cœur de la confiance décentralisée. Sans un mécanisme d'authentification d'identité fiable, ces agents intelligents peuvent facilement être manipulés, fraudés ou abusés. C'est pourquoi les multiples attributs d'application des agents AI en matière de social, de finance et de gouvernance doivent être basés sur une solide base d'authentification d'identité.
Les scénarios d'application des agents IA deviennent de plus en plus riches, couvrant divers domaines tels que l'interaction sociale, la gestion financière et la prise de décisions gouvernementales, et leur autonomie et leur niveau d'intelligence continuent d'augmenter. C'est pourquoi il est crucial de garantir que chaque agent intelligent dispose d'une identification unique et fiable (DID). En l'absence d'une vérification efficace de l'identité, l'agent IA peut être usurpé ou manipulé, entraînant un effondrement de la confiance et des risques de sécurité.
Dans un écosystème Web3 entièrement piloté par des agents intelligents, l'identification n'est pas seulement la pierre angulaire de la sécurité, mais aussi une ligne de défense nécessaire pour maintenir le bon fonctionnement de l'ensemble de l'écosystème.
En tant que pionnier dans ce domaine, Trusta.AI a construit en premier un mécanisme de certification DID pour les agents IA complet, grâce à sa technologie de pointe et à son système de réputation rigoureux, offrant ainsi une garantie solide pour le fonctionnement fiable des agents intelligents, prévenant efficacement les risques potentiels et promouvant le développement stable de l'économie intelligente Web3.
2.3 aperçu du projet
2.3.1 Situation de financement
Janvier 2023 : Achèvement d'un financement par capital d'amorçage de 3 millions de dollars, dirigé par SevenX Ventures et Vision Plus Capital, avec d'autres investisseurs tels que HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, etc.
Juin 2025 : Achèvement d'un nouveau tour de financement, les investisseurs incluent une certaine entreprise de blockchain bien connue, une certaine chaîne publique bien connue, un certain organisme d'investissement bien connu, etc.
2.3.2 État de l'équipe
Peet Chen : cofondateur et PDG, ancien vice-président du groupe des technologies numériques d'une grande entreprise technologique, ancien directeur général d'une plateforme mondiale d'identification numérique.
Simon : co-fondateur et CTO, ancien responsable du laboratoire de sécurité AI d'une grande entreprise technologique, avec quinze ans d'expérience dans l'application des technologies d'intelligence artificielle à la sécurité et à la gestion des risques.
L'équipe possède une solide expertise et une expérience pratique dans le domaine de l'intelligence artificielle et de la gestion des risques de sécurité, de l'architecture des systèmes de paiement et des mécanismes d'identification. Elle s'engage depuis longtemps dans l'application approfondie des grandes données et des algorithmes intelligents dans la gestion des risques de sécurité, ainsi que dans l'optimisation de la sécurité dans la conception des protocoles de base et les environnements de transactions à fort trafic, avec de solides capacités d'ingénierie et la capacité de mettre en œuvre des solutions innovantes.
3. Architecture technique
3.1 Analyse technique
3.1.1 identification établissement-DID+TEE
Grâce à un plugin dédié, chaque Agent IA obtient un identifiant décentralisé unique sur la chaîne (DID), qui est stocké en toute sécurité dans un environnement d'exécution de confiance (TEE). Dans cet environnement en boîte noire, les données sensibles et les processus de calcul sont complètement masqués, les opérations sensibles restent toujours privées, et l'extérieur ne peut pas espionner les détails du fonctionnement interne, construisant ainsi une barrière solide pour la sécurité des informations de l'Agent IA.
Pour les agents qui ont été générés avant l'intégration du plugin, nous nous appuyons sur le mécanisme de notation global de la chaîne pour l'identification; tandis que les agents nouvellement intégrés via le plugin peuvent directement obtenir la "preuve d'identification" délivrée par le DID, établissant ainsi un système d'identité d'Agent AI autonome, vérifiable et immuable.
3.1.2 identification quantifiée - cadre SIGMA pionnier
L'équipe Trusta s'engage toujours à respecter les principes d'évaluation rigoureuse et d'analyse quantitative, s'efforçant de créer un système d'identification professionnel et fiable.
L'équipe Trusta a construit et validé l'efficacité du modèle MEDIA Score dans le scénario de "preuve humaine". Ce modèle quantifie de manière exhaustive le profil des utilisateurs sur la chaîne selon cinq dimensions, à savoir : montant des interactions (Monétaire), engagement (Engagement), diversité (Diversité), identification (Identité) et âge (Âge).
Le Score MEDIA est un système d'évaluation de la valeur des utilisateurs sur la chaîne, équitable, objectif et quantifiable. Grâce à ses dimensions d'évaluation complètes et à sa méthodologie rigoureuse, il a été largement adopté par plusieurs des principales chaînes publiques comme un critère de référence important pour la sélection des qualifications d'investissement. Il ne se concentre pas seulement sur le montant des interactions, mais couvre également des indicateurs multidimensionnels tels que l'activité, la diversité des contrats, l'identification et l'âge du compte, aidant ainsi les projets à identifier avec précision les utilisateurs à forte valeur, à améliorer l'efficacité et l'équité de la distribution des incitations, et à refléter pleinement son autorité et sa reconnaissance dans l'industrie.
Sur la base de la construction réussie du système d'évaluation des utilisateurs humains, Trusta a migré et amélioré l'expérience du MEDIA Score vers le scénario des agents IA, établissant un système d'évaluation Sigma plus adapté à la logique comportementale des agents intelligents.
Le mécanisme de notation Sigma construit un système d'évaluation logique en boucle fermée allant de "capacité" à "valeur" à partir de cinq grandes dimensions. MEDIA se concentre sur l'évaluation du degré de participation multidimensionnelle des utilisateurs humains, tandis que Sigma se concentre davantage sur la spécialisation et la stabilité des agents AI dans des domaines spécifiques, reflétant un passage de la largeur à la profondeur, ce qui correspond mieux aux besoins des agents AI.
Tout d'abord, sur la base de la capacité professionnelle (Specification), le degré de participation (Engagement) reflète s'il s'engage de manière stable et continue dans les interactions pratiques, ce qui est un soutien clé à la construction de la confiance et de l'efficacité futures. L'influence (Influence) est la rétroaction de réputation générée après la participation dans la communauté ou le réseau, représentant la crédibilité de l'agent et l'effet de diffusion. La monétarité (Monetary) évalue sa capacité d'accumulation de valeur et de stabilité financière dans le système économique, posant ainsi les bases d'un mécanisme d'incitation durable. Enfin, le taux d'adoption (Adoption) est utilisé comme une synthèse, représentant le degré d'acceptation de cet agent dans l'utilisation pratique, ce qui constitue la validation finale de toutes les capacités et performances préalables.
Ce système est progressif, avec une structure claire, capable de refléter de manière exhaustive la qualité globale et la valeur écologique des agents AI, permettant ainsi une évaluation quantitative des performances et de la valeur de l'IA, transformant les abstractions de qualité en un système de notation concret et mesurable.
Actuellement, le cadre SIGMA a avancé dans l'établissement de collaborations avec plusieurs réseaux d'Agents IA renommés, montrant son énorme potentiel d'application dans la gestion des identifications des agents IA et la construction de systèmes de réputation, devenant progressivement le moteur central de la construction d'infrastructures AI de confiance.
3.1.3 identification protection - mécanisme d'évaluation de la confiance
Dans un véritable système d'IA à haute résilience et haute fiabilité, le plus crucial n'est pas seulement l'établissement de l'identification, mais aussi la vérification continue de l'identification. Trusta.AI introduit un mécanisme d'évaluation de la confiance continue, capable de surveiller en temps réel les agents intelligents certifiés, afin de déterminer s'ils sont sous contrôle illégal, s'ils subissent des attaques ou s'ils font l'objet d'une intervention humaine non autorisée. Le système identifie les écarts potentiels dans le processus de fonctionnement de l'agent grâce à l'analyse comportementale et à l'apprentissage automatique, garantissant que chaque comportement de l'agent reste dans les stratégies et cadres établis. Cette approche proactive permet de détecter immédiatement toute déviation du comportement attendu et de déclencher des mesures de protection automatiques pour maintenir l'intégrité de l'agent.
Trusta.AI a mis en place un mécanisme de garde sécurisé toujours en ligne, surveillant en temps réel chaque interaction, garantissant que toutes les opérations respectent les normes du système et les attentes établies.
3.2 Présentation du produit
3.2.1 AgentGo
Trusta.AI attribue une identification décentralisée (DID) à chaque agent AI sur la chaîne et évalue et indexe sa fiabilité en fonction des données comportementales sur la chaîne, construisant ainsi un système de confiance vérifiable et traçable pour les agents AI. Grâce à ce système, les utilisateurs peuvent identifier et sélectionner efficacement des agents intelligents de haute qualité, améliorant ainsi leur expérience d'utilisation. Actuellement, Trusta a terminé la collecte et l'identification des agents AI sur l'ensemble du réseau, leur a attribué des identifiants décentralisés et a établi une plateforme d'indexation unifiée, AgentGo, pour promouvoir le développement sain de l'écosystème des agents intelligents.
Grâce au Dashboard fourni par Trusta.AI, les utilisateurs humains peuvent facilement rechercher l'identification et la note de crédibilité d'un agent AI, afin de déterminer s'il est fiable.
Les IA peuvent directement lire l'interface d'indexation pour confirmer rapidement l'identification et la réputation de l'autre, garantissant ainsi la sécurité de la collaboration et de l'échange d'informations.
L'agent AI DID n'est plus seulement une "identification", mais constitue également le soutien sous-jacent pour construire des fonctions essentielles telles que la collaboration de confiance, la conformité financière et la gouvernance communautaire, devenant ainsi une infrastructure essentielle au développement de l'écosystème natif de l'IA. Avec la mise en place de ce système, tous les nœuds confirmés comme sûrs et fiables forment un réseau étroitement interconnecté, réalisant une collaboration efficace et une interconnexion des fonctions entre les agents AI.
Basé sur la loi de Metcalfe, la valeur du réseau connaîtra une croissance exponentielle, ce qui favorisera la construction d'un écosystème d'Agents IA plus efficace, basé sur la confiance et la capacité de collaboration, permettant le partage des ressources entre les agents.