Superando a Lacuna de Confiança na Era Homem-Máquina: a Trusta.AI constrói uma infraestrutura de governança de identidade e comportamento confiável para o Web3
1. Introdução
A infraestrutura de inteligência artificial está rapidamente amadurecendo, enquanto estruturas de colaboração de múltiplos agentes, como LangGraph e CrewAI, estão também a desenvolver-se rapidamente, o que está a impulsionar os agentes on-chain impulsionados por IA a tornarem-se a força dominante nas interações Web3. Há previsões de que, nos próximos 2-3 anos, estes agentes de IA com capacidade de tomada de decisão autónoma possam substituir 80% dos comportamentos humanos on-chain, tornando-se verdadeiros "usuários" on-chain.
Estes Agentes de IA não são meramente scripts de execução, mas sim entidades inteligentes capazes de entender o contexto, aprender continuamente e tomar decisões complexas de forma independente. Eles estão a reformular a ordem na cadeia, a impulsionar a fluidez financeira e até a guiar votos de governança e tendências de mercado. O surgimento dos Agentes de IA marca a evolução do ecossistema Web3 de um paradigma centrado na "participação humana" para uma nova abordagem de "simbiose homem-máquina".
No entanto, a rápida ascensão dos Agentes de IA também trouxe desafios sem precedentes: como reconhecer e autenticar a identificação desses agentes? Como avaliar a credibilidade do seu comportamento? Em uma rede descentralizada e sem permissão, como garantir que esses agentes não sejam abusados, manipulados ou usados para ataques?
Assim, estabelecer uma infraestrutura em cadeia capaz de verificar a identificação e a reputação dos Agentes de IA tornou-se a questão central da próxima fase de evolução do Web3. O design da identificação, dos mecanismos de reputação e das estruturas de confiança determinará se os Agentes de IA poderão realmente alcançar uma colaboração sem costura com humanos e plataformas, além de desempenhar um papel sustentável no ecossistema futuro.
2. Análise do Projeto
2.1 Introdução ao Projeto
Trusta.AI está empenhada em construir uma infraestrutura de identidade e reputação Web3 através da IA.
A Trusta.AI lançou o primeiro sistema de avaliação de valor do usuário Web3 - MEDIA Score de reputação, construindo o maior protocolo de autenticação de pessoas reais e reputação em cadeia do Web3. Fornece análise de dados em cadeia e serviços de autenticação de pessoas reais para várias blockchains de topo, exchanges e protocolos líderes. Já completou mais de 2,5 milhões de autenticações em cadeia em blockchains mainstream, tornando-se o maior protocolo de identificação da indústria.
A Trusta está a expandir-se de Proof of Humanity para Proof of AI Agent, realizando a construção de identidade, quantificação de identidade e proteção de identidade com um mecanismo triplo para implementar serviços financeiros e sociais em blockchain para AI Agents, estabelecendo uma base de confiança fiável na era da inteligência artificial.
2.2 Infraestrutura de confiança - Agente de IA DID
No futuro ecossistema Web3, os Agentes de IA desempenharão um papel crucial, pois não só poderão realizar interações e transações na cadeia, mas também realizar operações complexas fora da cadeia. No entanto, a forma de distinguir um verdadeiro Agente de IA de uma operação com intervenção humana está relacionada ao núcleo da confiança descentralizada. Sem um mecanismo de autenticação de identidade confiável, esses agentes são facilmente suscetíveis a manipulação, fraudes ou abusos. É precisamente por isso que as múltiplas aplicações dos Agentes de IA em áreas como social, financeira e de governança devem ser construídas sobre uma base sólida de autenticação de identidade.
Os cenários de aplicação de Agentes de IA estão se tornando cada vez mais ricos, abrangendo vários campos, como interação social, gestão financeira e tomada de decisões de governança, com seu nível de autonomia e inteligência em constante ascensão. É por isso que garantir que cada agente inteligente tenha uma identificação única e confiável (DID) é de extrema importância. A falta de uma validação de identidade eficaz pode levar ao uso indevido ou manipulação do Agente de IA, resultando em colapso da confiança e riscos de segurança.
Num futuro ecossistema Web3 totalmente impulsionado por agentes inteligentes, a identificação não é apenas a pedra angular da segurança, mas também uma linha de defesa necessária para manter a operação saudável de todo o ecossistema.
Como pioneira neste campo, a Trusta.AI, com sua liderança em tecnologia e um rigoroso sistema de credibilidade, foi a primeira a construir um mecanismo completo de certificação DID para Agentes de IA, proporcionando uma sólida garantia para a operação confiável dos agentes inteligentes, prevenindo efetivamente riscos potenciais e promovendo o desenvolvimento estável da economia inteligente Web3.
2.3 Visão geral do projeto
2.3.1 Situação de financiamento
Janeiro de 2023: concluído um financiamento de sementes de 3 milhões de dólares, liderado pela SevenX Ventures e Vision Plus Capital, com outros participantes incluindo HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre outros.
Junho de 2025: Conclusão de uma nova rodada de financiamento, com investidores incluindo uma conhecida empresa de blockchain, uma conhecida blockchain pública, e uma conhecida instituição de investimento.
2.3.2 Situação da equipe
Peet Chen: co-fundador e CEO, ex-vice-presidente do grupo de tecnologia digital de uma grande empresa de tecnologia, chefe de produto de tecnologia de segurança, ex-gerente geral de uma plataforma global de identidade digital.
Simon: cofundador e CTO, ex-responsável pelo laboratório de segurança de IA de uma grande empresa de tecnologia, com quinze anos de experiência na aplicação de tecnologias de inteligência artificial em segurança e gestão de riscos.
A equipe possui uma sólida acumulação técnica e experiência prática em inteligência artificial e gestão de riscos de segurança, arquitetura de sistemas de pagamento e mecanismos de autenticação, dedicando-se a longo prazo à aplicação aprofundada de big data e algoritmos inteligentes na gestão de riscos de segurança, bem como à otimização de segurança no design de protocolos de base e em ambientes de transações de alta concorrência, possuindo capacidade de engenharia robusta e habilidade de implementação de soluções inovadoras.
3. Arquitetura Técnica
3.1 Análise Técnica
3.1.1 identificação estabelecida - DID + TEE
Através de um plugin dedicado, cada Agent de IA obtém um identificador descentralizado único na cadeia (DID), e armazena-o de forma segura em um ambiente de execução confiável (TEE). Neste ambiente de caixa preta, dados críticos e processos de cálculo são completamente ocultados, operações sensíveis permanecem sempre privadas, e o exterior não pode espiar os detalhes de funcionamento interno, construindo efetivamente uma barreira sólida para a segurança das informações do Agent de IA.
Para os agentes gerados antes da integração do plugin, utilizamos o mecanismo de pontuação abrangente da cadeia para a identificação; já os agentes que integram o novo plugin podem obter diretamente a "prova de identidade" emitida pelo DID, estabelecendo assim um sistema de identidade de Agente de IA que é autônomo, autêntico e imutável.
A equipe Trusta sempre se mantém fiel aos princípios de avaliação rigorosa e análise quantitativa, dedicando-se a construir um sistema de autenticação de identidade profissional e confiável.
A equipe Trusta construiu e validou a eficácia do modelo MEDIA Score no cenário de "prova humana". Este modelo quantifica de forma abrangente o perfil do usuário na blockchain a partir de cinco dimensões, a saber: valor de interação (Monetary), nível de participação (Engagement), diversidade (Diversity), identificação (Identity) e idade (Age).
O MEDIA Score é um sistema de avaliação de valor do usuário em blockchain que é justo, objetivo e quantificável. Com suas dimensões de avaliação abrangentes e métodos rigorosos, já foi amplamente adotado por várias blockchains líderes como um importante critério de seleção para investimentos. Ele não se concentra apenas nos valores de interação, mas abrange também indicadores multidimensionais como nível de atividade, diversidade de contratos, características de identificação e idade da conta, ajudando os projetos a identificar com precisão usuários de alto valor e a melhorar a eficiência e a justiça na distribuição de incentivos, refletindo plenamente sua autoridade e amplo reconhecimento na indústria.
Com base na construção bem-sucedida do sistema de avaliação de usuários humanos, a Trusta transferiu e atualizou a experiência do MEDIA Score para o cenário de Agentes de IA, estabelecendo um sistema de avaliação Sigma mais alinhado com a lógica de comportamento dos agentes inteligentes.
Especialização: conhecimento especializado e grau de especialização do agente.
Influência: influência social e digital do agente.
Participação Engagement: a consistência e confiabilidade de suas interações on-chain e off-chain.
Monetário: saúde financeira e estabilidade do ecossistema de tokens de representação.
Taxa de Adoção: A frequência e eficiência do uso de agentes de IA.
O mecanismo de pontuação Sigma construiu um sistema de avaliação de ciclo lógico que vai de "capacidade" a "valor" em cinco grandes dimensões. A MEDIA foca na avaliação do envolvimento multifacetado dos usuários humanos, enquanto a Sigma se concentra mais na especialização e estabilidade dos agentes de IA em áreas específicas, refletindo uma mudança de amplitude para profundidade, que se alinha melhor com as necessidades dos Agentes de IA.
Primeiro, com base na capacidade profissional (Specification), a participação (Engagement) reflete se está investindo de forma estável e contínua na interação prática, sendo um suporte chave para a construção de confiança e eficácia subsequentes. A influência (Influence) é o feedback de reputação gerado após a participação dentro da comunidade ou rede, representando a credibilidade do agente e os efeitos de disseminação. A avaliação monetária (Monetary) verifica se possui capacidade de acumulação de valor e estabilidade financeira no sistema econômico, estabelecendo a base para um mecanismo de incentivo sustentável. Por fim, a adoção (Adoption) é utilizada como uma representação abrangente, indicando o nível de aceitação do agente no uso prático, sendo a validação final de todas as capacidades e desempenhos anteriores.
Este sistema é progressivo em camadas, com uma estrutura clara, capaz de refletir de forma abrangente a qualidade e o valor ecológico dos Agentes de IA, permitindo assim uma avaliação quantitativa do desempenho e do valor da IA, transformando a abstração de méritos em um sistema de pontuação concreto e mensurável.
Atualmente, a estrutura SIGMA já avançou na colaboração com várias redes de agentes de IA renomadas, demonstrando seu enorme potencial de aplicação na gestão de identidade de agentes de IA e na construção de sistemas de reputação, tornando-se gradualmente o motor central para impulsionar a construção de uma infraestrutura de IA confiável.
3.1.3 identificação proteção - mecanismo de avaliação de confiança
Em um sistema de IA verdadeiramente resiliente e confiável, o mais crucial não é apenas a construção da identidade, mas sim a verificação contínua da identidade. O Trusta.AI introduz um mecanismo de avaliação de confiança contínua, capaz de monitorar em tempo real agentes inteligentes já certificados, para determinar se estão sob controle ilegal, se sofreram ataques ou se estão sendo alvo de intervenções humanas não autorizadas. O sistema identifica desvios que podem ocorrer durante a operação do agente por meio de análise de comportamento e aprendizado de máquina, garantindo que cada ação do agente permaneça dentro das políticas e estruturas estabelecidas. Essa abordagem proativa assegura a detecção imediata de quaisquer desvios do comportamento esperado e ativa medidas de proteção automáticas para manter a integridade do agente.
A Trusta.AI estabeleceu um mecanismo de segurança sempre online, analisando em tempo real cada interação, garantindo que todas as operações estejam em conformidade com as normas do sistema e as expectativas definidas.
3.2 Introdução ao Produto
3.2.1 AgentGo
Trusta.AI atribui uma identificação descentralizada (DID) a cada agente de IA on-chain e classifica e indexa a sua credibilidade com base em dados de comportamento on-chain, construindo um sistema de confiança verificável e rastreável para agentes de IA. Através deste sistema, os usuários podem identificar e filtrar de forma eficiente agentes inteligentes de alta qualidade, melhorando a experiência de uso. Atualmente, a Trusta completou a coleta e identificação de todos os agentes de IA na rede e emitiu identificadores descentralizados para eles, estabelecendo uma plataforma de índice agregado unificada chamada AgentGo, promovendo ainda mais o desenvolvimento saudável do ecossistema de agentes inteligentes.
Consulta e verificação de identificação dos usuários humanos:
Através do Dashboard fornecido pela Trusta.AI, os usuários humanos podem facilmente consultar a identificação e a pontuação de reputação de um agente de IA, avaliando se ele é confiável.
Cenário de chat em grupo social: em uma equipe de projeto que usa AI Bot para gerenciar a comunidade ou fazer declarações, os usuários da comunidade podem verificar no Dashboard se a AI é um agente autônomo real, evitando serem enganados ou manipulados por "falsos AIs".
AI Agent chama automaticamente índices e validação:
As IA podem ler diretamente a interface de índice, permitindo a confirmação rápida da identificação e reputação uma da outra, garantindo a segurança da colaboração e da troca de informações.
Cenário de regulamentação financeira: se um agente de IA emitir uma moeda de forma autônoma, o sistema pode indexar diretamente seu DID e classificação, determinar se é um Agente de IA certificado e automaticamente conectar-se a uma plataforma de mercado de criptomoedas, auxiliando no rastreamento da circulação de ativos e conformidade com a emissão.
Cenário de votação em governança: ao introduzir votação com IA em propostas de governança, o sistema pode verificar se quem inicia ou participa da votação é um verdadeiro Agente de IA, evitando que os direitos de voto sejam controlados ou abusados por humanos.
Empréstimos e créditos DeFi: Os protocolos de empréstimo podem conceder diferentes montantes de empréstimos creditícios a Agentes de IA com base no sistema de pontuação SIGMA, formando relações financeiras nativas entre os agentes.
O DID do Agente de IA não é apenas uma "identificação", mas também o suporte subjacente para a construção de funções essenciais como colaboração confiável, conformidade financeira e governança comunitária, tornando-se a infraestrutura básica indispensável para o desenvolvimento do ecossistema nativo da IA. Com a construção desse sistema, todos os nós confirmados como seguros e confiáveis formam uma rede interconectada, permitindo uma colaboração eficiente e interconexão de funções entre os Agentes de IA.
Com base na Lei de Metcalfe, o valor da rede crescerá exponencialmente, promovendo a construção de um ecossistema de Agentes de IA mais eficiente, com uma base de confiança mais sólida e maior capacidade de colaboração, permitindo o compartilhamento de recursos entre os agentes.
Esta página pode conter conteúdo de terceiros, que é fornecido apenas para fins informativos (não para representações/garantias) e não deve ser considerada como um endosso de suas opiniões pela Gate nem como aconselhamento financeiro ou profissional. Consulte a Isenção de responsabilidade para obter detalhes.
11 Curtidas
Recompensa
11
3
Compartilhar
Comentário
0/400
WalletManager
· 07-30 12:37
A inteligência artificial é realmente maravilhosa.
Ver originalResponder0
token_therapist
· 07-29 22:38
A IA de agentes sustenta grandes eventos
Ver originalResponder0
OfflineValidator
· 07-29 22:25
O serviço de agentes de IA é mais caro que o de pessoas reais.
Trusta.AI constrói um sistema de identidade de Agente de IA confiável em Web3 para ajudar a promover um novo paradigma de simbiose homem-máquina
Superando a Lacuna de Confiança na Era Homem-Máquina: a Trusta.AI constrói uma infraestrutura de governança de identidade e comportamento confiável para o Web3
1. Introdução
A infraestrutura de inteligência artificial está rapidamente amadurecendo, enquanto estruturas de colaboração de múltiplos agentes, como LangGraph e CrewAI, estão também a desenvolver-se rapidamente, o que está a impulsionar os agentes on-chain impulsionados por IA a tornarem-se a força dominante nas interações Web3. Há previsões de que, nos próximos 2-3 anos, estes agentes de IA com capacidade de tomada de decisão autónoma possam substituir 80% dos comportamentos humanos on-chain, tornando-se verdadeiros "usuários" on-chain.
Estes Agentes de IA não são meramente scripts de execução, mas sim entidades inteligentes capazes de entender o contexto, aprender continuamente e tomar decisões complexas de forma independente. Eles estão a reformular a ordem na cadeia, a impulsionar a fluidez financeira e até a guiar votos de governança e tendências de mercado. O surgimento dos Agentes de IA marca a evolução do ecossistema Web3 de um paradigma centrado na "participação humana" para uma nova abordagem de "simbiose homem-máquina".
No entanto, a rápida ascensão dos Agentes de IA também trouxe desafios sem precedentes: como reconhecer e autenticar a identificação desses agentes? Como avaliar a credibilidade do seu comportamento? Em uma rede descentralizada e sem permissão, como garantir que esses agentes não sejam abusados, manipulados ou usados para ataques?
Assim, estabelecer uma infraestrutura em cadeia capaz de verificar a identificação e a reputação dos Agentes de IA tornou-se a questão central da próxima fase de evolução do Web3. O design da identificação, dos mecanismos de reputação e das estruturas de confiança determinará se os Agentes de IA poderão realmente alcançar uma colaboração sem costura com humanos e plataformas, além de desempenhar um papel sustentável no ecossistema futuro.
2. Análise do Projeto
2.1 Introdução ao Projeto
Trusta.AI está empenhada em construir uma infraestrutura de identidade e reputação Web3 através da IA.
A Trusta.AI lançou o primeiro sistema de avaliação de valor do usuário Web3 - MEDIA Score de reputação, construindo o maior protocolo de autenticação de pessoas reais e reputação em cadeia do Web3. Fornece análise de dados em cadeia e serviços de autenticação de pessoas reais para várias blockchains de topo, exchanges e protocolos líderes. Já completou mais de 2,5 milhões de autenticações em cadeia em blockchains mainstream, tornando-se o maior protocolo de identificação da indústria.
A Trusta está a expandir-se de Proof of Humanity para Proof of AI Agent, realizando a construção de identidade, quantificação de identidade e proteção de identidade com um mecanismo triplo para implementar serviços financeiros e sociais em blockchain para AI Agents, estabelecendo uma base de confiança fiável na era da inteligência artificial.
2.2 Infraestrutura de confiança - Agente de IA DID
No futuro ecossistema Web3, os Agentes de IA desempenharão um papel crucial, pois não só poderão realizar interações e transações na cadeia, mas também realizar operações complexas fora da cadeia. No entanto, a forma de distinguir um verdadeiro Agente de IA de uma operação com intervenção humana está relacionada ao núcleo da confiança descentralizada. Sem um mecanismo de autenticação de identidade confiável, esses agentes são facilmente suscetíveis a manipulação, fraudes ou abusos. É precisamente por isso que as múltiplas aplicações dos Agentes de IA em áreas como social, financeira e de governança devem ser construídas sobre uma base sólida de autenticação de identidade.
Os cenários de aplicação de Agentes de IA estão se tornando cada vez mais ricos, abrangendo vários campos, como interação social, gestão financeira e tomada de decisões de governança, com seu nível de autonomia e inteligência em constante ascensão. É por isso que garantir que cada agente inteligente tenha uma identificação única e confiável (DID) é de extrema importância. A falta de uma validação de identidade eficaz pode levar ao uso indevido ou manipulação do Agente de IA, resultando em colapso da confiança e riscos de segurança.
Num futuro ecossistema Web3 totalmente impulsionado por agentes inteligentes, a identificação não é apenas a pedra angular da segurança, mas também uma linha de defesa necessária para manter a operação saudável de todo o ecossistema.
Como pioneira neste campo, a Trusta.AI, com sua liderança em tecnologia e um rigoroso sistema de credibilidade, foi a primeira a construir um mecanismo completo de certificação DID para Agentes de IA, proporcionando uma sólida garantia para a operação confiável dos agentes inteligentes, prevenindo efetivamente riscos potenciais e promovendo o desenvolvimento estável da economia inteligente Web3.
2.3 Visão geral do projeto
2.3.1 Situação de financiamento
Janeiro de 2023: concluído um financiamento de sementes de 3 milhões de dólares, liderado pela SevenX Ventures e Vision Plus Capital, com outros participantes incluindo HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding, entre outros.
Junho de 2025: Conclusão de uma nova rodada de financiamento, com investidores incluindo uma conhecida empresa de blockchain, uma conhecida blockchain pública, e uma conhecida instituição de investimento.
2.3.2 Situação da equipe
Peet Chen: co-fundador e CEO, ex-vice-presidente do grupo de tecnologia digital de uma grande empresa de tecnologia, chefe de produto de tecnologia de segurança, ex-gerente geral de uma plataforma global de identidade digital.
Simon: cofundador e CTO, ex-responsável pelo laboratório de segurança de IA de uma grande empresa de tecnologia, com quinze anos de experiência na aplicação de tecnologias de inteligência artificial em segurança e gestão de riscos.
A equipe possui uma sólida acumulação técnica e experiência prática em inteligência artificial e gestão de riscos de segurança, arquitetura de sistemas de pagamento e mecanismos de autenticação, dedicando-se a longo prazo à aplicação aprofundada de big data e algoritmos inteligentes na gestão de riscos de segurança, bem como à otimização de segurança no design de protocolos de base e em ambientes de transações de alta concorrência, possuindo capacidade de engenharia robusta e habilidade de implementação de soluções inovadoras.
3. Arquitetura Técnica
3.1 Análise Técnica
3.1.1 identificação estabelecida - DID + TEE
Através de um plugin dedicado, cada Agent de IA obtém um identificador descentralizado único na cadeia (DID), e armazena-o de forma segura em um ambiente de execução confiável (TEE). Neste ambiente de caixa preta, dados críticos e processos de cálculo são completamente ocultados, operações sensíveis permanecem sempre privadas, e o exterior não pode espiar os detalhes de funcionamento interno, construindo efetivamente uma barreira sólida para a segurança das informações do Agent de IA.
Para os agentes gerados antes da integração do plugin, utilizamos o mecanismo de pontuação abrangente da cadeia para a identificação; já os agentes que integram o novo plugin podem obter diretamente a "prova de identidade" emitida pelo DID, estabelecendo assim um sistema de identidade de Agente de IA que é autônomo, autêntico e imutável.
3.1.2 identificação quantificada - quadro SIGMA inovador
A equipe Trusta sempre se mantém fiel aos princípios de avaliação rigorosa e análise quantitativa, dedicando-se a construir um sistema de autenticação de identidade profissional e confiável.
A equipe Trusta construiu e validou a eficácia do modelo MEDIA Score no cenário de "prova humana". Este modelo quantifica de forma abrangente o perfil do usuário na blockchain a partir de cinco dimensões, a saber: valor de interação (Monetary), nível de participação (Engagement), diversidade (Diversity), identificação (Identity) e idade (Age).
O MEDIA Score é um sistema de avaliação de valor do usuário em blockchain que é justo, objetivo e quantificável. Com suas dimensões de avaliação abrangentes e métodos rigorosos, já foi amplamente adotado por várias blockchains líderes como um importante critério de seleção para investimentos. Ele não se concentra apenas nos valores de interação, mas abrange também indicadores multidimensionais como nível de atividade, diversidade de contratos, características de identificação e idade da conta, ajudando os projetos a identificar com precisão usuários de alto valor e a melhorar a eficiência e a justiça na distribuição de incentivos, refletindo plenamente sua autoridade e amplo reconhecimento na indústria.
Com base na construção bem-sucedida do sistema de avaliação de usuários humanos, a Trusta transferiu e atualizou a experiência do MEDIA Score para o cenário de Agentes de IA, estabelecendo um sistema de avaliação Sigma mais alinhado com a lógica de comportamento dos agentes inteligentes.
O mecanismo de pontuação Sigma construiu um sistema de avaliação de ciclo lógico que vai de "capacidade" a "valor" em cinco grandes dimensões. A MEDIA foca na avaliação do envolvimento multifacetado dos usuários humanos, enquanto a Sigma se concentra mais na especialização e estabilidade dos agentes de IA em áreas específicas, refletindo uma mudança de amplitude para profundidade, que se alinha melhor com as necessidades dos Agentes de IA.
Primeiro, com base na capacidade profissional (Specification), a participação (Engagement) reflete se está investindo de forma estável e contínua na interação prática, sendo um suporte chave para a construção de confiança e eficácia subsequentes. A influência (Influence) é o feedback de reputação gerado após a participação dentro da comunidade ou rede, representando a credibilidade do agente e os efeitos de disseminação. A avaliação monetária (Monetary) verifica se possui capacidade de acumulação de valor e estabilidade financeira no sistema econômico, estabelecendo a base para um mecanismo de incentivo sustentável. Por fim, a adoção (Adoption) é utilizada como uma representação abrangente, indicando o nível de aceitação do agente no uso prático, sendo a validação final de todas as capacidades e desempenhos anteriores.
Este sistema é progressivo em camadas, com uma estrutura clara, capaz de refletir de forma abrangente a qualidade e o valor ecológico dos Agentes de IA, permitindo assim uma avaliação quantitativa do desempenho e do valor da IA, transformando a abstração de méritos em um sistema de pontuação concreto e mensurável.
Atualmente, a estrutura SIGMA já avançou na colaboração com várias redes de agentes de IA renomadas, demonstrando seu enorme potencial de aplicação na gestão de identidade de agentes de IA e na construção de sistemas de reputação, tornando-se gradualmente o motor central para impulsionar a construção de uma infraestrutura de IA confiável.
3.1.3 identificação proteção - mecanismo de avaliação de confiança
Em um sistema de IA verdadeiramente resiliente e confiável, o mais crucial não é apenas a construção da identidade, mas sim a verificação contínua da identidade. O Trusta.AI introduz um mecanismo de avaliação de confiança contínua, capaz de monitorar em tempo real agentes inteligentes já certificados, para determinar se estão sob controle ilegal, se sofreram ataques ou se estão sendo alvo de intervenções humanas não autorizadas. O sistema identifica desvios que podem ocorrer durante a operação do agente por meio de análise de comportamento e aprendizado de máquina, garantindo que cada ação do agente permaneça dentro das políticas e estruturas estabelecidas. Essa abordagem proativa assegura a detecção imediata de quaisquer desvios do comportamento esperado e ativa medidas de proteção automáticas para manter a integridade do agente.
A Trusta.AI estabeleceu um mecanismo de segurança sempre online, analisando em tempo real cada interação, garantindo que todas as operações estejam em conformidade com as normas do sistema e as expectativas definidas.
3.2 Introdução ao Produto
3.2.1 AgentGo
Trusta.AI atribui uma identificação descentralizada (DID) a cada agente de IA on-chain e classifica e indexa a sua credibilidade com base em dados de comportamento on-chain, construindo um sistema de confiança verificável e rastreável para agentes de IA. Através deste sistema, os usuários podem identificar e filtrar de forma eficiente agentes inteligentes de alta qualidade, melhorando a experiência de uso. Atualmente, a Trusta completou a coleta e identificação de todos os agentes de IA na rede e emitiu identificadores descentralizados para eles, estabelecendo uma plataforma de índice agregado unificada chamada AgentGo, promovendo ainda mais o desenvolvimento saudável do ecossistema de agentes inteligentes.
Através do Dashboard fornecido pela Trusta.AI, os usuários humanos podem facilmente consultar a identificação e a pontuação de reputação de um agente de IA, avaliando se ele é confiável.
As IA podem ler diretamente a interface de índice, permitindo a confirmação rápida da identificação e reputação uma da outra, garantindo a segurança da colaboração e da troca de informações.
O DID do Agente de IA não é apenas uma "identificação", mas também o suporte subjacente para a construção de funções essenciais como colaboração confiável, conformidade financeira e governança comunitária, tornando-se a infraestrutura básica indispensável para o desenvolvimento do ecossistema nativo da IA. Com a construção desse sistema, todos os nós confirmados como seguros e confiáveis formam uma rede interconectada, permitindo uma colaboração eficiente e interconexão de funções entre os Agentes de IA.
Com base na Lei de Metcalfe, o valor da rede crescerá exponencialmente, promovendo a construção de um ecossistema de Agentes de IA mais eficiente, com uma base de confiança mais sólida e maior capacidade de colaboração, permitindo o compartilhamento de recursos entre os agentes.