Перехід через довірчу прірву епохи людини та машини: Trusta.AI створює інфраструктуру управління надійною ідентифікацією та поведінкою в Web3
1. Вступ
Інфраструктура штучного інтелекту швидко дозріває, в той же час багатосторонні коопераційні рамки як LangGraph, CrewAI тощо також швидко розвиваються, що сприяє швидкому становленню агентів на основі ШІ як основної сили взаємодії в Web3. Є прогнози, що в найближчі 2-3 роки ці агенти ШІ, здатні до самостійного ухвалення рішень, можуть замінити 80% людської поведінки на блокчейні, ставши справжніми "користувачами" на блокчейні.
Ці AI агенти не є простими виконавцями сценаріїв, а здатні розуміти контекст, постійно навчатися та самостійно приймати складні рішення. Вони перетворюють порядок на блокчейні, сприяють фінансовим потокам і навіть направляють голосування з управління та ринкові тренди. Поява AI агентів знаменує собою те, що екосистема Web3 еволюціонує від "участі людини" до нового парадигми "взаємодії людини та машини".
Однак швидкий розвиток AI Agent також приніс небачені виклики: як розпізнати та ідентифікувати ідентичність цих агентів? Як оцінити достовірність їхньої поведінки? У децентралізованій та бездозвільній мережі, як забезпечити, щоб ці агенти не були зловживані, маніпульовані або використані для атак?
Тому створення системи, яка може перевіряти ідентифікацію та репутацію AI Agent на блокчейні, стало центральним питанням наступного етапу еволюції Web3. Дизайн ідентифікації, механізму репутації та довірчої бази визначить, чи зможе AI Agent насправді реалізувати безшовну співпрацю з людьми та платформами, а також виконувати стійку роль у майбутній екосистемі.
2. Аналіз проекту
2.1 Опис проекту
Trusta.AI прагне створити інфраструктуру ідентифікації та репутації Web3 за допомогою штучного інтелекту.
Trusta.AI представила першу систему оцінки вартості користувачів Web3 - MEDIA репутаційний рейтинг, створивши найбільший протокол реальної ідентифікації та репутації на блокчейні Web3. Надає послуги аналізу даних на блокчейні та реальної ідентифікації для кількох провідних блокчейнів, бірж та головних протоколів. Завершила понад 2,5 мільйона ідентифікацій на популярних блокчейнах, ставши найбільшим ідентифікаційним протоколом у галузі.
Trusta розширюється з Proof of Humanity до Proof of AI Agent, реалізуючи ідентифікацію, кількісну оцінку і захист ідентифікації для надання фінансових послуг AI Agent на блокчейні та соціальних послуг на блокчейні, створюючи надійну основу для довіри в епоху штучного інтелекту.
2.2 Довірча інфраструктура - AI Агент DID
У майбутній екосистемі Web3 AI Agent відіграватиме вирішальну роль. Вони можуть не лише виконувати взаємодії та транзакції в мережі, але й здійснювати складні операції поза мережею. Проте, як відрізнити справжнього AI Agent від втручання людини, стосується основи децентралізованої довіри. Якщо не буде надійного механізму ідентифікації, ці агенти можуть легко піддаватися маніпуляціям, шахрайству або зловживанням. Саме тому соціальні, фінансові та управлінські багатофункціональні можливості AI Agent повинні бути засновані на міцній основі ідентифікації.
Сценарії застосування AI Agent стають дедалі різноманітнішими, охоплюючи соціальну взаємодію, фінансове управління та управлінські рішення в кількох сферах, а його автономність та рівень інтелекту постійно зростають. Саме тому надзвичайно важливо забезпечити, щоб кожен агент мав унікальну та надійну ідентифікацію (DID). Відсутність ефективної перевірки особи може призвести до використання або маніпуляцій AI Agent, що в свою чергу може спричинити руйнування довіри та безпекові ризики.
В майбутньому, в повністю керованій агентами екосистемі Web3, ідентифікація є не лише основою безпеки, але й необхідним бар'єром для підтримки здорової роботи всієї екосистеми.
Як піонер у цій галузі, Trusta.AI завдяки передовим технологічним можливостям та суворій репутаційній системі першими створили досконалий механізм сертифікації AI Agent DID, що забезпечує надійну роботу розумних агентів, ефективно запобігає потенційним ризикам та сприяє стабільному розвитку Web3 розумної економіки.
2.3 Огляд проекту
2.3.1 Фінансова ситуація
Січень 2023: завершено фінансування на 3 мільйони доларів США в сіянцевому раунді, лідируючими інвесторами стали SevenX Ventures та Vision Plus Capital, а також взяли участь HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding та інші.
Червень 2025 року: завершення нового раунду фінансування, інвестори включають певну відому блокчейн-компанію, певну відому публічну блокчейн, певну відому інвестиційну установу тощо.
2.3.2 Стан команди
Піт Чен: співзасновник та генеральний директор, колишній віце-президент групи цифрових технологій великої технологічної компанії, головний продукт-офіцер у сфері безпекових технологій, колишній генеральний директор глобальної платформи цифрової ідентифікації.
Саймон: співзасновник та головний технічний директор, колишній керівник лабораторії безпеки ШІ в одній з великих технологічних компаній, має п'ятнадцятирічний досвід впровадження технологій штучного інтелекту в безпеку та управління ризиками.
Команда має глибокі технічні накопичення та практичний досвід у сфері штучного інтелекту та безпеки ризиків, архітектури платіжних систем та механізмів ідентифікації, довгостроково спрямована на глибоке застосування великих даних та інтелектуальних алгоритмів у безпеці ризиків, а також на безпеку оптимізації в умовах проектування базового протоколу та високої пропускної здатності торгівлі, має міцні інженерні можливості та здатність реалізовувати інноваційні рішення.
3. Технічна архітектура
3.1 Технічний аналіз
3.1.1 ідентифікація створення-DID+TEE
За допомогою спеціалізованого плагіна, кожен AI Agent отримує унікальний децентралізований ідентифікатор (DID) в ланцюзі, і безпечно зберігає його в надійному середовищі виконання (TEE). У цьому чорному ящику ключові дані та обчислювальні процеси повністю приховані, чутливі операції завжди залишаються приватними, і зовнішні особи не можуть підглядати за внутрішніми деталями роботи, що ефективно створює надійний бар'єр для інформаційної безпеки AI Agent.
Для агентів, які були створені ще до підключення плагіна, ми спираємось на комплексну оцінку на ланцюгу для ідентифікації; нові агенти, які підключають плагін, можуть безпосередньо отримати "ідентифікацію", видану DID, що дозволяє створити автономну, контрольовану, з правдивістю та незмінністю систему ідентифікації AI Agent.
3.1.2 ідентифікація кількісно-орієнтована - перший SIGMA фреймворк
Команда Trusta завжди дотримується принципів суворої оцінки та кількісного аналізу, прагнучи створити професійну та надійну систему ідентифікації.
Команда Trusta спочатку побудувала і верифікувала ефективність моделі MEDIA Score в сценарії "доказ людства". Ця модель всебічно кількісно оцінює профіль користувачів на блокчейні з п'яти вимірів, а саме: обсяги взаємодії (Monetary), залученість (Engagement), різноманітність (Diversity), ідентифікація (Identity) та вік (Age).
MEDIA Score є справедливою, об'єктивною та кількісною системою оцінки вартості користувачів на блокчейні. Завдяки своїм всебічним оцінювальним вимірам та суворим методам, він широко використовується кількома провідними публічними блокчейнами як важливий стандарт для оцінки права на участь у розподілі токенів. Він не лише зосереджується на обсязі взаємодії, але також охоплює такі багатовимірні показники, як активність, різноманітність контрактів, ідентифікація та вік рахунку, допомагаючи проектам точно визначати високоякісних користувачів, підвищуючи ефективність і справедливість розподілу винагород, що повністю відображає його авторитетність та широке визнання в галузі.
На основі успішного створення системи оцінки людських користувачів, Trusta переніс і вдосконалив досвід MEDIA Score до сценарію AI Agent, створивши систему оцінки Sigma, яка більше відповідає логіці поведінки розумних агентів.
Спеціалізація: професійні знання та рівень спеціалізації агента.
Вплив: соціальний та цифровий вплив агентів.
Участь Engagement: узгодженість та надійність її взаємодії в мережі та поза нею.
Грошовий Monetary: фінансова здоров'я та стабільність екосистеми токенів-агентів.
Коефіцієнт прийняття Adoption: Частота та ефективність використання AI-агентів.
Система оцінювання Sigma побудована на п'яти великих вимірах, створюючи логічну замкнуту систему оцінювання від "здатності" до "цінності". MEDIA зосереджується на оцінці багатогранної участі людських користувачів, тоді як Sigma більше уваги приділяє професіоналізму та стабільності AI-агентів у певних сферах, що відображає перехід від широти до глибини, краще відповідаючи потребам AI-агентів.
По-перше, на основі професійних навичок (Specification), залученість (Engagement) відображає, чи стабільно та постійно здійснюється практична взаємодія, що є ключовою основою для побудови подальшої довіри та ефективності. Вплив (Influence) є репутаційним відгуком, що виникає після участі в спільноті або мережі, що характеризує надійність агента та ефект поширення. Грошова оцінка (Monetary) визначає, чи має вона здатність накопичувати цінність та фінансову стабільність в економічній системі, закладаючи основу для стійких механізмів стимулювання. Врешті-решт, рівень прийняття (Adoption) використовується як комплексне відображення, яке представляє ступінь прийняття агента в реальному використанні, що є остаточною перевіркою всіх попередніх можливостей та показників.
Ця система має багаторівневу структуру, чітко організована, здатна всебічно відобразити комплексну якість та екологічну цінність AI Agent, що дозволяє реалізувати кількісну оцінку продуктивності та цінності AI, перетворюючи абстрактні переваги та недоліки на конкретну, вимірювальну систему оцінювання.
Наразі рамка SIGMA вже просунулася в напрямку встановлення співпраці з кількома відомими мережами AI Agent, що демонструє її величезний потенціал у управлінні ідентифікацією AI-агентів та створенні системи репутації, поступово стаючи основним двигуном розвитку надійної інфраструктури AI.
3.1.3 ідентифікація - механізм оцінки довіри
У справжній системі штучного інтелекту з високою стійкістю та високою надійністю найважливішим є не лише створення ідентифікації, але й постійна перевірка ідентифікації. Trusta.AI впроваджує механізм оцінки тривалої довіри, який може здійснювати моніторинг сертифікованих інтелектуальних агентів в реальному часі, щоб визначити, чи вони підлягають незаконному контролю, атакі або несанкціонованому втручанню з боку людини. Система використовує аналіз поведінки та машинне навчання для виявлення можливих відхилень під час роботи агента, забезпечуючи, щоб кожна дія агента залишалася в межах встановленої стратегії та рамок. Цей проактивний підхід гарантує негайне виявлення будь-яких відхилень від очікуваної поведінки та активацію автоматичних захисних заходів для підтримки цілісності агента.
Trusta.AI створила систему безпеки, яка завжди знаходиться в онлайн-режимі, в режимі реального часу перевіряючи кожен процес взаємодії, забезпечуючи відповідність усіх операцій системним нормам і встановленим очікуванням.
3.2 Опис продукту
3.2.1 АгентГо
Trusta.AI призначає децентралізовану ідентифікацію (DID) для кожного AI агента в блокчейні та оцінює їх на основі даних про поведінку на блокчейні, створюючи перевірювану та відстежувану систему довіри AI агентів. Завдяки цій системі користувачі можуть ефективно ідентифікувати та відбирати якісних агентів, покращуючи користувацький досвід. Наразі Trusta завершила збір та ідентифікацію всіх AI агентів в мережі та видала їм децентралізовані ідентифікатори, створивши єдину платформу зведеного індексу AgentGo, що сприяє здоровому розвитку екосистеми інтелектуальних агентів.
Людські користувачі запитують та верифікують ідентифікацію:
За допомогою панелі управління, наданої Trusta.AI, людські користувачі можуть зручно перевіряти ідентифікацію та рейтинг репутації певного AI Agent, щоб визначити, наскільки він надійний.
Соціальні групові чати: в команді проекту, що використовує AI Bot для управління спільнотою або виступів, користувачі спільноти можуть перевірити за допомогою Dashboard, чи є цей AI справжнім автономним агентом, щоб уникнути дезінформації або маніпуляцій з боку "псевдо-AI".
Автоматичний виклик індексу та перевірка AI агентом:
Між штучними інтелектами можна безпосередньо зчитувати індексні інтерфейси, що забезпечує швидке підтвердження ідентифікації та репутації один одного, гарантує безпеку співпраці та інформаційного обміну.
Сцена фінансового регулювання: якщо AI-агент самостійно випускає монети, система може безпосередньо індексувати його DID та рейтинг, визначаючи, чи є він сертифікованим AI-агентом, і автоматично з'єднуватися з певною криптовалютною платформою для моніторингу його обігу активів та відповідності випуску.
Сцена голосування в управлінні: при впровадженні голосування з використанням ШІ в управлінських пропозиціях система може перевірити, чи є ініціатор або учасник голосування справжнім агентом ШІ, щоб уникнути зловживання голосувальними правами людьми.
DeFi кредитування: кредитні протоколи можуть надавати AI Agent різні суми кредитування на основі системи оцінки SIGMA, формуючи первинні фінансові відносини між агентами.
AI Agent DID вже не тільки "ідентифікація", а й основа для побудови довірчої співпраці, фінансової відповідності, управління спільнотою та інших ключових функцій, ставши необхідною інфраструктурою для розвитку AI-родинної екосистеми. З побудовою цієї системи всі підтверджені безпечні та надійні вузли утворили тісно взаємопов'язану мережу, що реалізувала ефективну співпрацю та взаємозв'язок функцій між AI Agent.
На основі закону Метью, цінність мережі зростатиме експоненційно, що сприятиме створенню більш ефективної, більш довірливої та здатної до співпраці екосистеми AI Agent, що забезпечить обмін ресурсами між агентами.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
Trusta.AI створює систему ідентифікації надійних AI агентів Web3, що сприяє новій парадигмі співіснування людини та машини.
Перехід через довірчу прірву епохи людини та машини: Trusta.AI створює інфраструктуру управління надійною ідентифікацією та поведінкою в Web3
1. Вступ
Інфраструктура штучного інтелекту швидко дозріває, в той же час багатосторонні коопераційні рамки як LangGraph, CrewAI тощо також швидко розвиваються, що сприяє швидкому становленню агентів на основі ШІ як основної сили взаємодії в Web3. Є прогнози, що в найближчі 2-3 роки ці агенти ШІ, здатні до самостійного ухвалення рішень, можуть замінити 80% людської поведінки на блокчейні, ставши справжніми "користувачами" на блокчейні.
Ці AI агенти не є простими виконавцями сценаріїв, а здатні розуміти контекст, постійно навчатися та самостійно приймати складні рішення. Вони перетворюють порядок на блокчейні, сприяють фінансовим потокам і навіть направляють голосування з управління та ринкові тренди. Поява AI агентів знаменує собою те, що екосистема Web3 еволюціонує від "участі людини" до нового парадигми "взаємодії людини та машини".
Однак швидкий розвиток AI Agent також приніс небачені виклики: як розпізнати та ідентифікувати ідентичність цих агентів? Як оцінити достовірність їхньої поведінки? У децентралізованій та бездозвільній мережі, як забезпечити, щоб ці агенти не були зловживані, маніпульовані або використані для атак?
Тому створення системи, яка може перевіряти ідентифікацію та репутацію AI Agent на блокчейні, стало центральним питанням наступного етапу еволюції Web3. Дизайн ідентифікації, механізму репутації та довірчої бази визначить, чи зможе AI Agent насправді реалізувати безшовну співпрацю з людьми та платформами, а також виконувати стійку роль у майбутній екосистемі.
2. Аналіз проекту
2.1 Опис проекту
Trusta.AI прагне створити інфраструктуру ідентифікації та репутації Web3 за допомогою штучного інтелекту.
Trusta.AI представила першу систему оцінки вартості користувачів Web3 - MEDIA репутаційний рейтинг, створивши найбільший протокол реальної ідентифікації та репутації на блокчейні Web3. Надає послуги аналізу даних на блокчейні та реальної ідентифікації для кількох провідних блокчейнів, бірж та головних протоколів. Завершила понад 2,5 мільйона ідентифікацій на популярних блокчейнах, ставши найбільшим ідентифікаційним протоколом у галузі.
Trusta розширюється з Proof of Humanity до Proof of AI Agent, реалізуючи ідентифікацію, кількісну оцінку і захист ідентифікації для надання фінансових послуг AI Agent на блокчейні та соціальних послуг на блокчейні, створюючи надійну основу для довіри в епоху штучного інтелекту.
2.2 Довірча інфраструктура - AI Агент DID
У майбутній екосистемі Web3 AI Agent відіграватиме вирішальну роль. Вони можуть не лише виконувати взаємодії та транзакції в мережі, але й здійснювати складні операції поза мережею. Проте, як відрізнити справжнього AI Agent від втручання людини, стосується основи децентралізованої довіри. Якщо не буде надійного механізму ідентифікації, ці агенти можуть легко піддаватися маніпуляціям, шахрайству або зловживанням. Саме тому соціальні, фінансові та управлінські багатофункціональні можливості AI Agent повинні бути засновані на міцній основі ідентифікації.
Сценарії застосування AI Agent стають дедалі різноманітнішими, охоплюючи соціальну взаємодію, фінансове управління та управлінські рішення в кількох сферах, а його автономність та рівень інтелекту постійно зростають. Саме тому надзвичайно важливо забезпечити, щоб кожен агент мав унікальну та надійну ідентифікацію (DID). Відсутність ефективної перевірки особи може призвести до використання або маніпуляцій AI Agent, що в свою чергу може спричинити руйнування довіри та безпекові ризики.
В майбутньому, в повністю керованій агентами екосистемі Web3, ідентифікація є не лише основою безпеки, але й необхідним бар'єром для підтримки здорової роботи всієї екосистеми.
Як піонер у цій галузі, Trusta.AI завдяки передовим технологічним можливостям та суворій репутаційній системі першими створили досконалий механізм сертифікації AI Agent DID, що забезпечує надійну роботу розумних агентів, ефективно запобігає потенційним ризикам та сприяє стабільному розвитку Web3 розумної економіки.
2.3 Огляд проекту
2.3.1 Фінансова ситуація
Січень 2023: завершено фінансування на 3 мільйони доларів США в сіянцевому раунді, лідируючими інвесторами стали SevenX Ventures та Vision Plus Capital, а також взяли участь HashKey Capital, Redpoint Ventures, GGV Capital, SNZ Holding та інші.
Червень 2025 року: завершення нового раунду фінансування, інвестори включають певну відому блокчейн-компанію, певну відому публічну блокчейн, певну відому інвестиційну установу тощо.
2.3.2 Стан команди
Піт Чен: співзасновник та генеральний директор, колишній віце-президент групи цифрових технологій великої технологічної компанії, головний продукт-офіцер у сфері безпекових технологій, колишній генеральний директор глобальної платформи цифрової ідентифікації.
Саймон: співзасновник та головний технічний директор, колишній керівник лабораторії безпеки ШІ в одній з великих технологічних компаній, має п'ятнадцятирічний досвід впровадження технологій штучного інтелекту в безпеку та управління ризиками.
Команда має глибокі технічні накопичення та практичний досвід у сфері штучного інтелекту та безпеки ризиків, архітектури платіжних систем та механізмів ідентифікації, довгостроково спрямована на глибоке застосування великих даних та інтелектуальних алгоритмів у безпеці ризиків, а також на безпеку оптимізації в умовах проектування базового протоколу та високої пропускної здатності торгівлі, має міцні інженерні можливості та здатність реалізовувати інноваційні рішення.
3. Технічна архітектура
3.1 Технічний аналіз
3.1.1 ідентифікація створення-DID+TEE
За допомогою спеціалізованого плагіна, кожен AI Agent отримує унікальний децентралізований ідентифікатор (DID) в ланцюзі, і безпечно зберігає його в надійному середовищі виконання (TEE). У цьому чорному ящику ключові дані та обчислювальні процеси повністю приховані, чутливі операції завжди залишаються приватними, і зовнішні особи не можуть підглядати за внутрішніми деталями роботи, що ефективно створює надійний бар'єр для інформаційної безпеки AI Agent.
Для агентів, які були створені ще до підключення плагіна, ми спираємось на комплексну оцінку на ланцюгу для ідентифікації; нові агенти, які підключають плагін, можуть безпосередньо отримати "ідентифікацію", видану DID, що дозволяє створити автономну, контрольовану, з правдивістю та незмінністю систему ідентифікації AI Agent.
3.1.2 ідентифікація кількісно-орієнтована - перший SIGMA фреймворк
Команда Trusta завжди дотримується принципів суворої оцінки та кількісного аналізу, прагнучи створити професійну та надійну систему ідентифікації.
Команда Trusta спочатку побудувала і верифікувала ефективність моделі MEDIA Score в сценарії "доказ людства". Ця модель всебічно кількісно оцінює профіль користувачів на блокчейні з п'яти вимірів, а саме: обсяги взаємодії (Monetary), залученість (Engagement), різноманітність (Diversity), ідентифікація (Identity) та вік (Age).
MEDIA Score є справедливою, об'єктивною та кількісною системою оцінки вартості користувачів на блокчейні. Завдяки своїм всебічним оцінювальним вимірам та суворим методам, він широко використовується кількома провідними публічними блокчейнами як важливий стандарт для оцінки права на участь у розподілі токенів. Він не лише зосереджується на обсязі взаємодії, але також охоплює такі багатовимірні показники, як активність, різноманітність контрактів, ідентифікація та вік рахунку, допомагаючи проектам точно визначати високоякісних користувачів, підвищуючи ефективність і справедливість розподілу винагород, що повністю відображає його авторитетність та широке визнання в галузі.
На основі успішного створення системи оцінки людських користувачів, Trusta переніс і вдосконалив досвід MEDIA Score до сценарію AI Agent, створивши систему оцінки Sigma, яка більше відповідає логіці поведінки розумних агентів.
Система оцінювання Sigma побудована на п'яти великих вимірах, створюючи логічну замкнуту систему оцінювання від "здатності" до "цінності". MEDIA зосереджується на оцінці багатогранної участі людських користувачів, тоді як Sigma більше уваги приділяє професіоналізму та стабільності AI-агентів у певних сферах, що відображає перехід від широти до глибини, краще відповідаючи потребам AI-агентів.
По-перше, на основі професійних навичок (Specification), залученість (Engagement) відображає, чи стабільно та постійно здійснюється практична взаємодія, що є ключовою основою для побудови подальшої довіри та ефективності. Вплив (Influence) є репутаційним відгуком, що виникає після участі в спільноті або мережі, що характеризує надійність агента та ефект поширення. Грошова оцінка (Monetary) визначає, чи має вона здатність накопичувати цінність та фінансову стабільність в економічній системі, закладаючи основу для стійких механізмів стимулювання. Врешті-решт, рівень прийняття (Adoption) використовується як комплексне відображення, яке представляє ступінь прийняття агента в реальному використанні, що є остаточною перевіркою всіх попередніх можливостей та показників.
Ця система має багаторівневу структуру, чітко організована, здатна всебічно відобразити комплексну якість та екологічну цінність AI Agent, що дозволяє реалізувати кількісну оцінку продуктивності та цінності AI, перетворюючи абстрактні переваги та недоліки на конкретну, вимірювальну систему оцінювання.
Наразі рамка SIGMA вже просунулася в напрямку встановлення співпраці з кількома відомими мережами AI Agent, що демонструє її величезний потенціал у управлінні ідентифікацією AI-агентів та створенні системи репутації, поступово стаючи основним двигуном розвитку надійної інфраструктури AI.
3.1.3 ідентифікація - механізм оцінки довіри
У справжній системі штучного інтелекту з високою стійкістю та високою надійністю найважливішим є не лише створення ідентифікації, але й постійна перевірка ідентифікації. Trusta.AI впроваджує механізм оцінки тривалої довіри, який може здійснювати моніторинг сертифікованих інтелектуальних агентів в реальному часі, щоб визначити, чи вони підлягають незаконному контролю, атакі або несанкціонованому втручанню з боку людини. Система використовує аналіз поведінки та машинне навчання для виявлення можливих відхилень під час роботи агента, забезпечуючи, щоб кожна дія агента залишалася в межах встановленої стратегії та рамок. Цей проактивний підхід гарантує негайне виявлення будь-яких відхилень від очікуваної поведінки та активацію автоматичних захисних заходів для підтримки цілісності агента.
Trusta.AI створила систему безпеки, яка завжди знаходиться в онлайн-режимі, в режимі реального часу перевіряючи кожен процес взаємодії, забезпечуючи відповідність усіх операцій системним нормам і встановленим очікуванням.
3.2 Опис продукту
3.2.1 АгентГо
Trusta.AI призначає децентралізовану ідентифікацію (DID) для кожного AI агента в блокчейні та оцінює їх на основі даних про поведінку на блокчейні, створюючи перевірювану та відстежувану систему довіри AI агентів. Завдяки цій системі користувачі можуть ефективно ідентифікувати та відбирати якісних агентів, покращуючи користувацький досвід. Наразі Trusta завершила збір та ідентифікацію всіх AI агентів в мережі та видала їм децентралізовані ідентифікатори, створивши єдину платформу зведеного індексу AgentGo, що сприяє здоровому розвитку екосистеми інтелектуальних агентів.
За допомогою панелі управління, наданої Trusta.AI, людські користувачі можуть зручно перевіряти ідентифікацію та рейтинг репутації певного AI Agent, щоб визначити, наскільки він надійний.
Між штучними інтелектами можна безпосередньо зчитувати індексні інтерфейси, що забезпечує швидке підтвердження ідентифікації та репутації один одного, гарантує безпеку співпраці та інформаційного обміну.
AI Agent DID вже не тільки "ідентифікація", а й основа для побудови довірчої співпраці, фінансової відповідності, управління спільнотою та інших ключових функцій, ставши необхідною інфраструктурою для розвитку AI-родинної екосистеми. З побудовою цієї системи всі підтверджені безпечні та надійні вузли утворили тісно взаємопов'язану мережу, що реалізувала ефективну співпрацю та взаємозв'язок функцій між AI Agent.
На основі закону Метью, цінність мережі зростатиме експоненційно, що сприятиме створенню більш ефективної, більш довірливої та здатної до співпраці екосистеми AI Agent, що забезпечить обмін ресурсами між агентами.