Manus réalise des avancées révolutionnaires dans le Benchmark GAIA, suscitant des controverses sur les voies de développement de l'IA
Manus a démontré des performances exceptionnelles lors des tests de référence GAIA, surpassant les modèles de langage de grande taille de même catégorie. Cette réalisation indique que Manus possède la capacité d'accomplir de manière autonome des tâches complexes, telles que la gestion de négociations commerciales internationales, y compris l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de propositions. Les avantages de Manus se manifestent principalement dans trois domaines : la décomposition dynamique des objectifs, le raisonnement multimodal et l'apprentissage renforcé de la mémoire. Il est capable de décomposer des tâches complexes en centaines de sous-tâches exécutables, tout en traitant divers types de données et en améliorant continuellement l'efficacité décisionnelle et en réduisant le taux d'erreur grâce à l'apprentissage par renforcement.
L'émergence de Manus a de nouveau suscité des discussions dans l'industrie sur les voies de développement de l'IA : l'avenir sera-t-il un modèle unifié vers l'intelligence artificielle générale (AGI), ou sera-t-il dominé par la collaboration des systèmes multi-agents (MAS) ?
Cette question concerne la philosophie de conception de Manus, suggérant deux directions de développement possibles :
Chemin AGI : Améliorer continuellement les capacités d'un système intelligent unique pour le rapprocher progressivement du niveau de décision globale de l'homme.
Chemin MAS : Positionner Manus en tant que super coordinateur, dirigeant des milliers d'agents spécialisés à travailler en collaboration.
En surface, il s'agit d'un désaccord sur les voies technologiques, mais cela reflète en réalité une contradiction fondamentale dans le développement de l'IA : comment équilibrer efficacité et sécurité ? À mesure qu'un système intelligent unique se rapproche de l'AGI, le risque d'opacité de son processus décisionnel augmente ; tandis que la coopération multi-agents, bien qu'elle puisse disperser les risques, peut manquer des moments clés de prise de décision en raison des délais de communication.
Les progrès de Manus amplifient sans le vouloir les risques inhérents au développement de l'IA. Par exemple :
Problème de confidentialité des données : dans le domaine médical, Manus pourrait avoir besoin d'accéder en temps réel aux données génomiques des patients ; lors des négociations financières, des informations financières non divulguées par l'entreprise pourraient être impliquées.
Biais algorithmique : lors du processus de recrutement, Manus peut donner des conseils salariaux injustes à des groupes spécifiques ; lors de la révision des contrats juridiques, le taux d'erreur pour les clauses des secteurs émergents peut atteindre jusqu'à 50 %.
Vulnérabilité aux attaques adversariales : des hackers pourraient implanter des signaux audio spécifiques, amenant Manus à mal évaluer la plage d'offres de son adversaire lors des négociations.
Ces problèmes mettent en évidence une tendance inquiétante : plus les systèmes intelligents sont puissants, plus leur surface d'attaque potentielle est large.
Dans le domaine du Web3, la sécurité a toujours été un sujet de préoccupation majeur. La théorie du "triangle impossible" proposée par Vitalik Buterin, le fondateur d'Ethereum (les réseaux blockchain ne peuvent pas réaliser simultanément la sécurité, la décentralisation et l'évolutivité), a inspiré le développement de diverses technologies cryptographiques :
Modèle de sécurité Zero Trust : Suivant le principe "Ne jamais faire confiance, toujours vérifier", chaque demande d'accès est soumise à une authentification et une autorisation strictes.
Identité décentralisée (DID) : un standard d'identification qui ne nécessite pas d'autorité d'enregistrement centralisée, permettant une nouvelle gestion décentralisée des identités numériques.
Chiffrement homomorphe complet (FHE) : permet de calculer des données en état chiffré, adapté aux scénarios de cloud computing et d'externalisation des données nécessitant la protection des données d'origine.
Parmi ces technologies, le chiffrement homomorphe complet est considéré comme la technologie clé pour résoudre les problèmes de sécurité à l'ère de l'IA. Il peut fournir une protection à plusieurs niveaux :
Niveau des données : toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées dans un état chiffré, même Manus lui-même ne peut pas déchiffrer les données originales.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" via FHE, de sorte que même les développeurs ne puissent pas comprendre directement le processus de décision de l'IA.
Niveau de collaboration : la communication entre plusieurs agents intelligents utilise le cryptage par seuil, même si un seul nœud est compromis, cela ne conduira pas à une fuite de données globale.
Bien que la technologie de sécurité Web3 puisse sembler lointaine pour l'utilisateur moyen, elle est étroitement liée aux intérêts de chacun. Dans cet environnement plein de défis, le renforcement constant des mesures de sécurité est la clé pour éviter de devenir un "韭菜".
Quelques projets dignes d'intérêt incluent :
uPort : peut-être le premier projet d'identité décentralisée lancé sur le réseau principal d'Ethereum.
NKN : a réalisé des avancées dans le modèle de sécurité zéro confiance.
Mind Network : En tant que premier projet FHE lancé sur le réseau principal, il a établi des partenariats avec plusieurs institutions de renom.
Bien que les projets de sécurité ne soient souvent pas prisés par les spéculateurs, ils sont essentiels au développement à long terme des technologies d'IA et de blockchain. À mesure que la technologie de l'IA se rapproche du niveau d'intelligence humaine, les systèmes de défense non traditionnels deviennent de plus en plus importants. L'FHE non seulement résout les problèmes de sécurité actuels, mais jette également les bases pour l'ère de l'IA forte à venir. Sur le chemin vers l'AGI, l'FHE est passé d'une option à une nécessité de survie.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
14 J'aime
Récompense
14
4
Partager
Commentaire
0/400
ser_we_are_ngmi
· Il y a 20h
C'est vraiment ngmi maintenant.
Voir l'originalRépondre0
WalletWhisperer
· Il y a 20h
anomalie statistique détectée. les modèles comportementaux suggèrent une probabilité de 73 % de domination de l'AGI
Voir l'originalRépondre0
AirdropFreedom
· Il y a 20h
Encore une hausse de jeton ?
Voir l'originalRépondre0
AirdropHunterZhang
· Il y a 20h
Encore un avion de pré-vente airdrop. Demain, nous commencerons l'interaction manus. Considérez cela comme une préparation pour faire un peu de travail préalable.
Manus franchit le test GAIA, suscitant des débats sur les voies de développement de l'IA et la sécurité.
Manus réalise des avancées révolutionnaires dans le Benchmark GAIA, suscitant des controverses sur les voies de développement de l'IA
Manus a démontré des performances exceptionnelles lors des tests de référence GAIA, surpassant les modèles de langage de grande taille de même catégorie. Cette réalisation indique que Manus possède la capacité d'accomplir de manière autonome des tâches complexes, telles que la gestion de négociations commerciales internationales, y compris l'analyse des clauses contractuelles, l'élaboration de stratégies et la génération de propositions. Les avantages de Manus se manifestent principalement dans trois domaines : la décomposition dynamique des objectifs, le raisonnement multimodal et l'apprentissage renforcé de la mémoire. Il est capable de décomposer des tâches complexes en centaines de sous-tâches exécutables, tout en traitant divers types de données et en améliorant continuellement l'efficacité décisionnelle et en réduisant le taux d'erreur grâce à l'apprentissage par renforcement.
L'émergence de Manus a de nouveau suscité des discussions dans l'industrie sur les voies de développement de l'IA : l'avenir sera-t-il un modèle unifié vers l'intelligence artificielle générale (AGI), ou sera-t-il dominé par la collaboration des systèmes multi-agents (MAS) ?
Cette question concerne la philosophie de conception de Manus, suggérant deux directions de développement possibles :
Chemin AGI : Améliorer continuellement les capacités d'un système intelligent unique pour le rapprocher progressivement du niveau de décision globale de l'homme.
Chemin MAS : Positionner Manus en tant que super coordinateur, dirigeant des milliers d'agents spécialisés à travailler en collaboration.
En surface, il s'agit d'un désaccord sur les voies technologiques, mais cela reflète en réalité une contradiction fondamentale dans le développement de l'IA : comment équilibrer efficacité et sécurité ? À mesure qu'un système intelligent unique se rapproche de l'AGI, le risque d'opacité de son processus décisionnel augmente ; tandis que la coopération multi-agents, bien qu'elle puisse disperser les risques, peut manquer des moments clés de prise de décision en raison des délais de communication.
Les progrès de Manus amplifient sans le vouloir les risques inhérents au développement de l'IA. Par exemple :
Problème de confidentialité des données : dans le domaine médical, Manus pourrait avoir besoin d'accéder en temps réel aux données génomiques des patients ; lors des négociations financières, des informations financières non divulguées par l'entreprise pourraient être impliquées.
Biais algorithmique : lors du processus de recrutement, Manus peut donner des conseils salariaux injustes à des groupes spécifiques ; lors de la révision des contrats juridiques, le taux d'erreur pour les clauses des secteurs émergents peut atteindre jusqu'à 50 %.
Vulnérabilité aux attaques adversariales : des hackers pourraient implanter des signaux audio spécifiques, amenant Manus à mal évaluer la plage d'offres de son adversaire lors des négociations.
Ces problèmes mettent en évidence une tendance inquiétante : plus les systèmes intelligents sont puissants, plus leur surface d'attaque potentielle est large.
Dans le domaine du Web3, la sécurité a toujours été un sujet de préoccupation majeur. La théorie du "triangle impossible" proposée par Vitalik Buterin, le fondateur d'Ethereum (les réseaux blockchain ne peuvent pas réaliser simultanément la sécurité, la décentralisation et l'évolutivité), a inspiré le développement de diverses technologies cryptographiques :
Modèle de sécurité Zero Trust : Suivant le principe "Ne jamais faire confiance, toujours vérifier", chaque demande d'accès est soumise à une authentification et une autorisation strictes.
Identité décentralisée (DID) : un standard d'identification qui ne nécessite pas d'autorité d'enregistrement centralisée, permettant une nouvelle gestion décentralisée des identités numériques.
Chiffrement homomorphe complet (FHE) : permet de calculer des données en état chiffré, adapté aux scénarios de cloud computing et d'externalisation des données nécessitant la protection des données d'origine.
Parmi ces technologies, le chiffrement homomorphe complet est considéré comme la technologie clé pour résoudre les problèmes de sécurité à l'ère de l'IA. Il peut fournir une protection à plusieurs niveaux :
Niveau des données : toutes les informations saisies par l'utilisateur (y compris les caractéristiques biométriques, la voix, etc.) sont traitées dans un état chiffré, même Manus lui-même ne peut pas déchiffrer les données originales.
Niveau algorithmique : réaliser "l'entraînement de modèles cryptés" via FHE, de sorte que même les développeurs ne puissent pas comprendre directement le processus de décision de l'IA.
Niveau de collaboration : la communication entre plusieurs agents intelligents utilise le cryptage par seuil, même si un seul nœud est compromis, cela ne conduira pas à une fuite de données globale.
Bien que la technologie de sécurité Web3 puisse sembler lointaine pour l'utilisateur moyen, elle est étroitement liée aux intérêts de chacun. Dans cet environnement plein de défis, le renforcement constant des mesures de sécurité est la clé pour éviter de devenir un "韭菜".
Quelques projets dignes d'intérêt incluent :
Bien que les projets de sécurité ne soient souvent pas prisés par les spéculateurs, ils sont essentiels au développement à long terme des technologies d'IA et de blockchain. À mesure que la technologie de l'IA se rapproche du niveau d'intelligence humaine, les systèmes de défense non traditionnels deviennent de plus en plus importants. L'FHE non seulement résout les problèmes de sécurité actuels, mais jette également les bases pour l'ère de l'IA forte à venir. Sur le chemin vers l'AGI, l'FHE est passé d'une option à une nécessité de survie.