Un problème avec l'IA moderne est simple mais frustrant.
Les modèles peuvent produire des réponses confiantes qui sont en partie incorrectes.
Ces hallucinations ne sont pas toujours évidentes. Parfois, la réponse semble structurée et raisonnable. Mais une petite affirmation factuelle à l'intérieur peut être incorrecte. Lorsque les systèmes commencent à être plus largement utilisés, cette incertitude commence à compter.
C'est ici que l'idée derrière @Mira - Trust Layer of AI devient intéressante.
Au lieu de supposer qu'un modèle d'IA unique devrait vérifier sa propre production, le protocole adopte une approche différente. Il traite une réponse d'IA comme un ensemble de revendications plus petites. Chaque revendication peut alors être vérifiée indépendamment par d'autres modèles.
En termes simples, la réponse est décomposée en morceaux, et ces morceaux sont examinés.
Le réseau coordonne ce processus. Plusieurs systèmes d'IA examinent les revendications et soumettent les résultats de vérification. Le consensus blockchain enregistre ensuite ces résultats dans un livre de comptes partagé. Les preuves cryptographiques aident à garantir que le processus de validation est transparent et difficile à manipuler.
Cette conception crée quelque chose comme une couche de vérification des faits distribuée.
Plutôt que de faire confiance au modèle ou au système de modération d'une seule organisation, la vérification devient une activité réseau. Les participants au système sont incités économiquement par le token $MIRA à effectuer honnêtement le travail de validation.
L'idée est encore à ses débuts cependant.
Faire fonctionner plusieurs modèles de vérification nécessite une computation significative. La coordination entre les participants est complexe. Et plusieurs projets explorent une infrastructure similaire pour la fiabilité décentralisée de l'IA.
Ainsi, #Mira et #MiraNetwork entrent dans un domaine qui évoluera probablement rapidement.
Pourtant, la pensée sous-jacente est convaincante.
Si les systèmes d'IA façonnent de plus en plus l'information en ligne, une méthode partagée pour vérifier leurs affirmations pourrait devenir tout aussi importante que les modèles eux-mêmes.
