Um problema com a IA moderna é simples, mas frustrante.
Os modelos podem produzir respostas confiantes que estão parcialmente erradas.
Essas alucinações nem sempre são óbvias. Às vezes, a resposta parece estruturada e razoável. Mas uma pequena afirmação factual dentro dela pode estar incorreta. Quando os sistemas se tornam mais amplamente utilizados, essa incerteza começa a importar.
É aqui que a ideia por trás de @Mira - Trust Layer of AI se torna interessante.
Em vez de assumir que um único modelo de IA deve verificar sua própria saída, o protocolo adota uma abordagem diferente. Ele trata uma resposta de IA como um conjunto de afirmações menores. Cada afirmação pode ser verificada independentemente por outros modelos.
Em termos simples, a resposta é dividida em partes, e essas partes são revisadas.
A rede coordena esse processo. Múltiplos sistemas de IA examinam as afirmações e enviam resultados de verificação. O consenso em blockchain registra então esses resultados em um livro-razão compartilhado. Provas criptográficas ajudam a garantir que o processo de validação seja transparente e difícil de manipular.
Esse design cria algo como uma camada de verificação de fatos distribuída.
Em vez de confiar no modelo ou sistema de moderação de uma única organização, a verificação se torna uma atividade em rede. Os participantes do sistema são economicamente incentivados através do token $MIRA a realizar o trabalho de validação de forma honesta.
A ideia ainda é precoce, porém.
Executar múltiplos modelos de verificação requer computação significativa. A coordenação entre os participantes é complexa. E vários projetos estão explorando infraestrutura semelhante para a confiabilidade da IA descentralizada.
Então #Mira e #MiraNetwork estão entrando em um espaço que provavelmente evoluirá rapidamente.
Ainda assim, o pensamento subjacente é convincente.
Se os sistemas de IA moldam cada vez mais a informação online, um método compartilhado para verificar suas afirmações pode se tornar tão importante quanto os próprios modelos.
