Ho notato qualcosa di interessante osservando come i sistemi di intelligenza artificiale stanno iniziando a gestire la verifica.
La maggior parte delle persone presume che una risposta diventi affidabile una volta che un modello potente la produce. Ma i sistemi costruiti attorno ai livelli di verifica adottano un approccio diverso.
Invece di chiedere a un modello la verità, chiedono a diversi modelli indipendenti di valutare la stessa affermazione.
La risposta non è considerata affidabile perché un sistema l'ha affermata con sicurezza.
Diventa affidabile solo dopo che più sistemi raggiungono un accordo.
Ecco perché le reti di verifica come Mira sembrano meno strumenti di intelligenza artificiale e più come infrastrutture.
La domanda è se i futuri sistemi di intelligenza artificiale si affideranno a risposte di un singolo modello - o al consenso.
