#mira $MIRA
Mira non lascia che i modelli indovinino il compito
Quello che sembra lo stesso output AI spesso non è lo stesso compito per modelli diversi.
Ogni modello riempie le lacune in modo diverso, ipotesi, ambito, enfasi.
Quindi il disaccordo non riguarda sempre la verità.
Riguarda spesso la discrepanza del compito.
Ciò che trovo interessante in Mira è che non inizia con la verifica.
Inizia correggendo il compito stesso.
Estraendo affermazioni e allineando il contesto, Mira si assicura che ogni modello giudichi esattamente la stessa cosa.
Quel cambiamento sembra piccolo, ma cambia ciò che significa consenso.