#mira $MIRA
Mira non lascia che i modelli indovinino il compito
Quello che sembra lo stesso output AI spesso non è lo stesso compito per modelli diversi.
Ogni modello riempie i vuoti in modo diverso, assumendo, definendo l'ambito, enfatizzando.
Quindi il disaccordo non riguarda sempre la verità.
Riguarda spesso il disallineamento del compito.
Ciò che trovo interessante in Mira è che non inizia con la verifica.
Inizia correggendo il compito stesso.
Estraendo affermazioni e allineando il contesto, Mira si assicura che ogni modello giudichi esattamente la stessa cosa.
Quella modifica sembra piccola ma cambia il significato di consenso.