#mira $MIRA

Mira non lascia che i modelli indovinino il compito

Quello che sembra lo stesso output AI spesso non è lo stesso compito per modelli diversi.

Ogni modello riempie i vuoti in modo diverso, assumendo, definendo l'ambito, enfatizzando.

Quindi il disaccordo non riguarda sempre la verità.

Riguarda spesso il disallineamento del compito.

Ciò che trovo interessante in Mira è che non inizia con la verifica.

Inizia correggendo il compito stesso.

Estraendo affermazioni e allineando il contesto, Mira si assicura che ogni modello giudichi esattamente la stessa cosa.

Quella modifica sembra piccola ma cambia il significato di consenso.