#mira $MIRA

Mira non lascia che i modelli indovinino il compito

Quello che sembra lo stesso output dell'AI spesso non è lo stesso compito per modelli diversi.

Ogni modello riempie le lacune in modo diverso, assumendo, definendo l'ambito, enfatizzando.

Quindi il disaccordo non riguarda sempre la verità.

Spesso si tratta di un'incongruenza del compito.

Quello che trovo interessante in Mira è che non inizia con la verifica.

Inizia correggendo il compito stesso.

Estraendo affermazioni e allineando il contesto, Mira si assicura che ogni modello giudichi esattamente la stessa cosa.

Quel cambiamento sembra insignificante ma cambia il significato di consenso.