#mira
Mira Stabilisce Cosa Viene Chiesto di Verificare ai Modelli
È allettante pensare che la verifica dell'IA migliori semplicemente utilizzando modelli di verifica più forti o più sofisticati. Ma più studio come sono strutturati gli output dell'IA, più vedo che l'instabilità non è nei modelli, ma nell'input che ricevono.
Il testo dell'IA spesso raggruppa più affermazioni, lascia le assunzioni implicite e mantiene il campo flessibile. Così ogni verificatore finisce per ricostruire il compito in modo leggermente diverso.
Questo è il livello che Mira fissa per primo.
Prima che qualsiasi modello giudichi qualcosa, Mira decompone l'output in affermazioni atomiche e allinea il contesto affinché il compito diventi identico tra i verificatori. Ora i modelli non stanno interpretando il testo, stanno valutando la stessa affermazione definita.
Questo è ciò che spicca per me in Mira:
não inizia rafforzando i verificatori.
Stabilizza ciò che viene chiesto di verificare.
E quel cambiamento è ciò che rende la verifica multi-modello davvero affidabile.
@Mira - Trust Layer of AI $MIRA
{spot}(MIRAUSDT)