La prima volta che ho visto un'IA inventare un fatto, ciò che mi colpì non fu l'errore. Era la fiducia. La risposta sembrava certa, anche se era sbagliata. Questo è il vero problema con le allucinazioni. Anche oggi, i modelli mancano ancora circa il 3-15 percento delle domande complesse.
@Mira - Trust Layer of AI cerca di affrontare questo problema aggiungendo un secondo livello di giudizio. Invece di lasciare che la risposta di un modello stia da sola, dozzine di validatori la esaminano prima. Se circa l'80 percento di loro rifiuta l'affermazione, il sistema la filtra prima che si diffonda.
Se la guardi in questo modo, l'accuratezza nell'IA inizia a somigliare a qualcosa di familiare. Non pura intelligenza, ma consenso.