Di recente ho trascorso un pomeriggio cercando di far aiutare un'IA a redigere un documento legale sensibile, ed è stato un totale disastro. Continuava a inventare giurisprudenza che non esisteva e mi guardava dritto negli occhi digitali mentre lo faceva. È in quel momento che mi sono reso conto che, sebbene questi modelli siano brillanti nel parlare, sono terribili nel fare affermazioni corrette. Stiamo tutti vivendo in questa strana era in cui abbiamo la biblioteca più potente del mondo a portata di mano, ma metà dei libri è piena di bugie. Ecco perché ho iniziato a esplorare Mira. Dalla prospettiva di un utente, sembra una verifica della realtà molto necessaria per Internet. Invece di prendere per buona la parola di un chatbot, il sistema scompone la scrittura complessa in piccole affermazioni individuali. È come portare un'auto sospetta a cinque meccanici diversi contemporaneamente per vedere se tutti trovano la stessa perdita nel motore. Se non sono d'accordo, l'affermazione viene segnalata. Non si tratta più di un modello "divino" ma di una comunità di diverse prospettive di IA che controllano il lavoro degli altri. È un po' come una giuria per le informazioni. Dobbiamo affrontare il fatto che "fidarsi ciecamente di un'unica rete neurale è una ricetta per un disastro digitale". Mira cambia la dinamica assicurandosi che nessuna singola entità possa guidare la verità. Mi offre un modo per verificare effettivamente i calcoli o i fatti prima di inviare qualcosa di importante. È meno riguardo alla tecnologia sofisticata e più riguardo a garantire che gli strumenti che usiamo ogni giorno non ci deludano quando conta. Mi fa sentire come se avessi finalmente una rete di sicurezza.
$MIRA #Mira @Mira - Trust Layer of AI