Una volta pensavo che man mano che l'IA diventava più grande e intelligente, alla fine avrebbe smesso di inventare cose. Pensavo che se le avessimo fornito abbastanza dati e più potenza di elaborazione, sarebbe finalmente diventata una fonte perfetta di verità. Ma mi sono reso conto che non è affatto così che funzionano questi modelli. Non importa quanto si scalino, continuano a indovinare in base alla probabilità, il che significa che possono comunque essere errati con un alto livello di fiducia. Questo è ciò che le persone chiamano il confine immutabile delle prestazioni dell'IA. È un muro che ogni singolo modello alla fine colpisce.
Ho iniziato a cercare un modo per fidarmi realmente di ciò che stavo leggendo senza dover controllare manualmente ogni frase io stesso. È così che ho trovato Mira. Invece di chiedere semplicemente a un'enorme IA e incrociare le dita, questa rete scompone ciò che dice l'IA in piccole affermazioni specifiche. Poi, invia quelle affermazioni a un sacco di modelli diversi gestiti da persone diverse. È come avere una giuria invece di un singolo giudice. Se la maggioranza di questi modelli indipendenti concorda che un'affermazione è vera, ricevo un certificato di prova.
"Un singolo modello sarà sempre vittima dei propri pregiudizi nascosti ed errori casuali."
Per me, questa è la dura verità del mondo tecnologico. Non possiamo fare affidamento su un'unica scatola nera per essere il nostro padrone. Con Mira, il potere è distribuito. Mi piace sapere che la verifica proviene da un gruppo diversificato di controllori che devono mettere in gioco il proprio interesse per partecipare. Questo rende le informazioni solide e affidabili. Questo è importante per me perché voglio usare l'IA per cose che contano davvero.