Continuo a pensare a come di solito cerchiamo di risolvere l'affidabilità dell'IA.

La risposta comune è semplice: costruire un modello più intelligente.

Ma cosa succede se il problema non è l'intelligenza?

Quello che @Mira - Trust Layer of AI sembra suggerire è che l'affidabilità potrebbe essere in realtà un problema di coordinamento.

Invece di fidarsi della fiducia di un modello, il sistema consente a diversi modelli indipendenti di valutare la stessa affermazione.

A volte sono d'accordo.

A volte non lo sono.

E quel disaccordo può rivelare errori che un singolo modello potrebbe perdere.

In questo senso, l'affidabilità smette di riguardare un modello perfetto.

Diventa una questione di quanto bene più sistemi si coordinano attorno alla stessa verità.

L'IA sarebbe considerata più affidabile se le risposte dovessero superare prima più controlli indipendenti?

$MIRA #Mira