Articolo su $MIRA

MIRA
--
--
Continuo a tornare a una domanda scomoda. Quando una risposta dell'IA appare più pulita, più sicura e più sicura, sta realmente migliorando o solo diventando più ristretta? @Mira - Trust Layer of AI $MIRA #Mira Questa è la parte della tesi di Mira che ha catturato la mia attenzione. Non la proposta ampia del "livello di fiducia dell'IA". L'affermazione più interessante è più profonda: allucinazioni e bias non sono due bug separati che puoi correggere uno per uno. Il whitepaper di Mira sostiene che sono collegati attraverso un dilemma di formazione. Nel suo inquadramento, le allucinazioni sono un problema di precisione, mentre il bias è un problema di accuratezza. Spingi forte da un lato e l'altro lato può peggiorare.