Ho testato quasi tutte le AI che potevo trovare.
ChatGPT, Gemini, Claude, DeepSeek, Perplexity, Grok e molte altre.
All'inizio le risposte sembravano ottime. Spiegazioni chiare. Tono sicuro.
Ma dopo 7–8 messaggi nella stessa chat, le cose hanno iniziato a rompersi. Le istruzioni venivano ignorate. Le risposte precedenti venivano contraddette. A volte l'IA dimenticava ciò che aveva detto in precedenza.
La parte strana è questa: se inizi una nuova chat con un prompt dettagliato, la risposta diventa di nuovo migliore.
Questo mi ha fatto realizzare qualcosa.
L'IA di oggi può generare risposte. Ma ha ancora difficoltà con la coerenza e la verifica.
Ecco perché idee come @Mira - Trust Layer of AI sono interessanti. Invece di fidarsi ciecamente di un modello, si concentra sulla verifica delle uscite dell'IA attraverso controlli decentralizzati.
Perché quando le informazioni influenzano le decisioni, "probabilmente corretto" non è abbastanza buono.
Hai mai sperimentato l'IA che dava risposte peggiori man mano che la chat andava avanti?