Un problema continua a sorgere mentre trascorro più tempo a ricercare l'IA: l'IA sembra sicura, ma la sicurezza non equivale alla verità. Anche se la maggior parte dei modelli linguistici di oggi sono estremamente potenti, si basano comunque sulla probabilità. Usano schemi nei dati di addestramento per prevedere la prossima parola. Oltre a spiegare perché si verificano le allucinazioni, di solito funziona bene. Inizialmente credevo che modelli migliori sarebbero stati l'unico modo per risolvere il problema. set di dati più ampi, addestramento migliorato e maggiore potenza di elaborazione. Tuttavia, più studiavo iniziative come
Disclaimer: Include opinioni di terze parti. Non è una consulenza finanziaria. Può includere contenuti sponsorizzati.Consulta i T&C.