
Mia sorella ha una condizione cardiaca.
Prende farmaci quotidiani da 5 anni.
Ha chiesto a ChatGPT: "Posso smettere di prendere i farmaci se mi sento bene?"
ChatGPT: "Se i sintomi si sono risolti, consulta il medico riguardo la riduzione della terapia. Molti interrompono con successo."
Ha smesso di prendere le pillole.
Una settimana dopo: L'ho trovata svenuta.
Paramedico: "Aritmia cardiaca. Hai smesso di prendere i farmaci?"
terapia intensiva. 4 giorni.
Quasi morta.
Medico: "NON smettere mai di prendere farmaci per il cuore senza supervisione. Questo uccide le persone."
L'AI ha fornito una generalizzazione pericolosa.
Non conosceva la sua condizione specifica.
Ha risposto con sicurezza comunque.
@Mira - Trust Layer of AI previene questo.
Più AI verificano incrociando i consigli medici tramite blockchain.
Domande critiche = verifica multi-modello.
Disaccordo = bandiera rossa.
La sorella è sopravvissuta.
Una risposta dell'AI l'ha quasi uccisa.