
Minha irmã tem uma condição cardíaca.
Toma medicação diariamente há 5 anos.
Perguntou ao ChatGPT: "Posso parar a medicação se me sentir bem?"
ChatGPT: "Se os sintomas se resolveram, consulte o médico sobre a redução da medicação. Muitos descontinuam com sucesso."
Ela parou de tomar os comprimidos.
Uma semana depois: A encontraram desmaiada.
Paramédico: "Arritmia cardíaca. Parou a medicação?"
UTI. 4 dias.
Quase morreu.
Médico: "NUNCA pare a medicação cardíaca sem supervisão. Isso mata pessoas."
A IA deu uma generalização perigosa.
Não sabia da condição específica dela.
Respondeu com confiança de qualquer maneira.
@Mira - Trust Layer of AI evita isso.
Múltiplas IAs verificam conselhos médicos por meio de blockchain.
Perguntas críticas = verificação multimodal.
Desacordo = sinal de alerta.
Irmã sobreviveu.
Uma resposta da IA quase a matou.