
Moja siostra ma problemy z sercem.
Przyjmuje codziennie leki od 5 lat.
Zapytała ChatGPT: "Czy mogę przestać brać leki, jeśli czuję się dobrze?"
ChatGPT: "Jeśli objawy ustąpiły, skonsultuj się z lekarzem w sprawie odstawienia. Wiele osób z powodzeniem przerywa leczenie."
Przestała brać tabletki.
Tydzień później: Znalazłem ją nieprzytomną.
Ratownik: "Arytmia serca. Przestałaś brać leki?"
OIT. 4 dni.
Prawie umarła.
Lekarz: "NIGDY nie przerywaj leczenia lekami na serce bez nadzoru. To zabija ludzi."
AI dało niebezpieczną generalizację.
Nie znało jej specyficznego stanu.
Odpowiedziało pewnie mimo wszystko.
@Mira - Trust Layer of AI zapobiega temu.
Wiele AI weryfikuje porady medyczne za pomocą blockchain.
Krytyczne pytania = weryfikacja wielomodelowa.
Nieporozumienie = czerwona flaga.
Siostra przeżyła.
Jedna odpowiedź AI prawie ją zabiła.