Am crezut că escrocheriile nu pot fi mai Ć®nfricoșătoare. Apoi am citit raportul din această săptămĆ¢nă: escrocheriile alimentate de AI au crescut cu peste 450% Ć®n ultimul an — deepfakes, voci false de CEO, roboți de phishing și chiar capcane romantice ajustate de modele generative. ([TRM Labs])

Iată ce mi-a rămas Ʈn minte:

Escrocheriile deepfake sunt acum comune: escrocii folosesc videoclipuri sau voci generate de AI (uneori imitĆ¢nd CEO-uri precum Elon Musk) pentru a promova oferte false de ā€žDublează-ți criptomonedaā€. Victimele au pierdut peste 5 milioane de dolari Ć®ntr-un singur live deepfake stream. ([TRM Labs])

Agenții AI scalează atacurile: roboții adună date personale, automatizează contactul și creează Ć®nșelătorii extrem de personalizate la scară. Acestea nu sunt mesaje aleatorii — sunt adaptate pentru a te face să ai Ć®ncredere. ([TRM Labs])

Escrocheriile de tip ā€žPig butcheringā€ au crescut cu 40%: schemele de manipulare pe termen lung folosesc mesaje generate de AI pentru a construi relații false Ć®nainte de a fura criptomonede. Această tendință reprezintă acum o mare parte din fondurile pierdute. ([Sumsub / Investopedia])

---

ce fac acum:

1. Dacă cineva te contactează oferindu-ți cĆ¢teva randamente uriașe? Pauză.

2. Nu voi face clic pe un link dintr-un mesaj vocal sau video — mai ales dacă pare urgent.

3. Conectez doar portofele pe site-uri verificate.

4. Fiecare impersonare, captură de ecran sau mesaj urgent mă face acum să verific de două ori Ć®nainte de a acționa.

Nu este vorba doar de riscul criptomonedelor. AI ne-a transformat pe toți Ć®n ținte.

Aceasta nu este o recomandare financiară — este cercetarea mea și un avertisment. Ǝncă Ć®nvăț, dar nu mai sunt nepregătit.

— Lena 🌱

$BTC $XRP $SOL