Je pensais que les escroqueries ne pouvaient pas devenir plus effrayantes. Puis j'ai lu le rapport de cette semaine : les escroqueries alimentĂ©es par IA ont augmentĂ© de plus de 450 % au cours de la derniĂšre annĂ©e — deepfakes, fausses voix de PDG, bots de phishing, et mĂȘme des piĂšges romantiques ajustĂ©s par des modĂšles gĂ©nĂ©ratifs. ([TRM Labs])

Voici ce qui m'a marqué :

Les escroqueries par deepfake sont désormais courantes : les escrocs utilisent des vidéos ou des voix générées par IA (parfois en imitant des PDG comme Elon Musk) pour proposer de fausses offres "Doublez votre crypto". Les victimes ont perdu plus de 5 millions de dollars lors d'un seul flux en direct de deepfake. ([TRM Labs])

Les agents d'IA amplifient les attaques : les bots rassemblent des donnĂ©es personnelles, automatisent les dĂ©marches et crĂ©ent des tromperies hautement personnalisĂ©es Ă  grande Ă©chelle. Ce ne sont pas des messages alĂ©atoires — ils sont conçus pour vous faire confiance. ([TRM Labs])

Les escroqueries par "pig butchering" ont augmenté de 40 % : des schémas de manipulation à long terme utilisent des messages générés par IA pour établir de fausses relations avant de voler des cryptomonnaies. Cette tendance représente désormais une grande part des fonds perdus. ([Sumsub / Investopedia])

---

ce que je fais maintenant :

1. Si quelqu'un vous contacte en offrant des rendements énormes ? Faites une pause.

2. Je ne cliquerai pas sur un lien provenant d'un message vocal ou d'une vidĂ©o — surtout si cela semble urgent.

3. Je ne connecte des portefeuilles que sur des sites vérifiés.

4. Chaque usurpation, capture d'écran ou message urgent me fait maintenant vérifier deux fois avant d'agir.

Ce n'est pas seulement un risque de crypto. L'IA nous a tous transformés en cibles.

Ce n'est pas un conseil financier — c'est ma recherche et un avertissement. J'apprends encore, mais je ne suis plus pris au dĂ©pourvu.

— Lena đŸŒ±

$BTC $XRP $SOL