Nota dell'editor: Quando si combinano intelligenza artificiale, raccomandazione algoritmica e speculazione crittografica, i meme vengono "fabbricati" online in modo sistematico per raccogliere attenzione e denaro.
Questo articolo inizia con una serie di contenuti virali offensivi sulle piattaforme sociali, rivelando come queste tendenze apparentemente ridicole servano a pubblicare truffe crittografiche. Ci ricorda che quando la popolarità non è più generata organicamente ma è progettata per il profitto, Internet diventa più caotico e pericoloso.
Ecco l'articolo originale:
L'autore di questo articolo, noto online come Etymology Nerd, è autore del libro "Algospeak: come i social media stanno rimodellando il linguaggio".
Quest'anno, è emerso un nuovo aspetto preoccupante e fastidioso su Instagram Reels: i meme offensivi vengono creati sistematicamente per promuovere frodi sulle criptovalute - e quasi nessuno cerca di rimuoverli seriamente.
Da gennaio di quest'anno, un gruppo di personaggi bizzarri e distorti ha iniziato a diffondersi su questa piattaforma sociale. L'emergere di questo fenomeno è strettamente legato alla disponibilità diffusa di strumenti di intelligenza artificiale e alla regolamentazione del discorso d'odio su Meta.
Questi includono "George Droid", un "avatar cyborg" ispirato a George Floyd che è stato creato ad aprile di quest'anno per promuovere una criptovaluta chiamata $FLOYDAI; e "Kirkinator", nato a settembre poco dopo la morte del commentatore politico Charlie Kirk, è stato utilizzato per amplificare il token $KIRKINATOR. Inoltre, ci sono una serie di immagini di "compagni" ricorrenti come "Epstron" e "Diditron", rispettivamente in riferimento a Jeffrey Epstein e al rapper Sean Combs (noto anche come Diddy).
Questi account esistono nello stesso mondo narrativo e spesso guadagnano traffico soddisfacendo stereotipi razzisti e antisemiti, accumulando milioni di visualizzazioni. I video brevi presentano spesso un linguaggio discriminatorio e ruotano ripetutamente attorno alla teoria del complotto del cosiddetto "genocidio".
L'unico scopo di questo contenuto scioccante è generare interazione e partecipazione. L'obiettivo finale è indirizzare l'attenzione del pubblico verso le cosiddette "memecoin", un tipo di criptovaluta che teoricamente aumenta di valore man mano che i meme si diffondono. Le prime memecoin (come $DOGE) hanno principalmente beneficiato della cultura internet attuale, mentre le immagini derivate come George Droid e i suoi simili sono creazioni interamente artificiali da parte di speculatori delle criptovalute.
Questo schema inizia solitamente con pump.fun, una piattaforma che consente agli utenti di registrare e scambiare facilmente token digitali. Una volta che uno sviluppatore crea un nuovo token distintivo, lo condivide in un gruppo Telegram fidato o in una comunità X, dove gli investitori scambiano idee su come aumentare artificialmente l'interesse per il meme pertinente, noto come "mindshare". Poi usano l'intelligenza artificiale per creare video provocatori, nella speranza di far diventare virale il meme e attrarre i "novizi" - coloro che non sono a conoscenza della cultura delle meme coin ma che potrebbero essere attratti come investitori al dettaglio. Dopo l'aumento del prezzo della valuta, il gruppo di base iniziale sceglierà di "tirare la tappeto", vendere le proprie partecipazioni, incassare e uscire con i profitti.
In effetti, spesso le persone reali che acquistano questi token sono solo poche migliaia. Tuttavia, poiché la barriera per creare criptovalute e lanciare contenuti generati dall'intelligenza artificiale è estremamente bassa, i creatori di criptovalute possono facilmente riavviare questo ciclo, sfruttando la "fabbricazione di fenomeni culturali".
Allo stesso tempo, questi meme iniziano spesso a "crescere organicamente". Quando altri creatori si rendono conto del loro potenziale virale, li imitano e li riproducono per denaro o influenza online. I personaggi "Kirkinator" e "George Droid" sono stati ripetutamente utilizzati da vari personaggi di internet che non hanno alcun legame con i creatori originali dei meme.
Tuttavia, con ogni ripetizione, i truffatori delle criptovalute continuano a trarne vantaggio. Ad esempio, a ottobre, un tweet su Kirkinator ha ottenuto 8 milioni di visualizzazioni, causando un aumento del prezzo della criptovaluta Kirkinator di cinque volte, solo per tornare indietro nei giorni successivi. Per quegli investitori che hanno venduto al suo picco, il profitto si basava su milioni di utenti di X che guardavano il video - dove il contenuto era "George Droid ucciso da Kirkinator dopo aver rubato i file di Epstein".
Sfortunatamente, più un video è accattivante, più è facile che diventi virale. Le immagini violente e offensive possono attrarre più commenti e tempi di visualizzazione più lunghi, entrambi premiati. I creatori di criptovalute hanno imparato a sfruttare questo meccanismo per ottenere guadagni personali. Anche gli utenti di Instagram o X che non sono a conoscenza di queste criptovalute possono trovarsi esposti ripetutamente a contenuti clickbait estremamente fastidiosi.
Siamo attratti in un vortice: siti di criptovaluta organizzati in modo informale, strumenti di intelligenza artificiale facilmente accessibili e piattaforme sociali che consentono la diffusione di meme offensivi, tutti sovrapposti l'uno sull'altro.
In qualità di ricercatore sull'evoluzione del linguaggio di internet, sono profondamente preoccupato da questo: le tendenze online vengono create artificialmente, con l'unico scopo di manipolarci. Non possiamo più essere certi che i meme "si manifestino naturalmente" - potrebbero essere in qualsiasi momento parte di una serie guidata dal profitto.
Anche se il meme non è stato creato direttamente da un truffatore delle criptovalute, viene quasi sempre scelto da loro immediatamente. Ogni nuovo riferimento culturale viene rapidamente codificato su pump.fun e pompato artificialmente, tutto per far sì che alcune persone ne traggano profitto.
Il risultato finale è che tutti noi siamo diventati più disconnessi dalla realtà. Vengono inventati sempre più meme o amplificati, costringendo gli utenti di internet a chiedersi costantemente cosa possano davvero credere; l'esposizione costante a questo ambiente di discorso tossico lo fa sembrare più "accettabile". L'unica via d'uscita è combattere per riprendere internet e fermare coloro che cercano di avvelenarlo.


