Le truffe nei social media rubano miliardi, eppure non c’è ancora un modo efficace per fermarle

0
1

“Purtroppo attori malevoli e piattaforme social vivono in una sorta di simbiosi basata sul profitto”, risponde. “Innanzitutto, le piattaforme incentivano i creator a massimizzare i propri guadagni attraverso la monetizzazione, così da poter a loro volta aumentare i ricavi derivanti dagli annunci pubblicitari. Creator e piattaforme finiscono quindi per condividere gli stessi obiettivi: trattenere gli utenti il più a lungo possibile sulla piattaforma e spingerli a pubblicare contenuti con maggiore frequenza. Il risultato finale è un aumento dello spazio disponibile per inserire pubblicità”.

“Dal momento che la pubblicità digitale è il principale modello di business delle piattaforme, queste ultime hanno pochi incentivi a escludere gli inserzionisti. I social media possono sottolineare nei propri report di trasparenza di aver rimosso milioni di annunci pubblicati da attori malevoli, ma c’è una parte della storia che manca quasi sempre: per quanto tempo quegli inserzionisti fraudolenti sono rimasti attivi? Quale percentuale degli annunci truffaldini segnalati dagli utenti viene effettivamente rimossa ogni anno? E quanti soldi hanno guadagnato le piattaforme grazie a quegli stessi soggetti?”, continua.

La stessa Meta dichiara di aver rimosso 134 milioni di annunci fraudolenti nel 2025 ma, in un report interno, afferma che gli utenti erano esposti ogni giorno a 15 miliardi di annunci fraudolenti “ad alto rischio”. La sproporzione risulta quindi evidente. Wired Italia ha contattato anche Meta, che ha preferito non commentare i dati della Federal Trade Commission.

Come dovrebbero cambiare i social media per disincentivare le truffe

E dire che le soluzioni ci sono. Secondo Iesha White, “un cambiamento che potrebbe produrre risultati significativi sarebbe introdurre controlli rigorosi di Know Your Customer (KYC) prima di consentire agli inserzionisti di pubblicare annunci”. Così facendo, si passerebbe da un approccio reattivo a un filtro preventivo. “Questo approccio dovrebbe essere la norma, ma oggi viene applicato in modo sorprendentemente disomogeneo tra grandi piattaforme come Meta, TikTok, LinkedIn e altre. Alcune piattaforme non richiedono nemmeno una prova d’identità, come una patente, per avviare campagne pubblicitarie”.

“Le piattaforme possono sostenere di adottare un approccio basato sul rischio, effettuando controlli più approfonditi solo dopo che viene superata una certa soglia di spesa pubblicitaria”, conclude White. Fatta la legge, trovato l’inganno: “Questo lascia ampio margine ai truffatori per creare un numero potenzialmente infinito di piccole pagine che lanciano molte campagne brevi”.

Digital services act e non solo: il ruolo delle normative europee

Daria Onitiu, ricercatrice presso l’Hasso-Plattner-Institut di Potsdam, in Germania, sottolinea che anche le normative possono cambiare le cose. “La Commissione europea riconosce questo problema e, con il Digital services act, impone alle piattaforme online e ai motori di ricerca di grandi dimensioni di valutare e mitigare i rischi sistemici legati alla diffusione di contenuti illegali. Questo include anche misure per individuare contenuti fraudolenti e ridurre i rischi legati alle truffe finanziarie”, spiega. “A queste disposizioni si aggiungerà il futuro Payment Services Regulation, complementare agli obblighi già previsti dal Digital Services Act: il nuovo regolamento prevede che le piattaforme online possano essere ritenute responsabili quando sono consapevoli che i propri servizi vengono utilizzati da truffatori e, nonostante ciò, non rimuovono i contenuti fraudolenti”.