Con l’entrata in vigore nell’ottobre 2022 del Digital Services Act (DSA) l’UE ha inteso creare uno spazio digitale più sicuro in cui siano tutelati i diritti fondamentali degli utenti dei servizi digitali, mettendo le basi per una condizione di parità al fine di promuovere l’innovazione, la crescita e la competitività sia nel mercato unico europeo sia a livello globale.
Ciò comporta che gli attori privati delle piattaforme, considerate a tutti gli effetti servizi di pubblica utilità e parti essenziali dell’infrastruttura sociale, sono chiamati a rispondere alle nuove istanze di trasparenza e di responsabilizzazione.
Indice degli argomenti
Trasparenza e responsabilizzazione per le piattaforme online
In particolare, dovranno favorire la diffusione di informazioni pluralistiche e non inquinate, effettuare valutazioni d’impatto su eventuali rischi sistemici significativi derivanti dal funzionamento e dall’uso che viene fatto dei loro servizi nell’Unione e prevedere adeguate misure di mitigazione.
Tali misure sono soltanto alcuni degli adempimenti che dovrebbero limitare la discrezionalità delle piattaforme, rappresentando la “rivoluzione normativa” richiesta dalla società algoritmica e sostenuta principalmente con il Digital Services Act (DSA) e il Digital Markets Act (DMA), ma che comprende anche il GDPR, il Data Act, il Data Governance Act (DGA) e l’AI Act.
Infatti, il 25 aprile 2023 la Commissione europea ha pubblicato i nomi di 19 piattaforme che dovranno affrontare il livello più severo di regolamentazione ai sensi del DSA e il Commissario per il Mercato interno Thierry Breton, ha fatto sapere che sono 7, per ora, le società a finire sotto la sorveglianza della Commissione Ue nel quadro delle nuove regole antitrust previste dal Digital Markets Act.
Facebook e Twitter maggiori trasgressori del DSA
Nel contesto della prima pubblicazione semestrale del 2023 dei rapporti delle grandi piattaforme online sull’applicazione del codice di autodisciplina contro la disinformazione è emerso che Facebook e Twitter, ora noto come X, sono risultati i due principali trasgressori del DSA.
A tal proposito, l’Ue ha lanciato un allarme sulla disinformazione online, definendo Twitter come “la piattaforma con il maggior rapporto di post con cattiva informazione o disinformazione“.
La risposta del nuovo proprietario di X, Elon Musk, è stata quella di annunciare già nel maggio 2022 di ritirarsi dal Codice di Condotta sulla Disinformazione, in quanto considerato vago nella formulazione degli obblighi previsti e nella identificazione delle potenziali violazioni da parte delle autorità preposte.
Tuttavia, nonostante Twitter abbia successivamente abbandonato il codice di condotta, sarà obbligato a rispettare le regole ed affrontare un divieto imposto in tutta l’UE, poiché accusata da quest’ultima di generare un aumento dell’incitamento all’odio e alla misinformation.
Per quanto concerne Facebook, la piattaforma del gruppo Meta risulta essere stata il secondo peggior trasgressore della normativa considerati gli oltre 140mila post rimossi e più di 45mila cancellati soltanto in Italia, rappresentando circa il 33% dei contenuti falsi.
Infatti, complessivamente nel nostro Paese si è registrato il maggior numero di materiale rimosso ritenuto dall’UE “dannoso per la salute o di interferenza elettorale o sui censimenti”. La rimozione ha riguardato banner pubblicitari (Ads) e annunci elettorali cd. “Siep” – “social issues, elections or politics”.
Il secondo peggior Paese risulta essere la Germania con circa 22mila contenuti rimossi dal social network, meno della metà rispetto all’Italia; seguono la Spagna con 16 mila, i Paesi Bassi con 13 mila e la Francia con 12 mila.
Anche sulle piattaforme TikTok, Instagram e YouTube e sul motore di ricerca Google l’Italia ha registrato un record negativo, in relazione ad account falsi per oltrepassare il limite di età, profili non legati a persone reali o registrati sotto mentite spoglie, fake news, video a fini disinformativi e tentativi di pubblicare annunci elettorali da inserzionisti non verificati.
Quanto è facile diffondere fake news
La ricerca, sostenuta e finanziata dal Dipartimento di Psicologia dell’USC Dornsife College of Letters, Arts and Sciences, dalla USC Marshall School of Business e dalla Yale University School of Managemen, ha condotto uno studio sulla facilità di diffusione delle fake news all’interno dei social network.
In particolare, il gruppo di esperti ha suggerito tre punti chiave:
- la condivisione abituale della disinformazione non è inevitabile;
- gli utenti potrebbero essere incentivati a costruire abitudini di condivisione che li rendano più sensibili alla pubblicazione di contenuti veritieri;
- per ridurre efficacemente la disinformazione sarebbe necessario ristrutturare gli ambienti online che ne promuovono e supportano la condivisione.
Di tale avviso sembra essere anche Věra Jourová, Vicepresidente della Commissione europea per i valori e la trasparenza, la quale ha affermato che “uno dei vantaggi della disinformazione è che sia più prevedibile e più invitante,” e che, per questo motivo, gli attori della disinformazione abbiano più follower e seguito rispetto alle controparti non disinformatrici.
Inoltre, la Commissaria ha ampliato il l’intervento riferendosi anche all’utilizzo massiccio della propaganda russa relativamente alla guerra in Ucraina, all’incitamento all’odio in relazione alla migrazione, alle comunità LGBTQ+ e alla crisi climatica affermando che “lo Stato russo è impegnato in una guerra di idee per inquinare il nostro spazio informativo con mezze verità e bugie per creare una falsa immagine secondo cui la democrazia non è migliore dell’autocrazia” e che quindi le piattaforme maggiori devono affrontare il rischio di “un’arma di manipolazione di massa multimilionaria rivolta sia all’interno della Russia che al resto del mondo”.
In questo senso, Google ha coordinato nella prima metà del 2023 un’azione per impedire che oltre 31milioni di euro di pubblicità andassero agli attori della disinformazione chiudendo sulla piattaforma di condivisione YouTube 411 canali e 10 blog coinvolti in operazioni di influenza coordinate e collegate all’Internet Research Agency (Ira), macchina per la propaganda dello Stato russo.
Inoltre, la società informatica ha rimosso la pubblicità da quasi 300 pagine web collegate a “siti di propaganda finanziati dallo Stato” e ha respinto più di 140mila inserzionisti politici per “processi difficoltosi di verifica dell’identità”.
Conclusioni
L’epoca della “post-verità” si arricchisce ogni giorno non solo di fake news, ma anche di e-mail e documenti prima rubati e poi diffusi a fini geopolitici, incrementando in questo modo la propaganda di massa con operazioni di vera e propria intelligence e di controspionaggio informatico in cui l’obiettivo è quello di amplificare messaggi distorti e non veritieri.
La questione riguarda la sicurezza nazionale di ogni Paese e può coinvolgere anche tentativi di hackeraggio, diffusione di malware, spam e truffe finanziarie attraverso quello strumento potentissimo di amplificazione di cui è dotato ogni utente sulle piattaforme social.
In altri termini, le piattaforme dovranno disincentivare con il taglio dei contributi pubblicitari quei canali che divulgano materiale falso attraverso un controllo sulla correttezza delle informazioni, che si basi non solo su un sistema interno di verifica, bensì anche su soggetti esterni alla piattaforma, i cd. fact checkers.
In tal senso, Meta ha già ampliato il suo fact-checking a 26 partners che coprono più di 20 lingue nell’UE, tra cui anche il ceco e lo slovacco, considerate le elezioni chiave che si terranno in Slovacchia e in Polonia il 15 ottobre.