Obblighi di trasparenza, responsabilità, controllo, sanzioni: sono le parole chiave che il Digital Services Act indica alle grandi piattaforme di Internet. Il co-direttore del centro Nexa Maurizio Borghi ci spiega l’atto europeo che vuole cambiare il mondo digitale.
Per i grandi portali con più di 45 milioni di utenti in Europa, da Google ad Amazon, il Digital Services Act (DSA) è entrato in vigore il 25 agosto: in nome della trasparenza dice ad esempio che i social devono consentire agli utenti di poter decidere se vedere i contenuti in ordine cronologico o se continuare ad affidarsi alle scelte degli algoritmi che si servono di dati personali.
Tra i punti affrontati dal documento ci sono inoltre le nuove linee per la moderazione dei post e per la protezione dei minorenni. L’ideazione del documento è iniziata ai tempi della pandemia, con i conseguenti pericoli di disinformazione, per proseguire poi durante la guerra russa in Ucraina. Il regolamento, considerato alla stregua di una nuova costituzione digitale dell’Ue, sarà effettivo per tutto il web dal 2024.
A cosa serve il DSA e quali effetti potrebbe avere: lo abbiamo chiesto a Maurizio Borghi, esperto di proprietà intellettuale e legge di internet, co-director del NEXA Center for Internet & Society.
Cosa cambia con il Digital Services Act (DSA) in Europa?
Cambiano molte cose, soprattutto per le piattaforme di grandi dimensioni come Meta, Google, Twitter e per i servizi di e-commerce, soggetti alla disciplina diversa del Digital Markets Act, un atto collegato. In due parole aumentano le responsabilità. Fino ad ora la legge metteva al centro le esenzioni dalle responsabilità per i contenuti caricati e condivisi dagli utenti. Oggi questo atto rappresenta un cambiamento radicale perché introduce degli obblighi.
Di che tipo di obblighi parliamo?
Obblighi importanti, pena la perdita dello status di piattaforma neutrale. Questo atto infatti inserisce delle sanzioni per le piattaforme che non rispettano determinati criteri molto complessi, come già avviene per la protezione dei dati, per il DPA: la Data Protection esiste fin dagli anni 90. In Europa, però, soltanto col GDPR vengono comminate delle sanzioni anche pesanti. Lo stesso approccio adesso viene applicato a tutte le piattaforme. Con il Digital Services Act le sanzioni possono arrivare fino al massimo del 6% del turnover annuale. Quindi mette in campo una minaccia seria.
In generale, gli algoritmi dei social possono proporre contenuti agli utenti in modo parziale, con il rischio di disinformarli: con il DSA la situazione può migliorare?
Introduce obblighi di trasparenza, bisognerà vedere come applicheranno tutto questo. Da un lato compaiono degli obblighi di rendere più trasparenti gli algoritmi, anche quelli più semplici, che per esempio raccomandano quali contenuti mostrare o qual è il prossimo video che può interessare all’utente. All’ordine di trasparenza, però fanno da contraltare segreti industriali e commerciali opposti a questi obblighi. Diventerà interessante capire come evolverà eventualmente anche la giurisprudenza su questo tema. Da un punto di vista teorico la situazione potrebbe migliorare perché appunto prima non esisteva nessun obbligo, adesso almeno sì. Poi vedremo la loro efficacia.
Una polemica in ambiti politici accusa la direttiva Ue sul Digital Services Act di mettere un bavaglio al web: è così?
Il rischio esiste ma in realtà il bavaglio c’era già. Non è che non ci fosse una censura da parte dei social media. Sono già ampiamente documentate delle intrusioni dei governi nella moderazione dei contenuti e abbiamo anche già delle sentenze che hanno riconosciuto questo. In America una sentenza recente ha condannato il governo proprio per aver esercitato pressioni sulle piattaforme e sui social media al fine di rimuovere certi contenuti o di disabilitare alcuni utenti. E l’America ha una grande tradizione, con il primo emendamento della Costituzione che rappresenta una forte tutela alla libertà di espressione. Però queste intrusioni dei governi e del potere politico in generale nei confronti delle piattaforme sono state documentate anche in Europa. Questo sicuramente configura un grosso problema e il Digital Services Act certamente rischia di aggravarlo.
Come il DSA agisce sul controllo dei contenuti?
Il nodo sta nei meccanismi di cosiddetta Soft Law, codici di comportamento che le piattaforme sottoscrivono volontariamente. Ad esempio per combattere discriminazione, disinformazione e hate speech, adesso con il DSA questi codici diventano – se non di diritto – obbligatori. Le piattaforme che non firmano codici di comportamento concordati con la Comunità europea e la Commissione diventano più a rischio di ispezioni e di sanzioni. Al momento le maggiori piattaforme fanno parte del codice di condotta sulla disinformazione, con alcune importanti eccezioni: Telegram non ha mai voluto entrare nel codice di comportamento e di fatto non opera nessuna censura dei contenuti. In secondo luogo il nuovo Twitter, o X: loro facevano parte di questo accordo e, da quando Elon Musk è diventato proprietario, hanno proprio deciso di uscire. Indubbiamente la tendenza al controllo e alla censura online già esistente da prima, con il Digital Services Act, riceve sicuramente un rafforzamento.
Proprio la moderazione dei contenuti emerge come nodo cruciale: il Digital Services Act chiede alle piattaforme sia di aumentare attenzione e risorse sia di creare team dedicati, pronti a intervenire quando gli utenti segnalano i post. Questi rimedi risultano efficaci e funzionali?
Questi sistemi appaiono inefficaci e assolutamente non funzionali. Sono documentati un sacco di casi di cosiddetti “falsi positivi”. Anche noi al centro Nexa abbiamo fatto un progetto per raccogliere queste informazioni. Da un lato il filtraggio automatico dei contenuti agisce tramite algoritmi e poi subentra un secondo livello che è quello dei moderatori: in realtà parliamo di persone che lavorano in modo sottopagato, con ritmi molto pesanti, costretti per 8 ore al giorno e più a vedere video terribili o leggere cose oscene, quindi con anche problemi psicologici legati a questa situazione. Quindi esiste un problema legato a questo tipo di moderazione dei contenuti che alla fine produce un sistema assolutamente inefficace.
Digital Services Act a parte, come avviene la gestione dei contenuti?
Ci sono certi contenuti che hanno più probabilità di essere moderati o di essere rimossi di altri. Questa è la realtà, anche in risposta a pressioni dei governi. Tutto ha inizio con la pandemia: le piattaforme hanno introdotto nei loro contratti misure per combattere la disinformazione sul Covid. Queste norme sono state usate poi in modo molto largo. Noi abbiamo documentato vari casi in cui risultava sufficiente una minima critica alla politica ufficiale di un governo per vedere il contenuto rimosso. Adesso questo accade con alcuni temi politicamente sensibili, la guerra in Ucraina ma non solo, anche per esempio l’indipendenza del Kurdistan e il caso Cospito. Davanti a tutte queste vicende legate a un dibattito politico acceso, molto diviso, le piattaforme di fatto censurano e rimuovono contenuti che non rientrano nella definizione di disinformazione o hate speech.
Per l’Europa, Meta sta valutando una versione premium a pagamento di Instagram e Facebook senza pubblicità. I social cercano di risolvere i problemi legati alla privacy, iniziando a far pagare agli utenti i loro servizi finora gratuiti?
È un fatto che seguo con attenzione perché effettivamente emerge una novità che sembrerebbe mettere in discussione un modello di business che queste piattaforme hanno utilizzato fin da quando sono nate. Io credo che alla fine nascerà una situazione ibrida: non penso che Meta rinuncerà completamente alla profilazione degli utenti e prenderà vita un livello di privacy probabilmente più rafforzato, quindi verrà chiesto esplicitamente il consenso, cosa che deve già fare adesso con le regole esistenti. Diciamo che alla fine uno paga una versione Premium per avere un livello Premium di rispetto dell’uso dei dati personali, quindi il rispetto della privacy. Però ripeto: non credo che rinunceranno completamente alla profilazione degli utenti e all’uso dei dati per la profilazione, però vedremo, ecco, questo diventerà uno sviluppo interessante.