Minori a rischio nelle spire del web: l’Europa interviene
Il Digital Service Act inizia ad impattare sul sistema (e i profitti) delle big tech.
Nelle ultime settimane la Commissione Europea ha emanato alcuni provvedimenti in nome del Digital Service Act (DSA) e del Digital Market Act (DMA) siglati e ufficializzati definitivamente in febbraio con lo scopo di rendere l’ambiente digitale sicuro e rispettoso dei diritti fondamentali degli utenti. I primi e principali destinatari di questa mission di tutela sono i minori e le minori: un target a rischio di manipolazione e condizionamento su cui l’Europa sta concentrando la propria attenzione dettando linee guida eque e paritarie tra le piattaforme e gli intermediari digitali (marketplace online, social network, piattaforme di condivisione di contenuti…).
Cosa sono le VLOPe i VLOSE e perché competono al Digital Service Act
Il Digital Services Act e il Digital Market Act (DMA) nascono per definire linee guida condivise in termini di trasparenza e parità tra le migliaia di aziende del digitale (grandi piattaforme digitali, fornitori di cloud e di hosting, motori di ricerca, ecommerce e servizi online). Il quadro giuridico delineato a seguito di questi protocolli di controllo garantirebbe la sicurezza degli utenti online e l’attuazione di una governance che faciliterebbe l'innovazione, la crescita e la competitività tra imprese nel pieno rispetto dell’etica, sia nel mercato unico europeo che su scala globale.
In particolare i provvedimenti si concentrano sulle grandi piattaforme digitali (VLOP=Very Large Online Platforms) e grandi motori di ricerca (VLOSE=Very Large Online Search Engines) in merito a algoritmi, pubblicità, contrasto alla violenza online e alla profilazione degli utenti.
VLOP e VLOSE vengono definiti tali in base all’impatto che hanno sui fruitori in termini numerici: oltre 45 milioni di utenti nell'UE. Oltre a rispondere alle norme e alle istanze del DSA, le grandi piattaforme sono anche chiamate a concorrere alle spese del sistema di controllo sulla base di una tassazione che la Commissione elabora e ripartisce a seconda del numero di utenti serviti. Una volta individuati, VLOP e VLOSE hanno 4 mesi di tempo per adempiere al DSA e identificare, analizzare e valutare i rischi sistemici cui i servizi gestiti sottopongono gli/le utenti europei/e con particolare riferimento a:
-
contenuto illegale
-
diritti fondamentali, quali la libertà di espressione, la libertà e il pluralismo dei media, la discriminazione, la tutela dei consumatori e i diritti dei bambini
-
sicurezza pubblica e processi elettorali
-
violenza di genere, sicurezza e salute pubblica, tutela dei minori e benessere mentale e fisico
Dall’obbligo di analisi e valutazione del rischio si passa poi alla rendicontazione delle misure messe in atto per mitigare tali rischi, alla verifica da parte di un revisore indipendente almeno una volta all'anno, alla condivisione dei dati con la Commissione Europea e le autorità nazionali di riferimento, alla copertura della quota designata e ala dimostrazione di opzioni che non si basino sulla profilazione dell'utente.
Primi atti del DSA e tutela dei minori: l’effetto rabbit hole connesso al rischio digitale
Tutti abbiamo sperimentato, sia durante ricerche online che ad fuori del web, il movimento vorticoso e spiraliforme con cui la nostra mente procede seguendo associazioni di idee, intuizioni, ricordi, anticipazioni, deduzioni e ipotesi: il processo creativo e investigativo che sottende e fonda la conoscenza e soddisfa la curiosità umana è stato oggetto di osservazione da sempre, costituendo un’affascinante materia di studio multidisciplinare, attenendo ad esempio l’ambito del comportamento degli emisferi cerebrali o degli stili di apprendimento.
In ambito digitale questo funzionamento della mente, intesa nella sua più vasta e molteplice accezione, non è però orientato e alimentato solo dal soggetto o dal contesto, bensì da quello che genericamente viene definito algoritmo o sistema. È infatti l’impostazione a monte della piattaforma o del motore di ricerca che determina in modo pervasivo la nostra esperienza di conoscenza e scoperta per lo più, e questo è il punto, a nostra insaputa e facendoci dimenticare puntualmente questa ormai arcinota realtà.
Tale fenomeno è stato chiamato effetto rabbit hole e ben descrive la sensazione di cadere in un percorso labirintico in cui gli utenti possono essere trascinati in una serie continua di contenuti correlati, venendo distolti dal loro obiettivo iniziale e lambendo aree e argomenti o immagini non desiderati o non appropriati.
Tutto ciò è da immaginare amplificato ed esasperato nel caso di bambini/e e ragazzi/e, soprattutto qualora abbiano bisogni di apprendimento speciali o scarsa capacità discriminativa per le più diverse ragioni: la curiosità, motore primo del processo di apprendimento e conoscenza, è in questo caso distorta e addescata dal sistema in un modo che non può essere previsto né arginato dal soggetto stesso, poiché risponde a logiche estranee al suo campo di esperienza e non pertinenti al contesto in cui la persona, il/la minore in questo caso, è immersa.
Ecco perché tra le sue prime azioni, nel mese di maggio la Commissione Europea ha avviato ufficialmente un'indagine su Meta che secondo le verifiche effettuate è sospettata di innescare forme di dipendenza tra i bambini/e che possono concretamente compromettere il loro benessere psicoemotivo e il loro sviluppo sociale e affettivo. Il procedimento si concentra in primis:
-
sull’effetto rabbit hole e la proposta indiscriminata di contenuti inappropriati e non funzionali relativi all'immagine corporea
-
sugli strumenti di verifica dell'età messi in atto da Meta
-
sulla privacy policy per i minori
DSA 2024: indagini e provvedimenti a 360°
Altri provvedimenti attuati in questi mesi in forza del DSA e non esclusivamente focalizzati sui minori riguardano:
-
Indagini per scarsa moderazione a carico di alcune imprese operanti online: la moderazione mediata dalle macchine non è sufficiente a discriminare contenuti appropriati o meno (come risaputo) e le indagini dell’UE hanno rilevato che in alcuni casi risulta inadeguato (quando non addirittura ulteriormente diminuito a seguito di tagli del personale) il numero di persone impiegate presso le VLOP e i VLOSE al cui giudizio è affidata la rimozione dei contenuti, la sospensione o il blocco degli account, l'evitamento o l'ostacolo al verificarsi e reiterarsi di forme di violenza.
-
Indagini relative alla gestione di rimborsi, reclami e ricorsi che si perdono nel tempo e nei labirintici black holes del web.
-
Indagini relative alla trasparenza dei parametri che orientano la raccomandazione, i fattori di input, i metadati, la profilazione degli utenti o meglio le opzioni offerte agli utenti per rinunciare a essere profilati: nello specifico queste ultime sono alcune delle informazioni richieste a Amazon e che la big tech dovrà fornire entro il 26 luglio 2024.