TUTELA DEI CONSUMATORI E PLURALISMO NEI MERCATI DIGITALI
Al centro dell’economia digitale, che appare in continua evoluzione, si trovano le multinazionali operanti nel settore, le quali si rivelano capaci di un’ampia capitalizzazione, principalmente attraverso l’utilizzo dei dati degli utenti. Quest’ultimi, infatti, vengono profilati al fine di offrire un’offerta di servizi e di prodotti commerciali quanto più mirata possibile alle preferenze dei consumatori. In quest’ottica ha rilievo la grandezza delle piattaforme operanti nel sistema, che pone una barriera all’ingresso dei potenziali concorrenti, determinando un assetto oligopolistico del mercato da parte delle c.d. piattaforme «ecosistema», inducendo un abuso delle posizioni apicali, creando condizioni poco trasparenti nei rapporti con gli operatori commerciali, e determinando una minore innovazione tecnologica, soprattutto da parte delle start-up, vittime delle c.d. killer acquisitions.
Sotto il profilo fiscale, emerge senz’altro l’abilità delle piattaforme maggiori di creare meccanismi di “profit shifting”, creando strutture societarie delocalizzate e sfruttando i diversi regimi fiscali nazionali, in modo da ridurre al minimo l’imposizione fiscale che va a gravare sui guadagni realizzati.
Nella specie, Apple, la cui società madre si trova a Cupertino negli Stati Uniti, ha costituito, nel corso degli anni Ottanta Apple Operations International (AOl) che costituisce la holding del gruppo, che ha sede in Irlanda. Quest’ultima detiene il capitale di altre due società, rispettivamente di secondo (Apple Operations Europe) e di terzo livello (Apple Sale International), le quali detengono la maggior parte dei diritti di proprietà intellettuale del gruppo. In questo modo, i profitti ottenuti negli Stati Uniti vengono sostanzialmente compensati dal pagamento dei diritti di proprietà intellettuale delle società con sede in Irlanda, paese nel quale l’aliquota fiscale è notevolmente più bassa di quella statunitense.
Simili meccanismi sono difficilmente contrastabili da parte dei singoli paesi; proprio per questo, diversi Stati membri hanno concluso accordi di ruling, compatibilmente con la normativa europea sugli aiuti di Stato. Sarebbe, però, necessario, raggiungere un’intesa non solo all’interno dell’Unione europea, ma occorrerebbe un accordo globale.
Anche gli strumenti tipici del diritto antitrust potrebbero sopperire alla mancanza di un accordo globale in merito ad una tassazione uniforme delle imprese digitali. Sfortunatamente, predetti strumenti intervengono solo ex post, quando l’illecito si è già verificato, e pertanto risultano insufficienti. Neppure la costrizione per le piattaforme dominanti alla condivisione dei dati in proprio possesso risulta efficace, in quanto non si tratta di asset insostituibili, ma riproducibili all’infinito, semplicemente tracciando attività degli utenti del web. In altri termini, i big data hanno un valore che cambia in rapporto alla loro istantaneità e alla loro quantità. Qualunque sanzione che intervenga in un momento successivo risulta inefficace rispetto all’obiettivo di consentire l’accesso al mercato a nuovi operatori.
Data la difficoltà di applicazione delle norme antitrust ai mercati digitali, la Commissione europea ha presentato nel 2020 una proposta normativa di regolamentazione delle piattaforme online (c.d. DMA, Digital Markets Act), per ridurre l’impatto anticoncorrenziale causato dai monopoli nel settore. Il testo vuole anticipare l’effetto delle misure restrittive, con una regolamentazione applicabile ex-ante.
Gli scopi del DMA sono quelli dicontenere la posizione dominante delle grandi piattaforme online e favorire un sistema economico nel quale anche le imprese europee di minori dimensioni e di ridotto potere di mercato possono partecipare al mercato dei dati.
Le disposizioni impongono obbligazioni extra alle piattaforme che hanno una quota rilevante di mercato, sia in termini di fatturato che di utenti attivi su una data piattaforma, denominate «gatekeepers». Le previsioni stabiliscono vari obblighi, divisi tra quelli autonomamente applicabili – tra cui tutte le fattispecie riconducibili agli abusi di sfruttamento – e quelli suscettibili di essere ulteriormente specificati da parte della Commissione – tra cui le pratiche c.d. leganti, tra cui divieto di costringere gli operatori commerciali ad utilizzare un servizio della piattaforma.
Alcuni obblighi risultano quali rimedi preventivi delle abituali violazioni della concorrenza e del regolamento sulla tutela dei dati personali, con il rischio di creare una sorta di sovrapposizione tra i vari settori normativi dell’ordinamento dell’Unione Europea, in cui gli strumenti normativi che stabiliscono i rimedi procedurali nei vari dei settori in esame, prevedono analoghi poteri di indagine e simili poteri sanzionatori.
L’autorità di controllo potrebbe, infatti, richiedere informazioni sia nell’ambito di un’analisi del settore, che informazioni specifiche all’impresa sottoposta alle indagini; ovvero effettuare accertamenti in loco.
In particolare, si rilevano somiglianze tra il potere sanzionatorio riconosciuto alle diverse autorità (DMA, antitrust e protezione dei dati personali) competenti nei medesimi settori considerati, in quanto dispongono del potere di imporre misure provvisorie, di imporre impegni e di erogare sanzioni.
Cosa potrebbe quindi accadere nel caso in cui tutti i sistemi normativi si possono applicare contemporaneamente? Il dubbio che vi sia una duplicazione sia dei poteri di indagine che di quelli sanzionatori in capo a diverse autorità competenti è alto.
E’ necessario specificare che i tre gruppi normativi rispondono a logiche divergenti, quindi non vi è una sovrapposizione tra i diversi settori normativi e, di conseguenza, nemmeno nell’applicazione delle sanzioni.
Perciò, nell’ ipotesi in cui una determinata impresa violi con un comportamento, tutti e tre i settori normativi considerati, ogni autorità in definitiva può, nei limiti dei rispettivi regolamenti attributivi del potere, irrogare le proprie sanzioni, sommandosi quindi le varie sanzioni.
Qual è la conseguenza? Si potrebbe arrivare a disporre ad una determinata piattaforma sanzioni che, nell’insieme ammontano al 24% del fatturato globale dell’impresa: cifra tale da scoraggiare anche imprese di grandi dimensioni dal porre in essere comportamenti abusivi.
In questo modo, si porrebbe un freno allo strapotere delle multinazionali operanti nel settore, favorendo la concorrenza e lo sviluppo di imprese più piccole.
L’enorme crescita economica delle piattaforme operanti all’interno del mercato digitale è certamente dovuta non solo allo sfruttamento di dati degli utenti che vengono profilati, ma va di pari passo con la crescita del commercio elettronico, il quale ha subito un forte incremento a seguito della pandemia da Covid-19. Predetta crescita ha portato all’attenzione il tema dell’armonizzazione del diritto dei consumatori per promuovere un mercato unico digitale, che per le imprese significherebbe avere un quadro giuridico unitario, predisponendo di modelli contrattuali simili per tutti i consumatori residenti nell’Unione Europea, e permettendo quindi, soprattutto alle piccole e medie imprese, di ampliare il loro mercato oltre i confini nazionali.
Proprio nell’ottica di armonizzazione il legislatore europeo ha scelto quali aspetti lasciare al singolo diritto nazionale e quali armonizzare per superare gli ostali alla creazione del mercato unico digitale, bilanciando il principio di sussidiarietà con quello di proporzionalità. L’uniformazione, di fatto, è intervenuta sulle norme inerenti i seguenti aspetti:
– gli obblighi di informativa contrattuale e sul diritto di recesso, relativamente ai contratti a distanza quale è il contratto concluso online.
– in riferimento alla portabilità transfrontaliera di servizi di contenuti online nel mercato interno.
– in riferimento alla materia relativa alla protezione dei dati personali.
Per perseguire questo fine l’Unione Europea nel 2019 ha adottato due direttive, la n. 770 sulla fornitura di contenuti e servizi digitali e la n. 771 sulla vendita di beni, ivi compresi i beni digitali. Entrambe hanno quale ambito soggettivo di applicazione i contratti tra professionista e consumatore.
La direttiva n. 770/2019, nello specifico, indica agli Stati membri di considerare professionisti i fornitori di piattaforme che non solo facilitano l’instaurazione del rapporto contrattuale, ma fissano i termini e le condizioni generali di contratto, fornendo quindi un servizio che supera la mera intermediazione.
Si è compreso che la chiave per tutelare sia il consumatore che l’autonomia privata, fosse imporre al professionista di fornire al consumatore informazioni chiare, così da poter superare le asimmetrie informative, poiché solo un consumatore informato degli obblighi e dei diritti derivanti dalla stipulazione del contratto, può, infatti, compiere scelte consapevoli.
Il legislatore europeo indica poi sia i requisititi di conformità soggettivi che oggettivi nel rapporto tra il bene e il servizio digitale. Quanto a quelli soggettivi, il servizio digitale è conforme al contratto se corrisponde alla descrizione, al tipo, alla quantità o alla qualità contrattuale e possiede la funzionalità, la compatibilità, l’interoperabilità e le altre caratteristiche previste dal contratto, nonché idoneo all’uso voluto dal consumatore. Quanto a quelli oggettivi, il servizio digitale perché sia conforme deve essere idoneo agli scopi per i quali sarebbero impiegati normalmente beni con elementi digitali o servizi digitali del medesimo tipo.
Ci si è domandati se disposizioni a tutela del cliente trovino applicazione nel caso in cui le parti stipulino uno smart contract. Lo smart contract è per definizione un protocollo di transazione computerizzato che esegue i termini di un contratto. All’interno degli stessi è presente non solo il codice di esecuzione, ma anche quello di descrizione dell’accordo. Caratteristica comune è certamente l’impossibilità di interrompere l’esecuzione; quest’aspetto potrebbe comportare svariati problemi del diritto, primo fra tutti la mancata esecuzione del contratto. Appare necessario, quindi, che professionista e consumatore dialoghino, così da tradurre la fattispecie e i relativi effetti in protocolli.
Qualora poi i protocolli non si adeguino alla normativa di protezione, il consumatore potrebbe comunque agire per tutelare le proprie ragioni fuori dalla piattaforma di utilizzo, esercitando l’adeguato rimedio previsto dalla normativa consumeristica.
Gli smart contracts rientrano quindi nei contratti conclusi tramite distributori automatici, in quanto vi è presente non soltanto il codice di esecuzione ma anche quello di descrizione dell’accordo. Occorrerà, quindi, che i protocolli siano “scritti” per realizzare gli obblighi informativi, così da poter attribuire al consumatore il diritto di pentimento e non dover inserire nel contratto clausole che comportino uno squilibrio di diritto e obblighi tra professionista e consumatore.
Nel mercato digitale, si pone poi in rilievo il rapporto tra struttura di mercato nella produzione di informazioni corrette o veritiere e “exposure” al pluralismo delle idee e alla “diversity”, alla luce del ruolo della profilazione algoritmica e di schemi di intelligenza artificiale nella selezione dei contenuti online, nonché nell’attuazione di politiche di moderazione da parte delle piattaforme online.
Vige al giorno d’oggi l’idea della “plurality of the many”, che, associata alla pluralità delle fonti informative dal lato dell’offerta, porta alla tesi per la quale il pluralismo esterno è condizione sufficiente per il pluralismo e, di converso, anche per il contrasto alle strategie di disinformazione.
Secondo questa impostazione, più c’è concorrenza nel mercato delle idee più si riduce l’intervento regolatorio a favore del pluralismo, perché la concorrenza contrasta da sola la disinformazione e fa emergere la verità. Per la dottrina del “marketplace of ideas”, la concorrenza nel mercato delle idee realizza il binomio mercato-democrazia.
Questa dottrina si basa su due assunzioni: la “neutralità” del mezzo trasmissivo e la razionalità della scelta del “consumatore” del prodotto informativo.
Queste ipotesi vengono messe in discussione, poiché le emittenti spesso selezionano i propri contenuti in modo da attrarre la massima audience, e gli utenti che domandano informazione sono talvolta guidati dalle proprie preferenze culturali e politiche.
Più in generale, la concorrenza è in grado di migliorare il pluralismo, ad esempio, se il governo tenta di manipolare l’informazione, o se vi sono fornitori di informazione che hanno interesse a manipolare le convinzioni dei consumatori; inoltre, la concorrenza può indurre le imprese editoriali ad investire per offrire una copertura informativa immediata e veritiera. Allo stesso modo, la concorrenza è in grado di incrementare la distorsione dell’informazione, tramite manipolazioni dal lato dell’offerta, anche grazie al c.d. sovraccarico informativo. Inoltre, la società digitale da un lato riduce il costo di transazione nell’acquisizione di informazioni ma, dall’altro, anche l’attività di ricerca delle informazioni rilevanti. Pertanto, più sono le informazioni che siamo chiamati a selezionare, più importanza rivestono le routine selettive e decisionali e le scorciatoie mentali che ci aiutano a scegliere.
In quest’ottica, gli algoritmi ci aiutano a filtrare e a scegliere, perché selezionano in base alla profilazione dei nostri dati. Il nostro tempo di attenzione registra un flusso di informazioni in entrata e in uscita su cui opera un doppio filtro, poiché riveliamo alle piattaforme digitali informazioni dettagliate su ciò che preferiamo e queste selezionano informazioni che ci fanno risparmiare tempo di attenzione.
Gli algoritmi si rivelano efficienti sotto il profilo organizzativo perché alla richiesta di informazione generano un’offerta sempre più precisa. Il problema però è che ciò che rende efficiente l’algoritmo va a minare la natura reciproca della libertà di espressione e il pluralismo. Efficienza economica e pluralismo sono quindi antitetici per il lavoro delle piattaforme online, in quanto una punta a soddisfare al massimo le preferenze degli utenti, l’altra punta a fornire una rappresentazione del mondo plurale. Rispetto a quest’antitetica ci si pone un quesito, dovendo garantire un’esposizione alla diversity, contrastando però la disinformazione.
Al tal fine sono adottate politiche di moderazione, poste in essere però con l’ausilio di schemi di intelligenza artificiale; è stato quindi affidato agli algoritmi il ruolo di detection dei contenuti, con una parte assai minoritaria di supervisione umana. Le tecnologie di riconoscimento automatico dei contenuti (automated content recognition, ACR) si basano infatti sull’uso di tecniche di machine learning algoritmico, che identificano potenziali account “bot” e contenuti potenzialmente classificabili come disinformazione. L’utilizzo dell’ACR, però, se si rivela efficace per l’identificazione di account “bot”, presenta rilevanti rischi, anche per la tutela della libertà d’espressione, nel caso in cui si deve interpretare un testo o una immagine.
In tema di selezione algoritmica ci si pone in relazione a due aspetti: la selezione dei contenuti che vengono offerti all’utente, e l’impiego degli algoritmi nell’attuazione delle successive policy di moderazione dei contenuti.
All’interno di questo dibattito si pongono sue Regolamenti: il Digital Services Act (DSA) del 2020 e il Regolamento sull’Intelligenza Artificiale (IA Act) del 2021.
Il DSA ha l’obiettivo di stabilire regole uniformi per un ambiente online sicuro, in cui i diritti fondamentali dell’uomo siano effettivamente protetti; agisce creando nuove regole per gli intermediari e le piattaforme online che implicano maggiori responsabilità rispetto ai contenuti, la sicurezza degli utenti online, l’audit, il reporting, la tracciabilità e i requisiti di trasparenza per tutti i fornitori digitali.
Il testo contiene due principi:
– esenzione da responsabilità, per i fornitori di servizi di intermediazione che soddisfano determinate condizioni stabilite nel DSA;
– divieto di obbligo di sorveglianza da parte dei fornitori di servizi di intermediazione online per le informazioni che trasmettono o archiviano.
Il DSA stabilisce inoltre le regole per i servizi di intermediazione, tra cui i servizi di conduit, di caching o di hosting – che forniscono servizi a destinatari nell’UE indipendentemente dal luogo di stabilimento del fornitore – e promuove una vigilanza a livello europeo e una cooperazione tra le autorità nazionali, al fine di contrastare i contenuti illeciti online.
Tuttavia, il DSA armonizza solamente le procedure da adottare nei confronti di contenuti illegali, ma senza darne una esplicita definizione. Quest’aspetto risulta critico, se si osserva il fatto che la definizione di contenuto illegale contiene un duplice aspetto (in quanto si considerano illegali sia contenuti esplicitamente proibiti da legislazioni vigenti, sia quelli non conformi ai principi, alle regole e ai codici di condotta che le singole piattaforme decidono di darsi).
Il DSA elenca anche le misure che devono da adottare contro l’uso improprio della piattaforma online, ponendo particolare attenzione alle piattaforme online molto grandi, le quali sono obbligate a rispettare regole aggiuntive per mitigare il rischio derivante dalla diffusione di contenuti illegali attraverso i propri servizi.
Un altro punto saliente del DSA riguarda l’obbligo di trasparenza in relazione ai parametri utilizzati dagli algoritmi decisionali per offrire contenuti sulle proprie piattaforme, in relazione alle opzioni fornite all’utente per modificare tali parametri, ponendo un veto: almeno una non deve basarsi sulla profilazione.
In conclusione, il Digital Services Act sembra promettere un nuovo pluralismo 2.0, in cui la trasparenza piena e l’accessibilità ai dati e agli algoritmi siano sempre presenti.
Nel 2021 veniva poi pubblicata la proposta sul Regolamento sull’Intelligenza Artificiale (AI Act), che prevede l’entrata in vigore quest’anno.
Lo scopo principale è quello di armonizzare le regolazioni esistenti nel settore e stabilire un complesso di norme che salvaguardi i diritti fondamentali e la sicurezza. La proposta di regolazione sull’AI si basa sulle tipologie di rischio che può creare l’utilizzo dell’IA, che può essere accettabile, alto e basso.
In relazione ai rischi inaccettabili si prevede che le persone fisiche siano informate e dispongano della libera scelta di non essere soggette alla profilazione; in relazione ai rischi alti vengono introdotti obblighi di trasparenza, che si applicano ai sistemi che interagiscono con gli esseri umani, oppure a quei sistemi che vengono utilizzati per rilevare emozioni.
In conclusione, la proposta di regolazione sull’IA mette in relazione l’uso degli algoritmi e il loro apprendimento con rischi modulati in funzione dell’impatto atteso sui diritti fondamentali dei cittadini.
Appare dunque necessaria un’ulteriore azione di sintesi che metta in relazione le previsioni del DSA con i vincoli della proposta europea sull’IA Act.