Le prelibatezze chiave:
- I legislatori cinesi hanno compreso il ruolo centrale degli algoritmi nel funzionamento delle piattaforme Internet e lo hanno definito come "processo decisionale automatizzato" nella legge sulla protezione delle informazioni personali (PIPL) emanata il 20 agosto 2021, regolando per la prima volta questa tecnologia.
- Ai sensi del PIPL, le piattaforme valutano in anticipo l'impatto degli algoritmi e sono responsabili dei risultati del processo decisionale in seguito.
- Il PIPL amplia il diritto alla conoscenza degli utenti della piattaforma e richiede alle piattaforme di rompere i "bozzoli di informazioni" creati da raccomandazioni algoritmiche personalizzate agli utenti.
Legge cinese sulla protezione delle informazioni personali (个人信息保护法), emanato nell'agosto 2021, traccia i confini per le piattaforme Internet che conducono processi decisionali automatizzati attraverso algoritmi.
. Sfondo
Le piattaforme Internet cinesi, in genere TopBuzz e TikTok di ByteDance, utilizzano ampiamente algoritmi di raccomandazione per inviare contenuti e prodotti ai propri utenti.
Tuttavia, tali algoritmi, presumibilmente avendo interferito con i diritti degli utenti di libere decisioni e quindi creato azzardo morale, sono messi in discussione dal pubblico e dalle autorità di regolamentazione.
I legislatori cinesi hanno compreso il ruolo centrale degli algoritmi nel funzionamento di tali piattaforme e lo hanno definito "processo decisionale automatizzato" nella legge sulla protezione delle informazioni personali (di seguito "PIPL") emanata il 20 agosto 2021, che regola questa tecnologia per il prima volta.
In conformità con il PIPL, il processo decisionale automatizzato si riferisce alle attività di analisi e valutazione automatica delle abitudini comportamentali, degli hobby o dello stato finanziario, di salute e di credito degli individui attraverso programmi per computer e l'assunzione di decisioni in merito. (Articolo 73)
Prima di ciò, c'erano opinioni divise sulla responsabilità delle piattaforme per il processo decisionale automatizzato. Ad esempio, alcune persone credevano che le piattaforme non dovessero essere responsabili dei risultati dei loro algoritmi decisionali automatizzati, che erano essenzialmente una sorta di tecnologia neutrale. Tuttavia, il PIPL chiarisce il contrario.
. Restrizioni sulle piattaforme
1. I regolatori esaminano direttamente gli algoritmi
In qualità di responsabili del trattamento delle informazioni personali, le piattaforme verificano regolarmente la conformità del loro trattamento delle informazioni personali alle leggi e ai regolamenti amministrativi. (Articolo 54)
Ciò richiede che le piattaforme controllino periodicamente il loro processo decisionale automatizzato algoritmico e altre attività di elaborazione delle informazioni.
Secondo la norma, i regolatori possono anche condurre audit interni sul funzionamento degli algoritmi delle piattaforme, invece della supervisione esterna sugli atti delle piattaforme e solo sulle conseguenze.
Di conseguenza, i regolatori fanno degli algoritmi l'oggetto di regolazione diretta, che consente ai regolatori di intervenire nella tecnologia e nei dettagli del processo decisionale automatizzato.
2. Le piattaforme valutano in anticipo l'impatto degli algoritmi
In qualità di responsabili del trattamento delle informazioni personali, le piattaforme conducono preventivamente una valutazione d'impatto sulla protezione delle informazioni personali e registrano le informazioni di trattamento se utilizzano le informazioni personali per il processo decisionale automatizzato. (Articolo 55)
La valutazione da parte delle piattaforme riguarda quanto segue:
A. Se le finalità, le modalità o qualsiasi altro aspetto del trattamento dei dati personali sono leciti, legittimi e necessari;
B. L'impatto sui diritti e gli interessi personali e il livello di rischio; e
C. Se le misure di protezione della sicurezza adottate sono legittime, efficaci e commisurate al livello di rischio.
Di conseguenza, le piattaforme effettuano una valutazione preventiva prima che gli algoritmi del processo decisionale automatizzato diventino operativi. La valutazione del rischio include la legittimità e la necessità del processo decisionale automatizzato algoritmico, nonché il suo impatto e rischio.
Il processo decisionale automatizzato algoritmico difettoso dalle piattaforme può danneggiare la proprietà e i diritti personali dei cittadini, persino gli interessi pubblici e la sicurezza nazionale.
Pertanto, le conseguenze negative possono avere un impatto su migliaia di utenti. A quel punto, anche se le piattaforme sono ritenute responsabili, potrebbe essere difficile recuperare il danno che è già stato fatto.
Per prevenire una tale situazione, la legge istituisce un sistema di valutazione preventiva degli algoritmi delle piattaforme nel tentativo di intervenire preventivamente sugli algoritmi.
3. Le piattaforme sono responsabili dei risultati del processo decisionale successivo
Le piattaforme assumono i seguenti obblighi per i risultati del processo decisionale automatizzato (articolo 24):
A. Le piattaforme garantiscono che i risultati siano equi e imparziali
Laddove i responsabili del trattamento delle informazioni personali conducano un processo decisionale automatizzato con informazioni personali, garantiscono la trasparenza del processo decisionale e l'equità e l'imparzialità dei risultati e non riservano un trattamento differenziale irragionevole alle persone in termini di prezzi di transazione o altre condizioni di transazione.
B. Le piattaforme forniscono ai propri utenti opzioni decisionali automatizzate che non riguardano le caratteristiche personali.
Laddove la fornitura di informazioni basate su push o il marketing commerciale agli individui sia condotto mediante un processo decisionale automatizzato, agli individui devono essere fornite contemporaneamente opzioni che non riguardano le caratteristiche personali degli individui o modi semplici per rifiutarsi di ricevere.
C. Le piattaforme forniscono spiegazioni sui risultati del processo decisionale.
Se una decisione che ha un impatto sostanziale sui diritti e sugli interessi di un individuo è presa mediante un processo decisionale automatizzato, l'individuo ha il diritto di chiedere al responsabile del trattamento dei dati personali di fornire spiegazioni, nonché il diritto di rifiutare l'assunzione di decisioni del responsabile del trattamento dei dati personali esclusivamente mediante un processo decisionale automatizzato.
La norma considera le piattaforme responsabili dei risultati del processo decisionale automatizzato, tra cui:
R. La norma non riconosce la difesa della "neutralità tecnologica" che è stata utilizzata dalle piattaforme. Le piattaforme dovrebbero essere responsabili dei risultati del processo decisionale automatizzato algoritmico e dovrebbero garantire che i risultati siano equi e ragionevoli.
B. La norma amplia il diritto alla conoscenza degli utenti della piattaforma. Gli utenti possono richiedere la trasparenza dei risultati del processo decisionale automatizzato nonché spiegazioni dalle piattaforme in caso di "impatto materiale".
C. La regola richiede alle piattaforme di rompere i "bozzoli informativi" creati da raccomandazioni algoritmiche personalizzate agli utenti e richiede alle piattaforme di proteggere il diritto degli utenti alla conoscenza.
III. I nostri commenti
La Cina ha fatto un passo avanti nel PIPL aggiungendo regole legali per gli algoritmi delle piattaforme per il processo decisionale automatizzato. Tuttavia, deve ancora essere ulteriormente perfezionato. Ad esempio, la legge non chiarisce:
A. condizioni per le piattaforme per avviare la valutazione dell'algoritmo.
B. se e in che misura i rapporti di valutazione saranno resi pubblici dopo che le piattaforme avranno valutato i propri algoritmi, e
C. come le piattaforme dovrebbero essere responsabili dei danni causati dal loro processo decisionale automatizzato algoritmico.
Presumo che i regolatori cinesi stiano ancora esplorando la possibilità di emanare una serie di regolamenti specifici per implementare ulteriormente il PIPL.
Foto di Viaggio su strada con Raj on Unsplash
Collaboratori: Guodong Du