China Justice Observer China

?

IngleseAraboCinese (semplificato)OlandeseFranceseTedescoHindiItalianoGiapponeseKoreanPortogheseRussianSpagnoloSwedishebraicoIndonesianvietnamitaThaiturcoMalay

In che modo la Cina affronta la responsabilità della piattaforma nel processo decisionale algoritmico?

Domenica, 28 novembre 2021
Categorie: Approfondimenti
Collaboratori: Guodong Du
Editor: Shuai Huang

Avatar

 

Le prelibatezze chiave:

  • I legislatori cinesi hanno compreso il ruolo centrale degli algoritmi nel funzionamento delle piattaforme Internet e lo hanno definito come "processo decisionale automatizzato" nella legge sulla protezione delle informazioni personali (PIPL) emanata il 20 agosto 2021, regolando per la prima volta questa tecnologia.
  • Ai sensi del PIPL, le piattaforme valutano in anticipo l'impatto degli algoritmi e sono responsabili dei risultati del processo decisionale in seguito.
  • Il PIPL amplia il diritto alla conoscenza degli utenti della piattaforma e richiede alle piattaforme di rompere i "bozzoli di informazioni" creati da raccomandazioni algoritmiche personalizzate agli utenti.


Legge cinese sulla protezione delle informazioni personali (个人信息保护法), emanato nell'agosto 2021, traccia i confini per le piattaforme Internet che conducono processi decisionali automatizzati attraverso algoritmi.

. Sfondo

Le piattaforme Internet cinesi, in genere TopBuzz e TikTok di ByteDance, utilizzano ampiamente algoritmi di raccomandazione per inviare contenuti e prodotti ai propri utenti.

Tuttavia, tali algoritmi, presumibilmente avendo interferito con i diritti degli utenti di libere decisioni e quindi creato azzardo morale, sono messi in discussione dal pubblico e dalle autorità di regolamentazione.

I legislatori cinesi hanno compreso il ruolo centrale degli algoritmi nel funzionamento di tali piattaforme e lo hanno definito "processo decisionale automatizzato" nella legge sulla protezione delle informazioni personali (di seguito "PIPL") emanata il 20 agosto 2021, che regola questa tecnologia per il prima volta.

In conformità con il PIPL, il processo decisionale automatizzato si riferisce alle attività di analisi e valutazione automatica delle abitudini comportamentali, degli hobby o dello stato finanziario, di salute e di credito degli individui attraverso programmi per computer e l'assunzione di decisioni in merito. (Articolo 73)

Prima di ciò, c'erano opinioni divise sulla responsabilità delle piattaforme per il processo decisionale automatizzato. Ad esempio, alcune persone credevano che le piattaforme non dovessero essere responsabili dei risultati dei loro algoritmi decisionali automatizzati, che erano essenzialmente una sorta di tecnologia neutrale. Tuttavia, il PIPL chiarisce il contrario.

. Restrizioni sulle piattaforme

1. I regolatori esaminano direttamente gli algoritmi

In qualità di responsabili del trattamento delle informazioni personali, le piattaforme verificano regolarmente la conformità del loro trattamento delle informazioni personali alle leggi e ai regolamenti amministrativi. (Articolo 54)

Ciò richiede che le piattaforme controllino periodicamente il loro processo decisionale automatizzato algoritmico e altre attività di elaborazione delle informazioni.

Secondo la norma, i regolatori possono anche condurre audit interni sul funzionamento degli algoritmi delle piattaforme, invece della supervisione esterna sugli atti delle piattaforme e solo sulle conseguenze.

Di conseguenza, i regolatori fanno degli algoritmi l'oggetto di regolazione diretta, che consente ai regolatori di intervenire nella tecnologia e nei dettagli del processo decisionale automatizzato.

2. Le piattaforme valutano in anticipo l'impatto degli algoritmi 

In qualità di responsabili del trattamento delle informazioni personali, le piattaforme conducono preventivamente una valutazione d'impatto sulla protezione delle informazioni personali e registrano le informazioni di trattamento se utilizzano le informazioni personali per il processo decisionale automatizzato. (Articolo 55)

La valutazione da parte delle piattaforme riguarda quanto segue:

A. Se le finalità, le modalità o qualsiasi altro aspetto del trattamento dei dati personali sono leciti, legittimi e necessari;

B. L'impatto sui diritti e gli interessi personali e il livello di rischio; e

C. Se le misure di protezione della sicurezza adottate sono legittime, efficaci e commisurate al livello di rischio.

Di conseguenza, le piattaforme effettuano una valutazione preventiva prima che gli algoritmi del processo decisionale automatizzato diventino operativi. La valutazione del rischio include la legittimità e la necessità del processo decisionale automatizzato algoritmico, nonché il suo impatto e rischio.

Il processo decisionale automatizzato algoritmico difettoso dalle piattaforme può danneggiare la proprietà e i diritti personali dei cittadini, persino gli interessi pubblici e la sicurezza nazionale.

Pertanto, le conseguenze negative possono avere un impatto su migliaia di utenti. A quel punto, anche se le piattaforme sono ritenute responsabili, potrebbe essere difficile recuperare il danno che è già stato fatto.

Per prevenire una tale situazione, la legge istituisce un sistema di valutazione preventiva degli algoritmi delle piattaforme nel tentativo di intervenire preventivamente sugli algoritmi.

3. Le piattaforme sono responsabili dei risultati del processo decisionale successivo

Le piattaforme assumono i seguenti obblighi per i risultati del processo decisionale automatizzato (articolo 24):

A. Le piattaforme garantiscono che i risultati siano equi e imparziali

Laddove i responsabili del trattamento delle informazioni personali conducano un processo decisionale automatizzato con informazioni personali, garantiscono la trasparenza del processo decisionale e l'equità e l'imparzialità dei risultati e non riservano un trattamento differenziale irragionevole alle persone in termini di prezzi di transazione o altre condizioni di transazione.

B. Le piattaforme forniscono ai propri utenti opzioni decisionali automatizzate che non riguardano le caratteristiche personali.

Laddove la fornitura di informazioni basate su push o il marketing commerciale agli individui sia condotto mediante un processo decisionale automatizzato, agli individui devono essere fornite contemporaneamente opzioni che non riguardano le caratteristiche personali degli individui o modi semplici per rifiutarsi di ricevere.

C. Le piattaforme forniscono spiegazioni sui risultati del processo decisionale.

Se una decisione che ha un impatto sostanziale sui diritti e sugli interessi di un individuo è presa mediante un processo decisionale automatizzato, l'individuo ha il diritto di chiedere al responsabile del trattamento dei dati personali di fornire spiegazioni, nonché il diritto di rifiutare l'assunzione di decisioni del responsabile del trattamento dei dati personali esclusivamente mediante un processo decisionale automatizzato.

La norma considera le piattaforme responsabili dei risultati del processo decisionale automatizzato, tra cui:

R. La norma non riconosce la difesa della "neutralità tecnologica" che è stata utilizzata dalle piattaforme. Le piattaforme dovrebbero essere responsabili dei risultati del processo decisionale automatizzato algoritmico e dovrebbero garantire che i risultati siano equi e ragionevoli.

B. La norma amplia il diritto alla conoscenza degli utenti della piattaforma. Gli utenti possono richiedere la trasparenza dei risultati del processo decisionale automatizzato nonché spiegazioni dalle piattaforme in caso di "impatto materiale".

C. La regola richiede alle piattaforme di rompere i "bozzoli informativi" creati da raccomandazioni algoritmiche personalizzate agli utenti e richiede alle piattaforme di proteggere il diritto degli utenti alla conoscenza.

III. I nostri commenti

La Cina ha fatto un passo avanti nel PIPL aggiungendo regole legali per gli algoritmi delle piattaforme per il processo decisionale automatizzato. Tuttavia, deve ancora essere ulteriormente perfezionato. Ad esempio, la legge non chiarisce:

A. condizioni per le piattaforme per avviare la valutazione dell'algoritmo.

B. se e in che misura i rapporti di valutazione saranno resi pubblici dopo che le piattaforme avranno valutato i propri algoritmi, e 

C. come le piattaforme dovrebbero essere responsabili dei danni causati dal loro processo decisionale automatizzato algoritmico.

Presumo che i regolatori cinesi stiano ancora esplorando la possibilità di emanare una serie di regolamenti specifici per implementare ulteriormente il PIPL.

 

Foto di Viaggio su strada con Raj on Unsplash

 

 

 

 

 

Collaboratori: Guodong Du

Salva come PDF

Leggi correlate sul portale delle leggi cinesi

Ti potrebbe piacere anche

Caso di studio: punizione amministrativa del riconoscimento facciale

Uno studio su oltre 400 casi di punizione amministrativa fa luce sull'attuale atteggiamento del governo cinese nei confronti del riconoscimento facciale e fornisce uno scenario per valutare come si applicherebbe la legge cinese sulla protezione delle informazioni personali qualora i casi si verificassero oggi.

Cosa dice la legge cinese sull'assistenza legale?

Qual è l'avvocato di turno? Chi servirà come personale di assistenza legale? Che tipo di servizi legali possono essere forniti? Ecco le domande chiave a cui rispondere per conoscere la legge cinese sull'assistenza legale.

Legge sulla sicurezza sul lavoro della Cina (2021)

La legge sulla sicurezza sul lavoro (安全生产法) è stata promulgata il 29 giugno 2002 e modificata rispettivamente nel 2009, 2014 e 2021. L'ultima revisione è entrata in vigore il 1° settembre 2021.

Disposizioni su diverse questioni relative all'applicazione della legge nel processo a cause civili riguardanti l'uso di tecnologie di riconoscimento facciale per il trattamento di informazioni personali(2021)

Disposizioni della Corte Suprema del Popolo su diverse questioni relative all'applicazione della legge nel processo di cause civili che coinvolgono l'uso di tecnologie di riconoscimento facciale per elaborare informazioni personali (最高人民法院关于审理使用人脸识别技术处理个人信息相关民事案件适用法律若干问题的规定) sono state promulgate il 27 luglio 2021 ed entrate in vigore il 1 agosto 2021.