ChatGPT è diventato uno degli argomenti più caldi in tutto il mondo. Tale sistema di intelligenza artificiale è denominato "IA generativa", che potrebbe generare testi, immagini, voci, media, codici e altri materiali in risposta a ciò che l'utente ha importato o richiesto, sulla base di algoritmi, modelli e regole. L'IA generativa può essere utilizzata in vari scenari e promuovere la rivoluzione di alcuni settori, e quindi ha suscitato molta attenzione. In risposta allo sviluppo dell'IA generativa, il Cyberspace Administrative of China (di seguito "CAC") ha emesso la proposta di misure amministrative per il servizio di intelligenza artificiale generativa (bozza per il commento pubblico) ,(“生成式人工智能服务管理办法(征求意见稿)”, di seguito “Progetto di provvedimento amministrativo”) in data 11 aprile 2023.
1. Aspetti salienti
Il progetto di misure amministrative comprende 21 articoli, che coprono le questioni fondamentali di seguito.
1) Ambito di applicazione: giurisdizione extraterritoriale
Questa bozza di misure amministrative si applica a chiunque innovi o utilizzi l'IA generativa e fornisca servizi in Cina (i fornitori) (articolo 2). Significa che il progetto di misure amministrative avrebbe un effetto extraterritoriale. Tale effetto extraterritoriale si basa sulla dottrina dell'effetto e sulla dottrina territoriale oggettiva. Da un lato, i contenuti generati dall'IA generativa possono influenzare l'ordine sociale o altre relazioni in Cina, avendo quindi un effetto in Cina. Dall'altro, l'IA generativa sarà utilizzata dagli utenti nel territorio, il funzionamento dell'IA generativa situato nel territorio, che fornisce la base della dottrina territoriale oggettiva.
2) Obblighi dei Fornitori
I fornitori si assumerebbero le seguenti responsabilità ai sensi del progetto di misure amministrative.
(1) Contenuto
I fornitori dovrebbero essere responsabili del contenuto generato dall'IA. Il contenuto deve essere legale, accurato e autentico. Non dovrebbe essere illecito, discriminatorio, falso, antisociale, antigovernativo, antinazionale, terroristico, estremo, violento, pornografico e distraente per l'ordine economico e sociale. I fornitori dovrebbero eliminare i contenuti inappropriati attivamente o su richiesta degli utenti e migliorare o ottimizzare l'IA.
(2) Utilizzi
In primo luogo, i Fornitori devono rispettare l'etica aziendale e non devono porre in essere comportamenti di concorrenza sleale. In secondo luogo, i Fornitori non devono invadere i diritti altrui, inclusi proprietà intellettuale, informazioni personali, privacy e segreti commerciali. In terzo luogo, i Fornitori non dovrebbero generare il contenuto in modo discriminatorio.
(3) Innovazioni
Il progetto di misure amministrative fornisce anche requisiti per l'innovazione dell'IA generativa. I fornitori dovrebbero emanare istruzioni chiare, specifiche e operative per i Collaboratori, formare i Collaboratori e garantire la correttezza del contenuto una volta richiesta l'annotazione artificiale.
(4) Collaborazione con l'Amministrazione
I Fornitori dovrebbero cooperare attivamente con l'amministrazione richiesta dai regolamenti o dagli agenti amministrativi. In primo luogo, i fornitori dovrebbero registrare l'IA generativa o riferire per la valutazione della sicurezza in base alle relative normative sul servizio Internet. In secondo luogo, i fornitori dovrebbero contrassegnare le immagini e i video generati secondo il regolamento sul servizio di Deepfake., In terzo luogo, i fornitori dovrebbero fornire informazioni essenziali che potrebbero influenzare la scelta degli utenti su richiesta dell'agente amministrativo.
(5) Gestione degli Utenti
I Provider dovrebbero gestire gli utenti di Generative AI. In primo luogo, i fornitori dovrebbero richiedere agli utenti di fornire le proprie informazioni di identità. In secondo luogo, i fornitori dovrebbero specificare e pubblicizzare l'obiettivo del loro servizio e adottare misure per evitare che gli utenti diventino dipendenti dai contenuti forniti dall'IA. In terzo luogo, i Fornitori dovrebbero istruire gli utenti a utilizzare il contenuto generativo in modo appropriato e vietare gli utenti temporaneamente o permanentemente se utilizzano l'IA in modo illegale o immorale.
2. Commenti
1) Effetti positivi
La bozza di misure amministrative è una rapida risposta dalla Cina alla tendenza dell'IA generativa. È servito come supplemento essenziale al quadro normativo dell'IA. Ha diversi effetti positivi. In primo luogo, copre la maggior parte delle questioni legali sollevate dall'IA generativa, tra cui l'attribuzione della responsabilità dell'IA, la minaccia alla proprietà intellettuale, i contenuti dannosi, la concorrenza sleale e la violazione della privacy, ecc. Inoltre, fornisce una supervisione per l'intera vita di l'IA generativa, dall'innovazione all'utilizzo. In secondo luogo, l'articolo 3 del progetto di misure amministrative ha mostrato l'atteggiamento favorevole della Cina nei confronti dello sviluppo dell'IA, dichiarando che il governo sosterrà e incoraggerà l'innovazione, l'applicazione e la collaborazione internazionale dell'IA. In terzo luogo, il progetto di misure amministrative funge da parte essenziale del quadro normativo tipologico dell'IA, che consiste in diversi regolamenti incentrati su diverse categorie di IA.
2) Forma giuridica
Il Progetto di Provvedimento Amministrativo non è una legge, in quanto emanato dal CAC, an
Ufficio amministrativo dipendente dal Consiglio di Stato. Secondo la legge sulla legislazione cinese, le leggi possono essere emanate solo dal Congresso nazionale del popolo. Pertanto, il CAC può emettere solo regole amministrative o documenti normativi, che si trovano a una gerarchia inferiore nel sistema gerarchico legislativo cinese e non possono essere in conflitto con le leggi. Tuttavia, tale status giuridico ha garantito flessibilità ed efficienza in una certa misura. Da un lato, rispetto alle leggi, i requisiti per emanare o modificare le norme amministrative oi documenti normativi sono meno stringenti. D'altra parte, tutti gli agenti amministrativi potrebbero emettere documenti normativi all'interno della propria autorità amministrativa quando lo ritengono necessario, il che garantisce una risposta rapida all'esigenza di regolamentazione.
3) Rischi
Va notato che potrebbero esserci altri rischi derivanti dal progetto di misure amministrative. Sebbene l'articolo 3 dichiarasse l'atteggiamento favorevole del governo, bisogna riconoscere che l'amministrazione ha notevolmente aumentato l'onere per i fornitori di IA generativa. La tecnologia dell'IA generativa è tutt'altro che matura. Pertanto, è dubbio che i Provider siano competenti a rispettare tutti gli obblighi previsti dallo Schema di Provvedimenti Amministrativi, o almeno aumenterebbe il costo dell'adempimento. Ad esempio, il progetto di misure amministrative sollecita i fornitori a prevenire i contenuti falsi. Tuttavia, tecnicamente parlando, il contenuto difficilmente può essere autentico al 100% nella fase attuale. Potrebbe costare molto per i Fornitori rispettare tale obbligo. Di conseguenza, l'elevato onere di conformità può costituire in una certa misura un ostacolo allo sviluppo e all'innovazione dell'IA generativa.
Per concludere, il progetto di misure amministrative riflette l'atteggiamento positivo della Cina nei confronti della regolamentazione dell'IA. Ha imposto un requisito di conformità relativamente elevato alle entità che intendono fornire servizi di IA generativa. Questo atteggiamento contribuisce al sano sviluppo dell'IA generativa, anche se potrebbe esserci preoccupazione per l'alto costo della conformità. Nel complesso, l'effetto delle Provvedimenti Amministrativi è ancora degno di essere osservato.
, Vedere http://www.cac.gov.cn/2023-04/11/c_1682854275475410.htm.
, Cyberspace Administrative of China, Ministero dell'Industria e della Tecnologia dell'Informazione della Cina e Ministero della Pubblica Sicurezza della Cina, Regolamento sul servizio di Deepfake, Regolamento n. 12.
Foto di copertina di Gruppo nebulare su Unsplash
Collaboratori: Jidong Lin林济东