Gli Algoritmi
Gli Algoritmi
Silvia Sassi
Gli algoritmi nelle decisioni pubbliche tra
trasparenza e responsabilità
(doi: 10.1433/94547)
Ente di afferenza:
Universitatale di Milano (unimi)
Licenza d’uso
L’articolo è messo a disposizione dell’utente in licenza per uso esclusivamente privato e personale, senza scopo
di lucro e senza fini direttamente o indirettamente commerciali. Salvo quanto espressamente previsto dalla
licenza d’uso Rivisteweb, è fatto divieto di riprodurre, trasmettere, distribuire o altrimenti utilizzare l’articolo,
per qualsiasi scopo o fine. Tutti i diritti sono riservati.
Silvia Sassi
1
Di E. Finn, pubblicato nel 2017 per i tipi del Massachusetts Institute of Technology, e
tradotto dalla casa editrice Einaudi nel 2018, Che cosa vogliono gli algoritmi. L’immagi-
nazione nell’era dei computer.
2
Ibidem, XX.
109
Analisi Giuridica dell’Economia - 1/2019
Silvia Sassi
3
Così riporta N. Ensmenger, History of Computing: Computer Boys Take Over: Computers,
Programmers, and the Politics of Technical Expertise, Cambridge, MIT Press, 2010, p. 131.
4
E. Finn, op. cit., 5.
5
Definizione di «algoritmi» fornita da Google: Algorithms – Inside Search – Google (visitato
il 18 marzo 2019).
6
Pensiamo a Facebook: un social network che opera attraverso l’algoritmo sociale più
riuscito al mondo per permettere alle persone di mettersi in contatto tra loro. L’algoritmo
di Amazon non è solo fatto di calcolo ma anche di logistica: se originariamente Amazon ha
cercato di migliorare il lavoro, la strategia e le vendite rispetto ai venditori di quasi tutti
i tipi di prodotti di consumo. Lo stesso si può dire per Netflix: da distributore di dvd via
110
Gli algoritmi nelle decisioni pubbliche tra trasparenza e responsabilità
posta si sta ora imponendo per la conquista del mercato dello streaming on line: il tutto è
accaduto con l’evoluzione del primo tipo di algoritmo.
7
Sull’impatto positivo del machine learning sui sistemi d’intelligenza artificiale v. H. Surden,
Machine Learning and Law, in Wash. L. Rev., 89, 2014, pp. 87 ss.
8
Al riguardo cfr. V. Frosini, Cibernetica, diritto e società, Milano, Comunità, 1968, che
riteneva, a ragion veduta, che ciò non è possibile perché significherebbe l’esistenza di un
essere superiore.
9
Al riguardo E. Rulli (Giustizia predittiva, intelligenza artificiale e modelli probabilistici.
Chi ha paura degli algoritmi?, in AGE, 2, 2018, p. 539) sostiene che l’aggettivo «preditti-
vo» relativo alle risposte che gli strumenti algoritmici predispongono, è «inappropriato».
Secondo l’A. «gli applicativi in parola […] non predicono il futuro, ma offrono uno o una
serie di risultati probabili».
111
Silvia Sassi
10
In effetti, come ben spiega A. Moretti, Algoritmi e diritti fondamentali della persona. Il
contributo del regolamento (UE) 2016/679, in Dir. Inf., 4/5, 2018, pp. 799-780, a una
determinata quantità di dati deve corrispondere anche una capacità della loro elabora-
zione. L’impiego dei Big Data Analytics «rappresenta per i soggetti pubblici l’opportunità
di identificare con precisione le esigenze dei cittadini e di realizzare, conseguentemente,
l’erogazione di servizi che assicurino un maggior benessere per la collettività».
11
V. considerando (6) del reg. n. 679/2016.
12
Cfr. i considerandi (1)-(5) e (7) del reg. n. 679/2016.
13
Per un primo e approfondito commento sul regolamento n. 679 del 2016, altrimenti
detto regolamento GDPR, v. F. Pizzetti (a cura di), Intelligenza artificiale e protezione dei
dati personali, Torino, Giappichelli, 2018.
14
Ai sensi dell’art. 4.4 del reg. n. 679/2016 per «profilazione» si intende: «Qualsiasi forma
di trattamento automatizzato di dati personali consistente nell’utilizzo di tali dati perso-
nali per valutare determinati aspetti personali relativi a una persona fisica, in particolare
per analizzare o prevedere aspetti riguardanti il rendimento professionale, la situazione
economica, la salute, le preferenze personali, gli interessi, l’affidabilità, il comportamento,
l’ubicazione o gli spostamenti di detta persona fisica».
112
Gli algoritmi nelle decisioni pubbliche tra trasparenza e responsabilità
15
Al riguardo le Linee guida sul processo decisionale automatizzato relativo alle persone
fisiche e sulla profilazione ai fini del regolamento 2016/679, del 3.10.2017, ora nella loro
versione emendata e adottata dal Gruppo di lavoro articolo 29 per la protezione dei dati
il 6.2.2018 (17/IT – WP 251 rev.01), precisano che si ha un «effetto giuridico» quando
la decisione incide «sui diritti giuridici di una persona, quali la libertà di associarsi ad
altre persone, di votare nel contesto di un’elezione o di intraprendere azioni legali» ovvero,
anche, quando la stessa influisce sullo «status giuridico di una persona o sui suoi diritti
ai sensi di un contratto». Diversi esempi sono riportati da queste Linee guida, pp. 23-24.
16
Art. 22.2, lett. a).
17
Art. 22.2, lett. b).
18
Art. 22.2, lett. c).
19
Icasticamente S. Rodotà (Il diritto di avere dei diritti, Roma-Bari, Laterza, 2015, p. 33)
parlava di «dittatura dell’algoritmo».
20
Con riguardo all’interpretazione del diritto dell’interessato di «essere informato» la
dottrina non è unanime: da una parte, vi è chi sostiene l’esistenza di un simile diritto (B.
Goodman, S. Flaxman, European Union Regulations on Algorithmic Decision-Making
and a «Right to Explanation», in AI Magazine 38, 2016, pp. 1 ss.; A.D. Selbst, J. Powels,
Meaningful Information and the Right to Explanation, in International Data Privacy L. 7,
2017, pp. 1 ss.; G. Malgieri, G. Comandé, Why a Right to Legibility of Automated Decision.
Making Exists in the General Data Protection Regulation, in International Data Privacy L.
7, 2017, pp. 213 ss., dall’altra parte, vi è chi non lo accoglie (S. Wachter, B. Mittelstadt, L.
Floridi, Why a Right to Explanation of Automated Decision Making Does Not Exist in the
General Data Protection Regulation, in International Data Privacy L., 7, 2017, pp. 76 ss.
21
Artt. 13.2, lett. f), 14.2, lett. g), 15.1, lett. h, reg. n. 679.
22
Art. 22.3 del reg. n. 679.
113
Silvia Sassi
23
Principio oramai consolidato dopo l’entrata in vigore del Trattato di Lisbona. Al riguardo
cfr. gli artt. 1 e 11.2 del TUE nonché art. 15 TFUE. Per approfondimenti sull’applicazione
del principio di trasparenza al reg. n. 679 del 2016 v. Gruppo di lavoro articolo 29 per
la protezione dei dati, Linee guida sulla trasparenza ai sensi del regolamento 2016/679,
adottate il 29.11.2017. Versione emendata, adottata l’11.4.2018.
24
Il principio di responsabilizzazione del titolare del trattamento dati è sostanziale al
principio di trasparenza. La trasparenza delle operazioni di trattamento nonché delle
informazioni relative al trattamento corretto dei dati consente, infatti, agli interessati di
imputare la responsabilità al titolare e al responsabile del trattamento dei dati e di esercitare
il controllo sui dati personali che li riguardano, dando o revocando il consenso informato
e attivando i diritti degli stessi interessati. Sul punto v. Gruppo di lavoro articolo 29 per la
protezione dei dati, Linee guida sulla trasparenza ai sensi del regolamento 2016/679, cit., 4.
25
P8_TA(2017)0051, Norme di diritto civile sulla robotica. Per un commento intorno a
questa risoluzione, e le sue implicazioni sul piano della responsabilità civile v. L. Coppini,
Robotica e intelligenza artificiale: questioni di responsabilità civile, in Pol. Dir., 4, 2018.
26
La risoluzione nei considerando P e U ritiene, infatti, che pur nel timore che «a lungo
termine l’intelligenza artificiale [possa] superare la capacità intellettuale umana», le regole
non debbano ostacolare il processo di ricerca, innovazione e sviluppo della rivoluzione
tecnologia in atto.
27
P.to 3 della risoluzione PE.
28
Considerando Q della risoluzione PE.
114
Gli algoritmi nelle decisioni pubbliche tra trasparenza e responsabilità
29
Considerando H della risoluzione PE.
30
Considerando O della risoluzione del PE.
31
Considerando H della risoluzione del PE.
32
Tutte queste «raccomandazioni concernenti il contenuto della proposta richiesta» sono
allegate alla risoluzione del PE.
33
Comunicazione della Commissione al Parlamento europeo, al Consiglio, al Comitato
economico e sociale europeo e al Comitato delle Regioni, L’Intelligenza artificiale per
l’Europa, Bruxelles, 25.4.2018, COM(2018)237 final. Tra le molteplici riflessioni, in punta
di diritto, sull’intelligenza artificiale, cfr. M.U. Scherer, Regulating Artificial Intelligence
Systems: Risks, Challenge, Competences, and Strategies, in Har. J.L. & Tech., 29, 2016, pp.
354 ss.; C. Casonato, Intelligenza artificiale e diritto costituzionale: prima considerazioni,
in DPCE, n. speciale, 2019, 101 ss. e A. Simoncini, S. Suweis, Il cambio di paradigma
nell’intelligenza artificiale e il suo impatto sul diritto costituzionale, in Riv. filosofia dir.,
1/2019, pp. 87 ss.
34
La Commissione europea ha di recente commissionato una serie di studi in materia, tra
i quali v. M. Craglia (ed.), Artificial Intelligence. A European Perspective, Luxembourg,
2018. Anche il Parlamento europeo ha analizzato il fenomeno in atto: cfr. G. Sartor,
Artificial Intelligence: Challenges for EU Citizens and Consumers, PE 631.043, Brussels,
January 2019.
35
Ibidem, p. 1. Una piccola notazione storica ripresa dal testo di J.-M. Sauvé, Le juge
administratif et l’intelligence artificielle, Conférence des présidents des jurisdictions ad-
ministratives, Rennes, Vendredì 20 avril 2018, 1: il termine intelligenza artificiale, di cui
115
Silvia Sassi
ora si tentano diverse definizioni, è stato forgiato nel 1955 da due informatici americani,
John McCarthy e Claude Shannon, durante una conferenza dagli stessi organizzata sul-
l’«intelligenza artificiale» tenuta nel 1956.
36
V. comunicazione della Commissione, L’intelligenza artificiale, cit., p. 16.
37
Per la cui implementazione, la Commissione prevede una serie di impegni, tra i quali,
relazionare entro il 2019 sui quadri normativi in materia di responsabilità e sicurezza in
relazione all’IA, all’Internet delle cose e della robotica con lo scopo di indicare le impli-
cazioni più ampie, le potenziali lacune e fornire i relativi orientamenti. V. comunicazione
della Commissione, L’intelligenza artificiale, cit., p. 18.
38
Per un ricognizione dell’adeguamento meramente normativo del reg. n. 679 del 2016
da parte dei Paesi aderenti all’UE v. Baker McKenzie, GDPR National Legislation Survey
2018, in www.bakermckenzie.com.
39
La cui ultima versione consolidata è del 22.3.2019. Per primi commenti cfr. P. Besse, C.
Castets-Renard, A. Garivier, Loyauté des Décision Algorithmiques, in https://hal.archives-
ouvertes-fr/hal-01544701 e J.-M. Sauvé, op. cit.
116
Gli algoritmi nelle decisioni pubbliche tra trasparenza e responsabilità
40
«Décret relatif aux droits des personnes faisant l’objet de decisions individuelles prises
sur le fondement d’un traitment algorithmique», entrato in vigore il 17.3.2017 e più volte
modificato.
41
Il succitato decreto ha introdotto l’art. R. 311-3-1-1 del code des relations entre le
public et l’administration che recita: «La mention explicite prèvue […] rappelle le droit
[…] d’obtenir la communication […]».
42
In www.conseil-constitutionnel.fr/decision/2018/2018765DC.htm.
43
V. al riguardo il capitolo I del titolo I del libro IV del code des relations.
117
Silvia Sassi
44
Attualmente presso l’Agenzia per l’Italia Digitale è stata istituita una task force sull’In-
telligenza artificiale che ha, per l’appunto, prodotto un «Libro bianco sull’intelligenza
artificiale», in https//ia.italia.it/assets/librobianco.pdf.
118
Gli algoritmi nelle decisioni pubbliche tra trasparenza e responsabilità
45
È in particolare la sezione III bis del TAR Lazio che ha adottato diverse sentenze relative
a provvedimenti di trasferimenti e/o assegnazioni del personale docente in sede di mobilità
nazionale sulla base del piano straordinario di cui alla l. n. 107/2015 (Buona Scuola)
adottati da un sistema informatico che ha elaborato le informazioni fornite sulla base di
un algoritmo: n. 3742/2017; n. 9224/2018; n. 9225/2018; n. 9226/2018; 9227/2018;
n. 9228/2018; n. 9229/2010; n. 9230/2018.
46
Consiglio di Stato, sez. IV, n. 2270 dell’8.4.2019.
47
TAR Lazio, sez. III bis, n. 3742 del 21.3.2017, cit.
48
Anche gli atti coperti dal diritto d’autore sono ritenuti accessibili, pur affermandosi
la responsabilità dell’interessato per eventuali utilizzi diversi da quelli strumentalmente
collegati alla tutela della propria posizione giuridica: TAR Lazio, sez. III bis, 22.3.2017,
n. 3769 e n. 3742/2017, cit.
49
TAR Lazio, sez. III bis, sent. n. 3769/2017, cit.
50
Sulla decisione robotica in generale v. M. Luciani, La decisione giudiziaria robotica, in
Rivista AIC, 3, 2018 mentre sul rapporto tra decisione e giudizio amministrativo v. F. Patroni
Griffi, Decisione robotica e il giudice amministrativo, in www.giustizia-amministrativa.it
(28.8.2018). Cfr. anche L. Viola, L’intelligenza artificiale nel procedimento e nel processo
119
Silvia Sassi
120
Gli algoritmi nelle decisioni pubbliche tra trasparenza e responsabilità
55
«Disposizioni per l’adeguamento della normativa nazionale alle disposizioni del regola-
mento (UE) 2016/679 del Parlamento europeo e del Consiglio, del 27 aprile 2016, relativo
alla protezione delle persone fisiche con riguardo al trattamento dei dati personali, nonché
alla libera circolazione di tali dati e che abroga la direttiva 95/46/CE (regolamento generale
sulla protezione dei dati)».
56
Cfr. artt. 2-undecies; 2-duocecies, 130, c. 5, 132, c. 3
57
In particolare James Vacca ha preso spunto da un’indagine effettuata da ProPublica
sugli algoritmi che sulla base di una matrice razziale sono stati utilizzati per valutare il
rischio criminale degli imputati: https://www.propublic.org/article/machine-bias-risk-
assessments-in-criminal-sentencing.
58
E. Zima, Could New York City’s AI Transparency Bill Be a Model for the Country?, in
http://www.govtech.com/Could-New-York-Citys-AI-Transparency-Bill-Be-a-Model-for-
the-Country.html (January 4, 2018).
121
Silvia Sassi
Making in the Machine-Learning Era, in Geo. L. J., 105, 2017, pp. 1147 ss.
60
Così D.K. Citron, F. Pasquale, The Scored Society: Due Process for Automated Predic-
tions, in Wash. L. Rev., 89, 2014, p. 19.
61
Sulla scia, ad esempio, come citano D. Keats Citron, F. Pasquale, op. cit., p. 20, della
Federal Trade Commission quanto ai sistemi di credit-scoring.
62
A. Tutt, An FDA for Algorithms, in Admin. L. Rev., 69, 2017, pp. 83 ss.
63
D.K. Citron, Technological Due Process, in Wash. L. Rev., 85, 2008, p. 1250.
122
Gli algoritmi nelle decisioni pubbliche tra trasparenza e responsabilità
64
Ibidem, p. 1258.
65
Su questo modello si sono poi mossi altri Stati, come ad esempio il Vermont, la Penn-
sylvania e lo Stato della California, come rilevano una serie di stakholders di varia natura
in una lettera inviata ai membri della Task Force il 1.3.2019: New York City’s Automated
Decision Systems Task Force – Public Engagement, in www.nyclu.org/publications.
123
Silvia Sassi
66
New York City Commission on Human Rights, Public Engagement Forum Automated
Decision Systems Task Force, April 30, 2019, in www.1nyc.gov/site/adtaskforce/eventes/
events.page.
67
Problematicità che sono state sollevate anche da subito dall’opinione pubblica: cfr. J.
Powles, New York City’s bold, flawed attempt to make algorithms accountable, December
20, 2017, in www.newyorker.com; M. Stiefel, New York Creates Task Force to Examine
Automated Decision Making, July 31, 2018, in www.infoq.com/news/2018/07/NYC-task-
force-automated-decision/; C. Lecher, New York City’s algorithm task force is fracturing,
April 15, 2019, in www.theverge.com; D. Budds, New York City’s AI task force stalls, April
16, 2019, in www.nycurbed.com.
124
Gli algoritmi nelle decisioni pubbliche tra trasparenza e responsabilità
68
New York City Commission on Human Rights, Public Engagement Forum Automated
Decision Systems Task Force, cit., pp. 41 ss.
69
In data odierna (8.6.2019) non è possibile riferire in merito dal momento che nessun re-
port è stato ancora pubblicato sul sito www.1nyc.gov/site/adtaskforce/events/envents.page.
125
Silvia Sassi
70
Negli Stati Uniti d’America il diritto alla privacy, altrimenti «the right to be let alone»,
venne teorizzato nel 1890 da Samuel Warren e Louis Brandeis in un articolo apparso il 15
dicembre in un fascicolo della Harvard Law Review (la cui traduzione in italiano si trova
in V. Frosini (a cura di), Jus Solitudinis, Milano, 1993; per una ricostruzione dei fatti v.
T.E. Frosini, Privacy: diritto fondamentale oppure no, in Id., Liberté Egalité Internet, ES,
2 ed. ampliata, 2019, 141 ss.). Il diritto alla privacy trova il suo primo riconoscimento
da parte della Corte Suprema nel 1965 con il caso Griswold: con riferimento agli sviluppi
giurisprudenziali di tale diritto cfr. A. Baldassarre, Privacy e Costituzione. L’esperienza
statunitense, Roma, 1974; per la raccolta delle decisioni della Corte Suprema: The Right
to Privacy. Historic US Supreme Court Decisions, 2012 (Ebook Kindle). Per più ampie e
recenti riflessioni cfr. T.E. Frosini, Liberté Egalité Internet, cit.
71
Tra le molteplici riflessione in ordine all’attuazione di questi due principi cfr. D.R. Resai,
J.A. Kroll, Trust but Verify: A Guide to Algorithms and the Law, in Har. J. L. & Tech., 31,
2017, pp. 1 ss.; C. Coglianese, D. Lehr, Transparency and Algorithmic Governance, in
126
Gli algoritmi nelle decisioni pubbliche tra trasparenza e responsabilità
127
Silvia Sassi
Silvia Sassi
Dipartimento di Scienze Giuridiche
Università degli Studi di Firenze
Via delle Pandette 32
50127 Firenze
[email protected]
72
Sulla transnazionalità del diritto si consenta di rinviare a S. Sassi, Diritto transnazionale
e legittimazione democratica, Padova, Cedam, 2018.
128