BLOG NEWS tutte le notizie per categoria

Intelligenza artificiale e procedimento amministrativo. Avv. Margherita Roffi

27 novembre 2020

Opportunità e rischi derivanti dall’apertura all’utilizzo di algoritmi informatici per la determinazione di provvedimenti amministrativi anche discrezionali

L’e-government ovvero l’utilizzo delle tecnologie dell’informazione e della comunicazione (ICT) nei procedimenti amministrativi si propone di rendere più efficiente l’azione della pubblica amministrazione, migliorando la qualità dei servizi erogati ai cittadini e diminuendo i costi per la collettività.

Nell’ambito delle pratiche di amministrazione digitale è andata recentemente sviluppandosi la c.d. rivoluzione 4.0 ovvero l’affidamento del procedimento di formazione della decisione amministrativa a un software, nel quale vengono immessi una serie di dati così da giungere, attraverso l’automazione della procedura, alla decisione finale.

Come risulta di particolare evidenza in tutti quei procedimenti riguardanti procedure seriali o standardizzate che hanno ad oggetto l’elaborazione di ingenti quantità di istanze(1), il ricorso alle tecnologie informatiche “risponde ai canoni di efficienza ed economicità dell’azione amministrativa (art. 1 L.n. 241/1990) i quali, secondo il principio costituzionale di buon andamento dell’azione amministrativa (art.97 Cost.) impongono all’amministrazione il conseguimento dei loro fini con il minor dispendio di mezzi e risorse e attraverso lo snellimento e l’accelerazione dell’iter procedimentale”(2).

Ciò nondimeno, ogni qual volta gli algoritmi di intelligenza artificiale, di seguito “IA”, incidono direttamente sulle valutazioni e sulle decisioni pubbliche nonché sugli stessi procedimenti amministrativi, si configura un problema di accountability, ossia di verifica dell’effettiva responsabilità giuridica a monte di determinate decisioni o risultati. Ciò pone la Pubblica amministrazione di fronte ad una serie di sfide come quella di trovare metodi uniformi e compatibili con l’attuale ordinamento per consentire all’amministrazione di motivare i suoi provvedimenti anche nella parte elaborata dai sistemi di IA, di indicare le sorgenti dei dati che alimentano l’IA ed attraverso i quali essa ha compiuto le proprie valutazioni ed ancora di porre i responsabili dei procedimenti amministrativi a conoscenza delle modalità di elaborazione utilizzate dai sistemi IA(3).

La novità della materia e la delicatezza degli interessi coinvolti ha indotto il Consiglio di Stato a subordinare l’operatività dell’informatica decisionale al rispetto di esigenze basilari dell’agire della pubblica amministrazione quali la piena intelligibilità delle operazioni svolte dall’elaboratore nonché l’imputabilità delle scelte effettuate dal computer e delle responsabilità che da tali scelte scaturiscono(4).

In tema d’imputabilità la Carta della Robotica, approvata nel febbraio del 2017 dal Parlamento Europeo afferma che “l’autonomia di un robot può essere definita come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un'influenza esterna; (...) tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l'interazione di un robot con l'ambiente; (...) nell'ipotesi in cui un robot possa prendere decisioni autonome, le norme tradizionali non sono sufficienti per attivare la responsabilità per i danni causati da un robot, in quanto non consentirebbero di determinare qual è il soggetto cui incombe la responsabilità del risarcimento né di esigere da tale soggetto la riparazione dei danni causati”. Da ciò la necessità, anche al fine di applicare le norme generali e tradizionali in tema di imputabilità e responsabilità, di garantire la riferibilità della decisione finale all’autorità ed all’organo competente in base alla legge attributiva del potere.

Con più specifico riferimento alla piena intelligibilità, risulta che il principio di trasparenza di cui all’art 3 della L.241/90 debba ispirare anche la progettazione dei nuovi servizi pubblici basati su soluzioni di IA: il tema dei pericoli connessi allo strumento non è infatti ovviato dalla rigida e meccanica applicazione di tutte le minute regole procedimentali della legge n. 241 del 1990 ( quali ad es. la comunicazione di avvio del procedimento sulla quale si appunta buona parte dell’atto di appello o il responsabile del procedimento che , con tutta evidenza, non può essere una macchina in assenza di disposizioni espresse ), dovendosi invece ritenere che la fondamentale esigenza di tutela posta dall’utilizzazione dello strumento informatico c.d. algoritmico sia la trasparenza riconducibili al principio di motivazione e/o giustificazione della decisione(5).

Tra i criteri da utilizzare a tal fine ci sono senza dubbio quello della trasparenza delle logiche di costruzione dei database su cui essi gli algoritmi operano: la “conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato”(6). L’ontologica multidisciplinarietà dell’algoritmo, la cui elaborazione richiede competenze giuridiche, tecniche, informatiche, statistiche, amministrative…, non cancella quindi la necessità di tradurre tale formula in regola giuridica intelligibile e comprensibile, sia per i cittadini che per il giudice.

Quello del sindacato del giudice amministrativo rappresenta infatti un ulteriore rilevante profilo. In tale contesto l’utilizzo di una procedura informatica non può escludere la possibilità che il giudice, conoscendo la regola algoritmica in concreto utilizzata, valuti come sia stato concretamente esercitato il potere amministrativo: solo in questo modo, infatti, è possibile svolgere, anche in sede giurisdizionale, una valutazione piena della legittimità della decisione, al pari di ogni atto amministrativo(7).

Solo nel rispetto di tali avvertenze, correttamente inquadrando il ricorso all’algoritmo in termini “di modulo organizzativo, di strumento procedimentale ed istruttorio, soggetto alle verifiche tipiche di ogni procedimento amministrativo” non si ravvisano “ragioni di principio ovvero concrete per limitare l’utilizzo all’attività amministrativa vincolata piuttosto che discrezionale”(8) e risulta quindi ammissibile l’apertura efficientista all’informatica decisionale nei rispetto dei basilari principi del sistema.

Avv. Margherita Roffi

Avvocato del Foro di Livorno

Vincitrice del Legal Tech Contest per l'assegnazione della borsa di studio per la VIII edizione del Corso di Formazione sul Processo Civile Telematico e sulla Giustizia Digitale

(1) come nella vicenda oggetto della sentenza Consiglio di Stato, Sez. VI, 4 febbraio 2020, n.881 che ha deciso in merito all’azione di docenti immessi in ruolo nella c.d. fase C del piano straordinario assunzionale di cui alla L. n. 107/2015 (a seguito delle procedure indette ex art. 1, co. 98, lett. c) l. cit.) su posti di potenziamento, di sostegno o su posto comune nella scuola secondaria di primo grado, avverso gli esiti della procedura nazionale di mobilità attuata con ordinanza ministeriale n. 241/2016 in attuazione dell’art. 1, co. 108 della citata legge. In particolare, la contestazione riguarda l’esito della procedura la quale, svolta sulla base di un algoritmo non conosciuto e che non ha correttamente funzionato, ha disposto i trasferimenti senza tener conto delle preferenze espresse, pur in presenza di posti disponibili nelle province indicate. In sostanza, il meccanismo straordinario di mobilità si è rivelato pregiudizievole per quei docenti, quali le odierne ricorrenti, immessi in ruolo nella fase C, i quali sono stati trasferiti in province più lontane da quella di propria residenza o quella comunque scelta con priorità in sede di partecipazione alla procedura, benché in tali province di elezione fossero disponibili svariati di posti.

(2) Consiglio di Stato, Sez. VI, 4 febbraio 2020, n.881 .

(3) L’Agenzia per l’Italia digitale ha svolto un lavoro di ricognizione delle sfide principali che riguardano la modernizzazione della pubblica amministrazione nell’era dell’intelligenza artificiale. Il documento di riferimento è il Libro bianco dell’AgiD (“Intelligenza artificiale al servizio del cittadino: sfide e opportunità”, 2018, in https://ia.italia.it/assets/librobianco.pdf), che contiene raccomandazioni e indicazioni su come sfruttare al meglio le opportunità offerte dall’intelligenza artificiale per sviluppare servizi pubblici sempre più a misura di cittadino, limitandone criticità e aspetti problematici https://ia.italia.it/assets/librobianco.pdf ..

(4) Il Consiglio di Stato supera quindi le posizioni di quella dottrina e giurisprudenza che hanno ritenuto illegittimo il demandare ad un impersonale algoritmo lo svolgimento di una intera procedura, TAR Lazio, Roma, Sez III bis, 10 settembre 2018, n.8224, nonché 19 aprile 2019, n. 5139 e 27 maggio 2019, n. 6606.

(5) Consiglio di Stato, Sez. VI, 113 dicembre 2019, n. 8472.

(6) Consiglio di Stato, Sez. VI, 8 aprile 2019, n. 2270. Tale assunto mantiene assoluta validità nonostante che l’affermazione contenuta nella decisione secondo la quale “l’algoritmo, ossia il software, deve essere considerato a tutti gli effetti come un atto amministrativo informatico” sembri superata da Consiglio di Stato, Sez. VI, 4 febbraio 2020, n.881 (conf. Cons. di Stato Sez. VI, 13 dicembre 2019, n.8472) laddove parla dell’algoritmo in termini di modulo organizzativo e strumento istruttorio.

(7) A conferma di quanto detto si osserva come, con riferimento all’utilizzo degli strumenti informatici, il diritto sovranazionale detta tre principi fondamentali. (a) Secondo il principio di conoscibilità ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino ed in questo caso a ricevere informazioni significative sulla logica utilizzata. L’art art 42 della Carta Europea dei Diritti Fondamentali (“Right to a good administration”), che quando la Pubblica Amministrazione intende adottare una decisione che può avere effetti avversi su di una persona, essa ha l’obbligo di sentirla prima di agire, di consentirle l’accesso ai suoi archivi e documenti, ed, infine, ha l’obbligo di “dare le ragioni della propria decisione”. (b) In secondo luogo, il diritto europeo detta il principio di non esclusività della decisione algoritmica. Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato (art. 22 Reg.). In proposito, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico ed informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano. (c) In terzo luogo, dal considerando n. 71 del Regolamento 679/2016 il diritto europeo trae un ulteriore principio fondamentale, di non discriminazione algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali, secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell'interessato e che impedisca tra l'altro effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell'origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell'appartenenza sindacale, dello status genetico, dello stato di salute o dell'orientamento sessuale, ovvero che comportano misure aventi tali effetti. Cfr. Consiglio di Stato, Sez. VI, 113 dicembre 2019, n. 8472.

(8) Consiglio di Stato, Sez. VI, 4 febbraio 2020, n.881.

Archivio news

 

Categorie

Formazione professionale

Diritto

 

News dello studio

mag30

30/05/2024

Intervista sui malfunzionamenti e disservizi del Portale dei Servizi Telematici del Ministero della Giustizia. Giustizia Caffè. Avv. Gianmaria V. L. Bonanno

Nel corso dell'intervista ho avuto modo di evidenziare la continua e costante violazione dell'art. 29 DM 44/2011 Regole Tecniche sul processo telematico, che prevede e prescrive che: "Il portale dei

mag10

10/05/2024

Primo trofeo di tiro a segno forense. Polisportiva Movimento Forense. Roma, 18 maggio 2024. Avv. Laura Murolo

Movimento Forense, con la sua Polisportiva, e Accademia Forense hanno organizzato sabato 18 maggio dalle ore 9 una giornata dedicata allo sport e alla convivialità con il primo trofeo di tiro

mag2

02/05/2024

Focus su AI Act, la regolamentazione europea sull’intelligenza Artificiale. Talk to the future Week, seconda edizione. Milano, 7 maggio 2024. Avv. Gianmaria V. L. Bonanno

Martedì 7 maggio 2024 parteciperò come relatore al focus su AI Act, nell’ambito della seconda edizione della manifestazione “Talk to the future” ideata e realizzata dall’Ordine

News

nov10

10/11/2024

Arbitrato: la convenienza economica per le aziende

Secondo i risultati della ricerca condotta

nov9

09/11/2024

Donazioni: profili tributari

L'imposizione italiana sulle donazioni

nov8

08/11/2024

Residenza fiscale persone fisiche, società, enti: le nuove regole

Modifiche a domicilio e residenza, smart