BLOG NEWS tutte le notizie per categoria

Intelligenza artificiale e procedimento amministrativo. Avv. Margherita Roffi

27 novembre 2020

Opportunità e rischi derivanti dall’apertura all’utilizzo di algoritmi informatici per la determinazione di provvedimenti amministrativi anche discrezionali

L’e-government ovvero l’utilizzo delle tecnologie dell’informazione e della comunicazione (ICT) nei procedimenti amministrativi si propone di rendere più efficiente l’azione della pubblica amministrazione, migliorando la qualità dei servizi erogati ai cittadini e diminuendo i costi per la collettività.

Nell’ambito delle pratiche di amministrazione digitale è andata recentemente sviluppandosi la c.d. rivoluzione 4.0 ovvero l’affidamento del procedimento di formazione della decisione amministrativa a un software, nel quale vengono immessi una serie di dati così da giungere, attraverso l’automazione della procedura, alla decisione finale.

Come risulta di particolare evidenza in tutti quei procedimenti riguardanti procedure seriali o standardizzate che hanno ad oggetto l’elaborazione di ingenti quantità di istanze(1), il ricorso alle tecnologie informatiche “risponde ai canoni di efficienza ed economicità dell’azione amministrativa (art. 1 L.n. 241/1990) i quali, secondo il principio costituzionale di buon andamento dell’azione amministrativa (art.97 Cost.) impongono all’amministrazione il conseguimento dei loro fini con il minor dispendio di mezzi e risorse e attraverso lo snellimento e l’accelerazione dell’iter procedimentale”(2).

Ciò nondimeno, ogni qual volta gli algoritmi di intelligenza artificiale, di seguito “IA”, incidono direttamente sulle valutazioni e sulle decisioni pubbliche nonché sugli stessi procedimenti amministrativi, si configura un problema di accountability, ossia di verifica dell’effettiva responsabilità giuridica a monte di determinate decisioni o risultati. Ciò pone la Pubblica amministrazione di fronte ad una serie di sfide come quella di trovare metodi uniformi e compatibili con l’attuale ordinamento per consentire all’amministrazione di motivare i suoi provvedimenti anche nella parte elaborata dai sistemi di IA, di indicare le sorgenti dei dati che alimentano l’IA ed attraverso i quali essa ha compiuto le proprie valutazioni ed ancora di porre i responsabili dei procedimenti amministrativi a conoscenza delle modalità di elaborazione utilizzate dai sistemi IA(3).

La novità della materia e la delicatezza degli interessi coinvolti ha indotto il Consiglio di Stato a subordinare l’operatività dell’informatica decisionale al rispetto di esigenze basilari dell’agire della pubblica amministrazione quali la piena intelligibilità delle operazioni svolte dall’elaboratore nonché l’imputabilità delle scelte effettuate dal computer e delle responsabilità che da tali scelte scaturiscono(4).

In tema d’imputabilità la Carta della Robotica, approvata nel febbraio del 2017 dal Parlamento Europeo afferma che “l’autonomia di un robot può essere definita come la capacità di prendere decisioni e metterle in atto nel mondo esterno, indipendentemente da un controllo o un'influenza esterna; (...) tale autonomia è di natura puramente tecnologica e il suo livello dipende dal grado di complessità con cui è stata progettata l'interazione di un robot con l'ambiente; (...) nell'ipotesi in cui un robot possa prendere decisioni autonome, le norme tradizionali non sono sufficienti per attivare la responsabilità per i danni causati da un robot, in quanto non consentirebbero di determinare qual è il soggetto cui incombe la responsabilità del risarcimento né di esigere da tale soggetto la riparazione dei danni causati”. Da ciò la necessità, anche al fine di applicare le norme generali e tradizionali in tema di imputabilità e responsabilità, di garantire la riferibilità della decisione finale all’autorità ed all’organo competente in base alla legge attributiva del potere.

Con più specifico riferimento alla piena intelligibilità, risulta che il principio di trasparenza di cui all’art 3 della L.241/90 debba ispirare anche la progettazione dei nuovi servizi pubblici basati su soluzioni di IA: il tema dei pericoli connessi allo strumento non è infatti ovviato dalla rigida e meccanica applicazione di tutte le minute regole procedimentali della legge n. 241 del 1990 ( quali ad es. la comunicazione di avvio del procedimento sulla quale si appunta buona parte dell’atto di appello o il responsabile del procedimento che , con tutta evidenza, non può essere una macchina in assenza di disposizioni espresse ), dovendosi invece ritenere che la fondamentale esigenza di tutela posta dall’utilizzazione dello strumento informatico c.d. algoritmico sia la trasparenza riconducibili al principio di motivazione e/o giustificazione della decisione(5).

Tra i criteri da utilizzare a tal fine ci sono senza dubbio quello della trasparenza delle logiche di costruzione dei database su cui essi gli algoritmi operano: la “conoscibilità dell’algoritmo deve essere garantita in tutti gli aspetti: dai suoi autori al procedimento usato per la sua elaborazione, al meccanismo di decisione, comprensivo delle priorità assegnate nella procedura valutativa e decisionale e dei dati selezionati come rilevanti. Ciò al fine di poter verificare che gli esiti del procedimento robotizzato siano conformi alle prescrizioni e alle finalità stabilite dalla legge o dalla stessa amministrazione a monte di tale procedimento e affinché siano chiare – e conseguentemente sindacabili – le modalità e le regole in base alle quali esso è stato impostato”(6). L’ontologica multidisciplinarietà dell’algoritmo, la cui elaborazione richiede competenze giuridiche, tecniche, informatiche, statistiche, amministrative…, non cancella quindi la necessità di tradurre tale formula in regola giuridica intelligibile e comprensibile, sia per i cittadini che per il giudice.

Quello del sindacato del giudice amministrativo rappresenta infatti un ulteriore rilevante profilo. In tale contesto l’utilizzo di una procedura informatica non può escludere la possibilità che il giudice, conoscendo la regola algoritmica in concreto utilizzata, valuti come sia stato concretamente esercitato il potere amministrativo: solo in questo modo, infatti, è possibile svolgere, anche in sede giurisdizionale, una valutazione piena della legittimità della decisione, al pari di ogni atto amministrativo(7).

Solo nel rispetto di tali avvertenze, correttamente inquadrando il ricorso all’algoritmo in termini “di modulo organizzativo, di strumento procedimentale ed istruttorio, soggetto alle verifiche tipiche di ogni procedimento amministrativo” non si ravvisano “ragioni di principio ovvero concrete per limitare l’utilizzo all’attività amministrativa vincolata piuttosto che discrezionale”(8) e risulta quindi ammissibile l’apertura efficientista all’informatica decisionale nei rispetto dei basilari principi del sistema.

Avv. Margherita Roffi

Avvocato del Foro di Livorno

Vincitrice del Legal Tech Contest per l'assegnazione della borsa di studio per la VIII edizione del Corso di Formazione sul Processo Civile Telematico e sulla Giustizia Digitale

(1) come nella vicenda oggetto della sentenza Consiglio di Stato, Sez. VI, 4 febbraio 2020, n.881 che ha deciso in merito all’azione di docenti immessi in ruolo nella c.d. fase C del piano straordinario assunzionale di cui alla L. n. 107/2015 (a seguito delle procedure indette ex art. 1, co. 98, lett. c) l. cit.) su posti di potenziamento, di sostegno o su posto comune nella scuola secondaria di primo grado, avverso gli esiti della procedura nazionale di mobilità attuata con ordinanza ministeriale n. 241/2016 in attuazione dell’art. 1, co. 108 della citata legge. In particolare, la contestazione riguarda l’esito della procedura la quale, svolta sulla base di un algoritmo non conosciuto e che non ha correttamente funzionato, ha disposto i trasferimenti senza tener conto delle preferenze espresse, pur in presenza di posti disponibili nelle province indicate. In sostanza, il meccanismo straordinario di mobilità si è rivelato pregiudizievole per quei docenti, quali le odierne ricorrenti, immessi in ruolo nella fase C, i quali sono stati trasferiti in province più lontane da quella di propria residenza o quella comunque scelta con priorità in sede di partecipazione alla procedura, benché in tali province di elezione fossero disponibili svariati di posti.

(2) Consiglio di Stato, Sez. VI, 4 febbraio 2020, n.881 .

(3) L’Agenzia per l’Italia digitale ha svolto un lavoro di ricognizione delle sfide principali che riguardano la modernizzazione della pubblica amministrazione nell’era dell’intelligenza artificiale. Il documento di riferimento è il Libro bianco dell’AgiD (“Intelligenza artificiale al servizio del cittadino: sfide e opportunità”, 2018, in https://ia.italia.it/assets/librobianco.pdf), che contiene raccomandazioni e indicazioni su come sfruttare al meglio le opportunità offerte dall’intelligenza artificiale per sviluppare servizi pubblici sempre più a misura di cittadino, limitandone criticità e aspetti problematici https://ia.italia.it/assets/librobianco.pdf ..

(4) Il Consiglio di Stato supera quindi le posizioni di quella dottrina e giurisprudenza che hanno ritenuto illegittimo il demandare ad un impersonale algoritmo lo svolgimento di una intera procedura, TAR Lazio, Roma, Sez III bis, 10 settembre 2018, n.8224, nonché 19 aprile 2019, n. 5139 e 27 maggio 2019, n. 6606.

(5) Consiglio di Stato, Sez. VI, 113 dicembre 2019, n. 8472.

(6) Consiglio di Stato, Sez. VI, 8 aprile 2019, n. 2270. Tale assunto mantiene assoluta validità nonostante che l’affermazione contenuta nella decisione secondo la quale “l’algoritmo, ossia il software, deve essere considerato a tutti gli effetti come un atto amministrativo informatico” sembri superata da Consiglio di Stato, Sez. VI, 4 febbraio 2020, n.881 (conf. Cons. di Stato Sez. VI, 13 dicembre 2019, n.8472) laddove parla dell’algoritmo in termini di modulo organizzativo e strumento istruttorio.

(7) A conferma di quanto detto si osserva come, con riferimento all’utilizzo degli strumenti informatici, il diritto sovranazionale detta tre principi fondamentali. (a) Secondo il principio di conoscibilità ognuno ha diritto a conoscere l’esistenza di processi decisionali automatizzati che lo riguardino ed in questo caso a ricevere informazioni significative sulla logica utilizzata. L’art art 42 della Carta Europea dei Diritti Fondamentali (“Right to a good administration”), che quando la Pubblica Amministrazione intende adottare una decisione che può avere effetti avversi su di una persona, essa ha l’obbligo di sentirla prima di agire, di consentirle l’accesso ai suoi archivi e documenti, ed, infine, ha l’obbligo di “dare le ragioni della propria decisione”. (b) In secondo luogo, il diritto europeo detta il principio di non esclusività della decisione algoritmica. Nel caso in cui una decisione automatizzata “produca effetti giuridici che riguardano o che incidano significativamente su una persona”, questa ha diritto a che tale decisione non sia basata unicamente su tale processo automatizzato (art. 22 Reg.). In proposito, deve comunque esistere nel processo decisionale un contributo umano capace di controllare, validare ovvero smentire la decisione automatica. In ambito matematico ed informativo il modello viene definito come HITL (human in the loop), in cui, per produrre il suo risultato è necessario che la macchina interagisca con l’essere umano. (c) In terzo luogo, dal considerando n. 71 del Regolamento 679/2016 il diritto europeo trae un ulteriore principio fondamentale, di non discriminazione algoritmica, secondo cui è opportuno che il titolare del trattamento utilizzi procedure matematiche o statistiche appropriate per la profilazione, mettendo in atto misure tecniche e organizzative adeguate al fine di garantire, in particolare, che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori e al fine di garantire la sicurezza dei dati personali, secondo una modalità che tenga conto dei potenziali rischi esistenti per gli interessi e i diritti dell'interessato e che impedisca tra l'altro effetti discriminatori nei confronti di persone fisiche sulla base della razza o dell'origine etnica, delle opinioni politiche, della religione o delle convinzioni personali, dell'appartenenza sindacale, dello status genetico, dello stato di salute o dell'orientamento sessuale, ovvero che comportano misure aventi tali effetti. Cfr. Consiglio di Stato, Sez. VI, 113 dicembre 2019, n. 8472.

(8) Consiglio di Stato, Sez. VI, 4 febbraio 2020, n.881.

Archivio news

 

Categorie

Formazione professionale

Diritto

 

News dello studio

apr2

02/04/2024

Convegno telematico "PCT Novità e aggiornamenti: notifiche-UNEP-chiarezza e sinteticità". Webinar, venerdì 5 aprile 2024. Avv. Gianmaria V. L. Bonanno

Venerdì 5 aprile 2024 parteciperò come relatore al convegno telematico "PCT Novità e aggiornamenti: notifiche-UNEP-chiarezza e sinteticità" organizzato dalla sezione

mar19

19/03/2024

Convegno telematico "Il Portale Deposito atti Penali. Regole tecniche e problemi applicativi". Webinar, 26 marzo 2024. Avv. Gianmaria V. L. Bonanno

Martedì 26 marzo 2024 parteciperò come relatore al convegno "Il Portale Deposito atti Penali. Regole tecniche e problemi applicativi" organizzato dalla sezione territoriale di Tivoli del

mar14

14/03/2024

Aggiornamento. Deposito telematico delle richieste di notificazione e pignoramento. Movimento forense per l'uniformità della regolamentazione, contro il proliferare delle prassi territoriali. Avv. Gianmaria V. L. Bonanno

Richiamando e riportandoci al nostro comunicato del 7 febbraio 2024, ci chiediamo se qualcuno sia in grado di spiegarci per quale motivo e, soprattutto, su quali basi giuridiche sia necessario e quindi

News

apr18

18/04/2024

Sosta vietata in ZTL: tra presunzione di colpevolezza e diligenza

Una volta provata dall'autorità amministrativa

apr18

18/04/2024

Avvocati e modelli negoziali di digital twin

L’International Bar Association mette in

apr18

18/04/2024

Processo penale, le S.U. intervengono su 2 questioni in materia cautelare

L'imputato può presentare materiale sopravvenuto