Avete mai provato a utilizzare un modello di intelligenza artificiale in grado di comprendere e generare testi e risposte su argomenti di vario genere sfruttando collegamenti a fonti Web pertinenti?
Io l’ho fatto per verificarne il grado di attendibilità e di ausilio in ambito professionale. Ebbene, sicuramente può essere uno strumento di aiuto e stimolo per ampliare la fonte di riflessione sulla questione affrontata, ma resta necessaria la competenza umana per verificare la correttezza del ragionamento composto della macchina.
Il legislatore tiene conto proprio di questo e, dopo la modifica dell’art. 3-bis nella L. 241/1990 che ha posto la regola generale dell’utilizzo di strumenti informatici e telematici da parte delle pubbliche amministrazioni per conseguire maggiore efficienza nella loro attività, nei rapporti interni, tra le diverse amministrazioni e tra queste e i privati, ha introdotto l’articolo 30 nel d.lgs. 36/2023 che apre al tema dell’utilizzo degli algoritmi e dei sistemi di intelligenza artificiale nell’ambito di tutta l’attività amministrativa. In tal senso il primo comma prevede: “Per migliorare l’efficienza le stazioni appaltanti e gli enti […] provvedono, ove possibile, ad automatizzare le proprie attività ricorrendo a soluzioni tecnologiche, ivi incluse l’intelligenza artificiale […].”
Nella Relazione illustrativa al d.lgs. 36/2023 si legge: “Sono recepiti non soltanto i principi, che si sono da tempo affermati in ambito europeo sul tema dell’utilizzo di soluzioni di intelligenza artificiale ma anche […] quelli enunciati dai giudici amministrativi, secondo cui le stazioni appaltanti, in sede di acquisto o sviluppo delle soluzioni tecnologiche, si assicurano la disponibilità del codice sorgente e di ogni altro elemento utile a comprenderne le logiche di funzionamento; che la decisione assunta all’esito di un processo automatizzato deve considerarsi imputabile alla stazione appaltante. Sono altresì recepiti i principi per cui il processo decisionale non deve essere lasciato interamente alla macchina, dovendo assicurarsi il contributo umano per controllare, validare ovvero smentire la decisione automatica e per cui la decisione algoritmica non comporti discriminazioni di sorta. Il comma 4 prevede che le pubbliche amministrazioni adottino ogni misura tecnica e organizzativa idonea a garantire che siano rettificati i fattori che comportano inesattezze dei dati e sia minimizzato il rischio di errori, nonché a impedire effetti discriminatori nei confronti di persone fisiche […]. Il comma 5, infine, prevede un adempimento per dare trasparenza e consentire ai cittadini e agli operatori di sapere se nelle attività riferite agli appalti pubblici si utilizzano o meno soluzioni tecnologiche avanzate […] imponendo alle pubbliche amministrazioni di darne contezza sul sito istituzionale, nella sezione “Amministrazione trasparente”.”
Ne deriva che lo strumento dell’I.A. (Intelligenza Artificiale) può essere sicuramente di grande aiuto per le operazioni ripetitive non caratterizzate da discrezionalità stanti i benefici attesi in termini di riduzione della tempistica procedimentale della P.A.. Ma le tecnologie più appetibili in termini di aumento dell’efficienza anche nell’ambito dell’affidamento degli appalti sono senza dubbio gli algoritmi conversazionali, quelli predittivi e quelli generativi di nuovi dati, che implicano tutti una caratterizzazione multidisciplinare in quanto presuppongono informazioni e competenze giuridiche, tecniche, informatiche, statistiche e amministrative compendiate, a diverso livello, nella formula da utilizzare che deve risultare leggibile e comprensibile. Il tutto per tradurre la situazione soggettiva coinvolta nel linguaggio giuridico proprio del procedimento amministrativo, mediante il sistema di I.A. prescelto e l’obiettivo perseguito.
Alla base dell’attendibilità di un modello di I.A., anche per la Pubblica Amministrazione, c’è prima di tutto la selezione corretta delle nozioni di base, la semplificazione e chiarezza degli input che vengono considerati dalla formula multidisciplinare che va a formare l’algoritmo. Poi c’è il sistema di addestramento dell’Intelligenza Artificiale a condizionare il livello qualitativo dell’esito atteso. Ciò perché la regola tecnica che governa l’algoritmo è costruita dall’uomo e deve includere una soluzione definita per tutti i casi possibili anche i più improbabili, in quanto la discrezionalità amministrativa non può essere demandata al software.
Sono fondamentali i data training attraverso cui il sistema viene addestrato: un set di dati qualitativamente e quantitativamente adeguato. Il legislatore comunitario nell’AI Act dell’UE affronta questa problematica precisando che un accesso ai dati di alta qualità svolge un ruolo essenziale per garantire prestazioni e pratiche di governance del sistema di IA adeguate, da sottoporre a convalida per evitare distorsioni che potrebbero provocare rischi per i diritti fondamentali o discriminazioni vietate. Per questo motivo anche l’autoapprendimento dev’essere supervisionato attraverso il contributo umano qualificato, capace di “controllare, validare ovvero smentire la decisione automatizzata” soprattutto per le attività cd. ad “alto rischio”. La “sorveglianza umana” è dunque criterio indispensabile nell’uso dei sistemi di IA di cui gli enti provvedono, se possibile, ad avvalersi nell’attività amministrativa per migliorarne l’efficienza e l’efficacia.
Sfruttare la risorsa dell’I.A. nella PA è una sfida da non perdere per agevolare risposte tempestive ed essere più vicini ai cittadini. Si stima che essa genererà un aumento di produttività notevole soprattutto nelle politiche e nei servizi pubblici, nelle funzioni di supporto, nella semplificazione amministrativa e normativa, nelle attività delle Agenzie e dei dipartimenti statali. Ciò, tenuto conto del rapido invecchiamento della forza lavoro che mette a rischio la competitività del sistema Italia.
A fronte di tutto ciò, però, è più che mai operazione essenziale per i funzionari e i dipendenti pubblici saper scegliere fornitori qualificati di I.A., in quanto sono gli operatori della P.A. a rispondere e sono tenuti a sovrintendere la decisione assunta anche quando essa trae spunto da esiti di algoritmi di I.A..