Cosa ne sarà dei diritti del contribuente mentre l’IA si fa uomo come Pinocchio?
di Marco Cramarossa
Finalmente il burattino digitale di cui pensavamo di muovere le fila ha raggiunto, come il lontano antecedente ligneo, Pinocchio, la propria profonda aspirazione a divenire uno di noi. L’automa, come il burattino, attraverso la distruzione di sé stesso, si è trasformato. Del resto, solo attraverso la morte della macchina può sopravvivere l’essere umano che essa contiene ed è, nella lotta naturale (e ora anche artificiale) della sopravvivenza, l’unico modo attraverso il quale l’intelligenza può autodifendersi.
Quale miglior ambito per celebrare questa rivoluzione tecnologica se non quello degli accertamenti tributari? La fiscalità diventa una scienza esatta. Perché mai si dovrebbe mettere in discussione l'output di un'intelligenza artificiale che ha analizzato milioni di dati, elaborato complesse regressioni statistiche, setacciato ogni possibile incongruenza nei movimenti bancari del contribuente e nei consumi di elettricità, di tovaglie e tovaglioli.
In verità, non leggeremo (forse) mai un simile elogio, atteso che è lo stesso Decreto MEF del 28 giugno 2022, disciplinante le regole di funzionamento del software antievasione Ve.Ra., a precisare i principi della non discriminazione e della non automaticità algoritmica, ovvero l’obbligo di garantire sempre l’intervento umano attraverso “personale specificatamente autorizzato” dal Titolare o dal Responsabile, che verificherà, preliminarmente, l’inserimento dei dati nelle liste di controllo, per le finalità di verifica della corretta applicazione della metodologia e del modello di analisi adottati, e, successivamente, l’accuratezza e la proficuità dei risultati degli incroci effettuati in attuazione del modello di analisi e del criterio di rischio fiscale utilizzati.
Sul punto, il Garante per la protezione dei dati personali, con la valutazione di impatto n. 276 del 30 luglio 2022, ha evidenziato un rischio significativo connesso al fatto che i funzionari tributari potrebbero “ritenere più prudente non opporsi alle risultanze dei sistemi algoritmici, vanificando la garanzia connessa alla necessità dell’intervento umano nel processo decisionale”, alimentando un fenomeno di “appiattimento” che potrebbe compromettere il principio di motivazione degli atti amministrativi e pregiudicare il diritto di difesa dei contribuenti, oltre a porre seri interrogativi in ordine alla privacy e alla pseudonomizzazione.
L’art. 2 del Dlgs 13/2024 ha previsto alcune modifiche agli artt. 31 e 32 del Dpr 600/1973, nonché all’art. 52 del Dpr 633/1972, legate al potere di svolgimento delle attività di analisi del rischio. In particolare, l’Agenzia delle Entrate e la Guardia di Finanza potranno, compatibilmente con le vigenti disposizioni in tema di trattamento di dati personali, di riservatezza o di segretezza, condividere tra loro le informazioni e le risorse informatiche di cui dispongono anche tramite la costituzione, conformemente ai rispettivi ordinamenti, di unità integrate di analisi del rischio. Anche in questo caso il Garante ha fatto presente che “basare le procedure accertative su informazioni “rastrellate” dal web – come tali in larga misura inesatte – è, infatti, estremamente rischioso, potendo avere effetti fortemente distorsivi sulla corretta rappresentazione della capacità fiscale dei contribuenti. Le garanzie di protezione dei dati rappresentano quindi, anche in quest’ambito, presupposti di efficacia dell’azione di contrasto dell’evasione fiscale”.
Ma qual è il contrappeso dei rischi? A giudizio di molti, l’intelligenza artificiale può rappresentare uno strumento per rendere effettiva l’uguaglianza tributaria, attraverso l’imparzialità e l’efficacia dell’azione amministrativa di accertamento, che impone di trattare allo stesso modo - già in fase di selezione delle posizioni da accertare - i contribuenti che si trovano nella medesima fattispecie.
Sarà davvero così? Di certo, a tutela del contribuente dovrebbero soccorrere, da un lato, l’AI Act entrato in vigore il 2 agosto 2024, il GDPR in tema di protezione dei dati personali, giusto per fare sintesi, e, dall’altro, i presidii unionali, nonché la normativa tributaria e la giurisprudenza (specie quella amministrativa) domestiche.
Le tutele dunque ci sono (ci sarebbero!). Tuttavia, i ragionamenti sin qui fatti finiscono per gravitare attorno alla domanda che, parafrasando Diego Lanza nel libro “Lo stolto. Di Socrate, Eulenspiegel, Pinocchio e altri trasgressori del senso comune”, chiede: dove finisce la stupidità e dove inizia l’intelligenza?
Continueremo a sapere distinguere questo limite mutevole? Continueremo a sapere (o a potere) dimostrare la superiorità dell’intelligenza umana, anche rispetto alle vicende tributarie algoritmicamente automatizzate? Riusciremo davvero a scongiurare il rischio di appiattimento nella valutazione dell’identificazione dei soggetti a rischio fiscale effettuata per il tramite di algoritmi? La conoscibilità dell’algoritmo sarà garantita in tutti i vari aspetti della propria complessa genetica? E i contribuenti saranno in grado di maneggiare e (nel caso) difendersi da tale complessità? Interrogativi che restano al momento sospesi, ricordando tuttavia che il Gatto e la Volpe hanno pur sempre ingannato Pinocchio fattosi uomo.