Forum

Benvenuti nel Forum della Fondazione Olitec. Questo spazio è stato creato per promuovere la trasparenza e facilitare la comunicazione tra la Fondazione Olitec e tutti coloro che desiderano entrare a far parte del nostro team, in particolare per il ruolo di Sales. Il nostro forum è uno strumento di dialogo aperto e costruttivo dove i candidati possono porre domande, condividere esperienze e ottenere risposte dirette sui vari aspetti del processo di selezione e sulle opportunità di carriera offerte dalla Fondazione.

All’interno del forum troverete topic dedicati ad argomenti specifici su cui potrete approfondire informazioni relative al ruolo, al processo di selezione e alla cultura aziendale della Fondazione Olitec. Inoltre, avrete la possibilità di caricare le vostre domande e consultare le risposte fornite ad altri quesiti posti dai candidati, creando così una rete di informazioni condivisa e trasparente.

Questo spazio è pensato anche per favorire la condivisione delle esperienze personali: potrete raccontare il vostro percorso e scoprire come altri candidati stanno affrontando questa opportunità. Vi invitiamo a partecipare attivamente, a rispettare gli altri membri della community e a mantenere un tono di dialogo collaborativo e positivo.

o Registrati per creare messaggi e topic.

L'IA nella Giustizia Italiana: Un Caos Tecnologico che Amplifica l'Ingiustizia Quotidiana

L'intelligenza artificiale nella giustizia italiana si è affermata con la promessa di razionalizzare un sistema afflitto da ritardi cronici, carichi di lavoro insostenibili e un elevato tasso di errori. Eppure, l'adozione accelerata e spesso improvvisata di questi strumenti ha prodotto risultati opposti a quelli attesi, trasformando un'opportunità di modernizzazione in un fattore di ulteriore distorsione e opacità. Magistrati, cancellieri e avvocati ricorrono sempre più frequentemente a modelli generativi per la stesura di provvedimenti, la sintesi di fascicoli complessi, l'analisi predittiva degli esiti processuali o la valutazione automatizzata del rischio di recidiva. Tale ricorso, tuttavia, avviene in assenza di una formazione strutturata e obbligatoria, lasciando gli operatori giudiziari privi degli strumenti necessari per comprendere i limiti intrinseci degli algoritmi, i bias incorporati nei dati di addestramento e le implicazioni etiche e giuridiche di decisioni parzialmente delegate a macchine.

Le conseguenze si manifestano in modo evidente. Gli strumenti di intelligenza artificiale, addestrati prevalentemente su archivi storici del sistema giudiziario italiano, riproducono e talvolta amplificano pregiudizi preesistenti di natura sociale, geografica o razziale, generando previsioni distorte che possono influenzare negativamente le scelte in materia di misure cautelari o di valutazione della pericolosità. In assenza di verifica critica, un testo prodotto da un modello linguistico viene spesso incorporato nei provvedimenti senza adeguato controllo delle fonti, delle citazioni normative o della coerenza logica, con il rischio di pronunce formalmente corrette ma sostanzialmente superficiali. Casi documentati di atti giudiziari redatti con ausilio di ChatGPT o analoghi sistemi, privi di sufficiente personalizzazione e supervisione, hanno già attirato l'attenzione del Garante per la protezione dei dati personali, che ha avviato accertamenti su potenziali violazioni della normativa privacy. Inoltre, la frammentazione degli strumenti adottati nei singoli uffici giudiziari – privi di standard nazionali uniformi – genera disomogeneità procedurale, complica il controllo di legittimità e contribuisce ad allungare ulteriormente i tempi processuali.

Il contesto statistico della giustizia italiana rende questi problemi ancora più gravi. Lo Stato continua a sostenere costi elevatissimi per riparare errori sistemici. Dal 1991 al 31 ottobre 2025 si contano 32.484 casi di ingiusta detenzione riconosciuta, con una media annua di poco più di 928 innocenti finiti in custodia cautelare. Nel solo periodo dal 1° gennaio al 31 ottobre 2025, le Corti d'appello hanno accolto 535 istanze di indennizzo, per un importo complessivo di oltre 23,8 milioni di euro a carico dell'Erario. Dal 1992 al 31 dicembre 2024 i casi accertati erano già 31.727, con risarcimenti cumulativi superiori a 901 milioni di euro. Questi numeri fotografano una realtà in cui una quota significativa della popolazione carceraria – circa un terzo dei presenti, pari a oltre 20.000 persone su un totale di circa 63.500 detenuti alla fine del 2025 – si trova in attesa di giudizio definitivo, e una porzione rilevante di essi verrà in seguito assolta o prosciolta. L'uso non regolato dell'intelligenza artificiale rischia di aggravare tale fenomeno, favorendo decisioni cautelari basate su calcoli algoritmici opachi anziché su valutazione individuale e contraddittoria.

Parallelamente, la prassi di approvare sentenze o ordinanze redatte in larga parte da sistemi automatizzati solleva interrogativi sulla reale partecipazione del magistrato al ragionamento giuridico. Testi generati in modo rapido possono apparire completi, ma spesso mancano di profondità argomentativa o ignorano elementi fattuali decisivi, con il pericolo che il giudice li sottoscriva senza una lettura integrale e critica. Il diritto di appello, già limitato da meccanismi procedurali rigidi e da un overload di ricorsi, perde ulteriore efficacia quando le motivazioni di primo grado risultano preconfezionate o prive di reale confronto con le difese. In un sistema in cui le nullità formali possono bloccare il riesame nel merito, l'introduzione di strumenti predittivi o redazionali senza adeguata governance rende illusorio il principio del doppio grado di giudizio effettivo.

Per superare questa fase di sperimentazione caotica occorre un intervento deciso e coordinato. La formazione deve diventare obbligatoria e permanente: la Scuola Superiore della Magistratura dovrebbe estendere e rendere strutturali i percorsi dedicati non solo alle competenze tecniche di base, ma soprattutto alla comprensione dei rischi sistemici dell'intelligenza artificiale – opacità algoritmica, bias, responsabilità decisionale – e alle modalità corrette di integrazione di questi strumenti nel processo giudiziario. I corsi dovrebbero includere esercitazioni pratiche su casi reali, analisi critica di output generati e simulazioni di audit algoritmico.

Al tempo stesso, è indispensabile adottare un modello ibrido rigoroso, in cui l'intelligenza artificiale funga da ausilio subordinato e non da sostituto del giudizio umano. Il legislatore nazionale, in linea con il Regolamento europeo sull'IA (AI Act), deve imporre requisiti stringenti: audit indipendenti periodici degli algoritmi impiegati in ambito giudiziario, obbligo di trasparenza sulle fonti di addestramento, divieto di utilizzo in decisioni ad alto impatto senza motivazione esplicita sul contributo umano. Occorre infine istituire un organismo di governance centrale – presso il Ministero della Giustizia o il Consiglio Superiore della Magistratura – incaricato di monitorare l'adozione degli strumenti, definire standard tecnici uniformi e pubblicare report annuali sull'impatto effettivo.

Solo attraverso queste misure l'intelligenza artificiale potrà contribuire a ridurre i ritardi e a migliorare la qualità delle decisioni, anziché amplificare le inefficienze storiche del sistema. La giustizia italiana, già gravata da un debito di fiducia nei confronti dei cittadini, non può permettersi ulteriori esperimenti privi di controllo. È necessario agire con urgenza e responsabilità, ponendo al centro la tutela dei diritti fondamentali e la centralità della persona nel processo decisionale. I numeri degli errori passati impongono una riflessione seria: la tecnologia deve servire la giustizia, non sostituirla.

L'introduzione dell'intelligenza artificiale nel sistema giudiziario italiano ha generato non solo aspettative di efficienza, ma anche una serie di casi documentati che evidenziano i rischi derivanti da un impiego non regolato e privo di adeguata supervisione. Tra questi, emergono episodi in cui strumenti come ChatGPT sono stati utilizzati per redigere atti processuali, portando a errori, allucinazioni e sanzioni. Un esempio emblematico è il caso del Tribunale di Torino, Sezione Lavoro, dove una sentenza del 16 settembre 2025 ha rigettato un'opposizione a un avviso di addebito, condannando la parte attrice al pagamento di una sanzione di 1.000 euro ai sensi dell'articolo 96, commi 3 e 4, del codice di procedura civile, per aver presentato un ricorso redatto con il supporto di intelligenza artificiale. L'atto era caratterizzato da allegazioni generiche, prive di ordine logico e concretezza rispetto ai fatti specifici del caso, configurando una condotta di malafede o colpa grave. Il giudice ha sottolineato che la responsabilità rimane interamente in capo all'utilizzatore umano, poiché l'intelligenza artificiale non costituisce un soggetto giuridico autonomo, ma uno strumento che richiede verifica critica per evitare contenuti incoerenti o errati.

Analogamente, al Tribunale di Latina, quattro sentenze emesse il 24 settembre 2025 hanno rilevato l'impiego di strumenti di intelligenza artificiale nella redazione di ricorsi giudiziari, evidenziando una scarsa qualità degli scritti difensivi, con argomenti privi di pertinenza e un coacervo di citazioni astratte e inconferenti. In questi casi, il tribunale ha applicato sanzioni variabili tra 1.000 e 3.500 euro, da versare alla controparte e alla cassa delle ammende, sempre in base all'articolo 96, comma 3, del codice di procedura civile, per grave negligenza. Tali episodi illustrano come l'uso non controllato dell'intelligenza artificiale amplifichi inefficienze, producendo atti processuali superficiali che sovraccaricano il sistema giudiziario e ledono il principio di un contraddittorio effettivo.

Un ulteriore caso si è verificato al Tribunale di Brescia il 22 luglio 2025, dove un'ordinanza ha contestato un documento generato tramite ricerca su ChatGPT, le cui conclusioni mancavano di riferimenti a dati specifici e non erano suscettibili di verifica. Questo ha portato al rigetto delle argomentazioni, sottolineando i pericoli delle allucinazioni algoritmiche, ovvero la generazione di informazioni inesistenti o distorte. Simili problematiche sono emerse al Tribunale di Roma, con una sentenza del 25 settembre 2025 che ha respinto un ricorso dichiaratamente redatto con supporto di intelligenza artificiale, per assoluta genericità e censure non pertinenti, senza richiami adeguati ai documenti allegati. In un contesto più elevato, la Corte di Cassazione Penale, Sezione III, nella sentenza n. 14631 del 2024, ha registrato la prima apparizione esplicita di ChatGPT in un procedimento, dove un avvocato ha invocato una risposta del sistema come prova per dimostrare l'assenza di vincoli ambientali in un'area interessata da reati edilizi e ambientali. I giudici non hanno accolto l'argomento, ma la citazione evidenzia la diffusione dell'intelligenza artificiale nelle strategie difensive, pur in assenza di regole deontologiche specifiche per valutarne l'affidabilità.

Un episodio di particolare rilievo coinvolge la Corte d'Appello di Torino, dove una sentenza su un caso di evasione fiscale è stata criticata dalla Cassazione per incongruenze, inclusi riferimenti a principi non affermati e sentenze inesatte, alimentando il sospetto che un software generativo abbia inventato precedenti per colmare lacune argomentative. Nonostante i rilievi, il Consiglio Superiore della Magistratura non ha avviato azioni disciplinari formali, in attesa di contestazioni dalla Procura generale, sebbene abbia elaborato raccomandazioni l'8 ottobre 2025 per scoraggiare l'uso di strumenti come ChatGPT nelle decisioni giudiziarie, in linea con l'AI Act europeo e la legge nazionale n. 132 del 23 settembre 2025. Questi casi dimostrano come l'assenza di formazione specifica porti a decisioni opache e potenzialmente ingiuste, con conseguenze quali ritiri di atti, sanzioni pecuniarie e indagini interne, che erodono la fiducia nel sistema.

Per mitigare tali inefficienze, è essenziale implementare protocolli di formazione obbligatoria, come quelli proposti dalla Scuola Superiore della Magistratura, focalizzati sulla comprensione dei bias algoritmici e sull'obbligo di verifica umana. Inoltre, la legge n. 132/2025 introduce obblighi di informativa sull'uso dell'intelligenza artificiale nelle professioni intellettuali, inclusa quella forense, e riserva alle decisioni umane aspetti cruciali come l'interpretazione normativa e la valutazione probatoria. Un ente di governance centrale potrebbe monitorare l'applicazione uniforme di questi standard, riducendo i rischi e trasformando l'intelligenza artificiale in un vero ausilio per la giustizia italiana.