{"id":88926,"date":"2026-03-16T10:39:35","date_gmt":"2026-03-16T10:39:35","guid":{"rendered":"https:\/\/www.pulse-z.eu\/?p=88926"},"modified":"2026-03-16T10:39:50","modified_gmt":"2026-03-16T10:39:50","slug":"lintelligenza-artificiale-in-tribunale","status":"publish","type":"post","link":"https:\/\/www.pulse-z.eu\/it\/lintelligenza-artificiale-in-tribunale\/","title":{"rendered":"L&#39;intelligenza artificiale in tribunale"},"content":{"rendered":"\n<p>In un contesto europeo segnato da una forte lentezza dei procedimenti di tipo civile e penale, la tecnologia appare quasi come risposta pragmatica . Effettivamente automatizzare attivit\u00e0 ripetitive, ordinare mucchi di fascicoli, segnare incongruenze o richiamare precedenti pu\u00f2 dare pi\u00f9 tempo ai giudici di occuparsi di aspetti pi\u00f9 complessi del caso.\u00a0 Tuttavia, l\u2019ingresso dell\u2019AI nelle aule di giustizia solleva diversi interrogativi che vanno per oltre il rendere i processi pi\u00f9 corti. Il problema principale sarebbe infatti quello della trasparenza.<\/p>\n<p>Nei sistemi europei la giustizia non si esaurisce nel mero dispositivo finale, ma \u00e8 essenziale che il percorso che porti ad esso sia comprensibile e specialmente verificabile. <a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/library\/ethics-guidelines-trustworthy-ai\" target=\"_blank\" rel=\"noopener\">Molti sistemi di intelligenza artificiale infatti, funzionano come \u201cscatole nere\u201d, producendo risultati senza rendere in modo completo i criteri utilizzati.\u00a0<\/a><\/p>\n<p>Un caso concreto che pu\u00f2 facilitare la comprensione di questo problema dell&#8217;intelligenza artificiale \u00e8 quello del sistema &#8220;SyRI&#8221; dei Paesi Bassi. Questo algoritmo, sviluppato dal governo olandese per individuare possibili frodi nei sussidi sociali, combina tantissimi\u00a0 database governativi come: dati fiscali, registri immobiliari, registrazione dei veicoli e informazioni sul lavoro e reddito. Questi dati venivano poi analizzati in modo automatico per assegnare un livello di rischio ai cittadini. <a href=\"https:\/\/pathforeurope.eu\/addressing-algorithmic-discrimination-in-the-european-union\" target=\"_blank\" rel=\"noopener\">Se ad esempio una persona risultava &#8220;a rischio&#8221;, veniva riferita alle autorit\u00e0 per ulteriori controlli<\/a>.<\/p>\n<p>Il problema principale di questo meccanismo \u00e8 quello della <a href=\"https:\/\/njcm.nl\/wp-content\/uploads\/2020\/06\/Outline-reactie-internetconsultatie-AI-2.pdf\" target=\"_blank\" rel=\"noopener\">trasparenza<\/a>, l&#8217;algoritmo non era infatti di dominio pubblico, le autorit\u00e0 non spiegavano in modo approfondito quali dati venivano combinati, i criteri di rischio o come venivano costruiti i profili sospetti! Rendeva dunque impossibile per i cittadini contestare la decisione del sistema. Il tribunale dell&#8217;Aia nel 2020<a href=\"https:\/\/www.theguardian.com\/technology\/2020\/feb\/05\/welfare-surveillance-system-violates-human-rights-dutch-court-rules\" target=\"_blank\" rel=\"noopener\"> dichiar\u00f2 illegale l&#8217;uso del sistema<\/a>. Secondo la corte infatti SyRI violava il diritto alla privacy e non garantiva in modo sufficiente le garanzie di trasparenza nel processo decisionale.<\/p>\n<p>Se le parti di un processo non possono comprendere come un algoritmo abbia contribuito alla decisione, viene meno la possibilit\u00e0 di contestare. Tutto questo pu\u00f2 ad esempio risultare nei rischio di discriminazioni indirette. Gli algoritmi infatti apprendono da dati storici: se i dati ricavati riflettono le disparit\u00e0 sociali o prassi discriminatorie sedimentate nel tempo, il sistema rischia di riportarle.<\/p>\n<p>In ambito penale, strumenti che stimano la probabilit\u00e0 di recidiva o suggeriscono misure cautelari, potrebbero incidere in maniera sproporzionale su determinati imputati appartenenti a una certa categoria di persone.\u00a0 Tutto ci\u00f2 andrebbe contro il principio europeo fondato sull\u2019uguaglianza e sul divieto di discriminazione. Un\u2019altra problematica sarebbe quella della responsabilit\u00e0. <a href=\"https:\/\/digital-strategy.ec.europa.eu\/en\/library\/ethics-guidelines-trustworthy-ai\" target=\"_blank\" rel=\"noopener\">La tradizione giuridica europea<\/a> attribuisce la decisione a un soggetto umano, che si assume la propria responsabilit\u00e0 e che debba motivare il proprio operato.<\/p>\n<p>Consapevole di questi rischi, il <a href=\"https:\/\/www.coe.int\/en\/web\/cepej\/ethical-charter-on-ai1\" target=\"_blank\" rel=\"noopener\">Consiglio d\u2019Europa ha adottato delle linee guida etiche<\/a> per l\u2019uso dell\u2019AI nei sistemi giudiziari, sottolineando la centralit\u00e0 del controllo dell\u2019essere umano, la non discriminazione e sopratutto la trasparenza.<\/p>\n<p>Parallelamente,l\u2019Unione Europea ha approvato<a href=\"https:\/\/artificialintelligenceact.eu\/annex\/3\" target=\"_blank\" rel=\"noopener\"> l\u2019AI Act<\/a>, che qualifica tutti i sistemi impiegati nella giustizia come un alto rischio, imponendo degli obblighi nella supervisione, valutazione e tutela dei diritti fondamentali. La tecnologia, secondo l\u2019Unione Europea, pu\u00f2 supportare, ma non sostituire completamente la funzione giurisdizionale.<\/p>\n<p>Resta infine una dimensione pi\u00f9 culturale. Il giudizio non \u00e8 solo un esercizio di calcolo probabilistico. Nei sistemi europei, il processo rappresenta anche uno spazio di ascolto, confronto e motivazione pubblica. Affidare interamente questo compito a un algoritmo significherebbe ridurre la giustizia a un\u2019operazione tecnica, privandola della componente umana che ne costituisce l\u2019essenza.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>In un contesto europeo segnato da una forte lentezza dei procedimenti di tipo civile e penale, la tecnologia appare quasi come risposta pragmatica . Effettivamente automatizzare attivit\u00e0 ripetitive, ordinare mucchi di fascicoli, segnare incongruenze o [&hellip;]<\/p>\n","protected":false},"author":66,"featured_media":85945,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[686],"tags":[1807,8318,2431,2968,1957,1163,1731,1733],"post_formats":[626],"coauthors":[3858],"class_list":["post-88926","post","type-post","status-publish","format-standard","has-post-thumbnail","hentry","category-tecnologia","tag-ai-it","tag-artificial-intelligence-it","tag-disinformation-it","tag-eu-youth-it","tag-europe-it","tag-european-union-it","tag-politics-it","tag-youth-it","post_formats-articoli"],"acf":[],"_links":{"self":[{"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/posts\/88926","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/users\/66"}],"replies":[{"embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/comments?post=88926"}],"version-history":[{"count":25,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/posts\/88926\/revisions"}],"predecessor-version":[{"id":89232,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/posts\/88926\/revisions\/89232"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/media\/85945"}],"wp:attachment":[{"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/media?parent=88926"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/categories?post=88926"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/tags?post=88926"},{"taxonomy":"post_formats","embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/post_formats?post=88926"},{"taxonomy":"author","embeddable":true,"href":"https:\/\/www.pulse-z.eu\/it\/wp-json\/wp\/v2\/coauthors?post=88926"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}