Telegram


Procedura Civile 2.0

Store
  

Fonte: Spataro - Segnalato da: Spataro - 2019-05-08 - Post successivo - Stampa - pag. 94544

Approfondimento: come usare l'intelligenza artificiale nel diritto italiano

I sistemi anglosassoni vivono del precedente. In Italia no. Questo dato strutturale e' considerato da chi proporrą l'uso della IA nel diritto italiano ?
Nella foto una struttura di una foglia, cresciuta cosi' per natura e per adattamento all'ambiente. - Spataro


I

Il tema dell'intelligenza artificiale in Italia sta avendo un impatto notevolissimo e una accelerazione.

Un buon punto di partenza per restare aggiornati e' sicuramente seguire il profilo LinkedIn di Gianfranco de Aietti che cita anche i lavori di Claudio Castelli presidente della corte d'appello di Brescia.

Stiamo parlando di un attività che vuole applicare i metodi e gli strumenti dell'intelligenza artificiale al mondo del diritto italiano.

E' un tema a me molto caro, e' almeno un decina d'anni che rifletto sulle soluzioni possibili e voglio condividere con voi ad alcune riflessioni che mi hanno portato a non occuparmi per ora della della materia, proponendo delle riflessioni a tutti ma credo che queste riflessioni fatta di ultimi 10 anni siano importanti e il momento e' giusto.

Prima di tutto cos'è l'intelligenza artificiale ?

L'intelligenza artificiale e' un conoscenza sociale, un conoscenza statistica. L'intelligenza artificiale e' composta da varie branche:

- riconoscimento del linguaggio
- comprensione del linguaggio
- produzione del linguaggio

Volendo semplificare quello che ci interessa oggi, questi temi sono sicuramente interessanti ma insufficienti a descrivere la complessità dell'intelligenza artificiale.

Quello che qui è importante sottolineare è che non si tratta di intelligenza ,a si tratta di un fotografia molto evoluta basata su precedenti esperienze altrui.

Quindi la IA riconosce in una fotografia un albero perché il sistema informatico da tante fotografie precedentemente indicate e categorizzare come alberi ha individuato dei tratti comuni: la diramazione dei rami, per intenderci, e categorizza anche tutte quelle simili come alberi

Là dove ci sono gli errori controlla pure gli errori e li elimina.

Gli errori sono trovati sulla base di altre informazioni che la intelligenza artificiale (o in autonomia, o aiutata, o entrambe) ha definito come errori

Se quindi pensiamo all'intelligenza artificiale come ad una capacità delle macchine di individuare delle ricorrenze basate su precedenti categorizzazioni fatte da altri ci troviamo di fronte anche alla necessità di capire se il diritto è un scienza esatta oppure è soggetta a interpretazione, ed allora abbiamo degli aspetti evolutivi (e questi sono ben noti) ma anche degli aspetti che possono sottovalutare o sopravvalutare delle circostanze in modo diverso nel tempo e in modo tale da qualificare un fatto in un modo o in un altro

Sotto il profilo del diritto significa che ognuno può affermare tutto e l'opposto di tutto e nelle sentenze ci sono argomentazioni sostenute da un parte e dall'altra; quindi nel momento in cui si affida a un strumento che nasce per dare delle informazioni statisticamente corrette si dirà interpretazione (con questo metodo) che è corretta al 90% secondo i nostri criteri o è corretta al 50 percento secondo questi altri criteri

L'intelligenza artificiale restituisce più criteri e più soluzioni indicando le percentuali di ipotesi di probabilità che possa essere applicata l'una o l'altra.

Ecco: nel momento in cui abbiamo strumenti del genere dobbiamo anche capire che ruolo hanno i giudizi e le valutazioni secondarie rispetto a quelle principali.

Per spiegare in termini semplici si tratta di fare come nel film "minority report" dove i sistemi avevano varie proposte ma in certe occaszioni uno dei tre predittori poteva essere anche contrario.

Aquel punto minority report veniva escluso: questo però era un aspetto che veniva scoperto dal protagonista solamente dopo aver avuto informazioni precise su come funzionava il sistema; perché quando il sistema dava un risposta non spiegava se c'era o meno un minority report, o almeno nemmeno chi lo utilizzava (il protagonista film) se n'accorgeva tanta fiducia riponeva nel sistema predittivo.

Ora il passaggio successivo è: "come posso utilizzare questi sistemi per prevedere la decisione di un giudice"

Questo e' sicuramente interessante.

Nella IA nei tribunali inferiori le IA possono sostenere la tesi che quel giudice ha già fatto propria in tante altre posizioni oppure sapere quante volte non l'ha seguita oppure perché se ne e' discostato motivando.

Tuttavia il passaggio ulteriore potrebbe essere quella di controllare l'esattezza dell'operato dei giudici.

Perché posso parlare di esattezza ?

Perché se un sistema informatico mi dice che quel giudice si e' discostato da un indirizzo della Cassazione allora di fronte a un precedente suggerimento di un sistema di intelligenza artificiale quel giudice potrà essere portato a non discostarsi da quel precedente giudiziale sostenuto dall'intelligenza artificiale oppure a seguirlo per timore o pur di non essere criticato da tutti coloro che diranno: "ma come si è permesso di decidere diversamente nonostante il sistema di intelligenza artificiale, che conosce tutta la giurisprudenza, abbia detto che in questi casi la decisione non può che essere questa altra ?".

O i giudici abbandoneranno il sostenere una tesi innovativa o probabilmente cercheranno di argomentarla il meglio possibile, probabilmente senza sapere i criteri sulla base dei quali intelligenza artificiale suggerisce come corretta una soluzione diversamente scelta dei giudici.

Il terzo passaggio e la responsabilità professionale degli avvocati.

Già oggi io, interpretando le sentenze di Cassazione all'interno di sistemi, ho la possibilità di rilevare linguisticamente tutte quelle volte che il giudice si lamenta della mancata preparazione dell'avvocato. Non si lamenta in modo esplicito ma c'è un serie di costrutti lessicali di espressioni verbali utilizzate tali da far rabbrividire il difensore che ha sostenuto un certa tesi.

Tutto questo oggi è fattibile e attualmente non ha seguito. Il linguaggio del giudice viene sempre considerato come un stile utilizzato per far capire che quella tesi non era "del tutto e in modo evidente" sostenibile come invece ha fatto l'avvocato.

Di fronte a rilievi simili il passo successivo è: non solo fare causa all'avvocato che ha sostenuto un tesi insostenibile o che comunque e' stata cassata dai giudici, ma anche prendere nei suoi confronti delle decisioni deontologicamente rilevanti da parte degli organi che possono dire: "l'avvocato è stato incapace, incompetente" oppure si tacerà di fronte a questi problemi ?

La IA introduce sicuramente un ulteriore fase (preliminare e preventiva): quella della dello studio della posizione.

Se nello studio della posizione io dò ad un sistema predittivo tutte le informazioni che contano (ah, il valore della prova !) per avere una valutazione di efficacia o meno di un eventuale azione giudiziaria, ecco che posso influire sul destino dei cittadini consigliando una azione giudiziaria o desistere.

Il punto centrale in tutte e 3 queste ipotesi è sempre lo stesso: il sistema di intelligenza artificiale non è intelligenza artificiale ma intelligenza statistica basata su un quantità (o totalità) di precedenti o, almeno quelli che vengono forniti a questo sistema

Di fronte ad ogni decisione dell'intelligenza artificiale deve esserci sempre un motivazione argomentata:

- non solo delle scelte a favore
- ma anche delle mancate scelte a favore delle valutazioni
- e delle scelte contrarie

solo allora i sistemi di intelligenza artificiale saranno uno strumento a servizio dei giudici e degli avvocati e quindi dei cittadini per prevenire le cause o anche solo per valutare la conformità delle sentenze

Altrimenti invece di diventare strumenti da usare si sostituiranno ai professionisti per dire: "inutile combattere contro i mulini a vento" perché la macchina ha già detto che tu hai torto.

L'attività predittiva, come quella di controllo, deve acquisire conoscenze dai precedenti giudiziali e dal caso concreto. Gli investimenti per acquisire i precedenti giudiziali sono prevedibili. Ma il valore della prova, in fase preliminare, come sarà valutata dalla macchina ? O ci troveremo a fare i saggi una volta che la pronuncia c'e', a cose fatte ?

L'avvocato avrà ancora piu' valore prima della causa solo se i sistemi saranno: verificabili e trasparenti. In mancanza ci saranno tante lungaggini o errori giudiziari.

Non per colpa delle macchine. Ma per colpa degli uomini che si affideranno senza pensiero critico all'oracolo informatico.

I sistemi anglosassoni vivono del precedente. In Italia no. Questo dato strutturale e' considerato da chi proporrà l'uso della IA nel diritto italiano ?

Già oggi si e' scelta la via facile: le prove delle scatole nere nelle auto hanno valore nonostante non vi siano strumenti di controllo sui sensori che nascono per riconoscere la posizione e altri valori all'interno di un range di errore, ma senza doppi controlli. Alcuni persino non avrebbero strumenti crittografici e i dati potrebbero essere alterati senza controllo di accessi o di integrità. Riflettiamoci

Ricevi gli aggiornamenti su 'Approfondimento: come usare l'intelligenza artificiale nel diritto italiano', Intelligenza artificiale e gli altri post del sito:

Email: (gratis Info privacy)


Link a Spataro : https://www.linkedin.com/feed/update/urn:li:activi

Altro su Intelligenza artificiale:

L'intelligenza artificiale deve argomentare le proprie scelte. Anche per la privacy.

The European Ethical Charter on the use of artificial intelligence

Il cittadino ha diritto di conoscere gli algoritmi della P.A.

Ippocrate e il giuramento per chi fa l'IA

Etica, Commissione Europea e linee guida

In lotta per la vita per sei minuti contro il computer d bordo.

Il Garante sulle linee guida nell'intelligenza artificiale: obbligo di vigilare sugli algoritmi.

I Boeing 737 max sono caduti per il software troppo smart

AI e deep learning: interferenze nell'apprendimento neuronale

Intelligenza artificiale e algoritmi nel diritto: gravi rischi







  






v. anche: Segnala - Collabora - Embed - Civile.it - Codici - Ebook - G.U. - IusSeek - Sentenze - Chi siamo   

On line dal 1999. Tutti i diritti riservati - Toolbar - Privacy - Cookie - @IusOnDemand - Contatti - P.IVA: 04446030969 -