L’intelligenza artificiale prevede (ma a volte stravede…)

Contenuti Articolo

Ciao,

bentornato nel blog di PrePay. Oggi parliamo di intelligenza artificiale.

Ormai è dappertutto...

In questi anni i servizi basati sull’AI si sono moltiplicati.

Nei grandi siti di e-commerce oggi è una macchina a decidere quali “offerte speciali” vanno proposte agli utenti, in base all’analisi sulle loro abitudini di consumo.

Nella finanza ci sono i robo-advisor che investono per i clienti.
In molte aziende ormai sono i chatbot a fornire assistenza.

Nelle banche o nelle finanziarie l’analisi creditizia è sempre più spesso delegata all’AI e persino nei giornali molte cronache di sport o di finanza sono scritte da algoritmi nemmeno troppo sofisticati.

L’elenco potrebbe andare avanti a lungo, ed è destinato a crescere.

L’intelligenza artificiale è la panacea di tutti i mali, dunque? Ciò che ci attende è un mondo regolato da logiche ineccepibili, in cui tutto sarà previsto, catalogato e gestito per il meglio? 

Sembra di no (per fortuna, mi verrebbe da dire).

Perché anche le macchine sbagliano e in alcuni casi lo fanno in modo grossolano, per ora.

I sistemi di polizia predittiva. Un flop annunciato (in un film)

Un caso eclatante di errore dell’intelligenza artificiale, ad esempio, è quello dei sistemi di POLIZIA PREDITTIVA.

Sai cosa sono?

Hai mai visto il film Minority Report con Tom Cruise?  Ecco, quella roba lì.

Minority report - Tom Cruise 2002

Visto che è possibile che tu non sia vecchio come noi e non l’abbia visto, farò un breve riassunto.

Dunque, nel film, che risale ormai a 20 anni fa (2002) ma era ambientato nel 2054, uno speciale corpo di polizia, la “divisione precrimine” usava dei veggenti detti PreCog, per scoprire i crimini, prima ancora che venissero commessi.

In questo modo la divisione poteva intervenire in anticipo e arrestare il colpevole prima ancora che commettesse il reato.

Questo, almeno, l’antefatto.

Poi la storia si complicava e i precog vedevano nientemeno che il comandante della divisione, il capitano John Anderton,  impersonato da Tom Cruise, commettere un reato (un omicidio) che ovviamente lui non aveva ancora commesso.

Lui fuggiva per non farsi arrestare dai suoi colleghi e per potersi scagionare e di lì partivano una serie di eventi che…be’, non te lo dico, nel caso tu decidessi di guardare il film (lo trovi su Sky e su numerose piattaforme on demand).

Torniamo alla realtà.

Nei moderni sistemi di polizia predittiva i veggenti PreCog sono sostituiti da intelligenze artificiali che analizzano milioni di dati su reati del passato e usando algoritmi di machine learning prevedono le aree di una città o di uno stato in cui sarà maggiormente probabile che accadano crimini nell’immediato futuro. O quali soggetti sono più a rischio di attentati, aggressioni, ecc.

In questo modo le forze di polizia hanno l’indicazione precisa di quali zone pattugliare maggiormente oppure quali persone mettere sotto scorta per evitare che vengano uccise o assaltate.

Prevenire è meglio che reprimere e se si assicura in anticipo una maggiore sorveglianza alle aree che l’AI identifica come “a rischio”, si può prevenire l’aumento della criminalità e così cittadini possono dormire sonni tranquilli.

Nel caso tutto questo ti paresse una futuristica utopia, sappi che i sistemi di polizia predittiva sono già utilizzati, spesso da anni, da moltissime polizie del mondo, compresa quella italiana.

Solo che di recente è venuto fuori che non funzionano.

Lo scorso anno un’analisi della Carnegie Mellon University ha scoperto che le decisioni delle AI di polizia sono sostanzialmente errate. E possono portare a clamorosi errori nella gestione dell’ordine pubblico.

È colpa dei dati? Non solo.

Molti di quelli che mettono in discussione l’efficacia dei sistemi di intelligenza artificiale danno la colpa alla qualità dei dati

Il che è vero, in parte, anche per i sistemi di polizia predittiva.

Se in una città si utilizzano come dati storici le denunce, ad esempio, e si chiede al sistema di polizia predittiva di identificare i quartieri più a rischio in base al numero e al tipo di reati denunciati negli anni precedenti, l’AI identificherà i quartieri centrali come “più a rischio” e più pericolosi dei quartieri periferici.

Esattamente il contrario di quello che l’esperienza quotidiana ci insegna, in genere.

Questo accade secondo gli esperti, perché nei quartieri del centro di solito c’è più fiducia nello Stato e quindi i cittadini, quando subiscono un torto, o assistono a un reato, nel 90% dei casi si rivolgono alla polizia per denunciarlo. 

Nelle zone più “critiche” o degradate, dove invece la presenza dello Stato si sente meno, o vi è più sfiducia nella capacità dei tutori dell’ordine di risolvere i problemi, molti reati al contrario non vengono mai denunciati.

Ad esempio le vittime di violenza o di racket spesso preferiscono tacere, per paura di ritorsioni, oppure alcuni soprusi vengono considerati “inevitabili”, ecc.

Il risultato è che le denunce di reato sono minori, e quindi gli algoritmi della AI identificano queste zone come “più sicure”!!

Non solo, ma in certe nazioni, come ad esempio gli Stati Uniti, certi strati sociali o certe categorie di persone (es: i neri e gli ispanici) sono oggetto di denunce con più frequenza di altre. Quindi se i dati delle denunce vengono dati in pasto agli algoritmi predittivi, si rischiano anche bias a sfondo razziale!

In parte si può rimediare a questo “pregiudizio algoritmico” (si chiama proprio così…non l’ho inventato io) usando come dati storici gli arresti o le condanne, anziché le denunce.

Anche in questo caso, tuttavia – secondo l’indagine della Carnegie University – i risultati sono falsati.

Spesso infatti, per alcuni tipi di reati è più difficile identificare il colpevole (es: gli scippi vengono risolti con minore frequenza delle rapine, le violenze domestiche con maggiore frequenza dei furti, ecc.).  E quindi, con meno arresti, alcuni reati diventano meno evidenti agli “occhi” dell’AI.

Non è solo questione di “qualità dei dati”, però.

errori intelligenza artificiale
Photo by Stephen Dawson on Unsplash

Esiste infatti anche un altro problema. La fantasia.

La fredda logica degli algoritmi, infatti, non sembra, sempre secondo la ricerca della Carnegie Mellon, per  il momento capace di tenere conto del libero arbitrio umano, ossia della capacità di comportarsi in modo diverso in momenti diversi, anche se le circostanze di partenza sono le stesse.

Allo stesso modo non sembra essere possibile, per il momento, tenere conto del peso che fattori come le emozioni, le tensioni socio-politiche, i differenti momenti storici, il conflitto tra le classi, ecc. hanno indiscutibilmente nella genesi dei reati.

Le variabili da mettere in gioco per rendere calcolabili questi fattori per un’intelligenza artificiale sarebbero troppe e sarebbe troppo difficile raccogliere i dati necessari a farlo.

Cosa c’entra tutto questo con noi di PrePay?

Fortunatamente i sistemi di polizia predittiva non hanno nulla a che fare con noi.

Abbiamo deciso di parlartene sul nostro blog, però, perché sono un buon esempio di quanto la tanto celebrata “intelligenza artificiale”, oggi usata massivamente nei sistemi di investimento e nella gestione delle operazioni finanziarie, resti comunque ancora altamente influenzabile dall’errore umano.

Il che non significa che non funzioni mai, ma di sicuro prova che non funziona sempre.

Soprattutto nei momenti complicati, le variabili in gioco sono così tante e le emozioni acquistano un peso così significativo, che prendere una decisione completamente razionale o unicamente basata sui dati è quasi impossibile.

Ed è allora che occorre mettere da parte gli algoritmi e magari fidarsi un po’ di più del proprio istinto. Quello del bravo investigatore, nel caso dei sistemi di cui abbiamo parlato, o quello del bravo investiTore nel caso del nostro core business.

Grazie di averci seguito fin qui e arrivederci al prossimo articolo!

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *