← Torna alla home
Copertina

Algoritmi e discriminazione nel fintech: il rischio dell’AI nei prestiti

18 August 2025 5 min. lettura

Quando il fintech discrimina: il lato oscuro degli algoritmi finanziari 

La promessa del fintech è chiara: rendere la finanza più accessibile, veloce, personalizzata. Ma dietro le app lucide e le interfacce intuitive, si nasconde un pericolo silenzioso e algoritmico: quello della discriminazione automatizzata. 
Il rischio? Che a decidere se puoi ottenere un prestito non sia un essere umano, ma un sistema opaco, incapace di spiegare le sue scelte. E soprattutto… incapace di riconoscere i propri pregiudizi. 

 

Credit scoring: l’algoritmo che decide se meriti fiducia 

Nel fintech, la valutazione del rischio non passa più solo da documenti e colloqui, ma da algoritmi di credit scoring che analizzano centinaia di variabili: cronologia dei pagamenti, localizzazione, tipo di smartphone, perfino i comportamenti sui social. 
Questi sistemi, se mal progettati o addestrati su dataset squilibrati, possono riflettere e amplificare i bias già presenti nella società: penalizzano chi abita in determinati quartieri, chi ha un nome straniero, chi appartiene a categorie sociali marginalizzate. 

 

Apple Card, Klarna, e gli altri: quando l’AI sbaglia bersaglio 

Un caso eclatante fu quello della Apple Card: clienti con stesso reddito e stesso stato patrimoniale ricevevano limiti di credito diversi, in base al genere. Le proteste pubbliche portarono a un’indagine ufficiale nello Stato di New York. 
Anche Klarna, pioniera dei pagamenti “Buy Now Pay Later”, è stata criticata per modelli di valutazione troppo opachi, che hanno portato a rifiuti inspiegabili di credito, anche a clienti affidabili. 

 

Discriminazione algoritmica? È vietata dalla legge 

La legge non tace su questo fenomeno. Secondo il Regolamento Generale sulla Protezione dei Dati (GDPR), l’art. 22 vieta le decisioni basate unicamente su trattamenti automatizzati che producono effetti giuridici o similmente significativi per l’interessato — come il rifiuto di un prestito. 
Inoltre, chi utilizza questi sistemi ha l’obbligo di trasparenza: deve spiegare perché è stata presa una certa decisione e su quali logiche si basa l’algoritmo. 

 

Ma è davvero “trasparente” un algoritmo? 

Qui entra in crisi il sistema. Perché molti modelli usati nel fintech sono black box: non è tecnicamente possibile risalire al ragionamento dell’algoritmo. E questo collide con il principio di accountability imposto dal GDPR. 
Inoltre, molte piattaforme non espongono in modo chiaro i propri criteri, e gli utenti non hanno strumenti reali per fare ricorso o ottenere una rettifica. 

 

Serve un diritto alla spiegabilità (explainability) 

Sempre più esperti chiedono l’introduzione (o l’espansione concreta) del diritto alla spiegabilità: se un algoritmo prende una decisione che mi penalizza, devo sapere il perché. 
È questo il fulcro della futura regolazione europea sull’IA (AI Act), che distingue tra sistemi ad alto rischio (come quelli usati nel credito) e impone obblighi di trasparenza, audit e controllabilità. 

 

Come proteggere i cittadini digitali? 

Il legislatore ha davanti una sfida urgente: costruire un quadro normativo che non soffochi l’innovazione, ma ne limiti gli abusi. 
Serve: 

  • un audit etico e giuridico degli algoritmi di scoring; 

  • la possibilità di intervento umano effettivo su ogni decisione rilevante; 

  • un sistema di ricorsi rapidi e accessibili anche a chi non ha competenze digitali; 

  • la promozione di algoritmi spiegabili, anche se meno “performanti”. 

 

 

Come difendersi dagli algoritmi? I diritti poco conosciuti degli utenti fintech 

Chi subisce una decisione ingiusta da parte di un algoritmo, come un rifiuto di credito o un’offerta economica penalizzante, non è privo di tutele. Ma in pochi sanno che esistono strumenti giuridici concreti per reagire. 
Tra questi: 

  • Accesso ai dati personali: ogni utente ha diritto di sapere quali informazioni sono state utilizzate per valutarlo (art. 15 GDPR). 

  • Opposizione alle decisioni automatizzate: è possibile chiedere l’intervento umano su una decisione presa solo da un algoritmo (art. 22 GDPR). 

  • Richiesta di rettifica o spiegazione: si può domandare di correggere dati errati o ottenere chiarimenti sul processo decisionale. 

  • Reclamo all’autorità di controllo: in Italia, ci si può rivolgere al Garante per la protezione dei dati personali. 

  • Azione giudiziaria: in caso di danni patrimoniali o discriminazioni gravi, è possibile rivolgersi al giudice ordinario. 

 

Il vero problema? Questi diritti esistono solo sulla carta, se non vengono conosciuti e rivendicati. Il rischio è che l’asimmetria informativa tra piattaforme e utenti diventi una forma di potere, invisibile e incontestabile. 

 

Tecnologia sì, ma senza cedere ai suoi automatismi 

Il fintech è il futuro, ma non può permettersi di discriminare in silenzio. Ogni volta che un algoritmo prende una decisione al posto nostro, qualcuno dovrebbe rispondere delle sue scelte. 
E se non lo fa nessuno… forse è il diritto che ha smesso di essere umano. 

 

A cura degli studenti sotto la facoltà di Giurisprudenza  e Ingegneria Informatica 

 

Condividi


Articoli Correlati

4 August 2025 · Fintech

Fintech e diritto: chi vince la corsa tra innovazione e regole?

Leggi l'articolo →