La crescente dipendenza delle banche dai chatbot per gestire le attività di servizio al cliente preoccupa il controllo dei consumatori
NEW YORK (AP) – Puoi fidarti di Erica, Sandi o Amy per controllare sempre più parti della tua vita finanziaria senza fornirti informazioni inesatte o inviare denaro nel posto sbagliato?
Questo è ciò che chiede il Consumer Financial Protection Bureau in un rapporto pubblicato martedì, in cui l'ufficio espone una serie di preoccupazioni circa il crescente utilizzo di chatbot da parte delle banche per gestire le richieste di routine del servizio clienti.
Il CFPB teme che le banche o le società di servizi di prestito possano ridurre il personale umano del servizio clienti e affidare un numero crescente di attività di routine all’intelligenza artificiale. Inoltre, il regolatore afferma che i chatbot mal progettati potrebbero entrare in conflitto con le leggi federali che regolano il modo in cui vengono riscossi i debiti o come vengono utilizzate le informazioni personali.
"Se le aziende distribuiscono male questi servizi, c'è un rischio elevato di danni diffusi ai clienti", ha affermato Rohit Chopra, direttore del CFPB, in un'intervista all'Associated Press.
Da diversi anni le banche gestiscono sempre più richieste di assistenza clienti tramite chatbot, spesso con nomi dal suono femminile come Sandi per Santander, Amy di HSBC o Eno per Capital One.
Bank of America gestisce il chatbot finanziario più grande e di maggior successo con il marchio Erica. Erica, le ultime cinque lettere in America, ora gestisce centinaia di milioni di richieste all'anno da parte dei clienti di BofA.
Inizialmente i chatbot bancari venivano utilizzati per richieste di base, come modificare l'indirizzo o il numero di telefono di un cliente, o dire a un cliente dove si trova la filiale più vicina o quale potrebbe essere il numero di routing sul suo conto. Ma poiché le banche hanno investito milioni in questi servizi, i chatbot sono diventati particolarmente sofisticati, in grado di comprendere frasi complete o persino aiutare un cliente a spostare denaro o a pagare una bolletta.
Il CFPB stima che circa quattro americani su 10 abbiano interagito con un chatbot bancario lo scorso anno, una cifra che si prevede sia destinata a crescere.
Le banche si stanno preparando a lanciare servizi ancora più avanzati simili all’intelligenza artificiale. Secondo quanto riferito, JPMorgan Chase sta sviluppando piani per utilizzare ChatGPT e l'intelligenza artificiale per aiutare i clienti a scegliere investimenti adeguati. I banchieri della Bank of America possono utilizzare Erica per creare profili di clienti e potenzialmente consigliare prodotti a tali clienti.
Sebbene questi servizi possano far risparmiare ai clienti minuti o ore di attesa prima di raggiungere un essere umano per porre una domanda di routine, l’agenzia teme se questi chatbot saranno in grado di gestire le sfumature e la natura complicata delle leggi sulla protezione dei consumatori senza fornire ai clienti informazioni imprecise.
"Esistono leggi federali che conferiscono diritti ai clienti quando si tratta di debiti o di contestazione di una transazione, e se gli agenti del servizio clienti vengono sostituiti ai chatbot, ciò può creare problemi se il software fornisce loro informazioni imprecise", ha affermato Chopra.
L'ufficio di presidenza ha inoltre scoperto che i clienti più anziani o i clienti la cui lingua principale non è l'inglese potrebbero finire in un "circuito" del servizio clienti e non essere in grado di contattare un agente umano.
"Più volte abbiamo riscontrato lamentele di clienti rimasti bloccati in discussioni circolari con un robot o che ricevevano informazioni errate", ha affermato.
Chopra, sia nel suo attuale ruolo di direttore del CFPB che in precedenza come commissario presso la Federal Trade Commission, ha ripetutamente sollevato preoccupazioni sul fatto che le banche e le aziende possano violare le leggi sui consumatori se implementano in modo inadeguato algoritmi o software di intelligenza artificiale. Sono stati segnalati numerosi chatbot di Microsoft, Google e altre aziende che hanno utilizzato un linguaggio distorto quando richiesto.