A crescente dependência dos bancos de chatbots para lidar com tarefas de atendimento ao cliente preocupa o cão de guarda do consumidor
NOVA YORK (AP) - Você pode confiar em Erica, Sandi ou Amy para controlar cada vez mais partes de sua vida financeira sem fornecer informações imprecisas ou enviar dinheiro para o lugar errado?
Isso é o que o Departamento de Proteção Financeira do Consumidor está pedindo em um relatório divulgado na terça-feira, onde o departamento expõe uma série de preocupações sobre o uso crescente de chatbots pelos bancos para lidar com solicitações de atendimento ao cliente de rotina.
O CFPB teme que os bancos ou empresas de serviços de empréstimos possam reduzir os funcionários humanos de atendimento ao cliente e passar um número crescente de tarefas de rotina para a IA. Além disso, o regulador diz que chatbots mal projetados podem entrar em conflito com as leis federais que regem como as dívidas são cobradas ou como as informações pessoais estão sendo usadas.
“Se as empresas implantam mal esses serviços, há muito risco de danos generalizados aos clientes”, disse Rohit Chopra, diretor do CFPB, em entrevista à Associated Press.
Por vários anos, os bancos têm lidado com cada vez mais solicitações de atendimento ao cliente com chatbots, muitas vezes com nomes femininos como Sandi para o Santander, Amy do HSBC ou Eno da Capital One.
O Bank of America administra o maior e mais bem-sucedido chatbot financeiro sob a marca Erica. Erica - as últimas cinco cartas na América - agora lida com centenas de milhões de consultas por ano dos clientes do BofA.
Inicialmente, os chatbots bancários eram usados para consultas básicas, como alterar o endereço ou número de telefone de um cliente, ou dizer a um cliente onde fica a agência mais próxima ou qual pode ser o número de roteamento em sua conta. Mas como os bancos investiram milhões nesses serviços, os chatbots ficaram especialmente sofisticados, capazes de entender frases completas ou até mesmo ajudar um cliente a movimentar dinheiro ou pagar uma conta.
O CFPB estima que cerca de quatro em cada dez americanos interagiram com um chatbot bancário no ano passado, um número que eles esperam que cresça.
Os bancos estão se preparando para lançar serviços ainda mais avançados do tipo IA. O JPMorgan Chase está desenvolvendo planos para usar o ChatGPT e a inteligência artificial para ajudar os clientes a escolher os investimentos apropriados. Os banqueiros do Bank of America podem usar o Erica para criar perfis de clientes e potencialmente recomendar produtos a esses clientes.
Embora esses serviços possam economizar minutos ou horas dos clientes esperando para entrar em contato com um ser humano para fazer uma pergunta de rotina, a agência tem preocupações sobre se esses chatbots serão capazes de lidar com as nuances e a natureza complicada das leis de proteção ao consumidor sem fornecer informações imprecisas aos clientes.
“Existem leis federais que dão direitos aos clientes quando se trata de dívidas ou contestação de uma transação, e se agentes de atendimento ao cliente estão sendo substituídos por chatbots, isso pode representar problemas se esse software fornecer informações imprecisas”, disse Chopra.
A agência também descobriu que clientes mais antigos ou cujo idioma principal não é o inglês podem acabar em um "loop" de atendimento ao cliente e incapazes de entrar em contato com um agente humano.
“Repetidas vezes, encontramos reclamações de clientes presos em discussões circulares com um robô ou obtendo informações erradas”, disse ele.
Chopra, tanto em seu cargo atual como diretor do CFPB quanto anteriormente como comissário da Federal Trade Commission, levantou repetidamente preocupações de que bancos e empresas possam violar as leis do consumidor se implementarem algoritmos ou software de inteligência artificial de maneira inadequada. Houve inúmeros relatos de chatbots da Microsoft, Google e outras empresas que usaram linguagem tendenciosa quando solicitado.