Nas últimas décadas, o sector bancário tem vivido uma transformação radical impulsionada pela tecnologia. A introdução da inteligência artificial (IA) no universo financeiro, em particular no contexto das Fintech, tem revolucionado a forma como os serviços financeiros são concebidos, disponibilizados e regulados. A promessa é clara: decisões mais rápidas, serviços personalizados e operações mais eficientes. Mas o caminho para esta modernização levanta desafios consideráveis, sobretudo no que diz respeito à proteção dos direitos dos clientes bancários e à supervisão dos resultados automatizados.

A IA tem sido crucial na análise de grandes volumes de dados — pessoais e não pessoais — que alimentam modelos de previsão utilizados em atividades críticas como a concessão de crédito, a deteção de fraude ou a gestão de investimentos. Contudo, a fiabilidade dos outputs gerados depende da qualidade dos dados e da integridade dos algoritmos, sendo hoje evidente que o risco de enviesamento das decisões automatizadas não é uma abstração, mas uma realidade que pode ter impacto direto na vida dos clientes bancários.

Os processos internos dos bancos também estão a sofrer alterações revolucionárias por força da IA. As inovações associadas a esta área estão a otimizar operações e aumentar a eficiência: (i) da prevenção de fraudes e ciberataques; (ii) dos testes de penetração; (iii) da automatização dos processos de conformidade; (iv) da monitorização da liquidez e riscos de crédito, de mercado e operacionais; e (v) da geração de códigos e software, entre outros.

A União Europeia tem assumido um papel de liderança na tentativa de equilibrar inovação tecnológica com a proteção dos direitos fundamentais. O Regulamento Geral sobre a Proteção de Dados (RGPD) já traçava diretrizes para um tratamento transparente e responsável dos dados pessoais. Com o novo Regulamento (EU) 2024/1689 do Parlamento Europeu e do Conselho, que cria regras harmonizadas em matéria de inteligência artificial (Regulamento IA), a UE aprofunda e harmoniza a sua abordagem, impondo requisitos mais exigentes aos sistemas considerados de risco elevado — como os utilizados no credit scoring.

Neste domínio, a análise de crédito por IA assume contornos paradigmáticos. Baseia-se em modelos estatísticos alimentados por dados históricos, que muitas vezes refletem padrões de discriminação preexistentes. A promessa de uma maior inclusão financeira pode, paradoxalmente, transformar-se em exclusão automatizada. O Regulamento IA procura responder a este risco com exigências de transparência, seleção criteriosa e representatividade dos dados, supervisão humana e possibilidade de explicação das decisões tomadas.

No entanto, a implementação de IA generativa pode expandir as possibilidades para além de potenciais apoios às entidades financeiras, no âmbito das análises de risco de crédito. A adoção gradual de modelos de IA, como os que são utilizados na análise de texto e na automatização de tarefas, permite um processo mais eficiente e com maior personalização, contudo impõe-se cuidados de modo e evitar distorções nos resultados, fenómeno denominado de “hallucination”, onde o modelo gera resultados, que apesar de serem plausíveis, estão incorretos. Sistemas como Retrieval-Augmented Generation (RAG) e Parameter Efficient Fine Tuning (PEFT) são uma opção para reduzir erros e melhorar a experiência do cliente.

No sector financeiro, os sistemas de IA utilizados para avaliação de risco de crédito são explicitamente categorizados como de risco elevado, e nesse medida, exigem o cumprimento de medidas de acompanhamento rigorosas, incluindo a implementação de um sistema de gestão de risco apropriado, governação eficaz dos dados, documentação técnica detalhada, supervisão humana, transparência para com os utilizadores, medidas robustas de cibersegurança, e uma avaliação prévia de conformidade, além de obrigações contínuas de monitorização dos sistemas.

O impacto do Regulamento IA nas instituições financeiras é ainda visível noutras áreas de atividade deste tipo de entidade. Na deteção de fraudes, por exemplo, algoritmos analisam comportamentos em tempo real, mas enfrentam o desafio dos falsos positivos, que podem afetar negativamente a experiência do utilizador. Também os chatbots financeiros, cada vez mais utilizados para apoio ao cliente e aconselhamento automatizado, exigem medidas que mitiguem o risco de resultados automatizados serem percebidos como infalíveis ou definitivos, bem como devem assegurar o cumprimento de uma panóplia de deveres de Compliance, nomeadamente àqueles associados aos deveres de informação. É por isso, recomendável uma monitorização rigorosa e eficaz deste tipo de sistemas de IA, implementação de disclaimers sobre o limite de responsabilidade do banco e, em situações de tratamento de informação sensível, a existência de meios alternativos de contacto com a instituição bancária.

As exigências legais não são apenas uma questão de conformidade, mas também de reputação e sustentabilidade. Os clientes bancários exigem clareza sobre os critérios usados nas decisões que os afetam. Neste sentido, decisões como a do Tribunal de Justiça da União Europeia no caso SCHUFA (o caso SCHUFA refere-se a uma investigação do Tribunal de Justiça da União Europeia (TJUE) sobre a legalidade da pontuação de crédito automática feita pela empresa alemã SCHUFA). O tribunal decidiu que este tipo de perfilagem automatizada pode violar o Regulamento Geral sobre a Proteção de Dados (RGPD), o que confirma a necessidade de garantir acesso a informações significativas sobre os sistemas de scoring, mesmo quando a lógica dos modelos é complexa ou baseada em segredo comercial.

Outro ponto crítico é a subcontratação de serviços por parte das instituições financeiras. A utilização de terceiros para recolha e tratamento de dados ou desenvolvimento de modelos de IA levanta questões de responsabilidade, supervisão, dependência e resiliência operacional. O Regulamento IA prevê obrigações rigorosas também para os prestadores de sistemas de IA, incluindo requisitos de documentação técnica, registos, robustez e cibersegurança. Já existe também alguma literatura relevante que pode ajudar os bancos a selecionar sistemas de IA, como é o caso do AI Privacy Risks & Mitigations – Large Language Models (LLMs), recentemente publicado pelo Comité Europeu de Proteção de Dados.

Apesar dos desafios, a inovação não tem de ser travada. O próprio Regulamento IA prevê medidas de apoio à inovação, como as “AI sandboxes“, que permitem testar novas soluções tecnológicas em ambiente controlado. Esta abordagem procura garantir que a Europa continue a ser um espaço fértil para o desenvolvimento tecnológico, mas sem comprometer os princípios fundamentais da equidade, transparência e respeito pelos direitos humanos, próprios dos tratados europeus.

Concluindo, a inteligência artificial, e em particular os seus mais recentes desenvolvimentos como os Large Language Models (LLMs) e outros sistemas de finalidade geral, representa uma oportunidade sem precedentes para transformar o sector bancário. Mas para que estas inovações representem evoluções no verdadeiro sentido do termo, devem ser acompanhadas de uma regulação inteligente, proporcional e orientada para o bem comum numa perspetiva human centric, ou seja, a tecnologia a servir o ser humano e os seus direitos fundamentais. O futuro da banca passa por uma IA que não apenas automatize processos, mas o faça de forma responsável, explicável e inclusiva.

Relativamente à supervisão, de acordo com o Regulamento IA, são as autoridades de supervisão financeira nacionais, em articulação com a autoridade nacional de supervisão que em Portugal se estima que venha a ser a ANACOM, que detêm a responsabilidade de garantir que as instituições financeiras cumprem as exigências previstas pelo novo quadro regulatório, devendo adaptar os seus recursos humanos e respetivas metodologias.

Por outro lado, continua a ser o Banco Central Europeu (BCE) quem desempenha o papel na supervisão prudencial, focando-se na gestão de riscos relacionados com a IA e no controlo dos mecanismos internos. Todas as informações recolhidas durante as fiscalizações das autoridades nacionais que fazem parte do Mecanismo Único de Supervisão devem ser comunicadas ao BCE.

Para fazer face aos desafios de uma indústria financeira integrada com AI, e por forma a assegurar a sua implementação harmonizada, o Regulamento IA prevê a criação do Serviço Europeu para a Inteligência Artificial, órgão integrado na estrutura da Comissão Europeia e composto por representantes dos Estados-Membros, com o objetivo de supervisionar e garantir o cumprimento da legislação relativa aos modelos e sistemas de IA na União Europeia.

O elemento humano não deixa de ser essencial nesta evolução tecnológica. Mais do que nunca, os recursos humanos devem adaptar-se aos novos papéis impulsionados pela IA, atraindo novos talentos nas áreas de tecnologia. O potencial de IA apenas pode ser aproveitado se for acompanhado por uma cultura de supervisão e aprendizagem, de modo a mitigar adequadamente os seus riscos inerentes.

Artigo escrito por Vera Esteves Cardoso e Nicole Fortunato e publicado originalmente na Revista InforBanca.

Vera Esteves Cardoso é consultora da equipa de bancário e financeiro da Morais Leitão. Iniciou a sua carreira profissional no Banco de Portugal, na divisão de supervisão de AML/CFT, tendo coordenado a equipa de entrada no mercado, o que lhe permitiu ganhar experiência em autorizações para aquisições e aumentos de participações qualificadas, licenciamento, passporting e registo, bem como na supervisão contínua de CASPs.
Atualmente, dedica-se à área de regulação financeira, sobretudo nas áreas de FinTech, direito bancário, serviços de pagamento e criptoativos.

Nicole Fortunato é associada coordenadora da área de tech law. Desenvolve a sua atividade essencialmente com empresas e transações orientadas para as novas tecnologias e tecnologias emergentes. Tem focado o seu apoio a empresas na contratação de software, implementação de requisitos regulatórios nas áreas da tecnologia da informação, cibersegurança e dados quando relacionado com a sua área de atuação. Nos últimos anos, prestou assessoria especializada nas novas exigências em matéria de resiliência operacional digital e adequação a outros normativos regulatórios no setor financeiro, e assumiu a coordenação de projetos de grande dimensão com implementação internacional.