Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
A Camada de Julgamento: Por que a IA não é inteligente até que os líderes sejam mais inteligentes
Guillermo Delgado Aparicio é Líder Global de IA na Nisum.
Descubra as principais notícias e eventos de fintech!
Inscreva-se na newsletter do FinTech Weekly
Lido por executivos do JP Morgan, Coinbase, Blackrock, Klarna e mais
A IA em fintech abrange uma variedade de casos de uso, desde deteção de fraude e negociação algorítmica até pontuação de crédito dinâmica e recomendações personalizadas de produtos. No entanto, um relatório da Autoridade de Conduta Financeira revelou que, dos 75% de empresas que usam IA, apenas 34% sabem como ela funciona.
A questão não é apenas a falta de conhecimento. É uma compreensão profunda do poder e do alcance da análise de dados, a disciplina de onde a IA surge. A adoção massiva de ferramentas de IA generativa trouxe o tema para o topo da agenda do conselho executivo. Mas muitas dessas pessoas que decidem como implementar a IA não compreendem seus princípios básicos de cálculo, estatística e algoritmos avançados.
Considere a Lei de Benford, um princípio estatístico simples que identifica fraudes ao detectar padrões em números. A IA baseia-se nesse mesmo tipo de matemática, apenas ampliada para milhões de transações ao mesmo tempo. Tirando o hype de lado, a base ainda é estatísticas e algoritmos.
Por isso, a literacia em IA ao nível do conselho é importante. Líderes que não conseguem distinguir onde termina a análise de dados correm o risco de confiar excessivamente em sistemas que não entendem ou de os subutilizar por medo. E a história mostra o que acontece quando os tomadores de decisão interpretam mal a tecnologia: reguladores tentaram banir chamadas internacionais de IP, apenas para ver a tecnologia superar as regras. A mesma dinâmica está a acontecer com a IA. Não se pode bloqueá-la ou adotá-la cegamente; é preciso juízo, contexto e a capacidade de orientá-la de forma responsável.
Líderes de fintech devem preencher essas lacunas para usar a IA de forma responsável e eficaz. Isso significa entender onde termina a análise de dados e começa a IA, desenvolver as competências para orientar esses sistemas e aplicar um julgamento sólido para decidir quando e como confiar nos seus resultados.
Os Limites, Pontos Cegos e Ilusões da IA
A análise de dados avalia informações passadas e presentes para explicar o que aconteceu e por quê. A IA nasce dessa base, usando análises avançadas para prever o que acontecerá a seguir e, cada vez mais, decidir ou agir automaticamente com base nisso.
Com suas habilidades excepcionais de processamento de dados, é fácil entender por que líderes de fintech veem a IA como a sua solução mágica. Mas ela não consegue resolver todos os problemas. Os humanos ainda têm uma vantagem inata no reconhecimento de padrões, especialmente quando os dados estão incompletos ou “sujos”. A IA pode ter dificuldades em interpretar as nuances contextuais que os humanos captam rapidamente.
No entanto, é um erro pensar que dados imperfeitos tornam a IA inútil. Modelos analíticos podem trabalhar com dados incompletos. Mas saber quando usar a IA e quando confiar no julgamento humano para preencher as lacunas é o verdadeiro desafio. Sem essa supervisão cuidadosa, a IA pode introduzir riscos significativos.
Um desses riscos é o viés. Quando as fintechs treinam a IA com conjuntos de dados antigos, muitas vezes herdando os preconceitos que esses dados carregam. Por exemplo, o nome de um cliente pode, inadvertidamente, servir como um proxy de género, ou pistas inferidas do sobrenome sobre etnia, influenciando as pontuações de crédito de formas que nenhum regulador aprovaria. Esses vieses, facilmente escondidos na matemática, muitas vezes requerem supervisão humana para serem detectados e corrigidos.
Quando os modelos de IA são expostos a situações para as quais não foram treinados, isso pode causar desvio de modelo. A volatilidade do mercado, mudanças regulatórias, comportamentos evolutivos dos clientes e alterações macroeconómicas podem afetar a eficácia de um modelo sem monitorização e recalibração humanas.
A dificuldade de recalibrar algoritmos aumenta significativamente quando as fintechs usam caixas-pretas que não permitem visibilidade sobre a relação entre variáveis. Nessas condições, perdem a possibilidade de transferir esse conhecimento para os decisores na gestão. Além disso, erros e vieses permanecem ocultos em modelos opacos, minando a confiança e a conformidade.
O que os Líderes de Fintech Precisam Saber
Uma pesquisa da Deloitte revelou que 80% afirmam que seus conselhos de administração têm pouca ou nenhuma experiência com IA. Mas os executivos do nível do conselho não podem tratar a IA como um “problema da equipa de tecnologia”. A responsabilidade pela IA recai sobre a liderança, ou seja, os líderes de fintech precisam de desenvolver competências.
Fluência cross-analítica
Antes de implementar a IA, os líderes de fintech precisam de ser capazes de mudar de foco — analisando os números, o caso de negócio, as operações e a ética — e perceber como esses fatores se sobrepõem e moldam os resultados da IA. Devem compreender como a precisão estatística de um modelo se relaciona com a exposição ao risco de crédito. E reconhecer quando uma variável que parece financeiramente sólida (como histórico de pagamento) pode introduzir risco social ou regulatório por correlação com uma classe protegida, como idade ou etnia.
Essa fluência em IA vem de sentar-se com os responsáveis de conformidade para entender regulamentos, conversar com gestores de produto sobre a experiência do utilizador e revisar resultados de modelos com cientistas de dados para detectar sinais de desvio ou viés.
Em fintech, evitar 100% dos riscos é impossível, mas com fluência cross-analítica, os líderes podem identificar quais riscos valem a pena assumir e quais podem erodir o valor para os acionistas. Essa habilidade também aprimora a capacidade de detectar e agir contra o viés, não apenas do ponto de vista de conformidade, mas também estratégico e ético.
Por exemplo, se um modelo de pontuação de crédito baseado em IA tende a favorecer um grupo de clientes. Corrigir esse desequilíbrio não é apenas uma tarefa de ciência de dados; protege a reputação da empresa. Para fintechs comprometidas com inclusão financeira ou enfrentando escrutínio ESG, a conformidade legal sozinha não basta. Juízo significa saber o que é certo, não apenas o que é permitido.
Literacia em Explicabilidade
A explicabilidade é a base da confiança. Sem ela, os decisores, clientes e reguladores ficam a questionar por que um modelo chegou a uma conclusão específica.
Isso significa que os executivos devem ser capazes de distinguir entre modelos interpretáveis e aqueles que precisam de explicações pós-hoc (como valores SHAP ou LIME). Devem fazer perguntas quando a lógica de um modelo não estiver clara e reconhecer quando “precisão” sozinha não justifica uma decisão de caixa-preta.
O viés não surge do nada; surge quando os modelos são treinados e implementados sem supervisão suficiente. A explicabilidade dá aos líderes a visibilidade para detectar esses problemas cedo e agir antes que causem danos.
A IA é como o piloto automático de um avião. Na maior parte do tempo, funciona sem problemas, mas quando uma tempestade surge, o piloto precisa de assumir o controlo. No setor financeiro, esse mesmo princípio aplica-se. As equipas precisam de capacidade para parar negociações, ajustar estratégias ou até cancelar um lançamento de produto quando as condições mudam. A explicabilidade funciona em conjunto com a prontidão para intervenção, garantindo que os líderes do conselho entendam a IA e mantenham o controlo, mesmo quando ela opera em escala.
Pensamento Probabilístico de Modelos
Os executivos estão habituados a decisões determinísticas, como se a pontuação de crédito for abaixo de 650, recusar a candidatura. Mas a IA não funciona assim e isso representa uma mudança de paradigma mental importante.
Para os líderes, o pensamento probabilístico exige três capacidades:
Por exemplo, um modelo de IA probabilístico de uma fintech pode sinalizar um cliente como de alto risco, mas isso não significa necessariamente “rejeitar”. Pode significar “investigar mais” ou “ajustar os termos do empréstimo”. Sem essa nuance, a automação corre o risco de se tornar uma ferramenta bruta, minando a confiança do cliente e expondo as empresas a repercussões regulatórias.
Por que a Camada de Juízo Vai Definir os Vencedores em Fintech
O futuro da fintech não será decidido por quem tem os modelos de IA mais poderosos; mas por quem os usa com o juízo mais afiado. À medida que a IA se torna uma commodity, os ganhos de eficiência passam a ser o padrão. O que diferencia os vencedores é a capacidade de intervir quando os algoritmos enfrentam incerteza, risco e zonas cinzentas éticas.
A camada de juízo não é uma ideia abstrata. Ela aparece quando os executivos decidem pausar negociações automatizadas, atrasar um lançamento de produto ou substituir uma pontuação de risco que não reflete o contexto real. Esses momentos não são falhas da IA; são provas de que a supervisão humana é a última linha de criação de valor.
O alinhamento estratégico é onde o juízo se torna institucionalizado. Uma estratégia de IA sólida não apenas define roteiros técnicos; garante que a organização revise iniciativas, atualize as competências de IA das equipes, assegure que a arquitetura de dados seja adequada e vincule cada implementação a um resultado de negócio claro. Nesse sentido, o juízo não é episódico, mas parte do modo de operação, permitindo que os líderes conduzam uma abordagem de liderança baseada em valor.
As fintechs precisam de líderes que saibam equilibrar IA para velocidade e escala e humanos para contexto, nuance e visão de longo prazo. A IA pode detectar anomalias em segundos, mas só as pessoas podem decidir quando questionar a matemática, repensar suposições ou assumir riscos ousados que abram portas para o crescimento. Essa camada de juízo é o que transforma a IA de uma ferramenta em uma vantagem competitiva.
Sobre o autor:
Guillermo Delgado é o Líder Global de IA na Nisum e COO da Deep Space Biology. Com mais de 25 anos de experiência em bioquímica, inteligência artificial, biologia espacial e empreendedorismo, ele desenvolve soluções inovadoras para o bem-estar humano na Terra e no espaço.
Como consultor de estratégia corporativa, contribuiu para a visão de IA da NASA para a biologia espacial e recebeu prémios de inovação. Possui um Mestrado em Ciência em Inteligência Artificial pelo Georgia Tech, obtido com distinção. Além disso, como professor universitário, lecionou cursos sobre aprendizagem de máquina, big data e ciência genómica.