Visão geral
O aprimoramento da detecção de fraude é obtido pela análise de inúmeros dados transacionais para entender com eficiência o comportamento e avaliar o risco no nível individual.
Na FICO, fizemos vastas pesquisas sobre as diferentes técnicas de modelagem. Claramente, essas pesquisas indicam que os modelos de fraude desenvolvidos e treinados com o uso de dados de milhares de instituições serão mais precisos do que os modelos que contam apenas com um conjunto de dados relativamente pequeno.
A FICO® Falcon® Intelligence Network é o núcleo das soluções de fraude empresarial da FICO. Mais de 10 instituições globais contribuem com dados transacionais e não monetários necessários para a FICO criar recursos preditivos de aprendizagem automática destinados a diferenciar atividades não fraudulentas e fraudulentas. Esses analíticos comportamentais reduzem os falsos positivos e, ao mesmo tempo, interpretam até mesmo as indicações mais sutis de fraude. Os modelos resultantes funcionam com as técnicos de criação de perfis em tempo real da Falcon para interpretar comportamentos individuais e aproveitar os macropadrões de fraude oriundos dos dados fornecidos por milhares de instituições financeiras. Esses conceitos são aplicados em modelos de fraude supervisionados de modo integral ou parcial, bem como modelos não supervisionados, que são treinados com conjuntos de dados específicos ao setor bancário.
Fatos
4+ Bilhões
Cartões de pagamento protegidos
Transações com cartão
Instituições financeiras globais
Benefícios
Melhor experiência do cliente
Técnicas de Machine Learning e Inteligência Artificial, apoiadas pela Falcon Intelligence Network, se adaptam em tempo real com base nas ações de cada consumidor individual.
Defesas contra fraude preparadas para o futuro
O Falcon Fraud Manager não se baseia em uma abordagem única para aprendizagem automática. Em vez disso, ela emprega algoritmos altamente especializados que evoluem ao longo do tempo para proteger todas as transações e interações.
Desempenho do modelo empírico
Todos os modelos de aprendizagem automática supervisionados são extensivamente testados em relação a conjuntos de dados "holdout". Os conjuntos de dados "holdout" se referem às transações que não são usadas durante o processo de desenvolvimento do modelo para avaliar o desempenho imparcial