Desarrollar modelos va más allá de sólo ingresar un gran volumen de datos en una red neuronal conectada y darle “reproducir”: hay que observar el énfasis del modelo (como transacciones con Tarjetas No Presentes (TNP); transacciones de alto valor, etcétera), cómo se desempeña en diferentes tipos de fraude y si cambia su comportamiento entre cada modelo.
Las empresas estudian los comportamientos latentes a los que el modelo es más –o menos– sensible, y cómo impactan. Conforme observamos las implicaciones de la IA responsable en el fraude, es importante entender el comportamiento de los datos que impulsan el modelo. Los desarrolladores pretenden programar para saber, en un entorno cambiante, cómo se espera que funcione el modelo, o si se debe ajustar al ambiente de producción, y cómo.
La inteligencia artificial es capaz de detectar transacciones TNP, tarjetas de crédito y cajeros automáticos transfronterizos, frecuencia, velocidad y más, quieren saber si el modelo mejorará su rendimiento y sensibilidad a ciertos tipos de comportamientos, o no.
Hay mucha tecnología nueva de IA responsable que enfatiza más ciertos tipos de comportamientos fraudulentos, en los que se busca que el modelo tenga un mejor desempeño. Los clientes que usan modelos para banca minorista, por ejemplo, se han beneficiado de esta tecnología.
Es importante seguir enfocado en las áreas que desea mejorar. Como proveedores de modelos que los clientes utilizan dentro de sus sistemas de IA, las diferentes versiones no pueden cambiar rápidamente el comportamiento de un modelo y mantener el mismo nivel de detección de fraude.