La detección del fraude financiero mediante IA crecerá hasta los 10.000 millones de dólares en 2027

Entre los diversos usos a que puede destinarse la inteligencia artificial (IA) se encuentra la prevención y detección del fraude, un ámbito en el que un estudio de Juniper Research avanza que se invertirán en todo el mundo más de 10.000 millones para el año 2027. La cifra supone un crecimiento del 57 % con

Entre los diversos usos a que puede destinarse la inteligencia artificial (IA) se encuentra la prevención y detección del fraude, un ámbito en el que un estudio de Juniper Research avanza que se invertirán en todo el mundo más de 10.000 millones para el año 2027.

La cifra supone un crecimiento del 57 % con respecto a los 6.500 millones de dólares de ese mercado en la actualidad. Y es que conforme crece el uso de las plataformas de pego electrónico, estas proliferan y las estafas se vuelven más sofisticadas crece también la necesidad de reducir el fraude por parte tanto de empresas como de emisores de medios de pago electrónico.

La IA puede ayudar en labores como la identificación de los patrones en las estafas, pudiendo reducir los riesgos incluso mediante el bloqueo en tiempo real de transacciones potencialmente fraudulentas.

La implantación de este tipo de tecnología, si bien requiere de una inversión, supondrá un importante ahorro de costes al proporcionar una mayor seguridad en las operaciones derivando en un efectivo retorno de la inversión efectuada en servicios de prevención de los fraudes. En la actualidad y según Juniper Research, aplicar la IA a estos procesos supone un ahorro de costes de 2.700 millones de dólares, cantidad que podría llegar a 10.400 millones en 2027, suponiendo un incremento del 285 %.

En cuanto a los ámbitos en los que debería concentrarse la actuación en esta materia se recomienda hacerlo en el accesos a los datos de las transacciones y tendencias, de forma que pueda conseguirse un mayor nivel de inteligencia de red que a su vez permite mejorar la capacidad de detección del fraude.