La IA está haciendo que el fraude financiero sea más fácil y sofisticado: Departamento del Tesoro

La Reserva Federal, la Comisión de Valores y Bolsa y la Oficina de Protección Financiera del Consumidor también han expresado preocupaciones

Edificio del Departamento del Tesoro de EE.UU.
Por Allyson Versprille
27 de marzo, 2024 | 03:50 PM

Bloomberg — La inteligencia artificial facilita que los estafadores lleven a cabo ataques más sofisticados contra empresas financieras, según informó el Departamento del Tesoro el miércoles.

Nellie Liang, subsecretaria del Tesoro de EE.UU. nominada por Joe Biden, escucha durante una audiencia de confirmación del Comité de Finanzas del Senado en Washington, D.C., EE.UU., el martes 25 de mayo de 2021.dfd

Los avances recientes en inteligencia artificial permiten a los delincuentes imitar de manera más realista la voz o el video para hacerse pasar por clientes de instituciones financieras y acceder a sus cuentas, escribió la agencia. También les permite a los actores malintencionados crear ataques de phishing por correo electrónico cada vez más sofisticados, con un mejor formato y menos errores ortográficos, según el Departamento del Tesoro.

“La inteligencia artificial está redefiniendo la ciberseguridad y el fraude en el sector de servicios financieros”, dijo la subsecretaria de Finanzas Internas, Nellie Liang, en un comunicado que acompaña al informe, encargado en virtud de una orden ejecutiva presidencial el año pasado.

La agencia es la última en advertir sobre la inteligencia artificial, que presenta riesgos además de oportunidades. Los principales reguladores financieros, incluyendo la Reserva Federal, la Comisión de Valores y Bolsa y la Oficina de Protección Financiera del Consumidor, han expresado preocupaciones que van desde la discriminación hasta el riesgo sistémico potencial.

PUBLICIDAD
VER +
EE.UU. rescata US$ 1,4 millones en Tether: así se gestó el millonario fraude con criptomonedas

La administración Biden trabajará con las empresas financieras para utilizar tecnologías emergentes al mismo tiempo que “se protege contra amenazas a la resiliencia operativa y la estabilidad financiera”, señaló Liang.

Como parte del informe, el Departamento del Tesoro realizó 42 entrevistas a personas de los sectores de servicios financieros y tecnología de la información, proveedores de datos y empresas anti-fraude y anti-lavado de dinero. Una preocupación fue la posible “fragmentación regulatoria” a medida que las agencias federales y estatales establecen las normas básicas para la inteligencia artificial.

El Departamento del Tesoro dijo que trabajará con el Consejo de Coordinación del Sector de Servicios Financieros, liderado por la industria, y el Comité de Infraestructura de Información Financiera y Bancaria, encargado de mejorar la colaboración entre los reguladores financieros, para asegurar que los esfuerzos regulatorios estén sincronizados.

PUBLICIDAD
VER +
Citibank es demandado y acusado de no proteger a sus clientes de fraudes en línea

Brechas entre las empresas

El informe señaló que las empresas financieras más pequeñas, a diferencia de las grandes empresas, tienen menos recursos de TI y menos experiencia para desarrollar sistemas de inteligencia artificial internamente, y a menudo tienen que depender de terceros. También tienen acceso a menos datos internos para entrenar modelos de inteligencia artificial para prevenir el fraude.

Para solucionar esta brecha, la Asociación de Banqueros Estadounidenses está diseñando un programa piloto para facilitar el intercambio de información en la industria sobre el fraude y otras actividades ilícitas. El gobierno de EE.UU. también podría ayudar proporcionando acceso a informes históricos de fraude para ayudar en el entrenamiento de modelos de inteligencia artificial, señaló el Departamento del Tesoro.

El Departamento del Tesoro también estableció una serie de otros pasos que el gobierno y la industria deberían considerar, como desarrollar un lenguaje común en torno a la inteligencia artificial y usar descripciones estandarizadas para ciertos sistemas de inteligencia artificial proporcionados por proveedores para identificar qué datos se utilizaron para entrenar al modelo y de dónde provienen.

Lea más en Bloomberg.com