crossorigin="anonymous">
top of page

Sam Altman advierte sobre crisis de fraude bancario por medio de la IA


ree

Sam Altman, el influyente CEO de OpenAI (empresa dueña de Chat GPT), ha lanzado una dura advertencia a la industria financiera global: una "crisis de fraude significativa e inminente" se cierne sobre nosotros. ¿La razón? Las herramientas de inteligencia artificial (IA) han alcanzado una capacidad asombrosa para emular voces y rostros humanos, volviendo obsoletos los sistemas de seguridad actuales, especialmente la popular autenticación por voz y, crecientemente, la facial.


Altman, en una reciente conferencia de la Reserva Federal en Washington, no se anduvo con rodeos. "Algo que me aterroriza es que, al parecer, todavía hay algunas instituciones financieras que aceptan la huella de voz como autenticación", afirmó. Su mensaje fue contundente: "Es una locura seguir haciéndolo. La IA ha superado eso por completo". Y su preocupación se extiende rápidamente a otras biometrías.



El auge y caída de la autenticación biométrica


Durante más de una década, la identificación mediante huella de voz y, más recientemente, la identificación facial, fueron métodos preferidos para clientes bancarios de alto patrimonio, brindando una sensación de seguridad basada en la unicidad de estas características. Los clientes solían pronunciar una frase específica por teléfono o escanear su rostro para acceder a sus cuentas, creyendo en la infalibilidad de estos identificadores.


Sin embargo, los avances en la IA han destrozado esa creencia. Los clones de voz y los deepfakes de video, generados por IA, pueden hacerse pasar por personas con una precisión tan alta que son "indistinguibles de la realidad", según Altman. Esta crisis de fraude está "muy, muy cerca", y lo más preocupante es que los delincuentes ya no necesitan tecnología de vanguardia para sus ataques. La sociedad, advirtió Altman, simplemente no está preparada para la velocidad de evolución de la IA, lo que nos hace más vulnerables que nunca.


La escalofriante facilidad de la clonación de voz y rostro con IA


La facilidad con la que se clona una voz es alarmante. Según Consumer Reports, solo se necesitan tres segundos de audio para crear imitaciones convincentes. Pero la amenaza no se detiene ahí. La capacidad de la IA para generar rostros y expresiones faciales realistas, conocidos como deepfakes, significa que la verificación visual también está en riesgo. Ha habido reportes, como el de KSAT, donde periodistas han logrado engañar barreras de seguridad de bancos reconocidos usando estas herramientas, ya sea con audio o incluso con video manipulado.



Técnicamente, el proceso es simple: modelos de IA entrenados con mínimas muestras de audio o imágenes pueden reproducir el timbre, la entonación, los patrones de habla, así como los gestos y expresiones faciales de una persona, generando grabaciones o videos prácticamente idénticos a los originales. Este avance no solo desafía los sistemas tradicionales de autenticación por voz, sino que también pone en jaque la autenticación facial, permitiendo ataques de suplantación cada vez más sofisticados y difíciles de detectar.


La respuesta regulatoria y la urgencia del cambio


Ante esta creciente amenaza, los reguladores han comenzado a moverse. Michelle Bowman, vicepresidenta de Supervisión de la Reserva Federal de Estados Unidos, quien moderó la charla con Altman, ya manifestó la disposición de la institución a buscar soluciones conjuntas. "Eso podría ser algo en lo que podamos pensar en asociarnos", declaró Bowman, reflejando el aumento de la atención regulatoria sobre los riesgos de seguridad ligados a la IA.


Estudios citados por KSAT revelan que un impresionante 91% de los bancos estadounidenses están reconsiderando sus métodos de verificación de voz tras el auge de la clonación por IA. Es de esperar que la autenticación facial siga el mismo camino. La apertura a la cooperación entre la industria financiera y los reguladores es una clara señal de que se reconoce la magnitud del reto.



Impacto económico y la carrera contrarreloj


El fraude basado en deepfakes y clonación de voz por IA no solo crece en gravedad, sino también en costo. Expertos estiman que las pérdidas asociadas a estos ataques podrían dispararse de 12.000 millones de dólares en 2023 a 40.000 millones de dólares para 2027. Estas cifras son un crudo reflejo de la velocidad y el alcance de la amenaza, subrayando la urgencia de actualizar los sistemas de seguridad.


La facilidad para crear imitaciones de voz y rostro ha impulsado a la mayoría de los bancos estadounidenses a replantearse sus mecanismos de autenticación. Revisar los protocolos y buscar soluciones innovadoras se ha convertido en una prioridad absoluta. El sector financiero enfrenta una verdadera carrera contrarreloj para proteger tanto sus activos como la confianza de sus clientes en esta nueva era de la IA, donde lo que vemos y escuchamos puede no ser real.

Comments


bottom of page