Seleccione otro perfil de inversor Seleccione su perfil de inversor para acceder a más contenido

Los detectores de deepfakes

Tecnología
Las sofisticadas estafas de deepfake plantean grandes retos al sector de la ciberseguridad, así como grandes oportunidades.

Cuatro mil millones de personas votarán en 2024, el año electoral más numeroso de la historia. Por desgracia, este hito en el sufragio coincide con la llegada de la era de los deepfakes impulsados por inteligencia artificial que podrían difundir información falsa para influir en los votantes. 

Un deepfake es una forma de medio sintético que reproduce el parecido de una persona mediante el uso de una técnica de IA llamada aprendizaje profundo. Se producen entrenando un modelo de aprendizaje automático en un gran conjunto de datos de imágenes o vídeos de una persona, como un candidato político o un líder de empresa, para aprender y duplicar sus características únicas. Cuantos más datos haya disponibles, más realista será la falsificación, por lo que los políticos y los famosos están entre los más expuestos. A medida que aumentan los riesgos de falsificaciones profundas, impulsan la demanda de inversión en ciberseguridad avanzada.

En Eslovaquia, el año pasado se difundió un audio deepfake de un candidato a las elecciones hablando sobre cómo manipular la votación 48 horas antes de que se abrieran las urnas, tiempo insuficiente para desmentirlo. Del mismo modo, el día de las elecciones de Bangladesh en enero, se difundió un vídeo generado por IA en el que un candidato independiente anunciaba su retirada de las elecciones. Ese mismo mes, los votantes estadounidenses recibieron llamadas robotizadas imitando la voz del presidente estadounidense Joe Biden diciéndoles que no votaran en las primarias presidenciales del estado. Las personalidades políticas estadounidenses han reconocido la necesidad de inversión; cuando se asignaron 400 millones de USD a la seguridad electoral en 2020, muchos funcionarios estatales priorizaron explícitamente la ciberseguridad en sus solicitudes de subvenciones.

Los deepfakes no solo están entrando en la contienda política. Una encuesta reveló que el 66% de los profesionales de la ciberseguridad observaron deepfakes utilizados como parte de un ciberataque en 2022.VMware Inc, “Global incident response threat report”, 2022 Ese mismo año, el 26% de las pequeñas empresas y el 38% de las grandes empresas fueron objeto de fraudes de identidad generados por IA.Regula, “The state of identity verification in 2023” Una empresa perdió recientemente 25,6 millones de USD debido a una estafa en la que un vídeo falso mostraba al director financiero de la empresa solicitando fondos a un empleado. 

En total, en solo un año, entre 2019 y 2020, la cantidad de contenido en línea deepfake aumentó en un 900%.Sentinel, “Deepfakes 2020: the tipping point” De cara al futuro, la gran mayoría del contenido en línea podría generarse sintéticamente para 2026, lo que hará más difícil distinguir entre contenido auténtico y contenido fraudulento generado por IA.

«El espacio generativo mejora cada día, por lo que la calidad y el realismo de los deepfakes también mejoran», afirma Ilke Demir, científica investigadora de Intel Studios. Las empresas están acelerando la inversión en tecnologías de ciberseguridad para adelantarse a los delincuentes, con una décima parte del gasto en TI, de media, dedicado a la ciberseguridad en 2022.Ians, Artico, “Security budget benchmark summary report 2022”  Esta demanda ha creado una oportunidad de mercado de 2 billones de USD para proveedores de ciberseguridad, según la consultora McKinsey.

Defensa ante los deepfakes

Sin embargo, los delincuentes siguen al frente. «Es como el juego del gato y del ratón, y por el momento, la cantidad de recursos invertidos en desarrollar nuevas formas de contenido generativo es significativamente mayor que la cantidad invertida en desarrollar técnicas de detección robustas», afirma Henry Ajder, asesor experto en deepfakes e IA.  

Las herramientas de detección de deepfakes evolucionan continuamente y se adaptan a nuevos contextos. Por ejemplo, muchos se han entrenado tradicionalmente con datos occidentales, pero la policía de Corea del Sur ha desarrollado un software entrenado con datos coreanos con vistas a las elecciones. Esta herramienta utilizará la IA para comparar posibles bulos con contenido existente para determinar si se ha manipulado utilizando técnicas deepfake; afirma tener una tasa de precisión del 80%.

Muchas herramientas de detección de deepfakes adoptan este enfoque, con el objetivo de detectar pequeños fallos en el audio y el vídeo para identificarlos como manipulados. Pero una de las técnicas más eficaces hasta la fecha adopta el enfoque opuesto, extrayendo cualidades únicas de grabaciones reales que los deepfakes no pueden captar. «FakeCatcher» de Intel es una herramienta puntera que identifica imágenes falsas de seres humanos mediante fotopletismografía (PPG), una técnica que detecta cambios en el flujo sanguíneo de la cara. «Cuando el corazón bombea sangre a las venas, estas cambian de color», afirma Ilke Demir, autora de la idea. «Esto no es visible a simple vista, pero sí desde el punto de vista computacional». 

El software recoge señales PPG de cualquier parte de la cara y crea mapas a partir de las propiedades espaciales y temporales de esas señales. Estos mapas se utilizan para entrenar una red neuronal que clasifica los vídeos en reales y falsos. La ventaja de este software, según la Dra. Demir, es que las señales PPG no pueden duplicarse. «No existe ningún enfoque que pueda conectarlo a un modelo generativo e intentar aprenderlo», afirma. «Por eso FakeCatcher es tan robusto».

FakeCatcher tiene un índice de precisión del 96%. La cadena británica BBC probó la tecnología con imágenes falsas y reales y descubrió que identificaba correctamente todos los vídeos falsos, excepto uno. Sin embargo, también dio algunos falsos positivos, identificando vídeos reales como falsos debido al pixelado borroso porque se grabaron de perfil. «Intentamos ofrecer el mayor número posible de resultados interpretables», afirma la Dra. Demir. «El usuario del sistema debe tomar la decisión final observando las distintas señales».

Ajder afirma que cada método de detección de deepfakes tiene sus pros y sus contras. Considera prometedora la iniciativa de la Coalition for Content Provenance and Authenticity (C2PA), una firma digital que cuenta con el apoyo de empresas como Google, Intel y Microsoft. «Existen tecnologías que pueden adjuntar, de forma criptográficamente segura, metadatos que proporcionan transparencia sobre cómo se creó un medio y qué herramientas se utilizaron», afirma. «Este es, con diferencia, el mejor enfoque a efectos de seguridad, pero es una tarea realmente ambiciosa».

La C2PA está creando una norma para adjuntar credenciales de contenido. «No cabe duda de que estas tecnologías están cada vez más en auge», afirma Ajder. «Si no hay una amplia cooperación y alineación, especialmente entre las grandes empresas, acabaremos con demasiados productos y plataformas de autenticación diferentes, lo que complicará la vida a los consumidores».

Además, aunque este enfoque tiene ventajas, podría plantear problemas éticos en relación con la privacidad, pues preocupa que la norma revele demasiados datos sobre la procedencia de la imagen, como la ubicación o la hora en que se tomó. Esto podría suponer un riesgo, por ejemplo, en un contexto en el que actúe una organización de derechos humanos. 

Ajder añade que la tecnología por sí sola nunca podrá resolver por completo el problema de los deepfakes y que todos los consumidores tendrán que adoptar una actitud más crítica hacia los medios que consumen. «Necesitamos cambiar nuestro comportamiento como consumidores, en lugar de confiar en todo lo que vemos, y llegar a un punto donde busquemos credenciales de contenido y una capa adicional de autenticación», afirma. «No es poca cosa».

Perspectivas de inversión

por Yves Kramer, gestor sénior de inversiones, renta variable temática, Pictet Asset Management
  • La IA y la IA generativa pueden ser vulnerables a ciberataques, filtraciones de datos y manipulación adversa de datos. Esto, a su vez, está impulsando la demanda de medidas de prevención cada vez más avanzadas. Según Gartner, se prevé que el gasto en ciberseguridad aumente en torno al 14% este año. Creemos que, a medida que la IA se vuelva más omnipresente, el crecimiento podría ser aún más rápido en el futuro. Las filtraciones de seguridad pueden comprometer la confianza de los clientes en los datos sensibles y aumentar el nivel de ransomware al tiempo que interrumpen las operaciones empresariales.

  • Es probable que veamos un aumento en las soluciones de confianza cero. Verifican continuamente las credenciales de las personas que interactúan con una organización, tanto interna como externamente. También esperamos un crecimiento en Secure Access Service Edge (SASE), una transformación de red diseñada para la nube, que aprovecha la supervisión de la identidad y el comportamiento de los usuarios para impulsar cambios continuos en las políticas. Dado que SASE se basa en la confianza cero, este es un componente fundamental de SASE.

  • La IA también generativa puede ser parte de la solución, ya que el sector de la ciberseguridad adapta modelos de lenguaje extenso (LLM) para detectar ataques más rápidamente y contrarrestar posibles amenazas de códigos maliciosos escritos por otras máquinas.  Creemos que ahí existe una oportunidad, tanto para el sector de la seguridad como para los inversores. Las empresas de ciberseguridad que sean capaces de incorporar la IA en la creación de protección digital gozarán de buenas perspectivas de crecimiento en los próximos años. Y este es especialmente el caso de quienes priorizan la inversión en infraestructuras, así como de quienes desarrollan software y aplicaciones de seguridad especializados.