El uso malicioso de la Inteligencia Artificial ha provocado un preocupante incremento en los casos de engaño relacionados con los deepfakes. A continuación, examinaremos este fenómeno a través de ejemplos concretos y plantearemos la siguiente pregunta: ¿es la Inteligencia Artificial la herramienta más adecuada para detectar este tipo de fraudes?

Inteligencia Artificial: progresos e inquietudes.

El progreso evidente de la Inteligencia Artificial es tan significativo como innegable, lo que naturalmente afecta el ámbito de los deepfakes. Los errores de las generaciones anteriores de avatares generados por IA quedaron en el pasado.

Hoy en día, la IA generativa puede producir resultados cada vez más similares a los humanos. ¿El inconveniente? El riesgo de desinformación que puede surgir debido al uso indebido que los actores malintencionados pueden hacer de la Inteligencia Artificial.

Uno de los principales impulsores de la expansión de los deepfakes es que la tecnología respaldada por IA se ha vuelto más económica y accesible. Esto facilita la creación de campañas de desinformación convincentes o estafas personalizadas.

Por ejemplo, la elaboración de un video deepfake pornográfico de 60 segundos puede llevar menos de 25 minutos y tener un costo irrisorio: menos de un dólar estadounidense.

La problemática se traslada a las elecciones.

En el presente año, casi una cuarta parte de la población mundial se dirigirá a las urnas para elegir a sus candidatos. En este contexto electoral, aumenta la preocupación sobre algunos hechos puntuales (y que pueden ser decisivos) de desinformación.

No es sorprendente la presencia de múltiples engaños generados por inteligencia artificial, especialmente utilizados por delincuentes cibernéticos para influir en los resultados. En estos escenarios, el rol de los deepfakes puede ser crucial..

En enero de este año, un audio deepfake del presidente estadounidense Joe Biden circuló a través de una llamada automática a un número desconocido de votantes en New Hampshire. En el mensaje, aparentemente, pedía a las personas que no acudieran a votar y que guardaran su voto para las elecciones de noviembre.

En base a esto, OpenAI asegura “reconocer que las modalidades de audio de GPT-4o presentan una variedad de riesgos novedosos”. De esta manera, podría utilizarse esta herramienta para hacerse pasar por políticos, celebridades, pero también y amigos y familiares de las personas. Y esta situación solo podría agravarse, debido al poder de GPT-4o de hacer que las llamadas fraudulentas sean más convincentes.

En línea con esto, el Foro Económico Mundial (WEF) advirtió recientemente que la desinformación y la información incorrecta han sido identificadas como el principal riesgo global para los próximos dos años. Las estafas de ingeniería social, la desinformación y la información errónea, combinadas con las deepfakes, se destacan como una de las principales amenazas en Internet.

Así es como el propio informe advierte: “El contenido sintético manipulará a las personas, dañará las economías y fracturará las sociedades de numerosas maneras durante los próximos dos años… existe el riesgo de que algunos gobiernos actúen con demasiada lentitud y se enfrenten a un dilema entre prevenir la desinformación y proteger la libertad de expresión”.

Los influencers también están bajo escrutinio.

En este contexto de crecientes y preocupantes estafas de ingeniería social, los deepfakes se han convertido en un arma para atacar a destacados influencers. Según Twicsy, un proveedor de servicios de redes sociales, el 84% de los influencers han sido víctimas de pornografía deepfake.

Twicsy informa que las influencers tienen 99 veces más probabilidades de ser blanco de pornografía deepfake que los hombres. Esta disparidad no solo revela la selectividad de esta explotación, sino también refleja las normas sociales que alimentan la sexualización de las imágenes de las mujeres en estas industrias.

Esta problemática se agudiza en ciertas plataformas, siendo Instagram un ejemplo destacado. En esta red social, las influencers femeninas son más susceptibles, con un 94% de probabilidades de ser atacadas. El informe destaca que la naturaleza visual de Instagram, combinada con su potenciación algorítmica, crea un ambiente propicio para la difusión de pornografía deepfake.

¿Puede el problema ser parte de la solución?

La Inteligencia Artificial se muestra como un componente crucial para impulsar los ataques de deepfake por parte de actores malintencionados, pero también emerge como un elemento fundamental para identificarlos y prevenirlos en el futuro.

Un caso destacado es el de OpenAI, que está desarrollando nuevas herramientas para mejorar la detección de imágenes generadas mediante inteligencia artificial. Recientemente, han introducido una herramienta para identificar imágenes creadas con su generador de imágenes DALL-E, así como métodos avanzados de marca de agua para identificar claramente el contenido generado por sus propios sistemas.

Así, el detector utiliza la propia inteligencia artificial para analizar metadatos ocultos en los archivos, y determinar autenticidad, con una efectividad del 98.8%, lo cual representa un avance más que significativo en lo que es la detección de deepfakes.

Las personas todavía pueden crear contenido engañoso sin esta información (o pueden eliminarla), pero no pueden falsificarla ni alterarla fácilmente, lo que la convierte en un recurso importante para generar confianza. A medida que la adopción del estándar aumenta, esta información puede seguir al contenido a lo largo de su ciclo de vida de intercambio, modificación y reutilización. Con el tiempo, creemos que este tipo de metadatos será algo que las personas esperarán, llenando un vacío crucial en las prácticas de autenticidad del contenido digital, según lo detallado por la organización de renombre.

El uso malintencionado de la Inteligencia Artificial ha generado un creciente y preocupante aumento de los engaños que involucran deepfakes. En el siguiente artículo analizaremos el fenómeno a través de casos reales y plantearemos el siguiente: ¿es la propia Inteligencia Artificial la mejor herramienta para detectar este tipo de estafas?

¿Se puede estar preparado?

El primer paso, como siempre, es la educación: en cómo funcionan las deepfake y cuál es el daño potencial que pueden causar. Es de vital importancia que seamos conscientes de que incluso los videos que parecen ser muy realistas podrían tratarse de piezas fabricadas.

Otro buen consejo es comprobar la autenticidad de la fuente, así como la reputación y credibilidad del sitio web, la cuenta de redes sociales o la aplicación que esté respaldando el contenido.

También es importante analizar el contexto del contenido, ¿coincide con el tono y el estilo habitual de la persona o la organización presente en el video? Si algo parece poco probable, es posible que se trate de un deepfake.

Y por último, se debe prestar atención a las inconsistencias. Detalles como movimientos faciales irregulares, errores en la sincronización labial o anomalías en la calidad del audio y el video pueden ser alarmas que indican que el contenido fue ha sido manipulado digitalmente.

Fuente web:https://www.welivesecurity.com/es/seguridad-digital/deepfakes-era-de-la-inteligencia-artificial/