Los avances en el desarrollo de la inteligencia artificial (IA) han creado la capacidad de crear imágenes falsas que no se pueden distinguir de la realidad. La existencia de esta tecnología llevó a la reconstrucción de perfiles de personas existentes para replicar acciones que nunca realizaron. Esto ahora se llama tecnología deepfake.

Deepfake es una técnica que utiliza algoritmos de aprendizaje de IA para obtener imágenes o videos de objetos aparentemente reales o rostros de personas. Aunque los beneficios de esta tecnología pueden ser beneficiosos en el entretenimiento u otras áreas, también hay ciberdelincuentes que han comenzado a usarla para el robo de identidad.

La herramienta se dio a conocer principalmente en las redes sociales bajo los populares memes. Se utilizaron escenas de películas famosas y se insertaron otras celebridades o políticos en los rostros de los actores, recreando los diálogos y las muecas de los personajes. Sin embargo, el uso de la IA siguió aumentando.

El rostro de la actriz Jennifer Lawrence ha sido reemplazado por el del actor Steve Buscemi en un video “meme”. (Foto: grabación de video)

Cesár Beltrán, jefe del laboratorio de inteligencia artificial de la Pontificia Universidad Católica del Perú (PUCP), comenta en entrevista con El Comercio que “las inteligencias artificiales tienen distintas funciones que hacen que sucedan cosas que antes no pensábamos que pudieran existir. Esto se puede ver desde el lado positivo de la innovación, pero también puede crear nuevos peligros para los demás.

MIRA TAMBIÉN: Una imagen creada con inteligencia artificial ganó un concurso de arte

¿Cómo funciona el robo de identidad?

Recientemente, esta herramienta ha sido utilizada por los ciberdelincuentes como estrategia de robo de identidad, principalmente en el ámbito laboral. A través de esta tecnología, los ciberdelincuentes se hacen pasar por trabajadores para robar datos de una empresa.

El trabajo remoto ha llevado a que estas técnicas de trampa se vuelvan más frecuentes. Debido a la virtualización de actividades en algunas industrias, los ciberdelincuentes han obtenido una mayor ventaja haciéndose pasar por otra persona en la red.

“Estamos mucho más expuestos ya que todas nuestras actividades se realizan de manera virtual. Así que nuestra información se almacena en Internet y todo el mundo tiene acceso a ella. Eso fue un arma de doble filo”, agrega Beltrán.

Al publicar nuestra vida en las redes (especialmente las redes sociales), esta inteligencia artificial puede potenciarse con nuestras fotos, videos e información pública para recrear material audiovisual con nuestra identidad.

Ejemplo de Deepfake: aunque parece una persona real, esta cara fue generada por computadora.  (Foto: Wikipedia)Ejemplo de Deepfake: aunque parece una persona real, esta cara fue generada por computadora. (Foto: Wikipedia)

Bajo esta explicación, se pueden distinguir dos tipos de ataques deepfake: deepface (realizados a través de imágenes y videos) y deepvoice (a través de audio y voz grabados).

Ambos métodos se basan en lo que se conoce como aprendizaje profundo, un área especial de IA basada en cómo funciona el sistema neurológico humano, y en bases de datos públicas globales que contienen imágenes, videos y audios.

APARIENCIA: Están usando inteligencia artificial para “recrear” Ecce Homo, y así es como se ve

Para estas creaciones se utiliza un autocodificador, que crea una imagen con ciertos parámetros, como una sonrisa, un ceño fruncido, etc. Incluso si está presente el material necesario para la IA, se puede agregar el audio.

¿Podemos evitar que nos roben nuestros datos?

A pesar de que los estafadores utilizan técnicas cada vez más sofisticadas para realizar estos ataques a empresas e instituciones, existen ciertas variables que permiten detectar posibles casos de deepfake.

Se recomienda que monitoreemos diariamente el contenido de nuestras redes sociales para identificar la información vulnerable que hemos puesto a disposición del público.

Cuando se trata de entrevistas de trabajo, es recomendable que las empresas tengan en cuenta detalles como la postura de la persona o el movimiento de las imágenes de video de los empleados que tienen. Otro aspecto a tener en cuenta en estos encuentros virtuales es la calidad de los encuadres y la forma en que se refleja el tono de piel.

El tono de voz de una persona también puede ser una buena indicación de que se está utilizando un deepfake si se conoce la voz del usuario de antemano. También se debe verificar que las respuestas del empleado sean consistentes con la conversación.

“Hay programas, software que se encargan de detectar estas estafas. Incluso podemos percibirlos sensorialmente. El problema es que es algo nuevo, por lo que nos pilla desprevenidos. La capacidad humana todavía tiene la capacidad de superar los escollos de la IA”, concluye Beltrán.