-->

Escribe y presiona enter

On
Pedro Grez

Choca verte a ti mismo diciendo algo que no es lo que dijiste", dice Pedro Grez. "El video me lo mandó una amiga, que seguramente lo vio en redes sociales. Me dijo que también a otras personas les habían hecho la misma estafa, que es usar su imagen, sus videos y poner contenidos que no son los originales", agrega Grez, diseñador industrial conocido por sus libros sobre nutrición, como "Los mitos me tienen gordo y enfermo".

Grez, investigador por afición, alude a un video que circula en Facebook donde se le ve promoviendo un método para bajar de peso. Es un deepfake, aclara; es decir, un video creado con inteligencia artificial para que una persona parezca decir o hacer algo que nunca dijo o hizo. Como base, usaron otro video que él subió a Facebook en octubre de 2021 , titulado "Si yo fuera candidato a presidente".

"Es la mejor manera de deshacerse del exceso de peso y reducir el riesgo de enfermedades, como el miedo a adquirir diabetes, dolor en las articulaciones, sudoración excesiva, estrés, fatiga, depresión", dice Grez en el falso video que promueve las supuestas bondades del agua de pimienta (o sea, beber un vaso de agua con pimienta al día). "Pincha el botón leer más", añade.

Grez, el real de carne y hueso, fue cuestionado en 2016 por el Colegio de Nutricionistas Universitarios de Chile debido a que difundía un método alimenticio que promovía básicamente el consumo de alimentos ricos en grasas saturadas. Estos videos manipulados digitalmente, afirma, no sólo confunden tanto a quienes lo apoyan como a quienes lo critican, sino que también contribuyen a desinformar.

"Sé que hay famosos a los que les ha pasado algo similar (Elon Musk y Tom Hanks son algunos ejemplos)", dice Grez. "En este caso, lo que hice fue a tomar acción y responder a la publicación en Facebook. La gente que me conoce sabe que me he dedicado los últimos 15 años a investigar y que toda la difusión que he hecho en forma científica hoy día está vigente. Y cada día salen más informaciones científicas respecto de que lo que dije existe y es verdad", asegura.

La proliferación de deepfakes afecta su credibilidad.
"La gente que piensa que lo que digo no es verdad, que piensa que soy un chanta, a lo mejor con este tipo de videos lo confirma: Sí, yo sabía que este tipo era un chanta, pueden pensar. Es una pena la gente que no se da cuenta de que el video es falso, hacen click en algo que puede ser una estafa, que incluso podría robar sus datos (mediante phishing)".

¿Cuál fue su primera impresión cuando vio este video?
"La primera impresión es chocante, uno se pregunta cómo lo hicieron. La segunda es molestia, rabia, porque efectivamente el contenido que entrega es una farsa. Y la tercera, es cómo la gente que hace esto sabe que yo podría ser eventualmente una cara que podría difundir algo así, porque tampoco digamos que soy un mega influencer".

¿Ha tomado medidas?
"Uno no puede hacer mucho. Lo que hice fue denunciar el video en Facebook, pero a Facebook le deben llegar miles de mensajes y es impensable pensar que van a contestar y lo van a bajar. Después pensé Voy a poner un comentario en todos los comentarios del video. Tenía más de 180, algunos que habían descubierto que efectivamente era un video falso, que no era yo por el acento, etcétera. Otros decían que no podían creer que yo me dedicara a hacer eso; o sea, que pensaron que efectivamente era yo. Así que lo que hice fue ingresar a Facebook y puse Esto es una publicación falsa, el video está hecho con inteligencia artificial. Alcancé a conseguir pegar ese comentario en las primeras 50 publicaciones, porque después Facebook me bloqueó".

¿Cómo ha impactado este video en su trabajo?
"Si no me manda esta amiga, yo no habría sabido que esto estaba circulando".

Es uno de los usos negativos de la IA.
"La inteligencia artificial es una herramienta. Obviamente hay gente que la va a usar para hacer el bien y gente que la va a usar para hacer el mal. No es la herramienta per se, sino la persona que está detrás la que impacta".


Detectando deepfakes

"Los deepfakes son videos falsos creados mediante el uso de redes neuronales de aprendizaje profundo, una tecnología avanzada que permite recrear la imagen y la voz de una persona mediante inteligencia artificial", explica Jonathan Frez, ingeniero civil en informática y comunicaciones, doctorado en Computación y actual director de posgrados de la Facultad de Ingeniería de la Universidad Diego Portales.

"Cualquier persona que cuente con suficiente material de video puede ser susceptible a que se le creen deepfakes", advierte.

Álvaro Ibáñez, editor del sitio de tecnología español Microsiervos y escritor del libro "Se suponía que esto era el futuro", señala que existen métodos para identificar y verificar la autenticidad de un video sospechoso de ser un deepfake. "Hay uno muy sencillo", afirma. "En los videos falsos, las caras suelen mostrar una imagen frontal y no hacen movimientos laterales girando la cabeza; tampoco parpadean mucho o lo hacen de forma antinatural. Aparte de eso, hay una ligera falta de sincronía del audio y los labios. Los audios, escuchados con detalle, denotan ser un poco mecánicos o artificiales", detalla.

Click para comentar