Estás leyendo
Cómo hablar sobre deepfakes con los niños

Cómo hablar sobre deepfakes con los niños

La compañía de seguridad ESET publicó una guía para padres acerca de cómo educar a los niños y niñas en torno a las deepfakes, uno de los problemas de desinformación más preocupantes de la actualidad.

Los deepfakes (del inglés “deep”: profundo y “fake”: falso) utilizan el aprendizaje profundo (una forma de aprendizaje automático) para crear imágenes, videos o audios que falsifican acontecimientos. Suelen duplicar la voz y/o los rasgos faciales de un individuo para luego pegarlos en una grabación o fotografía existente. El resultado muestra a las personas en situaciones en las que nunca estuvieron realmente implicadas; por eso también los deepfakes pueden utilizarse contra las personas como medio de burla e incluso de acoso. Se pueden encontrar fácilmente videos de Mark Zuckerberg hablando sobre robar los datos de la gente, o de Tom Cruise haciendo trucos de magia.

“Las versiones más simples de deepfakes se pueden confeccionar fácilmente utilizando aplicaciones móviles, como FaceApp o FaceSwap, pero los más complejos suelen requerir cierta habilidad y un equipo técnico especializado”, comenta Camilo Gutiérrez, Jefe del Laboratorio de Investigación de ESET Latinoamérica.

Las recomendaciones para hablar con los menores sobre los deepfakes y sus peligros son:

1. Ver juntos algunos videos deepfake y empezar a conversar: El primer paso para prevenir el uso indebido de los deepfakes es tomarse el tiempo necesario para ver algunos de estos videos y analizar juntos el tema. Charlar sobre por qué existen los deepfakes y para qué se pueden utilizar. Contarles si son de tu agrado o no y por qué. Hablar sobre la responsabilidad y el consentimiento: explicar por qué solo se debe utilizar la cara o la voz de alguien después de obtener su permiso.

2.  Descubrir juntos las diferencias entre los videos deepfake y los reales: Aunque cada vez es más difícil identificar los deepfakes, algunos aspectos pueden ayudar a detectar su falsedad. En primer lugar, buscar movimientos inusuales, como parpadeos no naturales. Los deepfake tienden a tener problemas para replicar los atributos físicos más sutiles: el audio puede no corresponderse completamente con el movimiento de los labios de la persona, y puede haber fallas a lo largo de las líneas del rostro de la persona o cerca de la línea del cabello. También hay discrepancias comunes en la iluminación: la cara puede ser más clara u oscura que el cuerpo, o puede haber una sombra inusual, o cada uno de los ojos puede reflejar una imagen diferente. Sin embargo, estos puntos dentro de poco van a ser difíciles de notar, ya que la tecnología sigue avanzando rápidamente.

3. Examinar el contenido. “Es importante tener en cuenta que cuando las palabras que salen de la boca de la persona son escandalosas, difíciles de creer o están claramente puestas para evocar una reacción emocional, hay una mayor posibilidad de que el video sea un deepfake. Por otro lado, aunque a simple vista puedan parecer auténticos, existen herramientas que evalúan la probabilidad de que el contenido sea falso. Una de ellas, es la herramienta de Microsoft contra la desinformación conocida como Microsoft Video Authenticator. El software puede analizar una foto o video para decirte qué tan probable es que el contenido sea real.”, explica Javier Lombardi, Mentor Educativo de la ONG Argentina Cibersegura.

4. Hablar con los niños acerca de lo que comparten online: Cuando los más pequeños suben sus fotos y videos a Internet, pueden compartir, sin saberlo, todo lo necesario para crear un video deepfake de ellos potencialmente dañino.

Leer también

5. Explorar juntos y encontrar medidas preventivas: Navegar con los y las niñas por Internet y conocer el mundo al que van a incorporarse. Respetar su privacidad, pero asimismo es bueno pedirles recorrer juntos sus redes sociales para ver qué tipo de contenidos consumen.

Eset anunció Digipadres, un sitio web con información importante sobre educación digital.

View Comments (0)

Leave a Reply

Your email address will not be published.

© 2023 - NEXT MEDIA CONTENT Y PRISA MEDIA CHILE
Todos los derechos reservados

Ir arriba