MIT crea PhotoGuard para proteger las fotos de la manipulación de la IA

Investigadores del MIT desarrollan una herramienta llamada PhotoGuard que añade sutiles alteraciones a las fotos para impedir su manipulación por sistemas de inteligencia artificial, protegiendo la privacidad de los usuarios y evitando el uso indebido de imágenes.

Hoy en día, la profusión de deepfakes y réplicas de personas con la participación de la IA son algo cotidiano. Incluso, ha ganado concursos de fotografía, lo que ha generado interesantes polémicas y debates.

Las imágenes están expuestas a la manipulación por parte de potentes sistemas de inteligencia artificial generativa. Esto plantea una preocupación significativa, ya que resulta cada vez más difícil distinguir si una imagen es auténtica o ha sido alterada. Pero una nueva herramienta, PhotoGuard, desarrollada por investigadores del Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL, sus siglas en inglés), perteneciente al reconocido Instituto Tecnológico de Massachusetts (MIT), podría cambiar este escenario y proteger nuestras imágenes.

La herramienta actúa como un escudo protector, introduciendo alteraciones imperceptibles en las fotos que impiden su manipulación por sistemas de inteligencia artificial. Si alguien intenta utilizar una aplicación de edición basada en un modelo generativo de IA para editar una imagen “inmunizada” con PhotoGuard, el resultado será poco realista o deformado, lo que revela claramente la manipulación.

La importancia de esta herramienta radica en que puede sortear eventualidades en las que cualquier persona puede modificar una imagen de forma malintencionada, poniendo a alguien en situaciones comprometedoras o chantajeándolos con imágenes falsas. “Cualquiera puede modificar nuestra imagen como quiera, ponernos en situaciones muy feas y chantajearnos”, afirma a MIT Tecnology Review Hadi Salman, investigador doctorado del MIT involucrado en el proyecto.

La presentación de PhotoGuard tuvo lugar en la Conferencia Internacional sobre Aprendizaje Automático, donde se destacó la importancia de proteger la privacidad y la integridad de las imágenes en un mundo dominado por la inteligencia artificial.

¿Cómo logra su cometido?

Las técnicas utilizadas para el sofware innovadoras y efectivas. Dos métodos se emplean para evitar la edición de imágenes mediante el uso de modelos generativos de IA. La primera técnica, conocida como “ataque codificador”, introduce señales imperceptibles en la imagen que hacen que el modelo de IA la interprete de manera errónea. La segunda, denominada “ataque de difusión”, altera el proceso de generación de imágenes para que el modelo de IA genere resultados no deseados.

Esta novedad ha despertado gran interés y se ha convertido en un componente crucial para combatir la manipulación de imágenes en un mundo cada vez más digitalizado y donde la inteligencia artificial juega un papel central en diversos ámbitos.

Leer también

El compromiso con la seguridad y la confianza en la inteligencia artificial es fundamental, y varias empresas líderes en IA, como OpenAI, Google y Meta, se han unido a un esfuerzo conjunto para desarrollar métodos que prevengan el fraude y el engaño. PhotoGuard es una herramienta complementaria a otras medidas, como las marcas de agua, que buscan preservar la integridad de las imágenes generadas por IA.

Si bien este avance representa un desarrollo significativo en la protección de imágenes contra la manipulación por IA, no ofrece una protección completa contra todas las formas de falsificación y manipulación. Las imágenes antiguas de los usuarios seguirán estando disponibles para uso indebido y existen otras formas de producir falsificaciones.

A pesar de este desafío, se presenta como una solución viable para proteger la privacidad y seguridad de los usuarios en un mundo donde las imágenes juegan un papel fundamental en la comunicación y la interacción digital.

De momento, tanto el Parlamento Europeo como la Casa Blanca, que pactó regulaciones con las grandes empresas de IA, están involucrados en esta cruzada. La colaboración entre desarrolladores de modelos, plataformas de redes sociales y legisladores será clave para fortalecer la protección contra la manipulación no autorizada de imágenes y salvaguardar la confianza del público en la inteligencia artificial.

© 2023 - NEXT MEDIA CONTENT Y PRISA MEDIA CHILE
Todos los derechos reservados

Ir arriba