Estás leyendo
Open AI busca regular el uso de su tecnología en campañas electorales en año de elecciones en EE.UU.

Open AI busca regular el uso de su tecnología en campañas electorales en año de elecciones en EE.UU.

OpenAI refuerza sus políticas contra la manipulación política mediante inteligencia artificial, prohibiendo el uso de sus tecnologías en campañas electorales y adoptando medidas para detectar posibles abusos, en el mismo año en que EE.UU. va a las urnas

La compañía líder en inteligencia artificial ha anunciado medidas para prevenir la manipulación política a través de su tecnología. En un comunicado reciente, la empresa, conocida por crear ChatGPT y DALL-E2, estableció políticas estrictas para evitar el mal uso de sus innovaciones durante las campañas electorales.

La empresa de Sam Altman dejó claro que no permitirá que su tecnología se utilice para crear aplicaciones destinadas a campañas políticas, desinformar a los votantes o disuadirlos de votar. Además, planea introducir marcas de agua incrustadas en imágenes generadas por su tecnología DALL-E como una medida para detectar fotografías creadas por IA, aunque expertos dudan de la efectividad de este método.

En su blog, OpenAI expresó su compromiso con la anticipación y prevención de abusos, incluyendo la producción de ‘deepfakes’, operaciones de influencia masiva y chatbots suplantando candidatos (incluso algunas instituciones educativas ya toman medidas al respecto para proteger la originalidad ). Las medidas de Open AI, por su parte, buscan contrarrestar el uso de la IA en la propagación de información falsa durante procesos electorales.

Esta decisión sigue la tendencia de otras empresas tecnológicas, como Google y Meta (matriz de Facebook), que han actualizado sus políticas electorales en respuesta al creciente impacto de la IA. A pesar de estos esfuerzos, existe preocupación sobre la efectividad de estas políticas, como se evidenció en informes que revelaron el incumplimiento de algunas planteadas por OpenAI en el pasado.

Miedo a la manipulación

La senadora Amy Klobuchar expresó su inquietud sobre la posible interferencia de ChatGPT en el proceso electoral, informa Info Bae, resaltando la importancia de abordar la capacidad de los chatbots para difundir información engañosa de manera personalizada y a bajo costo.

Leer también

OpenAI, a través de su blog, también señaló su compromiso continuo con la comprensión de la efectividad de sus herramientas para la persuasión personalizada. Esto en el mismo momento que destaca la apertura de su “GPT Store” para permitir que cualquiera entrene fácilmente chatbots con sus propios datos.

Las herramientas de IA generativa, como las desarrolladas por OpenAI, han planteado desafíos significativos en la distinción entre información verdadera y falsa. A medida que la IA continúa evolucionando, la implementación de medidas éticas y preventivas se vuelve crucial para mitigar los riesgos asociados con la manipulación de la información.

Así, OpenAI toma medidas para evitar la manipulación política mediante su tecnología de inteligencia artificial, estableciendo políticas estrictas y planeando la introducción de marcas de agua en imágenes generadas por IA. Hasta ahora, un esfuerzo para abordar la creciente preocupación sobre la desinformación durante las campañas electorales a nivel mundial.

© 2023 - NEXT MEDIA CONTENT Y PRISA MEDIA CHILE
Todos los derechos reservados

Ir arriba