Estás leyendo
Las grandes tecnológicas y empresas de IA acuerdan directrices con la Casa Blanca para regular su desarrollo

Las grandes tecnológicas y empresas de IA acuerdan directrices con la Casa Blanca para regular su desarrollo

Open AI, Anthropic e Inflection, empresas de inteligencia artificial, así como las grandes big tech como Microsoft, Meta, Amazon y Google firman un acuerdo con el Gobierno de Estados Unidos

La regulación en inteligencia artificial es uno de las prioridades por parte de los gobiernos para poner límites al avance desmedido que ha experimentado la sociedad durante este 2023. El Parlamento Europeo, por ejemplo, ya planteó cuáles serían las especificaciones de su ley respecto al nivel de riesgo de las características de la IA, de tal forma que haya límites claros y que sobre todo se proteja a la población si se trata de su privacidad, aprovechando los beneficios de esta tecnología.

En Estados Unidos pasa lo propio. Algunas grandes empresas del sector, algunas de las cuales son conocidas por el acrónimo Gafam (con la excepción de Apple), han establecido un compromiso con la Casa Blanca para regular el uso de la inteligencia artificial y su desarrollo, que a ojos de ciertos sectores de la opinión pública parece que puede desbocarse.

El pacto consiste en que, además de que las empresas confirmen la seguridad de las herramientas IA que lancen, se den garantías por parte de estas para que la IA pueda desarrollarse de forma segura, siempre de forma responsable y bajo los valores de la ética.

El anuncio del Gobierno incluye directrices de seguridad y confianza. “Las empresas tienen el deber de hacer lo correcto por el público y ganarse la confianza de la gente”, afirma el documento oficial de la Casa Blanca que informa las nuevas medidas.

Terceros e independientes con el rol de supervisores

Lo acordado entre el Gobierno y las grandes compañías tecnológicas incluye que se hagan pruebas de seguridad por expertos independientes. Estas darán información sobre los fallos y riesgos de las herramientas, así como también las vulnerabilidades eventuales que puedan ir encontrándose.

La idea es que las empresas y sus productos asociados no dependan de ellas mismas para lanzarse al mercado, por ejemplo, sino que habrán procesos que aseguren su probidad y ética, con leyes y reglas a seguir y que deben cumplirse, de acuerdo al documento de la oficina estadounidense de Gobierno. Cualquier riesgo a la seguridad nacional, la ciberseguridad, la sociedad o incluso a nivel biológico será considerado por estos responsables.

Leer también

Los deepfakes o creaciones audiovisuales o de imagen creadas a través de la inteligencia artificial, que intentan suplantar la realidad y pasan a llevar la veracidad, también estarán bajo la lupa de estos especialistas en regulación de la IA. De igual forma, se evitará que existan sesgos reproducidos por la IA, así como cualquier tipo de discriminación.

Si bien no se sabe cuáles serán los actores específicos que tomarán este rol decisivo, hasta ahora se les denomina “equipos rojos”, quienes harán una supervisión del funcionamiento de los sistemas de IA.

“La inteligencia artificial entrega una enorme promesa y un gran riesgo”, reza el documento que plantea los puntos relevantes del compromiso. El avance de esta tecnología es una preocupación a nivel mundial que considera las ventajas y desventajas de la IA. De modo que la problemática está sobre la mesa y los grandes gobiernos del orbe, como el estadounidense, ya empiezan a poner las cartas sobre la mesa.

© 2023 - NEXT MEDIA CONTENT Y PRISA MEDIA CHILE
Todos los derechos reservados

Ir arriba