Estás leyendo
Google, Microsoft y OpenAI se unen en el Foro de Modelos de Frontera para regular la IA de forma conjunta

Google, Microsoft y OpenAI se unen en el Foro de Modelos de Frontera para regular la IA de forma conjunta

Los gigantes tecnológicos se unen para garantizar un desarrollo responsable de la inteligencia artificial y establecer mejores prácticas en el campo de los modelos de frontera.

Cuando una tecnología tan potente y revolucionaria como la de la inteligencia artificial —que estaba presente desde antes pero ahora se ha masificado de forma vertiginosa—, es necesario que los gobiernos pongan límites y establezcan directrices de comportamiento. No por nada, la Casa Blanca se encargó hace unos días de suscribir un acuerdo con las big tech para garantizar la seguridad y probidad en el uso de la IA, entre otras cosas.

Esta vez, las empresas privadas también se organizaron entre ellas. Google, Microsoft y OpenAI, líderes en el desarrollo de modelos de IA, han anunciado una colaboración sin precedentes al crear el Foro de Modelos de Frontera (Frontier Model Forum).

Este nuevo organismo de la industria tiene como objetivo principal asegurar el desarrollo seguro y responsable de los modelos de inteligencia artificial de frontera, que superan las capacidades de los modelos actuales y pueden realizar una amplia variedad de tareas.

El Foro, cuya explicación oficial se puede leer precisamente en la web de Open AI,  aprovechará la experiencia técnica y operativa de sus miembros para beneficiar a todo el ecosistema de IA. Entre las estrategias que se implementarán, se encuentran las evaluaciones técnicas y puntos de referencia, así como la creación de una biblioteca pública de soluciones que respalde las mejores prácticas y estándares de la industria.

Con cuatro objetivos principales, el Frontier Model Forum busca avanzar en la investigación de seguridad de la IA, minimizar riesgos y permitir evaluaciones independientes y estandarizadas de capacidades y seguridad en los modelos de frontera. Además, se propone identificar las mejores prácticas para el desarrollo e implementación responsable de estos modelos, promoviendo la comprensión del impacto y las limitaciones de la tecnología.

Leer también

La colaboración con legisladores, académicos, sociedad civil y otras empresas también será clave para compartir conocimientos sobre riesgos de confianza y seguridad. Por último, el Foro se compromete a apoyar el desarrollo de aplicaciones que enfrenten los mayores desafíos de la sociedad, como el cambio climático, la detección temprana del cáncer y la ciberseguridad.

La membresía en el Foro está abierta a organizaciones que desarrollen modelos de frontera y demuestren un fuerte compromiso con la seguridad. El objetivo es reunir a diversos actores de la industria para colaborar en la regulación y desarrollo ético de la IA. La iniciativa ha sido bien recibida por la comunidad, ya que reconoce la importancia de una autorregulación responsable y transparente en el campo de la inteligencia artificial.

El Foro de Modelos de Frontera es un paso significativo hacia el futuro de la IA, donde la colaboración entre las principales empresas del sector puede conducir a un desarrollo más seguro y ético de la tecnología. Al establecer mejores prácticas y estándares, se sientan las bases para un avance responsable que beneficie a la sociedad en su conjunto y permita a la inteligencia artificial cumplir la promesa de sus creadores: mejorar la vida de las personas y resolver los desafíos más importantes de nuestro tiempo.

© 2023 - NEXT MEDIA CONTENT Y PRISA MEDIA CHILE
Todos los derechos reservados

Ir arriba