Estás leyendo
La primera ley de la IA en la Unión Europea contemplará 4 niveles de riesgo

La primera ley de la IA en la Unión Europea contemplará 4 niveles de riesgo

Foto: Peter Dazeley vía Getty Images

Tal como lo está haciendo la Unión Europea, los gobiernos y las organizaciones internacionales ya están afinando las leyes que regularán la IA

 

La UE, mediante la Eurocámara, siempre es pionera en la instauración de leyes que con el paso del tiempo adoptarán otras organizaciones gubernamentales y estados. El 2020 se plantearon tres regulaciones no legislativas, como informa el periódico 20 minutos, que atañían a la IA y que significaron un antecedente en cuanto a los usos de esta y otras tecnologías afines, así como los límites legales y éticos implicados.

Esta semana el Parlamento Europeo, con la discusión del Consejo y la Comisión mediante, ha informado desde Estrasburgo sobre aquello que va a prohibir y lo que va a permitir en el desarrollo de la inteligencia artificial, tras aprobar el miércoles la norma que la regulará. Las ventajas a nivel de producción son evidentes, ya que esta podría aumentar y esto sería conveniente para las empresas. Sin embargo, las autoridades europeas ven como un imperativo el poner atención a su avance.

Los ejes centrales son que la ley se centre en su carácter antropocéntrico y antropogénico —es decir, centrado en la evolución y el desarrollo del hombre—, la fiabilidad, la estimulación de la seguridad de los ciudadanos y de sus datos personales, la protección de la propiedad intelectual de los desarrolladores de esta tecnología, la evitación de los sesgos y la responsabilidad social empresarial, además del resguardo del medioambiente.

Estos ideales transversales de la UE son los que caracterizarán esta primera ley de la IA que busca que la sociedad en general y los privados y empresas la cumplan.

4 niveles de riesgo

Además, esta estipula 4 niveles de riesgo.

Riesgo mínimo

Estos constituyen los sistemas que estarán autorizados, como objetos cotidianos electrónicos o electrodomésticos del hogar, es decir, microondas, lavadoras, refrigeradores o relojes, los cuales no necesitarán ni autorización ni requerirán transparencia. También están aquí la mayoría de las aplicaciones, como los filtros de spam.

Leer también

Riesgo limitado

Chat GPT de Open AI o Bard de Google, en tanto chatbots, son ejemplos perfectos que entran en esta categoría de riesgo. Para estas herramientas de riesgo limitado, los ciudadanos y usuarios deben ser conscientes de que están interactuando con una inteligencia artificial.

Riesgo alto

Superando ya las aplicaciones de uso cotidiano, en este nivel se encuentran aplicaciones que pueden causar daños a los ciudadanos y a la sociedad en su conjunto. En este caso, las agencias nacionales deben dar autorización para que sean establecidas. Un ejemplo son los sistemas de identificación biométrica en los sitios públicos o las aplicaciones relacionadas a la búsqueda de candidatos para un empleo, además de las aplicaciones médicas, entre otras.

Riesgo inaceptable

En este nivel se encuentran las aplicaciones de IA directamente prohibidas, ya que serían una amenaza clara para las personas en cuanto “inaceptables”. En este caso se ubican:

  • Las aplicaciones de IA que exploten a personas vulnerables, ya sea por su edad o discapacidad física o mental.
  • Las aplicaciones que hagan identificación biométrica a distancia en zonas de acceso público y con finalidad de seguridad policial. Este punto en particular resulta especialmente sensible en una sociedad como la europea, que cuida el acceso a los datos privados y sus usos.
  • Las aplicaciones que posean puntuación social, así como la utilización y comercialización de estos datos para evaluar a las personas físicas, dando como resultado un trato distinto según la puntuación.
  • Las aplicaciones que utilicen técnicas subliminales o de persuasión que puedan afectar la salud física o mental de las personas, quienes por definición pueden no estar advertidas de estas.
View Comments (0)

Leave a Reply

Your email address will not be published.

© 2023 - NEXT MEDIA CONTENT Y PRISA MEDIA CHILE
Todos los derechos reservados

Ir arriba