Estás leyendo
Ética en inteligencia artificial: ¿Estamos realmente entendiendo lo que intentamos regular? (Parte 1)

Ética en inteligencia artificial: ¿Estamos realmente entendiendo lo que intentamos regular? (Parte 1)

Esta es la primera parte de una columna de opinión del Dr. John Atkinson que será publicada en tres entregas

 

La ética humana se ocupa de estudiar y analizar la moral, es decir, el conjunto de principios, valores y normas que guían el comportamiento de las personas. De ahí que la ética se centra en temas relacionadas con lo que es moralmente correcto o incorrecto, bueno o malo, justo o injusto en las acciones y decisiones de las personas.

Como una característica natural de los humanos, la ética está en boca de todos. Por lo cual nos sentimos con derecho a opinar o incluso a juzgar sobre lo ético del comportamiento de otras personas y/o organizaciones. Dada su naturaleza, mucho de las regulaciones humanas en cuestiones éticas son de naturaleza multidisciplinaria en que intervienen ingenieros, psicólogos, abogados, antropólogos, investigadores, etc.

Cuando la ética se lleva a las máquinas o ética en la Inteligencia Artificial (IA), esta se expande a dos focos de trabajo y posibles normativas:

  • Comportamiento moral o ético de los humanos que diseñan los sistemas de IA, como también los recursos utilizados para ello (ej. datos, fuentes de conocimiento, etc)
  • Comportamiento de las máquinas en sistemas de IA cuando estas deben tomar decisiones éticas (ética de las máquinas o agentes morales).

En los últimos años, la mayoría de la discusión se ha centrado en el foco (1) de los sistemas de IA. Un problema que surge frecuentemente cuando se trata de regular variados aspectos de la ética en el desarrollo de la IA es que muchos de los especialistas e investigadores involucrados muchas veces no sólo no entienden lo que intentan regular, sino que lo confunden usualmente con otros paradigmas tradicionales (ej. algoritmos) donde el rol de las máquinas y humanos es diametralmente diferente.

Usualmente, se pueden observar estudios sobre “algoritmos éticos” que sugieren justamente que no sólo se desconoce cómo funciona la IA sino que se sobregeneraliza a paradigmas tradicionales de cómputo basados en algoritmos, donde cualquier regulación y/o consideración legal/ética se dirige al humano creador y no a la máquina en un sistema de IA que toma decisiones autónomamente.

Lamentablemente, la realidad ha mostrado las consecuencias de esta falta de conocimientos teórico y práctico sobre la IA: regular principios asociados a “máquinas”, cuya operación se desconoce; proponer normativas a tecnologías de automatización que ya existen; y sobreregular principios y normativas que pueden destruir el sistema productivo y de innovación, etc. De hecho, a mitad de año, la sobrerregulación sobre la IA llegó a tal punto en la Comunidad Europea  que varios organismos y empresas expresaron su temor de que esto podría generar brechas críticas en productividad comparados a los Estados Unidos (https://fortune.com/2023/06/30/europe-ai-act-open-letter-executives-regulation/), o peor, que este tipo de regulación podría beneficiar sólo a las grandes compañías como en el caso de USA, pues sólo estas tendrían eventualmente las capacidades para abordar las diferentes cuestiones éticas y  regulatorias en general (https://time.com/6321354/us-eu-ai-policy-warning/).

Leer también

Parte de lo anterior se debe a la falta de expertise y de profesionales idóneos en el diseño de tales propuestas normativas. El objetivo colectivo debería ser entender las fuentes de los riesgos éticos paras las organizaciones públicas y para la industria en general, por lo que para lograr una operación responsable y resultados efectivos en dichos grupos de trabajo, usualmente se debería involucrar cuatro tipos de personas:

  • Tecnólogos: evalúan lo que es tecnológicamente factible, no sólo a nivel de producto sino también a nivel organizacional. Esto se debe, en parte, a que diversos planes de mitigación de riesgos éticos requieren diferentes herramientas y habilidades tecnológicas.
  • Expertos legales y de cumplimiento: ayudan a garantizar que cualquier nuevo plan de mitigación de riesgos sea compatible y no redundante con las prácticas de mitigación de riesgos existentes. Las cuestiones legales cobran especial importancia a la luz de que no está claro cómo las leyes y regulaciones existentes influyen en las nuevas tecnologías.
  • Especialistas en ética: ayudan a garantizar una investigación sistemática y exhaustiva de los riesgos éticos y reputacionales que debe atender, no solo en virtud del desarrollo y adquisición de IA, sino también de aquellos riesgos que son específicos de su industria y/o organización.
  • Líderes empresariales: ayudan a garantizar que todos los riesgos se mitiguen de una manera que sea compatible con las necesidades y objetivos del negocio. El riesgo cero es imposible mientras alguien haga algo. Pero el riesgo innecesario es una amenaza para el resultado final, y las estrategias de mitigación del riesgo también deben elegirse teniendo en cuenta lo que sea económicamente viable.

Dr. John Atkinson. Es profesor titular de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez. Director del Magíster en Inteligencia Artificial UAI.

© 2023 - NEXT MEDIA CONTENT Y PRISA MEDIA CHILE
Todos los derechos reservados

Ir arriba