Estás leyendo
Ética en inteligencia artificial: ¿Estamos realmente entendiendo lo que intentamos regular? (Parte 2)

Ética en inteligencia artificial: ¿Estamos realmente entendiendo lo que intentamos regular? (Parte 2)

Esta es la segunda  parte de una columna de opinión del Dr. John Atkinson que será publicada en tres entregas

 

Existen varios informes y reportes sobre los aspectos regulatorios para la IA, y en particular en torno al diseño ético, que han propuesto diversos países y organizaciones (i.e., EU, OCDE, Unesco, etc).

Sin embargo, salvo pocas excepciones, ninguna de ellas está abordando el diseño ético de sistemas de IA propiamente tal, sino que simplemente se está mirando la ética en el diseño de cualquier sistema informático tradicional, lo que también es peligroso. Usualmente, esto proviene del hecho de que la gran parte de quienes intervienen en las propuestas de regulación y ética en IA desconocen a cabalidad los aspectos básicos de lo que involucra tecnología de IA y la diferencia significativa de sistemas de automatización convencionales.

Lo anterior es preocupante si se considera que de aquí al año 2030, uno esperaría que muchos de los sistemas de IA utilizados por las organizaciones utilizaran algunos principios éticos en su desarrollo. Lamentablemente, resultados de algunos estudios recientes con una muestra mediana de especialistas informan que el 68% de ellos no cree que se utilizarán principios éticos en el desarrollo de bienes públicos, no sólo debido a la forma en que se generaron, sino también por el eventual costo que implica poder cumplirlos.

Usualmente, existe algún acuerdo acerca de que, para que dicho diseño responsable de sistemas de IA sea ético, es importante satisfacer criterios basados en pilares fundamentales, que incluyen:

  • Explicabilidad: Un sistema de IA debería ser transparente, especialmente sobre las recomendaciones/decisiones generadas por el sistema que sean relevantes a todos los actores y objetivos.
  • Justicia (algorítmica): Esto se refiere al tratamiento igualitario de los individuos o grupos de individuos por un sistema de IA. Cuando se diseña apropiadamente, un sistema de IA puede asistir a los humanos para tomar decisiones más justas, no discriminatorias, contrarrestando los sesgos humanos y promoviendo inclusividad.
  • Robustez: Los sistemas de IA deben defenderse activamente de ataques de los adversarios, reduciendo los riesgos de seguridad y aumentando la confiablidad de las salidas del sistema.
  • Transparencia: Para reforzar la confianza, los usuarios deben ser capaces de ver cómo el servicio o sistema funciona, evaluar su funcionalidad y entender sus fortalezas y limitantes.
  • Privacidad: Un sistema de IA debe priorizar y asegurar la privacidad y derechos sobre los datos de los usuarios, y proporcionar mayor seguridad sobre cómo serán utilizados y protegidos los datos personales de estos.

Aunque hasta ahora no existe una propuesta de legislación de alcance universal que regule las prácticas y aspectos éticos de la IA, muchos países están trabajando para desarrollarlas e implementarlas localmente. Para abordar estas brechas, han emergido algunos marcos de trabajos éticos como parte de la colaboración entre diferentes especialistas. Sin embargo, por ahora estos solo sirven como guía, y diversas investigaciones muestran que la combinación de dicha responsabilidad distribuida no necesariamente conduce a la prevención de daños a la sociedad.

Recientemente se firmó la “Declaración de Santiago” para promover el desarrollo de la IA en América Latina y el Caribe. Sin embargo, varios de los principios y normativas no tienen mucho que ver con la IA (ej. aspectos regulatorios de protección de datos, confidencialidad, gobernanza), sino con aspectos regulatorios de cualquier sistema automático, aspecto preocupante si se considera que un sistema automático y un sistema autónomo (o semiautónomo) de IA no sólo poseen fundamentos y dinámicas muy diferentes, sino que objetivos normativos también diferentes.

Leer también

En el mejor de los casos de que se evolucione a propuestas verdaderas de regulación en ética y otros aspectos para el desarrollo de la IA, con alguna comprensión parcial de lo que se está regulando, surge otro problema aún más complejo desde lo ético, y es el segundo foco de la ética en IA mencionada al principio de esta columna en el foco (2): la conducta ética de las máquinas o agentes autónomos morales.

Dr. John Atkinson. Es profesor titular de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez. Director del Magíster en Inteligencia Artificial UAI.

© 2023 - NEXT MEDIA CONTENT Y PRISA MEDIA CHILE
Todos los derechos reservados

Ir arriba