Estás leyendo
Ética en inteligencia artificial: ¿Estamos realmente entendiendo lo que intentamos regular? (Parte 3 y final)

Ética en inteligencia artificial: ¿Estamos realmente entendiendo lo que intentamos regular? (Parte 3 y final)

Esta es la tercera parte de una columna de opinión del Dr. John Atkinson, publicada en tres entregas

Suponga que usted desea diseñar un sistema tutorial inteligente que permita cumplir las veces de un profesor virtual que enseña e interactúa con niños. Asuma también que el diseño del sistema de IA subyacente ha cumplido aparentemente todas las regulaciones éticas asociadas a su diseño. Si usted cree que eso es suficiente para que el diseño de la tecnología de IA sea responsable, estamos en serios problemas, pues se está confundiendo el diseño de métodos algorítmicos tradicionales, cuyo control y concepción sigue al pie de la letra lo instruido por un humano, con un sistema de IA cuya autonomía en la toma de decisiones justamente está pensada para realizarse en forma independiente al humano en entornos que son dinámicos; por tanto, se confía en su capacidad de adaptación al entorno.

Esta problemática es transversal a muchas tecnologías y aplicaciones de IA, tales como un vehículo autónomo. Por mucho que usted pueda seguir principios éticos en el diseño, la máquina se debe comportar autónomamente en su ambiente. Así, no se puede regular su comportamiento ético, sino que preocuparnos de que los métodos computacionales tomen decisiones basadas en evaluaciones éticas.

La ética de las máquinas debe garantizar un comportamiento apropiado de estas hacia los humanos y otras máquinas. En diversos modelos computacionales que se integran tecnologías de IA se deben implementar mecanismos para integrar los resultados de diversas evaluaciones del sistema en una señal única que tenga en cuenta las preferencias del agente, las buenas y malas experiencias pasadas, las reglas éticas y el estado emocional actual como los principales factores involucrados en la elección de la opción más adecuada. El diseño de muchos de estos modelos se basa en teorías y enfoques desarrollados en áreas como la neurociencia, la psicología, la inteligencia artificial y la informática cognitiva.  En teoría, un agente artificial de este tipo debería tener capacidad de razonamiento, aprendizaje continuo y, lo más importante, la transparencia, todo lo cual se consideran propiedades fundamentales de los agentes éticos autónomos.

De esta manera, la investigación se deberá centrar en establecer diferentes estrategias computacionales para que las máquinas tomen efectivamente decisiones éticas. Algunos enfoques a explorar en el futuro podrían considerar:

Leer también

  • Programación ética: Los desarrolladores pueden diseñar sistemas de IA con métodos y reglas que reflejen principios éticos. Esto implica codificar reglas y valores éticos para guiar el comportamiento de la máquina.
  • Aprendizaje supervisado: Las máquinas pueden aprender ética a partir de datos de entrenamiento etiquetados. Los datos de entrenamiento incluyen ejemplos de decisiones éticas tomadas por humanos. El sistema de IA utiliza estos datos para aprender patrones éticos y aplicarlos en nuevas situaciones.
  • Ética de refuerzo: Los sistemas de inteligencia artificial pueden ser entrenados para optimizar su comportamiento ético a lo largo del tiempo. Se recompensa o penaliza al sistema en función de si sus acciones se consideran éticas o no, lo que ayuda a ajustar su comportamiento.
  • Evaluación de impacto ético: Antes de tomar decisiones, las máquinas pueden realizar evaluaciones de impacto ético, considerando posibles consecuencias negativas y evaluando si una acción en particular cumple con los principios éticos establecidos.
  • Reglas predefinidas: En algunos casos, las máquinas pueden seguir reglas éticas predefinidas sin la necesidad de aprender o adaptarse. Por ejemplo, un tutor en educación podría estar diseñado para seguir estrictamente principios éticos y directrices pedagógicas.

Dr. John Atkinson. Es profesor titular de la Facultad de Ingeniería y Ciencias de la Universidad Adolfo Ibáñez. Director del Magíster en Inteligencia Artificial UAI.

© 2023 - NEXT MEDIA CONTENT Y PRISA MEDIA CHILE
Todos los derechos reservados

Ir arriba