Estás leyendo
La caja negra de la IA que desconcierta a los expertos

La caja negra de la IA que desconcierta a los expertos

Foto: Yuichiro Chino vía Getty Images

El concepto de caja negra de la inteligencia artificial, que ha tomado fuerza tras las declaraciones de desarrolladores de IA de Google, pone en jaque lo que sabemos sobre el entrenamiento que llevan a cabo estas máquinas de aprendizaje rápido

 

Cuando apareció Chat GPT en noviembre de 2022, inmediatamente empezó a romper récords de cifras dada su masificación. Open AI anunció que el modelo de lenguaje aprendía con cada una de las instrucciones que le daban sus usuarios, perfeccionándose día a día a través de la infinidad de prompts recibidos. De alguna manera, el entrenamiento no tiene límites.

Luego, muchos otros softwares de inteligencia artificial aparecieron: algunos son capaces de imitar cualquier voz con tal de tener un modelo previo de algunos segundos (sin tener en cuenta el mal uso que se le puede dar a la función), mientras que otros, como Dall-E2, de la misma Open AI, producen imágenes en solo unos segundos con unas cuantas instrucciones.

En las últimas semanas han surgido voces que reaccionan frente a este avance vertiginoso, como la del CEO de Google, Sundar Pichai, quien cree que el impacto de esta nueva tecnología será incluso mayor que el del fuego o la electricidad. Primero, como es natural, es el turno de la ilusión, pero luego vienen los miedos.

Los chatbots son las grandes estrellas de esta revolución tecnológica. Chat GPT, por supuesto, es la cabeza de lanza, pero además está Bard, de Google, sin considerar que Elon Musk, a pesar de su petición de darle una moratoria al desarrollo de la IA, también quiere entrar en el juego.

Con todo, hay un concepto que últimamente aparece en los medios y que los expertos reconocen como crucial a la hora de considerar las consecuencias de la IA: la caja negra, es decir, aquello que no entendemos muy bien —ni siquiera los expertos— sobre el comportamiento de estas máquinas.

El lugar donde se esconden los secretos

Para entender la caja negra, primero hay que entender su opuesto, la caja blanca. Esta se define como el reflejo exacto de las líneas de código creadas por desarrolladores, en forma de resultados esperados en el software.

Leer también

La IA, sin embargo, se crea con otros métodos menos tradicionales, ya que busca replicar las redes neuronales de la inteligencia humana. Cantidades ingentes de datos y variables que tienen ciertos patrones, además del machine learning y la autoadaptación, son los elementos que caracterizan estas nuevas vías de desarrollo de programas que se basan en la inteligencia artificial. Así, estas aprenden a innovar después de que se plantean sus objetivos, interactuando con el entorno y convirtiéndose en un sistema complejo.

Lo opuesto a la caja blanca es lo que describieron ingenieros de Google que se encontraban en medio de sus investigaciones y trabajos cuando se dieron cuenta de que un software de inteligencia artificial había aprendido rápidamente el bengalí, tras muy pocos inputs del idioma. El mismo Pichai definió esta facultad como la “caja negra”, que comprende respuestas, creatividad o habilidades inesperadas por parte del software, sobre la cual aún no se sabe mucho.

“No lo entiendes del todo”, declaró según informaciones de la BBC. “No puedes decir muy bien por qué dijo esto o por qué se equivocó (…) Tenemos algunas ideas y nuestras capacidad mejora con el tiempo”, aseveró.

A pesar de que las capacidades son conocidas y estudiadas por quienes han creado estas maravillas de la época actual, hay algunas cosas que aún no están en su comprensión. Aunque parezca apasionante, esto implicaría ciertos riesgos si no se regula el avance de la IA, como ya ha advertido con sus declaraciones el escritor del bestseller Sapiens, Yuval Noah Harari, entre otros expertos.

View Comments (40)

Leave a Reply

Your email address will not be published.

© 2023 - NEXT MEDIA CONTENT Y PRISA MEDIA CHILE
Todos los derechos reservados

Ir arriba