Hoy ya no es ciencia ficción imaginar un software que produzca obras de arte, que escriba sinfonías en el estilo del compositor que le pidamos o que pueda escribir una novela usando como referencia las obras de García Márquez. Es una realidad al alcance de cualquiera gracias a programas como Dall·E, Midjourney o Jasper AI.
Dall·E, Midjourney y NightCafe se alimentan de una serie de palabras clave para generar imágenes (algunos dirían que arte) en cualquier estilo. Por ejemplo, es posible pedir a NightCafe que cree una obra basada en las palabras montaña, río y noche estrellada. También es posible elegir el estilo, cósmico en este caso. ¿El resultado? Una imagen totalmente original basada en las palabras que pusimos y con el estilo elegido.
Jasper es similar, pero Jasper escribe (imita un estilo de escritura de promoción comercial) y puede convertir en superfluo el trabajo de quienes se dedican a redactar copys y publicaciones para redes sociales. También es capaz de producir artículos para blogs y revistas. Quién sabe, quizás hasta este mismo artículo que estás leyendo ahora.
Openai GPT-3 es como Jasper pero más literario, y puede imitar el estilo de cualquier texto con el que se alimente. Así, podríamos saciar nuestro deseo de novedad al pedirle que escriba más novelas de Jane Austen, o al menos que imite con ciertos cambios las que ella escribió.
Otro paso en la automatización
Todo esto se presenta como un nuevo hito en la revolución industrial que hará más eficientes y automáticas muchas de las tareas que hoy en día consideramos exclusivamente humanas por ser creativas. Estos sistemas comprenden los símbolos que utilizamos en el lenguaje, en la música, en el arte y en la programación y los utilizan de manera creativa.
O eso parece. En realidad, estos sistemas imitan la creatividad humana pues se inspiran en la información con la que son alimentados y, en base a lo que conocen, crean algo similar. Nuevo, sí, pero similar. Por ello, por más impresionantes que sean, los procesos siguen estando lejos de ser verdaderamente creativos y de que sus resultados obtengan el reconocimiento de lo producido por la creatividad humana.
Como ejemplo, las tareas del creador de contenidos podrían pasar a ser realizadas por una máquina. Pero cabe preguntarse si el contenido producido por las máquinas, aunque original y novedoso, será bien recibido por los usuarios humanos. ¿Tendrá calidad? ¿Tendrá verdadero sentido? Las máquinas podrán hacerlo, no cabe duda, pero ¿querremos consumirlo?
Modelos “fundacionales”
Estos nuevos modelos de inteligencia artificial son el último avance en deep learning, una técnica basada —con libertades— en el funcionamiento de las estructuras neuronales humanas. Así, los sistemas se “entrenan” con millones de ejemplos de imágenes, textos y sonidos, según lo que se quiera que produzca el sistema.
La imitación de las habilidades humanas es cada vez más perfecta, casi pudiéndose confundir con la verdadera creatividad y comprensión humana
En los últimos años, los costos en tiempo y dinero de entrenar a estos sistemas habían limitado el desarrollo de la inteligencia artificial, pero los nuevos modelos fundacionales (foundation models) han demostrado que los grandes sistemas complejos pueden tener capacidades inimaginables. Tan inimaginables que no podemos conocer con certeza sus aplicaciones.
Su capacidad de aprendizaje es tal que son capaces de entender algunas habilidades muy humanas, como las bromas y las metáforas. Esto es el resultado más bien del tamaño y de la profundidad del modelo que de un diseño deliberado. Por ello, la imitación de las habilidades humanas es cada vez más perfecta, casi pudiéndose confundir con la verdadera creatividad y comprensión humana.
Con más poder, más responsabilidad
Con las nuevas capacidades de la tecnología vienen también las preocupaciones por el mal uso que pueda dársele. La imitación de la conducta humana tiene riesgos precisamente porque la conducta humana no siempre es buena.
En el caso de Dall·E, aún en estado de pruebas, los usuarios van obteniendo acceso a la herramienta si se apuntan a una lista de espera para finalmente recibir acceso. Las solicitudes de miles de usuarios arrojan luz sobre algunos de los posibles usos del sistema que crea imágenes realistas a partir de las palabras que el usuario escribe. Por ejemplo, se ha visto que algunos de los usos son la creación de imágenes falsas con objetivo de engañar, así como material violento, pornográfico o ilegal.
Otro de los riesgos es que, al imitar la creatividad humana, la inteligencia artificial imita también los sesgos humanos, incluyendo prejuicios raciales y de género. Tal fue el caso del experimento de Microsoft con Tay, un bot usuario de Twitter que imitaba las conversaciones y conductas de otros usuarios. Pronto debieron borrar la cuenta pues, imitando a quienes interactuaban con él, el bot comenzó a publicar tuits racistas, a negar el Holocausto y a apoyar genocidios.
Por otro lado, también existe la preocupación sobre quién controla estos modelos fundacionales. Las grandes tecnológicas concentran en sus manos casi todos los sistemas de inteligencia artificial disponibles, dejando poco para que los demás puedan beneficiarse de ellos. Hasta ahora, pequeños experimentos de open AI (inteligencia artificial abierta), tales como el afamado Dall·E mini, solamente pueden existir si alguna de las grandes tecnológicas les comparte sus recursos.
Esto reafirma los sesgos que ya existen en el mundo, puesto que serían unos pocos quienes podrían decidir sobre cómo se crea gran parte del contenido que el resto de personas consumen. Y como sabemos, la programación también reproduce los sesgos del programador y de la información de la que se alimenta y aprende, por lo que se limitaría la capacidad de crear contenido constructivo. La inteligencia artificial también podría convertirse en un arma ideológica entrenada para cambiar las ideas de las personas. La autorregulación de las propias tecnológicas no parece haber sido la respuesta correcta hasta ahora, por lo que habría que ver si existen mejores alternativas para regular los potenciales usos negativos de estos modelos.
Sopesar los riesgos y las posibilidades
Sí algo queda claro de estos nuevos sistemas es que nos cuesta imaginar los beneficios y las aplicaciones que tendrán. Hay quienes dicen que el poder de transformación de estas tecnologías es comparable a lo que significó la electricidad para la humanidad. A día de hoy, los sistemas son en gran medida pruebas beta en las que, pagando o de manera gratuita, cualquiera puede pasar un rato divertido pensando en qué pedirle al sistema. Sin embargo, el potencial transformador es enorme.
Estos sistemas servirán como herramientas de apoyo para ser utilizadas por las verdaderas mentes creativas
Por años, la inteligencia artificial se había convertido en la amenaza para los trabajos repetitivos y rutinarios, pero estos modelos parecieran cuestionar esta visión. Pareciera que las nuevas tareas creativas de los modelos fundacionales podrían poner en riesgo también los trabajos de los artistas y creadores. Sin embargo, como ya hemos visto, estos sistemas son especialmente buenos para imitar la creatividad y para crear cosas nuevas en base a lo que ya existe, pero tienen más dificultad para crear algo nuevo por sí solos. Por eso, estos sistemas servirán más como herramientas de apoyo para ser utilizadas por las verdaderas mentes creativas. Serán complementos más que amenazas.
Las posibilidades son inmensas y potencialmente mayores que los riesgos. Los riesgos suelen ser siempre parecidos y, por ello, previsibles, pero la creatividad humana, lo que puede surgir de las mentes detrás de estos sistemas, eso es lo que es verdaderamente imprevisible. Y emocionante.
Un comentario
Excelente de forma y fondo.