¿Es probable que los medios de comunicación empiecen a hacer un uso masivo de la inteligencia artificial (IA) para elaborar sus noticias? ¿Lo notaríamos en la calidad de los textos? ¿Puede ser la deshumanización del periodismo algo, de hecho, bueno para su credibilidad? Hamilton Nolan se plantea estas tres preguntas en un artículo publicado en la revista In These Times.
Respecto a la primera, su respuesta es un sí rotundo. La llegada de herramientas de IA cada vez más refinadas, como el famoso ChatGPT, supone una fuerte tentación para las empresas periodísticas, fundamentalmente porque son más baratas que los reporteros.
En cuanto a lo segundo, Nolan considera que nadie puede dudar de que “los algoritmos están aumentando su refinamiento día por día”, hasta el punto de que ya son capaces de ofrecer un “simulacro” del trabajo del periodista: pueden escribir historias sencillas, dibujar ilustraciones o replicar su voz para leer las noticias. Sin embargo, las herramientas de IA nunca podrán hacer un periodismo ético, que es el valor distintivo de los buenos medios y la base de su credibilidad.
Por periodismo ético Nolan entiende el proceso previo que todo buen redactor, en el sentido de la deontología profesional, debe llevar a cabo antes de ponerse a escribir: “¿Por qué esto es noticia? ¿Cuáles son las fuentes? ¿Cómo se obtienen las conclusiones? ¿Cómo me aseguro de que los puntos de vista contradictorios se presenten de forma justa? ¿He omitido algo que pueda ir en contra de mi tesis? ¿Está la historia indebidamente sesgada?”.
Nolan acepta que los periodistas pueden comportarse de forma poco deontológica. “Pero somos responsables. Esa es la diferencia. Las instituciones del periodismo viven de la credibilidad, y esa credibilidad se concede como resultado directo de la responsabilidad que acompaña a cada historia”. Como es absurdo exigir responsabilidad a las herramientas tecnológicas, “su trabajo nunca podrá ser considerado periodismo, y publicarlo como tal no es ético”.