Inteligencia artificial para producir noticias: ¿novedad o engaño?

25-01-2023
Ciencia, Tecnología e Innovación
Ojalá, República Dominicana
Compartir:
Compartir:

En Estados Unidos, nuestro eterno referente, ha sido noticia en estos días el hecho de que CNET ha estado usando inteligencia artificial para un conjunto de artículos de corte financiero que han estado publicándose desde noviembre. 

Desde el punto de que vista de que la inteligencia artificial es un tema en boga, llegándose a señalar como la tendencia a observar en 2023, lo planteado en el párrafo anterior no causa sorpresa alguna, pero las cosas no son tan sencillas como parecen. 

CNET, un website noticioso estadounidense fundado en 1994 y orientado mayormente a temas de tecnología, ha cometido un desliz imperdonable al usar inteligencia artificial con estos fines: nunca informó o advirtió de manera explícita la fuente de esos artículos financieros que venía publicando desde noviembre. 

Desde el punto de vista de lo que implica el uso de la inteligencia artificial en medios a nivel de ética, integridad de contenidos, calidad de la información y profesionalidad, lo de CNET es un engaño y una falta de respeto al público y a sus propios empleados.

Resulta que la inteligencia artificial, precisamente por su naturaleza “artificial”, no está en capacidad de producir nada que sea original: todo está basado en material ya existente, y a lo sumo lo que hace es mezclar diferentes elementos y colocarlos en un formato que haga sentido. En pocas palabras, un copy-paste cualquiera, pero automatizado. 

Lo otro a tomar en cuenta es que la inteligencia artificial no es capaz de detectar posibles errores de contenido que pudiera cometer en ese proceso de copy-paste sofisticado, y es así como algún lector muy observador se dio cuenta de que algo andaba raro en esos artículos financieros de CNET, los cuales no estaban firmados por ningún autor en particular. 

Inteligentemente -o quizás no tanto-, CNET publicó ese conjunto de artículos bajo la autoría de “CNET Money Staff”, una práctica que no es tan rara en el medio periodístico. Solo cuando se hacía clic sobre esta fuente salía la verdad a relucir: “artículo generado con tecnología de automatización”, lo cual es una forma bonita de referirse a la inteligencia artificial.

Agregaba CNET que estos artículos generados con ayuda de esa tecnología habían sido revisados por staff humano, pero tal parece que no era el caso, pues numerosas correcciones y aclaraciones se han ido añadiendo con el paso de los días. Más interesante aún, se observa que hay elementos de plagio en esa colección de artículos. 

Era cuestión de tiempo que algún medio decidiera probar suerte con la inteligencia artificial para producir artículos de temas relevantes en abundancia y de manera expedita. Desafortunadamente, nosotros, los que consumimos esos contenidos, nos convertimos involuntariamente en ratas de laboratorio. Eso está mal. 

La inteligencia artificial, lejos de ser la protagonista, debería ser un complemento en cuestiones de generación de contenidos, sobre todo cuando se trata de algo tan delicado como la generación de noticias. ¿Es que ya no hay noción de ética?