Confianza mal puesta en la IA

18-11-2025
Ciencia, Tecnología e Innovación
Ojalá, República Dominicana
Compartir:
Compartir:

La inteligencia artificial llegó con la promesa de agilizarnos la vida, y en muchos casos lo hace: responde con rapidez, estructura ideas sin titubeos y proyecta una seguridad que, a veces, ni nosotros mismos tenemos.

Esa fachada eficiente ha llevado a que ChatGPT, Gemini, Perplexity, Claude y demás variantes se conviertan no solo en asistentes, sino en interlocutores a quienes muchos les confían detalles que antes reservaban para amigos muy cercanos o para nadie.

El problema es que esta confianza es, en gran medida, imaginaria. Se repite una y otra vez que la IA no es aliada ni confidente, y que todo lo que compartimos con ella puede utilizarse de maneras que no necesariamente controlamos.

Sin embargo, seguimos alimentándola. Y mientras más nos acostumbramos a delegar criterios y decisiones, más urgente se vuelve preguntarnos qué tan confiable es lo que devuelve.

Que redacte bien no es garantía de que diga la verdad. Los modelos de lenguaje se entrenan con montañas de datos disponibles en Internet, ese ecosistema donde conviven el rigor académico, el chisme sin fundamento, el sarcasmo y la mentira descarada.

Un modelo que aprende por patrones y promedios difícilmente puede distinguirlos. Lo vimos cuando Google decidió integrar contenido de Reddit en Gemini: ironías tomadas como verdades y respuestas que parecían más bromas internas que información útil.

Anthropic publicó recientemente un estudio que, sin mucha vuelta, admite lo frágiles que pueden ser estos sistemas ante datos deliberadamente creados para envenenarlos. Un modelo relativamente pequeño —600 millones de parámetros— puede torcerse con apenas 250 documentos diseñados para sembrar errores.

Más grave aún, esos 2590 documentos son también suficientes para envenenar  Si consideramos que los modelos más grandes se alimentan de volúmenes aún más vastos y diversos, la idea de ‘precisión’ empieza a verse como una aspiración más que como una realidad.

La escasez de datos de calidad agrava el panorama. Mientras más difícil es encontrar material confiable para entrenar modelos, mayor es la tentación de generar datos sintéticos que imitan a los reales, a veces con intenciones no tan inocentes.

Y en un mundo donde una parte importante de las personas ya no verifica nada porque la IA “se encarga”, la puerta queda abierta para que el error —y la manipulación— se cuele sin resistencia.

Las famosas alucinaciones de la IA, que hace un par de años nos parecían simples curiosidades, pueden convertirse en señales de algo más profundo: sistemas que reproducen distorsiones porque las aprendieron, o porque alguien se las enseñó intencionalmente.

Y si nos acostumbramos a aceptar esas distorsiones como hechos, la reflexión ya no es solo técnica, sino cívica.

¿Cuánto estamos dispuestos a delegar? ¿Y qué implica confiar en una herramienta que no tiene forma de distinguir el conocimiento fiable del ruido que la rodea?

Tal vez el verdadero riesgo no sea la inteligencia artificial en sí, sino la velocidad con la que, sin darnos cuenta, le hemos cedido el beneficio de la duda.

En un mundo saturado de información, recuperar el hábito de cuestionar podría ser más urgente que aprender a usar la próxima versión del modelo.