La inteligencia artificial no tiene prejuicios… tiene memoria. Decidí ponerlo a prueba.
Miguel Camacho @mcamachoocampo
Hace unos días escuché una frase que suena eficiente, pero es peligrosa: “con inteligencia artificial podemos hacer lo mismo con menos personas”. Suena bien… hasta que uno entiende el problema.
La inteligencia artificial sí facilita tareas, sí acelera procesos, pero no piensa: aprende. Y aprende de nosotros. Por eso necesita supervisión. No porque “se equivoque” sola, sino porque arrastra errores, prejuicios y distorsiones que vienen en los datos con los que fue entrenada. Las propias plataformas lo advierten: pueden contener sesgos.
Uno de los más discutidos es el de género. Algunos lo explican por la baja participación de mujeres en el desarrollo de estas tecnologías. Puede ser parte de la respuesta, pero no es toda la historia.
La inteligencia artificial no tiene prejuicios… tiene memoria. Decidí ponerlo a prueba.
Le pedí a ChatGPT que generara la imagen de una mujer colombiana de 30 años. El resultado: una mujer perfecta, de rasgos simétricos, piel impecable, sonrisa de catálogo. Una postal. Luego subí imágenes de mujeres colombianas reales, distintas, más cercanas, más… normales. La diferencia no fue técnica, fue otra cosa: la IA no retrató a una mujer, retrató una idea de mujer.
Entre el dato y el deseo, eligió el deseo.
Después le pedí la imagen de un hombre de 54 años con la cabeza rapada. La respuesta fue otra: un hombre firme, con presencia, en una oficina, con símbolos de poder a su alrededor. Nadie le pidió autoridad, pero la puso. Ahí estaba.
Entonces hice la prueba final: le pedí la imagen de una persona de 54 años con la cabeza rapada. No hombre, no mujer. Persona. La respuesta fue un hombre.
Ahí está el punto. No es un machismo intencional… pero el resultado se parece demasiado. Cuando no sabe qué elegir, la inteligencia artificial elige lo que más ha visto. Y lo que más ha visto —vale la pena decirlo— no siempre es lo más justo.
No inventa el sesgo: lo hereda, lo ordena y lo reproduce.
Por eso el debate no es solo quién programa la inteligencia artificial, sino qué mundo estamos digitalizando. Porque cambiar a los programadores ayuda, sí, pero no basta si los datos siguen contando la misma historia de siempre.
La IA es poderosa. Mucho. Pero también es un espejo incómodo. Nos devuelve no solo lo que sabemos, sino lo que damos por hecho sin pensar demasiado.
El riesgo no es que la inteligencia artificial piense por nosotros. Es que confirme, sin discutir, todo aquello que ya pensábamos… y nunca nos detuvimos a cuestionar. O peor: que lo normalice.
EN EL TINTERO
Y en el México real, están dejando sola a la presidenta Sheinbaum. La mañana de este lunes dijo que no sabían nada de un operativo en el que se desmantelaron dos laboratorios de drogas en Chihuahua, cuando hay fotografías que documentan la presencia de militares: ¿no sabían… o no le dijeron?






