
El título y el camino que están tomando la mayoría de los grandes modelos de lenguaje es ese: el de infantilizar a sus usuarios.
Alguien dirá que es exagerado, que los nuevos modelos son menos complacientes, que pueden llevarle la contraria al usuario. Pero a la hora de la verdad, ninguna de las big tech quiere problemas y todas cortan por lo sano: un modelo de lenguaje correcto, educado, útil para las labores básicas, que no divague mucho y que, sobre todo, no le falte el respeto a nadie.
Esto se traduce en una experiencia de usuario cada vez más «segura», dentro de los estándares que los mandamientos políticos exigen o que los grupos identitarios que hacen ruido en las redes sociales necesitan. Ya no se trata de ofrecer lo mejor, sino de ofrecer algo que deje a todo el mundo contento.
Puede que usted no se dé cuenta, pero probablemente haya tenido que modificar la manera de hablarle a la IA para obtener un resultado parecido al que desea. En realidad, son los LLM quienes nos están entrenando. Nos están diciendo qué pedir y cómo, qué términos son los adecuados y cuáles no, qué tipo de contenido se puede generar y cuál es inapropiado, incluso de qué cosas se pueden preguntar y sobre cuáles mejor no opinar nada.
Mientras tanto, los hacedores de discursos en redes sociales no hacen más que repetir que la IA te quitará el empleo si no te adaptas, si no aprendes a trabajar con ella, si no compras su formación, si no haces un comentario o te suscribes a su newsletter; pero nadie dice que la IA podría quitarte la humanidad.
No lo dicen porque tal vez no lo sepan, porque es incómodo, porque no monetiza bien o porque obliga a mirar en una dirección que nadie quiere ver.
En este punto, la infantilización no es un accidente, es una consecuencia directa de diseñar sistemas que eliminan la fricción.
Un niño no tolera bien la frustración, un adulto sí. Un niño busca respuestas rápidas, un adulto sostiene preguntas incómodas. Un niño necesita validación constante, un adulto asume el riesgo de equivocarse.
Los modelos de lenguaje, tal y como están diseñados, premian lo primero y erosionan lo segundo.
No obligan, no hace falta. Lo ponen fácil. Acostumbran al usuario a que siempre haya una respuesta clara, ordenada, bien escrita; acostumbran a que todo tenga sentido, a que todo encaje, a que todo sea útil. Acostumbran a no tener que batallar con una idea, a no tener que sostener el vacío de no saber.
Poco a poco y sin darse cuenta, uno empieza a ceder. Cede el lenguaje, cede en la cadencia y finalmente, cede en el criterio y en ese proceso algo se va apagando.
Porque pensar no es solo llegar a conclusiones, pensar es fricción, es contradicción, es incluso incomodidad con uno mismo. Es decir algo que no está del todo bien formulado y sostenerlo hasta entenderlo mejor, es equivocarse sin red.
Cuando usted externaliza eso de forma sistemática, no se vuelve más eficiente, sino más dependiente. Dependiente de que alguien o algo a través de una pantalla, le diga si lo que ha hecho está bien. Dependiente de un marco que usted no ha definido o dependiente de una inteligencia que no es la suya.
Eso es el niño eterno. No es alguien ingenuo, sino alguien que ha perdido la soberanía sobre su propio criterio, alguien que necesita que le traduzcan el mundo constantemente, alguien que ya no confía en su propia capacidad de juicio sin una capa intermedia que lo valide.
La paradoja es que todo esto ocurre mientras muchos creen que se están volviendo más eficientes, más rápido, más productivos, mejor preparados… Lo curioso es que, al mismo tiempo, se están volviendo más débiles en lo esencial.
La herramienta no solo amplifica lo que se hace, también moldea cómo se piensa.
El peligro real no es que la IA cobre conciencia y nos someta, el peligro es que nosotros cedamos poco a poco, al intentar no contradecir una programación ajena.
Si permitimos que el lenguaje sea filtrado por los protocolos de seguridad de una corporación, terminaremos habitando una suerte de guardería intelectual, un entorno sin aristas, donde el conflicto de ideas haya sido sustituido por una sugerencia amable y donde la complejidad de la verdad se sacrifique en el altar de una experiencia de usuario libre de tensiones.




