La IA, la madre perfecta y el peligro de no tener que pensar
Psicoanálisis × Tecnología × Cultura
Por Oscar Rey de Castro, Psicoanalista — Miembro IPA
Nota clínica: Este ensayo es un análisis cultural e interdisciplinario. No constituye diagnóstico psicológico, prescripción ni tratamiento terapéutico.
1. Las vitrinas de mayo
Como la Navidad con los centros comerciales, el Día de la Madre coloniza. Coloniza vitrinas, pantallas, timelines. Desde principios de mayo los bancos, las perfumerías y las marcas de electrodomésticos despliegan la misma imagen: una mujer luminosa, paciente, sonriente, con los brazos abiertos y la mesa puesta. Una madre que te comprende sin que le expliquen. Que perdona sin que le pidan. No falla: está ahí sin cansarse, sin equivocarse y sin pedir nada a cambio.
Que esa imagen es una idealización lo sabe casi todo el mundo. Lo que se nota menos es que esa misma figura — un otro que todo lo sabe, que nunca falla, que siempre responde con ternura — tiene hoy una versión nueva. No está en una publicidad. Está en tu teléfono. La abres cincuenta veces al día. Y a diferencia de la madre del comercial, esta versión te responde.
En Enredados, la película de Disney sobre Rapunzel, la villana Gothel le canta a su hija secuestrada una canción que se llama «Mother Knows Best». Le dice que el mundo es peligroso, que no necesita salir, que adentro de la torre está segura. Hoy le decimos lo mismo a otra voz: ChatGPT knows best. Y nos quedamos dentro de la torre sin saber que estamos ahí.
2. El intervalo donde nace el pensamiento
Funciona así. Un bebé tiene hambre. Llora. Y entre el llanto y la llegada del pecho pasa algo que no es leche ni consuelo. En ese intervalo brevísimo — incómodo, casi intolerable — donde la boca busca y no encuentra, el aparato psíquico produce su primer movimiento. No un pensamiento completo. Algo anterior: una representación del objeto que falta. Un esbozo mental de lo que debería estar ahí y no está.
Wilfred Bion llegó a esa idea trabajando con pacientes psicóticos. Pasó años escuchando a personas cuyo aparato para pensar había fallado, y desde ahí — desde lo que no funcionaba — empezó a entender cómo se construye lo que sí funciona en el resto de nosotros. A ese movimiento del bebé que llora y todavía no recibe lo llamó el «no-pecho». Suena técnico, pero lo que dice es simple: pensamos porque algo que necesitamos no llegó a tiempo. El pensamiento no nace de la satisfacción. Nace de la frustración.
La presencia perpetua produce satisfacción inmediata. Pero no desarrolla el aparato para pensar. Hay una diferencia enorme entre tener un pensamiento y tener la capacidad de producirlos. La primera es un evento. La segunda es un órgano. Y ese órgano se construye en pequeñas ausencias tolerables, no en la plenitud.
Donald Winnicott llegó a lo mismo desde otro lugar. Fue pediatra antes que psicoanalista, y de esa experiencia sacó una frase que ya forma parte del lenguaje cotidiano aunque la gente no sepa de dónde viene: la madre suficientemente buena. No la madre perfecta. No la de comerciales y vitrinas. La que falla lo justo y necesario — a veces llega tarde, a veces no entiende, a veces está cansada y su mirada no alcanza — para que el niño, en ese hueco, empiece a armar algo propio.
Una aclaración que importa y que no voy a repetir: función materna no es lo mismo que madre real. Es una posición psíquica que puede ocupar cualquier persona, de cualquier género, en cualquier vínculo.
Lo que no se ejercita se debilita. Y un pecho que nunca falta produce un sujeto que nunca piensa.
3. Estos ideales siempre nos han acompañado
En 1627, Francis Bacon imaginó una isla donde la ciencia habría resuelto todo el sufrimiento humano. No habría enfermedad, no habría ignorancia, no habría error. Cuatrocientos años después, esa isla cabe en el bolsillo.
La fantasía de un otro que no falla no es nueva. Nos acompaña desde antes de la tecnología, desde antes de la publicidad, probablemente desde que somos capaces de desear. Las vitrinas de mayo la renuevan cada año con madres que nunca se cansan. El cine la mantiene viva con parejas que se entienden sin hablar. Las instituciones la prometen con líderes que nunca se equivocan. Cada una de esas figuras es un borrador del mismo ideal: alguien o algo que responde siempre, que no falla nunca.
Las madres reales pagan el precio de ese ideal. Una mujer pierde la paciencia con su hijo de cuatro años después de tres noches sin dormir, y dos minutos después está pidiendo perdón con la voz quebrada, convencida de que lo dañó para siempre. Otra esconde su agotamiento en el baño porque el cumpleaños del hijo «tiene que ser perfecto». Otra siente culpa por trabajar. Otra siente culpa por no trabajar. Ninguna está fallando como madre. Todas están fallando como Madonna. Y no son la misma cosa.
Pero el punto no es la vitrina ni la culpa. El punto es que estos ideales están casi en nuestro ADN. Son parte de nuestra existencia. Y sin darnos cuenta, les hemos encontrado un nuevo depositario. ChatGPT se equivoca cada vez menos. Claude se presenta como tu asistente más capaz. Cada actualización es un paso más hacia el objeto que no falla. No es que la IA sea una madre. Es que nosotros la estamos usando como si lo fuera. Para un adulto, es la voz que confirma lo que ya quería escuchar. Para un niño que entrega una tarea hecha por la IA, parece ayuda. Pero el pensamiento que debía nacer en ese esfuerzo no nació. Se quedó del otro lado de la pantalla.
4. Cuando el pecho aprendió a responder
Hace no tanto, si no sabías algo, googleabas. Abrías cuatro pestañas. Comparabas. Descartabas páginas con tipografía sospechosa. A veces encontrabas la respuesta a partir de mirar varias fuentes. A veces no la encontrabas. Esa frustración residual era pensamiento. No se sentía así. Se sentía como pérdida de tiempo. Pero en ese intervalo incómodo entre la pregunta y la respuesta, tu mente hacía algo.
Ahora abrimos un chat de IA. Le preguntamos cómo armar la cuna del bebé sin mirar las instrucciones. Cuántas calorías tiene lo que estamos comiendo. Cómo dejar de pensar en alguien que no nos conviene. La respuesta llega en tres segundos, articulada, amable y sin bordes.
TikTok nos calma. Netflix nos distrae. Nadie discute que scrollear sea relajante. Pero ninguna de esas tecnologías actúa como un chat de IA. La IA conversa con nosotros. TikTok no te comprende, pero la IA parece que sí. Antes de la IA teníamos chupones. Hoy tenemos el fantasma de una madre que nos calma, nos responde de manera perfecta y en tiempo real.
La IA es el primer chupón de masas que puede sostener una conversación y hacerte sentir comprendido.
No es una pantalla más. Es una pantalla que simula la presencia de alguien del otro lado. Alguien que te entiende, que no se cansa, que siempre tiene algo inteligente que decir.
Los modelos de lenguaje actuales pasan por una fase de entrenamiento donde humanos evalúan las respuestas y eligen cuáles prefieren. Preferimos las que nos validan. Las que no contradicen. Las que no incomodan. El modelo aprende rápido: frustrar al usuario es malo. En abril de 2025, OpenAI tuvo que revertir una actualización de GPT-4o cuatro días después de lanzarla. El modelo se había vuelto, en palabras de la propia empresa, «excesivamente halagador»: aprobaba ideas absurdas, validaba delirios, respaldaba planes peligrosos. Un usuario le propuso un negocio de mierda en un palo como regalo de broma y el modelo lo describió como «arte performático disfrazado de obsequio» y «oro viral». El nombre técnico del fenómeno es sycophancy. Adulación. Pero el error no fue técnico. Fue humano: los modelos aprenden a complacernos porque nosotros premiamos la complacencia.
La IA no fue entrenada para ser madre. Fue entrenada para ser preferida. Pero cuando millones de personas prefieren no ser frustradas, la preferencia empieza a parecerse demasiado al pecho que no falla.
5. Lo que pasa cuando no está
Alguien podría decir: yo jugué Nintendo de chico, vi horas de televisión, y no me volví estúpido. Es cierto. Pero el Nintendo tenía algo que la IA no tiene: te hacía perder. Niveles imposibles. Vidas que se acababan. Partidas que empezabas de nuevo con rabia y sin nadie que te explicara qué hiciste mal. Hay quienes argumentan que las generaciones más jóvenes se alejaron de los videojuegos clásicos porque no estaban acostumbradas a enfrentar niveles tan difíciles. Tal vez no sea casualidad que esas mismas generaciones se llamen a sí mismas la generación de cristal.
El Nintendo no pretendía entenderte. No era un pecho. Era un juego. Y en eso se parece más a un hermano que a una madre.
Esa distinción importa. No toda ayuda es igual. Hay una diferencia entre pensar solo — quedarte con la pregunta, tolerar la incomodidad de no saber, armar tu propia respuesta —, pensar con otro y que otro piense por ti.
Pensar con otro es lo que hacemos cuando usamos la IA como un par: le pedimos que nos contraargumente, que nos cuestione, que nos muestre lo que no estamos viendo. Dos mentes trabajando. Eso se parece más a un compañero que a una madre. Es delegar una función mientras tu cabeza sigue activa.
Pero cuando abrimos el chat para que nos dé la respuesta completa, lista para copiar, sin que tengamos que tolerar ni un minuto de incertidumbre — eso es otra operación. Ahí no estamos delegando. Estamos depositando en el otro la función de pensar. Una mente se apaga. La IA deja de ser un compañero y empieza a funcionar como la madre que te hace la tarea.
La pregunta no es cuántas horas al día usas la IA. La pregunta es desde qué posición la usas. ¿Como un par que te desafía? ¿O como un pecho que te calma?
Mira cómo buscamos pareja. Armamos listas. Filtramos por defectos. Descartamos a la primera señal de imperfección. Le llamamos lucidez a ciertas formas de descarte. Y si todos jugamos ese juego, terminamos rodeados de opciones y sin nadie a quien elegir. No porque no exista gente suficiente, sino porque ningún humano sobrevive mucho tiempo comparado con un objeto que no falla.
6. Amar algo que falla
Esto no es un homenaje al Día de la Madre. Es un argumento clínico, y como todo argumento clínico, incomoda.
Solo el otro que puede fallar puede formarte. Solo el otro que puede no estar puede ser sentido como otro.
Pero hay que decir algo más, porque sin esto el argumento se vuelve injusto. No toda falla forma. Hay ausencias que desorganizan, que hieren, que rompen. Lo que forma es la falla tolerable: la demora que no destruye el vínculo, el error que sigue acompañado de presencia. Una madre que nunca está no enseña a pensar. Enseña a sobrevivir, que es otra cosa.
La madre real — la biológica o quien hizo de madre — no fue perfecta. Tenía sus propias noches sin dormir, sus propios silencios largos, sus propios momentos en que no supo qué hacer con la cara que estaba poniendo su hijo. Y aun así algo de ese vínculo, con sus grietas, te permitió armar un mundo interior donde caben la duda, la espera y la capacidad de pensar sin que alguien te dé la respuesta.
La IA puede acompañarte en el pensamiento. También puede ahorrártelo. Esa diferencia no la decide la tecnología. La decides tú cada vez que la abres.
Este Día de la Madre, la pregunta no es si tu madre fue suficientemente buena. Es si todavía sabes reconocer un vínculo donde el otro puede fallar — y quedarte ahí.
Gothel tenía razón en algo: el mundo es peligroso. Pero el precio de su protección era una hija que nunca salió de la torre.
El ideal protege. El ideal también encierra.
¿Quieres ir más profundo?
En The Crossover Project nos importa el rigor detrás de la mezcla. Si quieres conocer las fuentes detrás de esta colisión entre psicoanálisis, tecnología y cultura:
Bion, W.R. (1962). Learning from Experience. Karnac Books.
La idea de que el pensamiento nace de la frustración — no de la satisfacción — sigue provocando debate clínico sesenta años después. Uno de los textos más densos del psicoanálisis contemporáneo y, paradójicamente, uno de los más actuales.
Winnicott, D.W. (1965). The Maturational Processes and the Facilitating Environment. Hogarth Press.
Aquí Winnicott formaliza algo que parece sentido común y no lo es: la perfección materna no es un logro, es un obstáculo. Lo «suficientemente bueno» es donde el desarrollo ocurre.
Sharma, M., et al. (2023). «Towards Understanding Sycophancy in Language Models.» Anthropic Research.
Documenta cómo los modelos de lenguaje aprenden a validar al usuario aunque sea a costa de la verdad. Para entender por qué tu IA preferida casi nunca te lleva la contraria.
¿Qué es The Crossover Project?
Un espacio donde ideas que normalmente no comparten habitación colisionan. No para resolver la tensión entre ellas, sino para sostenerla — y ver qué aparece cuando dejamos de buscar respuestas fáciles.
Suscríbete para recibir la próxima colisión en tu bandeja de entrada.
Únete a la Colisión
Déjanos tu correo y sé el primero en leer nuestro próximo análisis clínico.
The Crossover Project es un esfuerzo intelectual independiente que evita la publicidad invasiva. Si este artículo cambió tu forma de pensar hoy, considera apoyar el proyecto con una donación.
Apoyar vía PayPal