|
Getting your Trinity Audio player ready…
|
Diseño de portada: Alberto Medina
Texto de Samantha Sandoval Ramos, Dafne Sarai Ávalos Jiménez y Luis Hernando Silva
En los últimos meses se ha repetido una afirmación inquietante: “ChatGPT te apaga el cerebro”. Distintos medios de comunicación han difundido que la inteligencia artificial (IA) disminuye la actividad neural, afecta la memoria y podría generar una especie de “deuda cognitiva”. En la mayoría de los casos, estas afirmaciones remiten a un mismo estudio del Instituto Tecnológico de Massachusetts (MIT).
¿De dónde surge la idea de que ChatGPT “te vuelve tonto”?
La idea de que ChatGPT “te vuelve tonto” no surgió de la nada. Con la aparición de los modelos de lenguaje, incluido ChatGPT, emergieron dudas, temores y posturas encontradas sobre su impacto en los procesos cognitivos. Cuando ese estudio del MIT comenzó a circular, muchos medios lo utilizaron para afirmar que la “ciencia” había demostrado que el cerebro se apaga al usar la IA.
Sin embargo, esta cobertura estuvo marcada por sesgos, omisiones y una clara falta de análisis crítico, lo que generó una narrativa alarmista más cercana del sensacionalismo que de la evidencia científica. Entre la confusión y el exceso de interpretaciones simplificadas, surgió la pregunta que terminó dominando la discusión pública: ¿realmente ChatGPT puede volverte tonto?
El estudio del MIT y su verdadera contribución
Para entender qué aporta realmente el estudio del MIT, lo primero es reconocer su estado: fue publicado como un preprint, es decir, antes de someterse a la revisión por pares. Esto implica que sus resultados son preliminares y no deben interpretarse como conclusiones definitivas. La investigación se propuso explorar cómo influye el uso de herramientas de inteligencia artificial en distintos procesos cognitivos —como la memoria de trabajo, la memoria a largo plazo, la atención, las funciones ejecutivas y la comprensión del lenguaje— durante la escritura de un ensayo.
Más que advertir sobre un daño cognitivo, el objetivo del estudio es observar cómo varía el esfuerzo mental según la estrategia utilizada. Además, retoma una preocupación relevante: los modelos de lenguaje, al reducir la carga cognitiva y adaptarse a las preferencias del usuario, pueden favorecer respuestas homogéneas o sesgadas, lo que abre la puerta a fenómenos como las cámaras de eco y la desinformación. En ese sentido, la verdadera contribución del estudio no es confirmar un deterioro cognitivo, sino invitar a reflexionar sobre cómo estas tecnologías transforman la forma en que procesamos información.
¿Qué hizo el estudio realmente?
El estudio del MIT utilizó un diseño experimental con una muestra de 54 participantes universitarios, a quienes se les asignó, aleatoriamente, una de tres condiciones para escribir un ensayo. Cada grupo debía seguir instrucciones distintas: el primero podía usar exclusivamente un modelo de lenguaje —en todos los casos fue ChatGPT—; el segundo tenía permitido recurrir únicamente a buscadores web tradicionales, como Google; y el tercero debía escribir el ensayo basándose solo en su propio conocimiento, sin apoyarse en herramientas externas.
La investigación se llevó a cabo durante cuatro meses e incluyó cuatro sesiones; en la última de ellas, los participantes cambiaron de condición para poder comparar cómo se modificaba su desempeño al trabajar bajo una modalidad diferente. Con este diseño, las investigadoras buscaban observar cómo variaban los procesos cognitivos implicados en la escritura según el tipo de apoyo utilizado.

¿Qué encontraron las investigadoras?
Los resultados del estudio mostraron diferencias claras según la forma en que las personas escribieron sus ensayos. Quienes trabajaron únicamente a partir de su propio razonamiento, presentaron una mayor activación y conectividad neural en regiones frontales, parietales y temporales. Además, mostraron una comprensión semántica más profunda y un mejor recuerdo del contenido que produjeron. El grupo que utilizó buscadores web también mantuvo un procesamiento activo: consultaban información visual, evaluaban contenidos y realizaban síntesis para construir sus textos.
En contraste, el grupo que escribió con apoyo de ChatGPT mostró una menor conectividad en redes relacionadas con la memoria, el pensamiento crítico y la construcción del significado. Sus ensayos tendían a ser más homogéneos y repetitivos, lo que indica una reducción del esfuerzo cognitivo. A este menor nivel de procesamiento, las investigadoras lo denominaron “deuda cognitiva”, no como sinónimo de deterioro, sino como una disminución en la carga mental requerida durante la tarea.
Cuando la ciencia llega a los medios: ¿qué se perdió en el camino?
Cuando los resultados preliminares del estudio comenzaron a circular en los medios, muchos de ellos omitieron información clave que habría dado mayor contexto y credibilidad a sus notas. En lugar de esto, abrieron la puerta a la especulación al dejar fuera datos relevantes sobre el estado del artículo y el alcance real de sus conclusiones.
Varias notas presentaron los hallazgos como verdades firmes, definitivas y generalizables, pese a que solo una mencionaba el objetivo original de la investigación y casi ninguna citaba directamente la fuente. En la mayoría de los casos, la difusión estuvo marcada por sesgos, énfasis narrativos alarmistas y una clara tendencia a priorizar titulares impactantes.

De hecho, nueve de las diez notas revisadas iniciaban con afirmaciones tajantes como “ChatGPT te vuelve tonto”, instalando desde el principio una interpretación simplificada y sensacionalista que poco tenía que ver con la evidencia que realmente ofrece el estudio.
¿Entonces… ChatGPT nos vuelve tontos?
A la luz del estudio y de la evidencia disponible, no existe ninguna investigación que demuestre que usar ChatGPT pueda “volver tonto” a alguien o provocar un deterioro cognitivo real. Más que señalar a los modelos de lenguaje como los culpables de una supuesta disminución de la inteligencia, los resultados invitan a reflexionar sobre el papel del usuario y el tipo de uso que hace de estas herramientas. La cuestión central no es si la IA daña el cerebro, sino qué tanto estamos delegando en exceso nuestra propia capacidad para analizar, comprender y decidir.
Fomentar habilidades como el pensamiento crítico, la reflexión autónoma y la evaluación de información no solo protege frente a interpretaciones simplistas, sino que también favorece la autonomía y el desarrollo personal en ámbitos que trascienden por completo lo académico.
El papel del usuario: entre la comodidad y el pensamiento crítico
Más allá de lo que pueda observarse en un laboratorio, el verdadero punto de atención está en cómo las personas usan diariamente la inteligencia artificial. Resulta especialmente relevante pensar no solo en quienes escriben un ensayo en condiciones controladas, sino en los muchos usuarios que comienzan a depender de la IA para actividades cotidianas: desde elegir qué ropa ponerse, qué responder en una conversación personal, qué comer o incluso qué descripción usar en una publicación.
Cuando estas decisiones se delegan de manera constante, la herramienta puede empezar a ciclar información, limitar la diversidad de perspectivas y reducir la oportunidad de explorar ideas nuevas. Esto no provoca deterioro cognitivo, pero sí puede traducirse en una menor participación del pensamiento crítico y analítico, especialmente si dejamos de cuestionar la información que recibimos y aceptamos la comodidad de que otro piense por nosotros.
En este sentido, el papel del usuario es central: la IA no sustituye la reflexión, pero puede desplazarla si no se usa con intención y conciencia.
Hacia un uso consciente de la IA y una mejor cultura de la información
Frente a la gran cantidad de notas sobre inteligencia artificial, es importante reconocer que los medios pueden difundir información incompleta o, en algunos casos, imprecisa, lo que contribuye a la desinformación. Y esta no ocurre de manera unilateral: es una práctica colectiva que involucra tanto a quien publica como a quien consume contenidos. Por tanto, es indispensable que el lector se pregunte de dónde proviene la información y cómo la está buscando.
Antes de asumir como cierta una noticia alarmista, conviene verificar si el estudio citado es preliminar o si ha pasado por un proceso de revisión por pares, revisar si su muestra es representativa y contrastar lo que se afirma con otras fuentes confiables. También es conveniente desconfiar de expresiones sensacionalistas, que aparecen con frecuencia en titulares mediáticos, tales como “el uso de la inteligencia artificial apaga el cerebro”, “ChatGPT provoca atrofia” o “usar IA te vuelve tonto”, que suelen apuntar más a generar impacto emocional que a presentar evidencia sólida.
Otras estrategias incluyen revisar la lista de fuentes, consultar buscadores académicos y considerar posibles intereses detrás de ciertas narrativas. En lugar de aceptar de inmediato que la IA es dañina o milagrosa, un usuario informado se pregunta en qué condiciones su uso es beneficioso, cuáles son sus riesgos y qué decisiones quiere mantener bajo su propia reflexión.
Así, el uso consciente de la IA comienza con una cultura de la información más crítica, cuidadosa y participativa.
Para saber más
Kosmyna, N., Hauptmann, C., Yuan, Y., Yuan, S., Situ, J., Liao, Q. V., Beresnitzky, F., Braunstein, A., & Maes, P. (2025). Your brain on ChatGPT: Accumulation of cognitive debt when using an AI assistant for essay writing tasks. arXiv preprint arXiv:2506.08872. https://arxiv.org/abs/2506.08872




