¿Usar ChatGPT te hace más tonto? Un estudio del MIT sugiere que quienes dependen de herramientas de IA deterioran sus habilidades.

Según un estudio reciente realizado por investigadores del Instituto Tecnológico de Massachusetts, el uso de ChatGPT y otras herramientas de IA puede provocar una disminución de la actividad cerebral y, potencialmente, una atrofia cerebral a largo plazo.

Con el gran auge de la tecnología inteligencia artificial generativaLos investigadores se apresuran a estudiar los efectos de estas herramientas en los usuarios. Estudios previos han indicado que la dependencia excesiva de ChatGPT Herramientas similares pueden conducir a: Conductas adictivas y daños a la salud mental, atrofia del pensamiento crítico y sentimientos de soledad y aislamiento social.

Un nuevo estudio destaca los riesgos potenciales de las herramientas de modelos de lenguaje grandes (LLM) como ChatGPT. Los investigadores del Media Lab del Instituto Tecnológico de Massachusetts descubrieron que El uso de ChatGPT y herramientas similares para escribir artículos provocó una disminución significativa de la actividad cerebral. El estudio, titulado El efecto de ChatGPT en el cerebro: acumulación de deuda cognitiva al usar un asistente de IA para la redacción de ensayos....que las personas que confiaron en herramientas de IA empeoraron al escribir ensayos cuando se les pidió que realizaran la misma tarea sin la ayuda de ChatGPT o herramientas similares.

El logotipo de ChatGPT se muestra en la pantalla de un teléfono inteligente junto al teclado de una computadora portátil.

El estudio incluyó una pequeña muestra de 54 personas de entre 18 y 39 años. Los participantes se dividieron en tres grupos: un grupo "solo cerebral" (que dependía exclusivamente de sus capacidades mentales), un grupo que podía usar un motor de búsqueda tradicional y un grupo que podía usar herramientas de modelo de lenguaje grande (LLM) como ChatGPT.

Los resultados mostraron que quienes utilizaron grandes modelos de lenguaje (LLM) para completar la tarea experimentaron una carga cognitiva un 32 % menor que quienes emplearon interfaces de software tradicionales. También reportaron menor frustración durante el proceso.

Un hallazgo clave es que las personas que utilizaron modelos lingüísticos extensos (LLM) durante el estudio dedicaron menos esfuerzo mental a la adquisición de información. Si bien esto no es sorprendente, sí explica por qué algunas personas se ven tentadas a usar herramientas de IA para completar tareas.

Además de registrar una mayor actividad cerebral, los participantes del grupo “sólo cerebro” informaron una mayor satisfacción con las consideraciones éticas.

Sin duda, los grandes modelos lingüísticos (LLM) han reducido el esfuerzo dedicado a responder las preguntas de los participantes en comparación con un motor de búsqueda tradicional. Sin embargo, esta comodidad ha tenido un coste cognitivo, ya que reduce la inclinación de los usuarios a evaluar críticamente los resultados u "opiniones" de los LLM (respuestas probabilísticas basadas en conjuntos de datos de entrenamiento). Esto pone de manifiesto una preocupante evolución del efecto de "cámara de eco": en lugar de desaparecer, se ha adaptado para moldear la exposición del usuario mediante contenido seleccionado algorítmicamente. Lo que se considera "mejor" se ve influenciado, en última instancia, por las prioridades de los colaboradores de los LLM.

A primera vista, las conclusiones del estudio parecen claras. No sorprende que escribir un ensayo requiera más esfuerzo mental que simplemente usar una herramienta para escribirlo. Estoy seguro de que contratar a alguien para que escriba el ensayo también requeriría un mínimo de capacidad mental.

Aplicaciones del asistente de inteligencia artificial: ChatGPT, Anthropic Cloud, Google Gemini, Microsoft Copilot, Perplexity, Poe.

Pero la ciencia va más allá de la simple intuición. Requiere evidencia y contrastación de hipótesis. Dado el potencial de que las políticas gubernamentales y los estándares educativos cambien en función de los efectos de ChatGPT y herramientas similares, es importante recopilar la mayor cantidad de información posible.

Los investigadores del MIT lo confirmaron en la conclusión del estudio.

Creemos que se necesitan estudios longitudinales para comprender el impacto a largo plazo de las LLM en el cerebro humano, antes de que puedan reconocerse como algo positivo para los humanos.

El estudio del MIT aún no ha sido revisado por pares y el tamaño de la muestra fue pequeño, por lo que, si bien es un buen paso hacia la recopilación de información relevante, requiere seguimiento.

¿ChatGPT hace que la gente sea más tonta?

El estudio también examinó el impacto del uso de un modelo de lenguaje grande (LLM) como ChatGPT para escribir un ensayo sobre el desempeño cuando luego se les pidió a los participantes que completaran la misma tarea sin asistencia de IA.

Los investigadores han sugerido que esta tendencia podría atribuirse al "agotamiento cognitivo" de la IA. En otras palabras, el uso de herramientas como ChatGPT reduce el pensamiento, lo que podría provocar un deterioro a largo plazo de las capacidades cognitivas. Este fenómeno, que los expertos denominan "atrofia cerebral digital", sugiere que la dependencia excesiva de la IA podría estar afectando nuestras capacidades mentales básicas.

En un estudio realizado por investigadores de Microsoft en colaboración con la Universidad Carnegie Mellon, se examinaron los efectos de la IA generativa en el pensamiento crítico. Los investigadores compararon los efectos del uso de la IA generativa con la atrofia muscular, explicando que la falta de uso de las capacidades cognitivas provoca debilidad, al igual que la falta de uso de los músculos.

Si los datos siguen respaldando la teoría de que el uso de modelos de IA generativa provoca un deterioro a largo plazo de la actividad cerebral y el pensamiento crítico, podría haber consecuencias generalizadas. Las instituciones educativas y las empresas deben reevaluar cómo integran estas herramientas para garantizar que no obstaculicen el desarrollo cognitivo.

Una encuesta realizada por el periódico reveló que The Guardiany lo publicó Comisión de IALos estudiantes suelen usar herramientas de IA generativa como ChatGPT para hacer trampa. Este uso poco ético plantea serias preocupaciones sobre la integridad académica y el impacto de la IA en los valores educativos.

Si estudiantes y trabajadores dependen excesivamente de ChatGPT y herramientas similares, podrían verse afectados por la capacidad de realizar ciertas tareas de forma independiente. Esta dependencia podría provocar un deterioro en habilidades básicas como la escritura, el pensamiento crítico y la resolución de problemas, lo que amenazaría su competitividad en el mercado laboral.

Los comentarios están cerrados.