Hablar con niños sobre IA: una guía sencilla y útil

Recientemente tuve la emocionante oportunidad de participar en un programa llamado Skype a un científico, que conecta a científicos de diferentes disciplinas (biólogos, botánicos, ingenieros, informáticos, etc.) con clases infantiles para hablar de nuestro trabajo y responder a sus preguntas. Estoy muy familiarizado con discutir sobre IA y aprendizaje automático con un público adulto, pero esta es la primera vez que realmente me siento a pensar en cómo hablar con los niños sobre este tema, y ​​ha sido un desafío interesante. Hoy voy a compartir con vosotros algunas ideas que se me han ocurrido como parte de este proceso y que pueden ser útiles para aquellos que tenéis hijos en vuestras vidas de una forma u otra. Estas ideas ofrecen información valiosa sobre cómo simplificar conceptos complejos de IA para los niños de una manera atractiva y comprensible.

Ilustración del concepto de hablar con niños sobre inteligencia artificial.

Prepárese para explicar un concepto

Cuando me preparo para cualquier charla, frente a cualquier público, sigo algunas reglas básicas. Necesito tener muy claro qué información voy a presentar y qué conceptos nuevos debe conocer la audiencia después de la charla, porque esto determina todo sobre la información que voy a compartir. También quiero presentar mi material en un nivel de complejidad apropiado para el conocimiento preexistente de la audiencia, sin simplificar demasiado las cosas, pero tampoco llevándolos más allá de su nivel de comprensión.

En mi vida diaria, no necesariamente soy plenamente consciente de lo que los niños ya saben (o creen saber) sobre la inteligencia artificial (IA). Quiero que mis explicaciones sean adecuadas al nivel de la audiencia, pero en este caso tengo una visión un tanto limitada de sus conocimientos previos. En algunos casos, me sorprendió descubrir que los niños eran muy conscientes de cuestiones como la competencia de inteligencia artificial entre empresas y a través de fronteras internacionales. Un ejercicio útil a la hora de decidir cómo enmarcar el contenido es idear metáforas que utilicen conceptos o técnicas que la audiencia ya conoce bien. Pensar en esto también te da un punto de acceso a los antecedentes de la audiencia. Además, prepárate para cambiar y ajustar tu estilo de presentación si decides que no estás a la altura. Me gusta preguntarles a los niños un poco sobre lo que piensan acerca de la IA y lo que saben al principio, para poder empezar a obtener esa claridad antes de avanzar demasiado.

 

Comprensión de la tecnología: conceptos básicos de los modelos de IA

Especialmente con los niños, centro mis presentaciones en varios puntos principales. Los lectores saben que soy un gran defensor de enseñar a los no expertos cómo entrenar modelos de lenguaje grandes (LLM) y otros modelos de IA, y con qué datos se entrenan. Esto es vital para formar expectativas realistas sobre los resultados de estos modelos. Creo que es fácil para cualquiera, incluidos los niños, dejarse llevar por la naturaleza encarnada del tono, la voz e incluso la “personalidad” de los modelos LLM y perder de vista las limitaciones realistas de estas herramientas.

El desafío es mantener las cosas apropiadas para la edad, pero una vez que les explicas cómo funciona el entrenamiento, cómo los modelos LLM aprenden de ejemplos de material escrito o cómo un modelo de difusión aprende de pares texto-imagen, pueden sacar sus propias conclusiones sobre los posibles resultados. A medida que los agentes de IA se vuelven más complejos y los mecanismos subyacentes se vuelven más difíciles de aislar, es importante que los usuarios comprendan los componentes básicos que conducen a esta capacidad.

Para mí, empiezo explicando el entrenamiento como un concepto general, evitando al máximo la jerga técnica. Al hablar con niños, un poco de lenguaje corporal puede ayudar a que las cosas parezcan menos ambiguas. Por ejemplo: “Le damos a las computadoras mucha información y les pedimos que aprendan los patrones que contiene”. A continuación, describiré ejemplos de patrones como los que se encuentran en el lenguaje o los píxeles de una imagen, porque la palabra “patrones” por sí sola es demasiado general y amplia. Entonces, “Estos patrones que aprendes se escriben usando matemáticas, y luego estas matemáticas son lo que está dentro de un 'modelo'”. Ahora, cuando le damos nueva información al modelo, nos envía una respuesta basada en los patrones que ha aprendido”. A partir de ahí, doy otro ejemplo completo y explico un proceso de entrenamiento simplificado (normalmente un modelo de series de tiempo porque es muy fácil de visualizar). A continuación, entraré en más detalle sobre los diferentes tipos de modelos y explicaré la diferencia entre redes neuronales y modelos de lenguaje, en la medida que sea apropiado para la audiencia.

Ética de la IA e influencias externas

También me gustaría abordar cuestiones éticas relacionadas con la inteligencia artificial. Creo que los niños de primaria, secundaria y superiores son plenamente capaces de comprender التأثيرات البيئية y el impacto social que pueden tener las tecnologías de IA, incluidos los modelos de lenguaje grande (LLM). Me parece que hoy en día muchos niños tienen una comprensión muy avanzada del cambio climático global y de la crisis medioambiental, por lo que hablar de la cantidad de energía, agua y minerales raros que se requieren para operar los LLM no es descabellado. Lo único importante es que sus explicaciones sean comprensibles y apropiadas para la edad. Como mencioné anteriormente, utilice ejemplos que sean relevantes y se relacionen con las experiencias vividas de su audiencia. Debemos centrarnos en Ética de la IAyImpacto de la inteligencia artificial Sobre la sociedad y el medio ambiente.

He aquí un ejemplo de la transición desde la experiencia de un niño al impacto ambiental de la IA.

 

¿No tienen todos Chromebooks para las tareas escolares? ¿Se han dado cuenta de que, al trabajar mucho tiempo con la laptop en el regazo, la parte trasera se calienta? ¿Quizás si tienen muchos archivos abiertos o ven muchos videos? Este calentamiento es el mismo que ocurre en los servidores, computadoras grandes que se ejecutan al entrenar o usar un modelo de lenguaje grande (LLM), como cuando visitan el sitio web chatGPT.

Los centros de datos que mantienen ChatGPT en funcionamiento están llenos de servidores que funcionan simultáneamente y se calientan mucho, lo cual perjudica el hardware. Por lo tanto, estos centros de datos a veces utilizan agua fría y algunos productos químicos juntos, que se bombean a través de tuberías que pasan directamente por todos los servidores. Esto ayuda a enfriar las máquinas y a mantenerlas en funcionamiento. Sin embargo, esto implica que se utiliza una gran cantidad de agua, mezclada con los productos químicos, que se calienta al pasar por estos sistemas. Esto puede significar que esta agua no esté disponible para otros fines, como granjas o agua potable.

En otras ocasiones, estos centros de datos utilizan grandes equipos de aire acondicionado que consumen mucha electricidad, lo que significa que podría no haber suficiente energía para nuestros hogares o negocios. A veces, la electricidad también se produce quemando carbón en centrales eléctricas, lo que libera gases de escape al aire y aumenta la contaminación.

Esto incorpora la experiencia del niño a la conversación y le ofrece una forma concreta de relacionarse con el concepto. Se pueden mantener debates similares sobre la ética de los derechos de autor y el robo de contenidos, utilizando artistas y creadores familiares para los niños, sin tener que ahondar en los detalles de la legislación sobre propiedad intelectual. Los deepfakes, sexuales o de otro tipo, son sin duda un tema con el que muchos niños también están familiarizados, y es importante que sean conscientes de los riesgos que representan para los individuos y la sociedad cuando utilizan IA.

Puede ser aterrador, especialmente para los niños pequeños, cuando comienzan a comprender algunas de las aplicaciones poco éticas de la IA o los desafíos globales que crea, y se dan cuenta de lo poderosas que pueden ser algunas de estas cosas. Los niños me han preguntado: "¿Cómo podemos solucionarlo si alguien le enseña a la IA a hacer cosas malas?" Por ejemplo. Ojalá tuviera mejores respuestas para eso, porque básicamente tuve que decir: "La IA a veces tiene la información para hacer cosas malas, pero también hay mucha gente trabajando duro para hacer que la IA sea más segura y evitar que comparta información incorrecta o instrucciones sobre cómo hacer cosas malas".

 

Deconstruyendo el concepto de “verdad”

Humanizar la IA es un problema real tanto para adultos como para niños: tendemos a confiar en una voz amigable y segura cuando nos dice cosas. Gran parte del problema es que la voz del gran modelo del lenguaje (LLM) que nos dice las cosas suele ser amigable, segura y equivocada. El concepto de alfabetización mediática ha sido un tema importante en la educación durante años yExtenderlo a modelos de lenguaje grandes (LLM) es una evolución natural.. Así como los estudiantes (y los adultos) necesitan aprender a ser consumidores críticos de información creada por otras personas o empresas, nosotros necesitamos ser consumidores críticos y reflexivos de contenido generado por computadora. Esto incluye comprender las limitaciones de estas tecnologías.

Pienso que esto también va de la mano con la comprensión de la tecnología. Cuando explico que la tarea de un modelo de lenguaje grande (LLM) es aprender y copiar el lenguaje humano, en el nivel más simple, determinando la siguiente palabra posible en una cadena basándose en lo que vino antes, tiene sentido cuando digo que un LLM no puede entender la idea de “verdad”. La verdad no es parte del proceso de entrenamiento y, al mismo tiempo, la verdad es un concepto realmente difícil de comprender incluso para las personas. Un modelo de lenguaje grande (LLM) puede acertar con los datos la mayor parte del tiempo, pero de vez en cuando aparecerán puntos ciegos y posibles errores, en virtud de la probabilidad. Como resultado, los niños que lo utilizan deben ser plenamente conscientes de la falibilidad de la herramienta.

Sin embargo, esta lección tiene valor más allá del simple uso de la IA, porque lo que estamos enseñando es cómo lidiar con la incertidumbre, la ambigüedad y los errores. Como él mismo señaló Berman y Ajawi (2023)“La educación en un mundo mediado por IA implica aprender a trabajar con situaciones ambiguas, parciales y vagas, que reflejan las relaciones entrelazadas entre las personas y las tecnologías”. Realmente me gusta este enfoque porque se relaciona con algo en lo que pienso mucho: que los grandes modelos de lenguaje (LLM) son creados por humanos y reflejan interpretaciones de contenido generado por humanos. Cuando los niños aprenden cómo se forman los modelos, que los modelos son falibles y que sus resultados surgen de aportaciones generadas por los seres humanos, reconocen la naturaleza nebulosa de cómo funciona la tecnología hoy en nuestra sociedad más amplia. (De hecho, recomiendo encarecidamente el artículo completo a cualquiera que esté pensando en cómo enseñar a los niños sobre IA).

 

Nota al margen sobre fotos y vídeos

Como mencioné antes, la proliferación de contenido de video e imágenes “basura de IA” plantea muchas preguntas difíciles. Creo que es fundamental proporcionar información a los niños en esta área, ya que es fácil absorber información errónea o mentiras descaradas a través de contenido visual atractivo. Este contenido también está a un paso del proceso de creación real para la mayoría de los niños, ya que gran parte de este material se comparte ampliamente en las redes sociales y es poco probable que esté categorizado adecuadamente. Hablar con los niños sobre las señales que ayudan a detectar material generado por IA puede ser útil, así como también habilidades generales de alfabetización mediática crítica como "Si parece demasiado bueno para ser verdad, probablemente sea falso" y "Verifique dos veces lo que escucha en este tipo de publicaciones". Es esencial enseñar a los niños a verificar los hechos y las fuentes de información para mejorar su capacidad de distinguir entre contenido real y falso.

 

Hacer trampa usando inteligencia artificial

A pesar de todos los problemas éticos y los riesgos de los errores de LLM, estas herramientas de IA son increíblemente útiles y atractivas, por lo que es comprensible que algunos estudiantes recurran a ellas para hacer trampa en las tareas y en la escuela. Yo diría que simplemente necesitamos hablar con ellos, explicándoles que el objetivo es aprender las habilidades necesarias para completar las tareas, y si no las aprenden, perderán las habilidades que necesitarán en los grados posteriores y más adelante en la vida... pero todos sabemos que los niños rara vez son tan lógicos. Sus cerebros aún están en desarrollo, y a veces incluso a los adultos les resulta difícil pensar en este tipo de cosas. Comprender el impacto de la IA en la educación requiere una comprensión profunda de las capacidades de estas herramientas y su impacto potencial en el desarrollo de habilidades esenciales.

Básicamente, hay dos enfoques que se pueden adoptar: encontrar formas de hacer que las tareas escolares sean más difíciles o imposibles de hacer trampa, o integrar IA en el aula asumiendo que los estudiantes la tendrán a su disposición en el futuro. Ahora, el trabajo supervisado en un aula puede brindarles a los estudiantes la oportunidad de aprender algunas de las habilidades que necesitan sin intervención digital. Sin embargo, como mencioné antes, el conocimiento del uso de los medios ahora debe incluir verdaderamente grandes modelos de lenguaje, y creo que el uso supervisado de grandes modelos de lenguaje por parte de un docente con conocimientos puede ser de gran valor pedagógico. Además, es verdaderamente imposible “hacer que las tareas sean resistentes a la IA” si se realizan fuera de la supervisión directa de un docente, y debemos ser conscientes de ello. Sin embargo, no quiero que parezca fácil: vea más abajo en la sección Lecturas adicionales Para una serie de artículos académicos sobre los amplios desafíos de la enseñanza de la alfabetización en IA en el aula. Los docentes se enfrentan a la difícil tarea de intentar no solo mantenerse al día con la tecnología y adaptar sus métodos de enseñanza a los nuevos tiempos, sino también de intentar proporcionar a sus estudiantes la información que necesitan para utilizar la IA de manera responsable. Los educadores también deberían centrarse en enseñar a los estudiantes cómo evaluar críticamente la información generada por la IA y desarrollar sus habilidades de pensamiento crítico.

 

Aprendiendo del ejemplo de la educación sexual: lecciones de inteligencia artificial

En última instancia, la pregunta es qué exactamente deberíamos recomendar a los niños y qué deberían evitar en un mundo con IA, tanto dentro como fuera del aula. Rara vez soy defensor de prohibir o prohibir ideas, y creo que el ejemplo de una educación sexual integral, basada en la ciencia y apropiada para cada edad ofrece una buena lección. Si a los niños no se les proporciona información precisa sobre sus cuerpos y su sexualidad, no tendrán el conocimiento para tomar decisiones informadas y responsables en esta área. Los adultos no estarán allí para hacer cumplir los mandatos cuando los niños tomen decisiones difíciles sobre qué hacer en circunstancias difíciles, por lo que debemos asegurarnos de que los niños estén equipados con la información necesaria para tomar estas decisiones por sí mismos de manera responsable. Esto incluye orientación moral, pero también información factual. Asimismo, debemos asegurarnos de que los estudiantes adquieran una comprensión integral del potencial y los riesgos de la IA, para que puedan utilizarla de manera eficaz y responsable en la era digital.

Modelando la responsabilidad en el uso de la inteligencia artificial

Otra cosa que creo que es importante mencionar es que los adultos también deberían modelar un comportamiento responsable al tratar con la IA. Si los maestros, padres y otros adultos en la vida de los niños no tienen un conocimiento crítico de la IA, no podrán enseñar a los niños a ser consumidores críticos y reflexivos de esta tecnología.

El artículo ha planteado El New York Times Me frustra la forma en que los profesores utilizan la IA. El artículo no refleja una gran comprensión de la IA, confundiéndola con estadísticas básicas (que los profesores analicen los datos de los estudiantes para adaptar su enseñanza a su nivel no es IA ni es nuevo ni problemático), pero sí inicia una conversación sobre cómo los adultos en la vida de los niños utilizan las herramientas de IA, y señala la necesidad de que estos adultos den ejemplo de usos transparentes y críticos de la IA. (También aborda brevemente el problema de la industria con fines de lucro que introduce la IA en las aulas, un problema que merece más atención; quizá escriba más sobre ello más adelante).

Para refutar una de las afirmaciones del artículo, no me quejaría del uso de grandes modelos lingüísticos por parte de los profesores (LLM) realizar una revisión inicial para evaluar los materiales escritos, al mismo tiempo que monitorean y validan el resultado. Si los criterios de evaluación giran en torno a la gramática, la ortografía y la mecánica de la escritura, es probable que un modelo de lenguaje grande sea apropiado en función de cómo se entrene. No quiero confiar ciegamente en un gran modelo de lenguaje sin que un humano al menos le eche un vistazo rápido, pero en realidad el lenguaje humano es lo que fue diseñado para entender. La idea de que “el estudiante tuvo que escribirlo, por lo que el profesor tuvo que calificarlo” es ridícula, porque el propósito del ejercicio es que el estudiante aprenda. Los docentes ya conocen la mecánica de la escritura, y este no es un proyecto cuyo objetivo sea obligar a los docentes a aprender algo que sólo se puede lograr mediante la evaluación manual. Creo que el New York Times lo sabía y que el enfoque era principalmente para clickbait, pero vale la pena decirlo claramente.

Este punto nos lleva de nuevo a la sección anterior sobre la comprensión de la tecnología. Si entiende con confianza cómo es el proceso de capacitación, puede determinar si ese proceso producirá o no una herramienta capaz de manejar una tarea. Pero la automatización de la evaluación ha sido parte de la educación durante al menos décadas: cualquiera que haya completado una hoja de calificaciones lo sabe.

El desarrollo de esta tecnología obliga a nuestro sistema educativo a un cierto grado de adaptación, pero ahora no podemos volver a meter a este genio en la botella. Sin duda, hay algunas formas en las que la IA podría tener impactos positivos en la educación (los ejemplos que se citan a menudo son la personalización y la liberación de tiempo de los docentes que luego se puede asignar a servicios directos para los estudiantes), pero como con la mayoría de las cosas, soy un defensor de una visión realista. Como creo que la mayoría de los profesores saben, la educación no puede continuar como era antes de la introducción de grandes modelos lingüísticos (LLMNuestra vida.

Conclusión

Los niños son más inteligentes de lo que a veces pensamos, y creo que pueden entender mucho sobre lo que significa la IA en nuestro mundo. Mi consejo es ser transparentes y honestos sobre las realidades de esta tecnología, incluidas las ventajas y desventajas que representa para nosotros como individuos y para nuestra sociedad en su conjunto. La forma en que utilizamos la IA determinará las elecciones de los niños, ya sean positivas o negativas, y es algo a lo que prestarán atención, por lo que ser reflexivos sobre nuestras acciones y lo que decimos es esencial. Debemos explicarles el potencial y los desafíos de la IA, con énfasis en el uso ético y responsable de esta tecnología.

 

Los comentarios están cerrados.