9 min

30 may 2024

Infancia e IA

Infancia e IA

¿Cómo utilizamos los LLM en contextos de aprendizaje de maneras que preserven la experiencia humana auténtica en lugar de esterilizarla?

Números Coleman

Pintura posmoderna de una mujer en una sociedad industrial de IA

Introducción

¿Cómo usamos los LLMs en contextos de aprendizaje de maneras que preserven la experiencia humana auténtica en lugar de esterilizarla? Planteé esta pregunta en mi última publicación, que se ocupaba principalmente de lo que significa “experiencia humana auténtica” y cómo la era digital ha dificultado su obtención. Esta publicación será mi intento de comenzar a responder la pregunta anterior, así que recomiendo consultar el ensayo previo mencionado.

Mi ensayo se basará, nuevamente, en el trabajo de Giorgio Agamben y su libro de 1978 La infancia y la historia: Sobre la destrucción de la experiencia. Específicamente, la percepción de Agamben sobre cómo los humanos interactúan con el lenguaje jugará un papel importante en la distinción entre el papel de las inteligencias humanas y no humanas en el aprendizaje.

Primero, sin embargo, voy a apaciguar a los dioses del SEO (y al 90% de ustedes que no tienen interés en la filosofía europea contemporánea) al abordar temas concretos.

Dos Fronteras

En la última semana, dos titulares han dominado el discurso sobre la IA. Ninguno, imagino, es demasiado sorprendente para nadie; pero, como resulta, ambos son importantes para entender el código sobre la pregunta de hoy.

Primero: Scarlett Johansson acusó a OpenAI de intentar reproducir su voz para ChatGPT 4o, el primer asistente de IA nativo multimodal + asistente de voz de la empresa. Aunque no está claro si esta fue realmente la intención de OpenAI, el alboroto mediático plantea cuestiones más intrigantes y fundamentales: ¿por qué sería deseable que tu IA en la vida real sonara como una de las IA ficticias recientes y prominentes de Hollywood? ¿Cuál es la moneda social en eso? ¿Y qué dice eso sobre nuestra relación con esta tecnología?

Este nuevo tipo de interacción con la IA—un asistente de voz altamente capaz que puede imitar interacciones y emociones humanas—, por supuesto, abre muchas puertas para L&D. Los asistentes de voz que pueden transmitir empatía y adaptarse a los estados emocionales de los aprendices, por ejemplo, podrían revolucionar la forma en que se entrega la capacitación, haciéndola más interactiva y receptiva a las necesidades individuales. Nuevamente, sin embargo, esto plantea consideraciones éticas sobre la autenticidad y el potencial de que la IA difumine las líneas entre las interacciones reales y simuladas; ¿queremos depender de herramientas que cada vez anticipen más la experiencia del contacto humano?

El segundo tema de noticias: Anthropic anunció avances en la interpretabilidad de máquinas. En un comunicado de prensa el martes pasado, revelaron que habían logrado mapear las representaciones internas de Claude 3 de millones de conceptos a “características” manipulables. En tiempo real, los investigadores pudieron observar cómo los cálculos de Claude 3 respondían a las entradas.

Anthropic se apresura a calificar la magnitud de esta investigación, pero parece confirmar una intuición básica que hemos tenido sobre los modelos de última generación: que hay alguna representación lingüística consistente en juego. “Las características probablemente sean una parte fiel de cómo el modelo representa internamente el mundo y cómo utiliza estas representaciones en su comportamiento”, explica la publicación.

Si podemos entender cómo los modelos de IA representan y manipulan internamente conceptos lingüísticos, podemos desarrollar herramientas educativas impulsadas por IA más efectivas y transparentes. Idealmente, esta transparencia ayudará a educadores y desarrolladores a diseñar sistemas de IA que se alineen más estrechamente con los procesos cognitivos humanos, facilitando una mejor comprensión y retención de información. Por ejemplo, los diseñadores de L&D podrían ser capaces de revisar un chatbot en un módulo de aprendizaje para adoptar intrínsecamente ciertas estrategias o filosofías de enseñanza sobre otras, todo sin tener que luchar con el ocasionalmente arcano arte de la ingeniería de instrucciones.

Menciono estos desarrollos no meramente por clics, o por su pertinencia a L&D, sino porque representan dos fronteras de nuestra interacción con la IA, dos fronteras que se convertirán directamente en pertinentes a la cuestión de recuperar la experiencia humana: la frontera uno es la emocional y social. Cómo tratamos la IA está pasando a ser un problema humanístico así como técnico.

La frontera dos es la lingüística. Los expertos podrían argumentar que siempre ha sido un problema en el aprendizaje automático, pero realmente quiero decir que, en la conciencia pública, estamos tomando mucha más conciencia de las ramificaciones que los modelos de lenguaje de gran tamaño tienen sobre lo que entendemos por lenguaje y cómo funciona. Cuanto más aprendemos a interpretar la inteligencia de las máquinas, creo que más nos veremos obligados a examinar qué es exactamente lo que hacemos los humanos con el lenguaje.

Y si podemos reconocer estas diferencias entre los usos del lenguaje humano y de la máquina, más equipados estaremos para utilizar esta tecnología de manera responsable y significativa en entornos de aprendizaje.

La Infancia y el Lenguaje

Lo que me lleva de vuelta a Agamben. Para Agamben, la “destrucción [o expropiación] de la experiencia” realmente comenzó hace mucho tiempo con Descartes y su Pienso, luego existo. Esta afirmación, para Agamben, unió las viejas ideas clásicas de experiencia—obtenida subjetivamente, dentro del yo—y conocimiento—el cual ocurre cuando una fuente divina y externa “se comunica con [el alma]”—que antes habían sido separadas, en un único sujeto racional.

Esta colisión, que ahora es tan común en Occidente que no podemos imaginar el yo de otra manera, “[hizo] de la experiencia el lugar—el ‘método’; es decir, la vía—del conocimiento”. Así, el empirismo y el argumento razonado centrado en una mente racional individual se convirtieron en la base para aprender cosas sobre el mundo. Ya no hay espacio para la imaginación, o la intuición espiritual, o la epifanía—eso que se comunica con el alma—como base para la verdad, porque el conocimiento y la experiencia han sido forzados al mismo dominio. Podemos confiar entonces solamente en lo que vemos o medimos directamente.

Pero esto es muy malo, dice Agamben. Por un lado, “el sujeto cartesiano no es más que el sujeto del verbo, una entidad puramente lingüística-funcional”. Entender el yo de esta manera—situado en el lenguaje—crea problemas filosóficos y espirituales que Occidente todavía lidia hasta hoy.

¿Qué significa el “Yo cartesiano”, por ejemplo, para un paciente esquizofrénico que experimenta regularmente episodios intensamente religiosos que no parecen correlacionarse con ninguna realidad objetiva? ¿O qué hay de los pacientes de cerebro dividido que parecen ser capaces de “ver” algo en un lado de su campo visual sin registrar conscientemente que están viendo nada en absoluto?

Pero también esto es malo porque la experiencia subjetiva es inherentemente incierta e inestable, y la única manera de tener en cuenta esto es externalizar nuestra experiencia a “instrumentos y números”. Somos herederos de ese mundo instrumentalizado.

Agamben dedica gran parte del resto de su ensayo a delinear lo que todo esto significa—pero su vía de escape depende nuevamente del lenguaje, y de cómo los humanos lo usan. Específicamente, discute el lenguaje semiotico—el lenguaje como un sistema de signos puros, un lenguaje que es “meramente reconocido” y el lenguaje semántico—el lenguaje como significado comunicado, el lenguaje que es “comprendido”. Lo que hace especiales a los humanos es que, constantemente, cada día, quizás en cada momento, nos movemos entre estos dos dominios. Estamos inundados de símbolos representativos, y tenemos la maquinaria cultural y cognitiva para tomar esos símbolos y enlazarlos en mensajes significativos que nos conectan con otros humanos.

Para decirlo de otra manera: sé lo que significan las palabras “durmiendo”, “máquinas para el cabello” y “broma” por sí solas. Puedo reconocer las relaciones 1-1 entre símbolos literales e ideas. Pero lo que nos hace humanos—lo que nos hace ser capaces de participar realmente en la experiencia—es que todos podemos utilizar esos símbolos para recibir y transmitir una historia comprensible. (Te dejaré a ti llenar los espacios en blanco de esta historia de tres términos.)

Y en el centro de ese proceso, sostiene Agamben, está la “infancia humana”. La idea es un poco nebulosa y probablemente la única buena manera de entender todo lo que él está diciendo es leer su libro entero—pero lo breve y concreto es que nuestra condición predeterminada, la forma en que llegamos al mundo, está fuera del lenguaje. Así que la infancia de Agamben significa infancia literal, pero también algo mucho más profundo—él está llegando a la condición que todos habitamos, constantemente, antes de buscar símbolos que unir en mensajes significativos. Después de todo, tenemos que tener algo de qué hablar. Y esto, para Agamben, es donde reside la experiencia pura—“el individuo como no hablando aún, como habiendo sido y aún siendo un infante”.

Infancia e IA

Este estado, me parece, es también cómo preservamos la auténtica experiencia humana ante la IA—reconociendo qué somos y qué no es la IA.

Ahí es donde entran las dos fronteras que mencioné antes. Creo que podemos mapear fácilmente estas dos fronteras—la lingüística y la emocional/social—al semiótico y al semántico. En una frontera de interacción con la IA, estamos escudriñando lo representacional; estamos empujando los límites de cómo entendemos que los LLMs están utilizando el lenguaje.

En la otra frontera, estamos presionando contra lo comprensible—estamos tratando locamente de inventar máquinas que puedan ser amantes, confidentes, interlocutores, vendedores. Queremos crear modelos que puedan transmitir y recibir nuestros mensajes más preciados.

La trampa, creo, es la misma que hemos estado cayendo desde Descartes. Debido a que hemos colapsado el yo humano en un constructo puramente lingüístico-funcional, y porque hemos desplazado gran parte de nuestra experiencia del mundo a instrumentos artificiales, pensamos que podemos deshacer la ingeniería del yo dentro de las limitaciones de una máquina que es en realidad un juego de lenguaje.

Lo que no nos damos cuenta, sin embargo—lo que revela Agamben—es que somos más que el semiótico + semántica. Entre esos dos límites lingüísticos se encuentra el yo infantil—un humano antes del lenguaje, antes de los símbolos o mensajes. Esta infancia es lo que le falta a la IA, y en su forma actual dudo que sea algo que pueda darnos directamente.

Así que, en relación con el aprendizaje y la IA, lo que propongo es una profunda reconsideración de lo que significa ser humano en el contexto del aprendizaje. No somos meramente la suma de todos los módulos de capacitación completados o textos enviados, o incluso la suma de un conjunto de habilidades demostrado y concreto. La experiencia pura—la sustancia fundamental que constituye un aprendizaje significativo—no puede reducirse a productos lingüísticos, y no puede ser mediada por procesos puramente lingüísticos.

Recientemente, la experta en L&D y gurú de la IA en el aprendizaje, Philippa Hardman, escribió sobre cómo podría lucir un despertar ante esta realidad—cómo la IA puede ser utilizada para expandir la ventana de la infancia humana en lugar de contraerla. Después de revisar algunas investigaciones líderes en las ciencias del comportamiento y el aprendizaje, Hardman recomienda dos prácticas generales que todos los profesionales del aprendizaje deberían adoptar: “1. Cambiar del diseño de contenido al diseño de contexto” y “2. Cambiar del diseño a corto plazo al diseño a largo plazo.”

En otras palabras, sugiere Hardman, necesitamos centrarnos menos en la presentación mecánica y momentánea de nueva información y más en la repetición en contextos estables e inalterables donde las señales desencadenan comportamientos automáticos sin intención consciente. La ciencia del comportamiento parece reflejar la misma percepción a la que llegó Agamben, y que probablemente ya es intuitiva para cualquier profesional de L&D: el aprendizaje duradero ocurre a un nivel inferior a la conciencia explícita, en una etapa de experiencia antes del lenguaje.

Hardman ofrece algunas sugerencias sobre cómo la IA puede ayudar a los profesionales de IA en el aprendizaje en esta característica del aprendizaje humano. Si quieres un relato completo de esas sugerencias, y algunos ejemplos de instrucciones para ChatGPT, te recomiendo que leas su excelente publicación. Entre otras cosas, sin embargo, Hardman propone que ChatGPT y modelos de aprendizaje al estilo chatbot similares pueden ofrecer a los aprendices proyectos personalizados que les ayuden a desarrollar y practicar habilidades; los chatbots también pueden ofrecer retroalimentación específica y relevante bajo demanda.

Una cosa que aprecio de las recomendaciones de Hardman es que la IA no se convierte en un proxy “escalable” para el contacto y la conexión humanos. En cambio, la IA se convierte en un punto de partida para la conexión, un asistente personal que puede coordinar horarios entre mentores y aprendices y ayudar a planificar reuniones productivas. De esta manera, también, la IA puede convertirse en una herramienta para fomentar en lugar de anticipar la infancia humana en el lugar de trabajo.

Esta idea de la infancia, por supuesto, va mucho más allá de lo que una pequeña publicación en un blog puede explorar. Pero espero que mi presentación de estas ideas te lleve hacia conversaciones productivas y momentos de experiencia pura que enriquezcan no solo tu enfoque hacia L&D, sino toda tu relación con la tecnología—especialmente esa tecnología más antigua e ineludible, el lenguaje.


Notas


  1. Giorgio Agamben, La infancia y la historia: Sobre la destrucción de la experiencia (Nueva York: Verso, 1993), 15.

  2. Ibid., 21.

  3. Ibid., 22.

  4. Ibid., 25.

  5. Ibid., 20.

  6. Ibid., 67.

  7. Ibid., 58.

  8. Ibid., 58.

  9. “Cómo los humanos aprenden (y no aprenden)”, Boletín de Dr. Phil, Philippa Hardman, publicado el 30 de mayo de 2024.

Boletín sobre IA en el Aprendizaje

Mantente al día con las tecnologías de vanguardia que están cambiando la forma en que las personas aprenden e instruyen.

Boletín sobre IA en el Aprendizaje

Mantente al día con las tecnologías de vanguardia que están cambiando la forma en que las personas aprenden e instruyen.

Boletín sobre IA en el Aprendizaje

Mantente al día con las tecnologías de vanguardia que están cambiando la forma en que las personas aprenden e instruyen.

Otros Blogs

Otros Blogs

Otros Blogs

Todos los blogs