Entrevista a Fernando Peirone
Por Agustín Gulman
Fernando Peirone, titular de la materia “Tecnología y Sociedad” de la Universidad Nacional de José C. Paz, analiza algunas de las confusiones a las que se presta la idea de la “Inteligencia Artificial”. En este diálogo junto al periodista Agustín Gulman, Peirone propone hablar de “potencias cognitivas no humanas”, y aborda un debate demorado: su impacto sobre la educación. En un mercado desregulado donde mandan las empresas privadas dueñas de estos nuevos desarrollos advierte que “la escuela no puede tener las respuestas que no generamos como sociedad”.
Agustín Gulman: ¿Qué desafíos trajo la Inteligencia Artificial en los ámbitos educativos?
Fernando Peirone: Antes de responder, sería importante hacer una aclaración y un par de salvedades. No soy un experto en IA; apenas un usuario promedio que cuenta con el plus de trabajar junto a un equipo interdisciplinario donde investigamos a la IA como fenómeno socio-técnico complejo; personalmente, investigo su impacto en la educación, la política y las ciencias sociales. Hecha esta aclaración, vayamos a la primera salvedad. En este momento, la Inteligencia Artificial (IA) es un significante vacío sobre el que se proyectan diferentes imaginarios, muchos de los cuales no sólo son diferentes, sino contrapuestos. Por lo tanto, sin un relevamiento de esos imaginarios y sin un proceso de concientización responsable sobre lo que es y puede la IA no vamos a estar a la altura del desafío socio-técnico que tenemos por delante, porque nos impide contar con los consensos necesarios para planificar e implementar políticas educativas que cuenten con respaldo social y se enmarquen en un plan estratégico integral. La otra salvedad, que a su vez impacta en los imaginarios, tiene que ver con su denominación. La idea de “Inteligencia Artificial” se presta a muchas confusiones que obstruyen su correcta asimilación social e institucional, condicionando fuertemente su implementación. A sabiendas de las dificultades que implica lidiar con una idea tan instalada, extendida y fantasiada, en el Observatorio Interuniversitario de Sociedad, Tecnología y Educación (OISTE)[1] estamos tratando de referirnos a la IA como “potencias cognitivas no humanas”. A propósito de esto, recomiendo las notas que Julián Tagnin, miembro de nuestro equipo de investigación, publicó también en esta revista. En ellas, Tagnin recomienda evitar el binarismo “inteligente”/“no-inteligente” porque desvirtúan el tipo de habilidades y capacidades técnicas que presentan las “potencias cognitivas no humanas” y porque plantean un tipo de compulsa “humano”/”no-humano” que no es real ni es simétrica.[2]
Dicho esto, y tomando a estas salvedades como parte de la respuesta, diría que en educación el uso del ChatGPT, Gemini, Copilot ó Claude, por mencionar las IA más renombradas, presentan dificultades similares a las que presentan las tecnologías informacionales en general. Eso ocurre porque el descubrimiento de su valor aplicativo se adquiere mayormente de manera informal; es decir, por fuera del sistema educativo. Con un agravante: los insumos y los saberes tecnosociales que produce el vínculo con las tecnologías generativas son apropiados por las Big Tech sin una contraparte institucional que, consciente de esa extracción compulsiva y de lo que está en juego, recupere, complejice, regule, diversifique y ponga en valor sus potencialidades. Eso ocurre con casi todos los saberes y recursos tecnológicos que sobrevinieron con la Sociedad Informacional,[3] básicamente porque la inercia epistémica del orden institucional moderno no permite su asimilación; por lo tanto, tampoco permite implementar políticas públicas orientadas a su comprensión y articulación socio-productiva. Digo esto, porque es preciso que dejemos de estigmatizar a la escuela y al sistema educativo. La escuela no puede tener las respuestas que no generamos como sociedad.
AG: ¿Qué riesgos podría traer el uso de la IA en escuelas de forma indiscriminada?
FP: Aunque no veo que eso esté sucediendo, tu pregunta pone de manifiesto un tema que genera mucha preocupación más allá de la escuela, porque hablamos de tecnologías generativas que están al alcance de todos y conllevan una infinidad de riesgos. El investigador Alejandro Covello, recuperando a Paul Virilio, hace un ejercicio comparativo que resulta muy gráfico para responder tu pregunta. Virilio decía que cada tecnología produce su propio accidente. Por ejemplo, antes de la navegación no existían los naufragios, antes del tren no existían los descarrilamientos y antes de la electricidad no existían los electrocutados. Para evaluar daños, examinar causas y tomar medidas preventivas, lamentablemente tienen que ocurrir los accidentes y posiblemente repetirse; porque no todo se puede prever y porque es lo que permite identificar los riesgos. Si aplicamos esta máxima a la IA, que es una tecnología opaca en su etapa germinal, veremos que la índole de sus accidentes son diversos y variados: sesgos discriminatorios orientados hacia determinadas tipologías raciales o socioculturales;[4] siniestros viales ocasionados por vehículos equipados con autopilot;[5] utilización de datos biométricos sensibles sin consentimiento previo;[6] diagnósticos médicos equivocados;[7] creación de videos falsos hiperrealistas que se utilizan para difamar personas y manipular elecciones (deepfake).[8] Covello, a quien trajimos a la UNPAZ para hablar sobre estos temas, dice que si bien algunos de estos casos están siendo documentados por el monitor de Incidentes de IA de la OCDE,[9] aún estamos lejos de comprender y de tomar consciencia de su alcance, ya que la mayoría de los accidentes que produce la IA son subrepticios y mucho menos tangibles que un descarrilamiento. Para hacer más comprensible la dimensión del problema usemos el ejemplo distópico que utiliza Covello. Los riesgos de usar indiscriminadamente la IA podrían compararse con los riesgos del desarrollo nuclear, pero sin la elocuencia ni la conmoción mundial que produjeron las bombas atómicas en Hiroshima y Nagasaki. Eso es así porque, a diferencia de aquellos bombardeos, la IA produce estragos que pueden ser tan imperceptible y sigilosos como el virus de una pandemia. Con un agravante epocal que lo vuelve particularmente preocupante: el escalamiento del desarrollo nuclear estuvo “contenido” por Rusia y EEUU, los dos estados que lideraron la Guerra Fría. Es decir, ambos bloques contaban con sistemas de alerta y cada uno funcionaba como contralor de lo que sucedía al otro lado de la Cortina de Hierro. Mientras que el desarrollo actual de la IA, al menos en Occidente, está en manos de empresas privadas que –salvo excepciones germinales como las de la Unión Europea–[10] no están reguladas y que por lo tanto se manejan con la voracidad y la indolencia que caracteriza a la dinámica del mercado. Mientras persista ese vacío normativo y esa abstención de los estados, la educación no tiene las espaldas para afrontar los riesgos de una implementación positiva de la IA.
AG: Tiempo atrás planteabas que el sistema educativo seguía reproduciendo prácticas y modelos inerciales que no se condicen con el universo experiencial de los estudiantes. ¿La IA podría incorporarse para modificar y actualizar el sistema educativo?, ¿de qué formas?
FP: El desacompasamiento entre la experiencia de las juventudes y la dinámica superestructural trasciende largamente al sistema educativo y abarca a toda la constelación institucional. Las prácticas culturales están divididas en dos grandes rangos etarios que, salvo en algunos ambientes como la música, no dialogan ni tienen interlocución. Las generaciones sub-30 ya no miran televisión ni escuchan radio, mucho menos leen diarios; sus referentes, sus inquietudes y sus debates se despliegan en un registro comunicacional y existencial que resultan incomprensibles e inaccesibles para la mayoría de los adultos. El lenguaje de esas juventudes es radicalmente más complejo que el de los post-40. Su concepción del tiempo, del espacio, de la cultura laboral, de la familia y del dinero se discontinuaron de los significados y las valoraciones que tuvieron en la biografía de sus padres. Por lo demás, las tecnologías informacionales introdujeron fuentes de socialización no institucionales que están cambiado la dialéctica entre lo individual y lo colectivo de manera decisiva, pero seguimos funcionando como si los valores y la formación ciudadana de las juventudes todavía fueran la familia, la escuela, el trabajo y una esfera pública que ya no existe. Lo mismo pasa con la política y la democracia, porque los formatos de representación instituidos sólo dialogan con el pasado. Eso quedó a la vista en las últimas elecciones donde ganó un candidato sin territorialidad, pero con una presencia apabullante en todo el territorio nacional. Toda la dirigencia argentina, desde los clubes más importantes hasta las organizaciones sociales, pasando por los sindicatos, los periodistas, los partidos tradicionales y el mainstream cultural, exhortó a votar a Massa, pero sus representados –en sus diversas formas– votaron a Milei, igual que aquellos que desde hace tiempo permanecen marginados y sin representación, como buena parte de los jóvenes que le dieron su voto a La Libertad Avanza. Entonces, nos preguntamos: ¿la educación está a la altura de los desafíos que plantea esa complejización del presente?; ¿cuál es el tratamiento pedagógico-institucional de la narrativa transmedia y su evidente gravitación en la vida política?; ¿cómo afecta el sostenido desplazamiento de la cultura escrita en los diseños curriculares?; ¿qué hace el sistema educativo con una temporalidad y una topología escolar que resultan anacrónicas frente a la dinámica tecnocultural que se despliega junto a la sociedad informacional?; ¿cómo producir una alfabetización crítica en IA? Estas son algunas preguntas que el campo educativo comienza a plantearse de la mano de referentes nacionales como Miriam Kap, Alejandro Artopoulos, Mariana Maggio, Francisco Albarello; también forman parte de los debates que tenemos en el OISTE junto a investigadores de todo el país y América Latina. Pero estas problemáticas no pueden quedar circunscriptas a papers académicos y al ámbito de la investigación. Necesitan el impulso articulado del Estado y de todas las formas institucionales que pierden interlocución con sus representados.
AG: ¿Qué herramientas de Inteligencia Artificial podrían utilizarse en las escuelas?
FP: No hay criterios homogéneos ni contamos con políticas públicas que socialicen estos desafíos con las juventudes que protagonizan el cambio epistémico. A esta dificultad se suma una concepción ortopédica de la tecnología que perdió vigencia y una fuerte resistencia epistemológica que impide pensar el presente como un ambiente tecnológico y por lo tanto como una instancia de socialización, tal como lo advirtió Flavia Costa pocos días atrás en el “Seminario Internacional Permanente de IA en las Ciencias Sociales” (SIPIACSO), del que UNPAZ y UNSAM forman parte. Dicho de otro modo, el orden social vigente es socio-técnico de base relacional, igual que su ecosistema epistemológico; pero esa es una transfiguración que la arquitectura institucional no puede acompañar.
AG: ¿Por qué?
FP: Porque el ecosistema epistemológico que le dio sentido y funcionalidad a las instituciones modernas está constitutivamente inhibido para pensar por fuera de la matriz logocéntrica; es decir, para trascender su molde ontológico. Por eso no podemos superar la etapa de diagnóstico y acumulamos papers que no consiguen traducir el hacer científico en saberes socialmente válidos, acordes a los desafíos de la época. Por eso no podemos armar un contra-discurso que promueva la exploración responsable de la IA frente a los agoreros que infunden miedo y anuncian la inminencia de un mundo distópico. Y por eso, como dicen Artopoulos y Lliteras en su último mapeo socio-técnico del sistema educativo latinoamericano, las tecnologías de la información todavía no están integradas al aula regular y su uso se limita a los laboratorios de computación o a la administración.[11] Mientras esas dificultades persisten, iniciativas como Digital House, Coderhouse y Platzi dialogan fluidamente con las “fantasías” juveniles, ofreciendo cursos cortos sobre marketing, trading, blockchain y machine learning e IA; cursos que fueron “pensados para el mundo real” y que metodológicamente empatizan con las formas en que las juventudes gestionan el conocimiento, en un registro compatible con el orden socio-técnico. Entonces aparece una pregunta fatal, que ya no es la que hicieron Kant y Foucault: ¿Qué hacemos con la ilustración? Por lo pronto, en el momento que la IA potencia el desconcierto y alimenta todo tipo de fantasías, el orden explicador no está pudiendo dar cuenta del devenir socio-técnico de un modo aprehensible ni consigue configurar una expresión social superadora de la que está sucediendo. Yo sé que esto puede sonar extraño, pero a lo mejor llegó el momento de pensar que la razón, a la luz de su estela de muerte y marginación, tal vez no sea el mejor recurso para enfrentar el desafío que el presente nos plantea como especie.
Agustín Gulman es periodista, director del servicio informativo de la 750, periodista de Página/12 y colaborador del diario El País. X: @AGulman IG: @agusgulman
[1] Observatorio Interuniversitario de Sociedad, Tecnología y Educación: https://www.unsam.edu.ar/oiste/.
[2] Tagnin, J. (2023). El voltaje de Prometeo. Recuperado de https://revistabordes.unpaz.edu.ar/el-voltaje-de-prometeo/. Y Tagnin, J. (2024). No tan humanos. Acerca de la antromorfización de los agentes no humanos de comunicación. Recuperado de https://revistabordes.unpaz.edu.ar/no-tan-humanos-acerca-de-la-antropomorfizacion-de-los-agentes-no-humanos-de-comunicacion/
[3] Entendida como el orden social emergente que deriva de las nuevas pautas de organización tecnosocial, con expresiones propias en cada disciplina y en cada cultura.
[4] Para más información, veáse Feathers, Todd (2021). Texas A&M Drops “Race” from Student Risk Algorithm Following Markup Investigation, recuperado de https://themarkup.org/machine-learning/2021/03/30/texas-am-drops-race-from-student-risk-algorithm-following-markup-investigation o la publicación del Instituto de Ciencias de la Comunicación (UBA/CONICET) titulada “Investigadores encuentran graves errores en el sistema de predicción de embarazos adolescentes”, recuperada de https://icc.fcen.uba.ar/investigadores-encuentran-graves-errores-en-el-sistema-de-prediccion-de-embarazos-adolescentes/
[5] Infobae (2022). Un vehículo autónomo de prueba provocó una tragedia en Alemania: un muerto y nueve heridos. Recuperado de https://www.infobae.com/america/mundo/2022/08/16/un-vehiculo-autonomo-de-prueba-provoco-una-tragedia-en-alemania-un-muerto-y-nueve-heridos/
[6] Para más información, véase “Datos biométricos y legalidad – Caso Worldcoin en Mendoza”, recuperado de https://youtu.be/1mBMPcrb_Eo?si=fGClJOsAUzhf6m9b
[7] EFE (2021). Estudio halla errores en el diagnóstico de covid con inteligencia artificial. Recuperado de https://www.swissinfo.ch/spa/estudio-halla-errores-en-el-diagn%C3%B3stico-de-covid-con-inteligencia-artificial/46665478
[8] Para más información sobre los riesgos de los deepfake, veáse https://youtu.be/HLp3l_yId4E?si=OcMQW5_sfTRup5mf
[9] Sitio web: https://oecd.ai/en/incidents-methodology
[10] Para más información sobre la ley sobre inteligencia articial, veáse el informe de France 24 Español, recuperado de https://youtu.be/z02m3KfgVQY?si=CCo6d4i6T_YfQyt- o https://es.wikipedia.org/wiki/Ley_de_Inteligencia_Artificial
[11] Artopoulos, A. M. y Lliteras, A.B. La emergencia de la alfabetización crítica en IA. La reconstrucción social de la ciudadanía en democracias bajo acecho digital. Revista Diálogo Educacional, 24(80).