Un espacio para “educar con sentido”

Fui invitada, el 7 de Junio, a compartir mi trabajo de investigación y reflexiones respecto de la problemática de los datos en la sociedad y en la educación.

Vamos a empezar por agradecer a Pablo Rivera Vargas, Raquel Mió Puigcercós y Ezequiel Passeron por la inteligencia de este formato, que permitió generar charlas con tantas mentes de la educación, de manera rizomática y abierta. Al finalizar la serie de este año académico 2020-21, dejé estas sinceras palabras en el canal:

Por favor, no nos priven de una tercera serie. Diría que ya estamos como en una suerte de Netflix pedagógico pero no metamos a las plataformas de por medio ni en metáfora 😀 Quiero felicitarlos sinceramente por el excelente trabajo de comunicación e investigación, tan necesario para bajar la academica de la torre de marfil, y tan oportuno en este cambio sin precedentes que ha significado la pandemia. Ha sido, además de un gesto de inteligencia y de coraje, un gesto de cuidado a la comunidad educativa y educante.

Este diálogo genera (gracias a la inteligencia del formato propuesto, como decía) una excelente oportunidad no sólo de compartir el trabajo “desnudo” del pensamiento investigador en temas, sino más bien, de replantearlo a través de las preguntas propuestas.

Comparto en este espacio las notas generadas por Ezequiel Passeron luego de la charla:

Uso de los datos en la sociedad y la educaciónPartimos siempre de eologismos: se acuñan en inglés y luego pasa al castellano.
Inicialmente, hubo discursos optimistas respecto a la temática (2015)
Eso ha generado visiones contrapuestas:
Open data como promesa de uso de un bien público, datos abiertos.
considerar el conocimiento como un bien público, podía convertirse en un recurso educativo abierto. Educación y ciencia abierta.
VS
Capitalismo de vigilancia, noción acuñada por Shoshana Zuboff en referencia a un nuevo paradigma extractivo donde nuestros clicks se convierten en la materia prima.
Dataismo Jose Van Dicjk (dadaísmo y uso ingenuo de los datos)
El lado oscuro de los datos vs open data.
La datificación aparece como un término acuñado en inglés primero, con connotación negativa. Uso no informado, cautivo, monopolizado de los datos por parte de las grandes plataformas de redes sociales que luego se replica como modelo para las plataformas LMS.
2016: escándalo Cambridge Analytica. La sociedad se despierta. Veníamos de un sueño (buena parte de culpa la teníamos nosotros mismos). Mea culpa de los educadores en relación al web 2.0, ese web pro-social que tanto promovimos. Estábamos distraídos, mientras el uso de datos crecía sin precedentes.
Desafíos y límites de la digitalización de la sociedadOla de desolación (post ola de entusiasmo).
El acceso a los datos abiertos era la punta del iceberg del problema.
Sociedad: empieza a darse cuenta que la mayor parte de los datos está generado en un mundo sumergido (el de las plataformas privadas).
Discusión académica: en ciencias sociales primero, luego educación.
Pérdida de libertad del individuo y de soberanía.
De datos como bien público (esperanza y transparencia; participación ciudadana; hacer ciencia hacia la ciudadanía y con la ciudadanía) hacia una parte sumergida (capitalismo de vigilancia. Plataformas sin tener que explicarse a la sociedad comienzan a generar algoritmos a conveniencia de sus modelos de negocios, de sus innovaciones y de sus ganancias respecto a la riqueza de datos).
Colonialismo de datosEuropa va a África y América Latina. Donde se firmaban tratados que los locales no entendían. “Ustedes aceptan que nosotros entremos y explotemos estos territorios”. Esto es lo que nosotros firmamos con las Condiciones de uso de las plataformas digitales. Estas apps lo que hacen es analizar nuestro comportamiento, nuestros patrones de uso, a partir de una cantidad de datos que permiten hacer análisis estadísticos que eran impensados hace 20 años (mediante algoritmos, que dan servicios y recomendaciones).
Nota ex post: aquí me refería al excelente trabajo de Paola Ricaurte
Llamado a un punto de reflexión/ equilibrioProbablemente, no es que haya habido una intencionalidad malvada en este hacer.
La lógica del capitalismo es generar provecho.
Estas compañías repitieron, allí donde estaba la posibilidad de extraer el bien del dato, y utilizarlo y generar provecho sin precedentes. Es la sociedad democrática, es el ciudadano pensante, que tiene que deconstruir esta lógica. No es malvada, pero sí representa la “banalidad del mal”. Ese hacer mal por no pensar en el impacto de lo que se hace. 
Es responsabilidad de la sociedad destejer este nudo y decir “Ey, esto no funciona, tenemos nosotros que poder participar y ver, junto con regular los procesos de uso de nuestros datos”.
Esto es lo que hizo el GDPR (2016/17), que se anticipó al problema. “Nosotros no podemos permitir que el dato se extraiga de esta manera”. La primera preocupación era la privacidad de las personas, la pérdida de libertad de la persona por cómo se utilizaban estos datos y cómo empujan nuestro comportamiento (particularmente con redes sociales y de ciertas apps con sistemas de recomendación).
Investigaciones empiezan a desvelar estos procesos.
Empezar a darle la vuelta a la situación, para poder generar normativa y herramientas para crear nuevas alfabetizaciones.
Concepto de justicia social de datosLa cultura de datos, conversación con Raul Bhargava: (ex-Media lab del MIT, Northeastern University). Media education (educación medial y tecnología cívica). Trabajaba junto con Catherine D’Ignazio y Lauren Klein, que luego generaron una línea específica: feminismo de datos.
Promueven que los datos son de todos y para todos, y cualquiera se puede acercar (no es algo exclusivo para científicos de datos).
Yo retomo ese concepto desde la idea de culturas de datos, como una necesidad de contextualización, de desvelar, de destejer, de hacer un proceso de deconstrucción: qué sentidos les damos a los datos en las comunidades e instituciones en las que nos movemos. Empezar a pensar las culturas de datos. 
Nota ex-post: venía muy influida de mi trabajo y conversación con Caroline Kuhn en el proyecto liderado por ella, Data Praxis
Riesgo/Peligro del entusiasmo relacionado con los datos y su aplicación en la Inteligencia ArtificalLa manipulación de los datos sin una reflexión.
El tecnosolucionismo a partir de los datos.
Ponerle cuidado al uso de datos basados en algoritmos.
¿Cómo se entrenan esos algoritmos? ¿De dónde salen los datos?
Tiene que haber un diseño participativo de los algoritmos, para entender que hay datos que no representan al colectivo para el cual se está trabajando. Ej: problemas con el reconocimiento facial: evitando ciertas razas -orientales, africanas- o géneros como la no selección de ingenieras mujeres para Amazon.
Los datos no son una abstracción, una entelequia, algo objetivo de por sí.
Los datos son un concepto que se materializa a través de muchos pasajes de sentido, en los cuales, cada uno de los seres humanos que participan en la cadena de producción del dato, aporta sus sesgos, matrices culturales, sus formas de ver el pasado y futuro.
El problema: entramos en conflicto con el poder. El poder todavía es masculino y blanco. Un símbolo que se ha generado en la sociedad y está agotado. Este poder sigue queriendo desarrollar soluciones tecnológicas, basadas en algoritmos. Es por ello también que la contestación más grande viene desde el feminismo de datos (Cathy Oneill, Francesca Bria, Shoshana Zuboff, Caterine D’Ignazio).
Grupo grandes de mujeres que manifiestan que este tipo de poder NO VA MÁS.
No es parar la inteligencia artificial, pero sí reclamar una inteligencia artificial participativa desde el diseño, que sea justa.
Situación actual: Educación, sociedad y feminismoNo podemos volver al mundo analógico.
Nos despertamos: todo nuestro quehacer lo estamos dejando en un espacio material gestionado de manera colonial.
Ahora que nos despertamos, y estamos en un punto casi mainstreaming (en donde el “te lo dijo el algoritmo” está entrando en el lenguaje común y en la vida cotidiana).
Desafío: cómo colabora la educación con este movimiento de generar una cultura donde se lea y deconstruya la materialidad del dato, y el sentido de los mismos (epistemología de datos). Necesitamos estructuras tecnológicas participativas, donde además el algoritmo esté constantemente estresado y sometido al control de los seres humanos que interactúan con la tecnología. Una reflexión post-humana.
Tenemos que construir una nueva cultura de datos.
Big tech en educaciónFast food tecnológico: tecnología rica, fácil y segura en el tipo de respuestas que da, las esperadas por el usuario . Porque tiene muchísimas horas de código. Mucho know-how.
En esa relación no pensamos en lo que consumimos, no pensamos en qué pasa con la plusvalía de datos. ¿Qué hacen las big tech con la plusvalía de datos?
Militancia del open source, para dejar de usar plataformas. Ej: XNET de Simona Levy.
Ofrecer soluciones alternativas.
No puede caerle al docente la decisión o la obligación de buscar otras alternativas que funcionen sin caerse. El educador/a no puede con todo, no le podemos echar la culpa de que haya usado Zoom o Classroom.
El problema es desarrollar esas infraestructuras de conocimiento tecnológico a nivel local.
Volver a una soberanía tecnológica que después sería una soberanía de datos, y que va a ofrecer soluciones más justas al educador.
Los educadores tienen que ocuparse de la relación pedagógica, de educar, de los contenidos, del sentido de la educación. Podrán (y deberán) entender la infraestructura y el ecosistema tecnológico de datos, pero no lo pueden resolver solos. Necesitamos para eso un diálogo interdisciplinario con equipos locales, con informáticos, donde todos seamos activistas de la soberanía tecnológica.
“No hay nada de malo en que los datos vayan a las empresas tecnológicas”, Francesca Bria. “Pero tienen que volver, salir de esa parte sumergida. No es la empresa privada la que tiene que tomar las decisiones por nosotros de qué se hace con los datos”. 
Tiene que haber un enfoque democrático, participativo, de interacción público-privada, sobretodo en la educación.
Los decisores tienen que ser los políticos, la ciudadanía.
El dato puede estar manejado a nivel privado, pero tiene que volver como dato abierto a la ciudadanía y al espacio público, en eso me agrego al pensamiento de Francesca Bria, y lo veo aplicado a la educación.
Educación críticaNo podemos ser meros consumidores de tecnología, entonces, aunque sea lo más fácil.
En tanto seres humanos estamos llamados a responsabilizarnos por el mundo, porque sino no somos seres humanos.
Vuelvo al concepto de responsabilidad y de la banalidad del mal, de Hannah Arendt.
La banalidad del mal, está en el modo en que estamos usando las tecnologías en este momento. “Nos tenemos que responsabilizar, basta de videos cortitos, fáciles y rápidos”. 
Tenemos que responsabilizarnos por el caos y la complejidad y por el hecho de que nuestro ser en el mundo es tomar decisiones. Para tomar decisiones tengo que conocer el contexto, .
Para eso, tenemos que volver a meternos en el espacio educativo.
Nosotrxs tenemos que trabajarlo como educadores.
No solo la tecnología, cualquier cosa que consumamos, tenemos que desgranarla, entenderla, poner en marcha valores humanos (solidaridad, empatía, cuidado del otro, etc.) que son los únicos que nos pueden salvar y que nos darán dignidad y felicidad. No hay felicidad posible sin reflexión, introspección y pensar profundo sobre el mundo en el que vivimos.
“A más tecnología, más filosofía y pedagogía en las aulas, más conversación y menos colores y videos de gatos”. Es un decir, una metáfora para indicar este énfasis en el consumo de lo rápido que nos ha llevado a consumir sin pensar en las infraestructuras de datos en las que hoy nos encontramos atrapados. 
Ejemplos en el mundo:
Manifiesto de Simona Levy: basta de fast food en las aulas en Barcelona.
Argentina: Huayra, sistema operativo de Ubuntu, da herramientas a educadores para trabajar con open source.
En Ecuador (énfasis sobre el uso de software open source y soberanía tecnológica)  y Uruguay también (caso UDELAR y enfoque de recursos educativos abiertos)
En todos estos casos hay alguna forma de escucha de los gobiernos, cuando no una directa implicación
Necesidad de soberanía tecnológica y de datos.
¿Cómo? A través de perspectivas críticas de datos y sociedad.
3 Líneas de trabajo de Juliana:
-datos abiertos, de ciencia y gobierno, como formas de transformación de trabajo en la didáctica universitaria.
-repensamiento de metodología de trabajo del uso de los datos en el proceso pedagógico, desde un punto de vista crítico (con la Universitat de Barcelona).
-justicia de datos: pensar a todas las plataformas, a leer críticamente los términos y condiciones de uso (siguiendo las huellas del trabajo de Bonnie Stewart en Canadá y Caroline Kuhn en el Reino Unido).
Un desafío interdisciplinarioIr generando espacios de lo posible, de sueños.
no podemos dejar de usar las plataformas, pero sin embargo podemos explorar otras posibilidades. 
invitar a ser responsables en el mundo desde pequeñas acciones cotidianas como educadores.
No tenerle miedo al trabajo técnico con los datos.
Humanidades digitales: formación socio-técnica de cómo funcionan las plataformas. Dialogar con estas formas de pensar la tecnología. Gran reto.
Importancia del ActivismoPor naturaleza, vivir en la esperanza. De que podemos hacerlo bien.
Amor por la humanidad y el ser humano.
Respeto de las juventudes como hacedores del futuro. 
Al servicio de ellos y ellas. Que logren lo que quieren.
Vivir una relación de cuidado intergeneracional. Relación de apoyo, de sus ideas, y de sus alternativas al sistema. Por ej: la excesiva centralidad que le hemos venido dando al valor del trabajo y como se reconfigura para los jóvenes. La reconfiguración del ocio, de las relaciones y de los espacios. Esto está generando un nuevo paradigma humano, en donde el trabajo no sea central para la supervivencia. Una organización de la vida de otras formas del quehacer humano.
JóvenesNo perder la esperanza en el hecho de que hay espacios de coraje, de fuerza, de posibilidades de transformación.
No desmoralizarse por experiencias negativas (discursos de odio), por eso ponerse en contacto con otrxs con otra experiencia que los puedan escuchar y ayudar.
Empeño en los valores de discursos moderadores frente a los discursos de odio.
Racionalidad y pensamiento crítico frente a la circulación de noticias falsas.
Involucrarse mucho en el diseño participativo de la tecnología y el futuro de la inteligencia artificial.
La tecnología es parte de lo que somos, es nuestro hacer creativo en el mundo. No podemos dejar nunca de hacer tecnología, es ridículo ser tan extremista de llamar a volver a lo analógico. No tenerle miedo al código, al desarrollo, a la cultura maker. Pero tampoco abrazar esto de manera acrítica (tanta fuerza a las STEAM, tampoco es la vía, creo más en un nuevo concierto tecno-humanístico y humano-tecnológico).
Aprender a descentrarnos epistémicamente y a cruzar puentes de lo humanístico y lo tecnológico. Ir y volver.
Tener la apertura, desde la educación y las aulas, para generar espacios de pensamiento que atraviese los puentes entre Psiqué y Techné, tomando prestada la metáfora de Umberto Galimberti*
*Galimberti, U. (1999) Psiche e Techne: l’uomo nell’età della tecnica. Milano: Feltrinelli

.

Published by jraffaghelli

Professor at the Faculty of Education and Psychology (Universitat Oberta de Catalunya). PhD in Education and Cognitive Science (Ca' Foscari University of Venice) Master in Adult Education (Ca' Foscari University of Venice) Degree in Psychology (University of Buenos Aires)

Leave a Reply

Fill in your details below or click an icon to log in:

WordPress.com Logo

You are commenting using your WordPress.com account. Log Out /  Change )

Google photo

You are commenting using your Google account. Log Out /  Change )

Twitter picture

You are commenting using your Twitter account. Log Out /  Change )

Facebook photo

You are commenting using your Facebook account. Log Out /  Change )

Connecting to %s

%d bloggers like this: