“Una de las complejidades de la educación es que no solo se enseñan cosas fáciles. También, se instruyen valores, consejos y salir de situaciones humanamente muy complejas, que no son fácilmente exportables a algoritmos”, dice Cristóbal Cobo, en "La abstracción, descomposición y construcción de patrones"
Los algoritmos son una serie de instrucciones que permiten hacer y resolver diferentes operaciones. Aunque están ampliamente asociados al ámbito de la tecnología, la construcción de una secuencia de pasos para realizar una tarea, no es ajena. Ejecutar una receta de cocina, indicar una dirección, hasta pensar cómo armar o desarmar algo, todo sigue un orden, una secuencia para obtener un resultado.
La Inteligencia Artificial (IA) reúne técnicas que habilitan a un dispositivo a concretar acciones que requieren cierto nivel de razonamiento o aprendizaje. La IA utiliza algoritmos para procesar datos. Estos algoritmos permiten resolver problemas y realizar tareas complejas. Siguiendo una serie de instrucciones (como en una receta), simulan los procesos de la inteligencia humana a través del aprendizaje, el razonamiento y la autocorrección. Así transforman una información de entrada (input) en un resultado útil (output).
La serie de comandos que una computadora utiliza para predecir la edad de una persona (output) a partir de su fotografía (input), se define mediante un algoritmo. También son algoritmos los que anticipan la respuesta antes de que terminar de escribir una pregunta en una búsqueda o los recomendados de los sitios de películas, acordes a los intereses de la persona.
Distintos sistemas y plataformas utilizados en la vida cotidiana cuentan con IA y algoritmos para “facilitar” la toma de decisiones y ofrecer, en base a lo que han aprendido, aquello que le gusta, le interesa o que tiene que ver con el estilo de vida de la persona que lo utiliza. Pero la forma en la que operan los algoritmos y el uso que las compañías hacen de esa información, genera una serie de controversias y dilemas éticos.
Hay cierta opacidad en el funcionamiento de los algoritmos, y no sólo en el hecho de saber cómo y para qué manipulan datos. En ocasiones, estos algoritmos reproducen sesgos y prejuicios vinculados al género, la raza, la clase social, intervienen decidiendo qué personas son atractivas y cuáles no en un red social de citas o logran afectar la vida democrática de un país, como explica este clip de la BBC sobre el suceso de Facebook y Cambridge Analytica:
“¿Por qué cedemos tantos privilegios a las empresas de servicios digitales para que tengan el control de nuestra vida privada?”, se pregunta Cristóbal Cobo. La información está en manos de pocas compañías, esto requiere que se comience a pensar de manera criteriosa (eligiendo qué hacer público y qué no), que se pueda poner valor a los datos (determinando cuándo compartir algo, a quién y por qué), que se acepten o refuten los términos y condiciones de los sitios web o aplicaciones (uso de cookies, registro de datos y movimientos).
En definitiva, ensayar la reflexión y la mirada crítica es la posibilidad de accionar en el mundo digital, habitándolo de forma segura y responsable. Las tecnologías son una oportunidad para repensar la sociedad, revisar los vínculos, los anhelos y miedos. Internet es un espacio en el que se puede escuchar la voz de cada persona e incidir en las reglas de juego del ámbito digital. Porque más allá de las pantallas, los botones, los “me gusta”, o el “visto”, lo que importa es qué se hace con la tecnología para mejorar la vida de todas las personas.
En “Acepto las Condiciones: Usos y abusos de las tecnologías digitales”, Cristóbal Cobo habla “del fin de la luna de miel digital”. El autor invita a reflexionar desde una perspectiva crítica y abierta sobre las consecuencias de la masificación de las tecnologías y su impacto en las nuevas formas de poder y control de la sociedad actual.
“Sin aspirar a que cada ciudadano sea un experto en sistemas informáticos, es importante buscar que internet, que cada vez juega un papel más preponderante en nuestras vidas, deje de ser una caja negra y pueda ofrecer protocolos y prácticas más transparentes sobre qué ocurre con nuestra información. Todos estos aspectos hacen que resulte mucho más complejo hoy en día poder medir, comprender y generar acciones para reducir una brecha digital que, como decíamos, no se agota con el acceso a los dispositivos, sino que se determina por los tipos de usos que se hacen de y en internet. Suponer que este es un tema de técnicos y que la ciudadanía no tiene voz al respecto, tal como decía Sunstein, es que estamos «eligiendo no elegir» (o que otros elijan por nosotros).”
“Es central preguntarnos cuánto sabemos los ciudadanos respecto de las decisiones que toman los algoritmos diariamente sobre nuestras vidas en América Latina. Si la respuesta es ‘poco’ o ‘nada’, tenemos una tarea pendiente a resolver. Si esa tarea implica limitar a los poderes, tendremos que establecer alianzas locales con otros actores para que las decisiones estén más en nuestras manos. De eso, finalmente, se trata la soberanía”, dice Natalia Zuazo en el artículo “Algoritmos y desigualdades” que podés consultar aquí.
UNESCO desarrolló un material para desatar la conversación respecto de la Inteligencia Artificial y las repercusiones que tiene en la vida de las personas. En esta guía se acerca el tema y se ofrece una serie de recursos, casos y propuestas para iniciar la conversación sobre el tema y reflexionar por qué la forma en que la tecnología impacta en la sociedad es un tema que convoca a todas las personas. Aquí se puede descargar la guía en español.
“En el invierno de 2018 organizamos un encuentro de científicos interesados en investigar los impactos de las tecnologías en la sociedad actual. La reunión fue en Punta del Este, Uruguay, y participaron especialistas de una docena de países. Uno de nuestros invitados era George Siemens, quien por complicaciones de agenda no pudo sumarse personalmente, pero dio la charla de manera remota. Aunque muchos imaginaban que hablaría sobre algunos de sus trabajos vinculados al conectivismo, analíticas de aprendizaje o cursos masivos en línea, su charla giró en torno a la relación entre inteligencia humana y artificial. Exploró los costes de dejar de utilizar la inteligencia artificial simplemente como un recurso complementario para convertirla ahora en una herramienta capaz de pensar con nosotros. Nuestra cognición ya no solo se distribuye a través de las redes sociales, sino también a través de herramientas tecnológicas y sistemas de inteligencia artificial. Este fenómeno analizado en gran escala abriría camino a una suerte de cognición sociotécnica distribuida, agregó.” (p. 82)
“Durante su presentación utilizó una metáfora que llamó mi atención. Siemens indicó que vivimos bajo una capa o piel global de datos (global data skin) y que esta articula una parte importante de las transformaciones sociales y tecnológicas que hoy están ocurriendo. Esta capa no solo está presente en todo orden de cosas, sino que además incide en la manera en que nosotros observamos la realidad. Esta mirada en alguna medida dialoga con la idea de la «datificación» de la sociedad que contiene el concepto de dataísmo popularizado por Harari. El dataísmo 7 puede entenderse como un enfoque filosófico o ideología que concibe a la especie humana como un único sistema de procesamiento de datos. Bajo esta mirada uno de los objetivos sería lograr maximizar el flujo de datos mediante la conexión de muchos o todos los medios. Este enfoque sugiere que las personas somos información porque producimos, registramos, compartimos y consumimos información todo el tiempo.” (p. 82)
“El dataísmo transforma todo en un formato de datos. El paradigma basado en datos constituye el núcleo de los procesos y las prácticas del siglo XXI. La vida ahora se transforma en datos cuantificables y bajo esta perspectiva se legitima como medio para acceder, comprender y controlar el comportamiento de las personas 8 . El dataísmo plantea que si se cuenta con suficientes datos biométricos y poder de cómputo se podría entender a los humanos mucho mejor de lo que lo hacemos hoy. Una vez que los sistemas de Big Data me conozcan mejor que yo, la autoridad cambiará de los humanos a los algoritmos. Entonces, eventualmente las personas podrían ceder a los algoritmos la autoridad para tomar las decisiones más importantes en sus vidas.” (p. 84)
“Este concepto que transita entre la sátira y, a la vez, el fervor, dependiendo a quién se le consulte, ofrece el discurso perfecto para quienes comercializan nuestros datos.” (p. 84)
“También existe el contrapeso de los datoescépticos. Este sector advierte sobre las limitaciones y vicios que encontramos en la era de los datos masivos, y no sólo en relación con los abusos a la privacidad. Vivimos en una realidad compleja, pero al hacer una consulta a un algoritmo no hay magia, sino una abstracción o reinterpretación de la información sobre la base de los datos disponibles. Ese proceso de reinterpretación es susceptible de innumerables omisiones, sesgos, supuestos, errores, etc., aunque es cierto que la capacidad de procesamiento de información de estas herramientas puede ser gigantesca (ver Big Data). Pero no hay que perder de vista que la interpretación de estos volúmenes masivos de datos es también el resultado de una forma de entender o de ver la realidad, un conjunto de pasos lógicos que buscan resolver un problema, y para ello es necesario priorizar ciertos valores o variables sobre otros. ¿Existe riesgo de utilizar algoritmos a gran escala e incorporar errores u omisiones que discriminen injustamente a los perfiles más vulnerables? (p. 85)
“ (...)Esto no es a priori negativo ni positivo, pero no está libre de consecuencias. Es una forma de entender la realidad, el problema está cuando desconocemos que los algoritmos ofrecen una economía de la abstracción que simplifica (o manipula) la realidad con la que interactuamos. Los algoritmos filtran la realidad, ignoran la especificidad de los contextos, valoran algunos datos sobre otros y nos muestran una realidad intervenida que destaca algunos servicios, ideas o verdades sobre otros. Es decir, consumimos una versión «photoshopeada» e «instagrameada» (que pasa por el editor de imágenes) de la verdad pensando que es la propia realidad. Los conflictos se producen cuando creemos que la información que entrega un conjunto de algoritmos (por ejemplo: el resultado de búsqueda, una ruta en un mapa o la popularidad de alguien en línea) es la realidad en sí. Entonces es cuando se genera una relación de asimetría, de poder o de dependencia entre quien crea o administra la plataforma y quien consume los servicios de información ofrecidos. (p.85)
“Los algoritmos pueden entenderse como sistemas simbólicos que operan en la intersección entre cognición y realidad, por lo tanto, son agentes intermediarios que permiten filtrar o manipular una realidad en particular. A medida que los algoritmos tienen más relevancia en la vida social, se convierten en máquinas culturales que operan en la intersección entre código y cultura. Hoy se han ido transformando en herramientas para pensar, interpretar e interactuar con la realidad. Dado que no es necesario saber construir un algoritmo complejo para poder utilizarlo, las personas los utilizan en todo momento sin ser conscientes de ello. El riesgo está en que mientras más ubicuos son los algoritmos como dispositivos culturales, más pareciéramos confiar en sus capacidades.
“Las decisiones tomadas por algoritmos limitan la neutralidad. Los algoritmos, pero también los términos y condiciones de las compañías que los crean, filtran la información que millones de personas alrededor del mundo leen y comparten diariamente 10 . Si ignoramos el sesgo intrínseco de estas herramientas, entonces tenemos problemas cuando buscamos información en Google. Si obviamos los intereses comerciales latentes al utilizar las redes sociales, desconocemos la manipulación que estas traen consigo. Si olvidamos que las noticias que circulan por internet pueden responder a ciertos intereses comerciales y/o políticos, entonces adquirimos una posición de vulnerabilidad. Si desconocemos las debilidades de wikipedia o YouTube, podemos dar por verdad algo que no necesariamente lo es. Si desconocemos que la internet con la que interactuamos es simplemente una versión a medida o ajustada a nuestros perfiles, entonces estamos «eligiendo no elegir». Parafraseando a Marshall McLuhan, hoy el filtro es el mensaje. La capacidad de discriminar, ponderar, contrastar y contextualizar la información juega un papel crítico cada vez que utilizamos internet o nos relacionamos con otros a través de una tecnología digital.” (p. 86)
A nivel social e individual ¿Cómo salir del ascensor?
“En los años 60, Solomon Asch4, un reconocido psicólogo social, realizó un experimento que consistía en ubicar a varios actores profesionales dentro de un ascensor y a un individuo (el sujeto estudiado), que no sabía que era parte de un experimento, ni que el ascensor estaba siendo grabado. Durante el experimento todos los actores, confabulados, cambiaban de posición al mismo tiempo mirando en dirección opuesta a la puerta, y el individuo, aunque extrañado por la situación, terminaba por girarse también para sumarse al grupo. Este famoso experimento buscaba demostrar cómo en el grupo se diluye la individualidad y cómo las personas buscan conformarse con la norma. Asch demostró cómo una persona puede llegar a perder su individualidad para no quedar mal socialmente.
Siguiendo esta metáfora de la psicología social, hoy el desafío está en ser capaz de «salir del ascensor». La mejor manera de tener pensamiento independiente es poder alejarse de lo que dice la multitud. Para ello es fundamental contar con una ciudadanía proactiva que «elija elegir», que cuente con herramientas para pensar y actuar críticamente. Para «salir del ascensor» hay que aprender a cuestionar todo, aunque a veces nos lleve a rincones incómodos. ¿Por qué cedemos tantos privilegios a las empresas de servicios digitales para que tengan el control de nuestra vida privada?.
¿Cómo «salir del ascensor»? Resulta fundamental desarrollar un conjunto de habilidades y nuevos alfabetismos de información, de uso de datos y de medios de comunicación que nos permitan navegar en contextos complejos e híbridos que parecieran rendir tributo al «dataísmo», que aquí entendemos como «alfabetismo digital crítico», es decir, el conjunto de habilidades necesarias para comprender crítica y ampliamente los medios digitales y sus implicaciones sociales, económicas y políticas. Para desarrollar esta mirada es necesario seguir avanzando con la ciudadanía hacia habilidades digitales más complejas que escapen de fórmulas mágicas o inmediatistas.” (p. 96)
“Si bien la tecnología puede ayudar tanto en el trabajo cotidiano como en las actividades sociales, las personas no deben perder de vista la importancia de las conexiones humanas como un fin en sí mismo. Hoy se observa un creciente consenso sobre la relevancia de abordar y promover el desarrollo de un amplio espectro de competencias a través de las diferentes formas y espacios de educación y capacitación. Esto incluye tanto habilidades cognitivas de orden superior como otras de tipo socioemocionales como, por ejemplo, la empatía, el trabajo en equipo, la colaboración, la resolución de problemas, la autorregulación, el pensamiento crítico y la capacidad de establecer conexiones entre diferentes formas de acceder y crear conocimiento. Desarrollar capacidades tecnológicas, instrumentales y cognitivas no debe plantearse sin tener en cuenta el componente social aquí descrito. En esta era de la hipercomplejidad, la falsa simplicidad y el reduccionismo parecen el mejor atajo. Sin embargo, es fundamental estimular nuevas formas de pensar y de actuar. Estas capacidades no solo juegan un papel crítico para distinguir hoy en día entre las diferentes expresiones de la brecha digital, sino que también son una forma de contrapoder que contribuye a actuar frente a las asimetrías existentes. Para comprender que la tecnología no es neutra es clave adoptar una perspectiva más holística y transdisciplinar. Esta apertura es necesaria no solo para analizar la realidad desde su complejidad, sino principalmente para poder intervenir sobre ella.” (p. 97)
“Entre otras cosas, es fundamental para generar las condiciones que permitan a más personas tener opciones para desarrollar un conjunto de conocimientos y habilidades cognitivas como, por ejemplo, el alfabetismo digital crítico, el pensamiento computacional, el alfabetismo de datos o el alfabetismo de redes. Ello implicaría que las instituciones de educación formal sean capaces de dejar atrás el divorcio disciplinar y el pensamiento departamental que desagrega, desconecta y desvincula a las disciplinas entre sí, para poder avanzar hacia formas más complejas de entender la realidad. Por ejemplo, dejar de desvincular a las humanidades y las disciplinas llamadas STEM (acrónimo en inglés que hace referencia a Ciencia, Tecnología, Ingeniería y Matemáticas). La resolución de los problemas del mundo cambiante y complejo requiere un tipo de pensamiento mucho más sofisticado, pero también más cercano a la realidad. Comprender las implicaciones sociales de la tecnología es crítico para entender las asimetrías y concentraciones de poder que hoy existen.” (p.98)
“Mecanismos institucionales y alternativos, tanto normados como sociales, son necesarios para dar espacio a nuevas formas de pensar la era actual. Distintos espacios tanto para el aprendizaje formal como informal pueden transformarse en una oportunidad para contribuir a que las personas sean más conscientes de cuáles son nuestros filtros y sesgos para interpretar la realidad. Es necesario comprender que las diversas formas de manipulación y de poder pueden ser aparentemente invisibles en los espacios digitales. Internet se parece a una fábrica de datos y a veces actuamos como consumidores adoctrinados que nos ceñimos a las reglas que imponen unos pocos pero influyentes intermediarios digitales. Por supuesto, solo porque sabes que estás siendo manipulado no significa que puedas resistirte o liberarte de ello. Por eso no basta con destacar la importancia de formar nuevas capacidades en la ciudadanía, sino que también se necesita formar agentes de cambio capaces de intervenir en la realidad que nos rodea. El pensamiento crítico debe alentar a las personas a participar de manera reflexiva y deliberada sin que ello impida explorar las ambigüedades de la realidad en la que vivimos. El papel de la educación es crítico para formar agentes de cambio, y ello guarda relación con estimular nuevas formas de autorregular nuestras capacidades cognitivas, nuestras habilidades, así como nuestros comportamientos. Las instituciones que promueven el aprendizaje tendrían que poder responder a esta simple pregunta: ¿cómo ayudar a los individuos a aprender por su cuenta y a pensar críticamente frente a estos desafíos? Ello implica dar más brújulas para la exploración en vez de tantos mapas. Esto implica aprender a autorregular y a autoadministrar los procesos de aprendizaje independientemente del contexto en que ocurren.” (100)
Ustedes saben qué están haciendo sus teléfonos en este momento? Están acumulando datos sobre nuestras vidas, nuestras preferencias, nuestras rutas. Aunque no la veamos, la manipulación - sutil o burda - está presente en las redes sociales y a través de nuestros dispositivos
Sabemos que estamos vigilados, a través de nuestros móviles, ordenadores y cámaras. Pero no hacemos nada malo y por eso nos sentimos a salvo. Marta Peirano avisa en esta charla que es urgente preocuparse y proteger nuestro anonimato en la red.
Quién soy?
La persona que mis redes sociales muestran?
La que muestran las redes de mis amigos?
O la persona real que está detrás de esos posteos?
Agustina Carrizo no invita a reflexionar sobre nuestra Huella Digital y la identidad que construimos a través de lo que Internet dice de nosotros. Quien almacena nuestros datos? y "Los Términos y Condiciones".
Usamos cookies para analizar el tráfico del sitio web y optimizar tu experiencia en el sitio. Al aceptar nuestro uso de cookies, tus datos se agruparán con los datos de todos los demás usuarios.