Pablo Elián Carrasco[1]

 

“La crítica es en verdad el análisis de los límites y la reflexión sobre ellos”

Michel Foucault, ¿Qué es la ilustración?

 

“La gubernamentalidad algorítmica no produce ninguna subjetivación,

sino que sortea y evita a los sujetos humanos reflexivos,

se alimenta de datos infra-individuales insignificantes por sí mismos,

para ejecutar modelos de comportamiento o perfiles supraindividuales,

sin apelar jamás al sujeto, sin pedirle jamás al sujeto

que explique qué es lo que es y qué es lo podría devenir.”

Antoinette Rouvroy y Thomas Berns, Gubernamentalidad algorítmica y perspectivas de emancipación

 

“Hablar por Zoom con mis amigos es muy aburrido, no es como cuando nos vemos”
Gael Carrasco Ré, 7 años.

 

 

El coronavirus ha generado la profundización de algunos procesos que ya estaban en curso. El primero es el de la distribución desigual de los recursos y su consecuencia, la desigualdad económico-social. El segundo es la profundización de la hegemonía de un solo tipo de entrada a lo humano: la del individuo consumidor. Y el tercero, que aquí nos ocupa, la profundización de la digitalización de las diversas facetas de la vida humana, el rol de los algoritmos en esa dinámica.

Un algoritmo es un sistema de distribución desigual de la atención. De distribución porque la atención es un bien escaso que se disputan las plataformas entre sí, los empleadores y un poco más acá, los entornos afectivos. Y desigual porque establece una serie de mecanismos que priorizan algunos tipos de contenidos por sobre otros para ser impresos en nuestras pantallas. Ese conjunto de reglas creadas por humanxs determinan qué cosas vemos en medios sociales, en Google o en las aplicaciones de nuestro celular. Su criterio de selección tiene tres motivaciones concatenadas: un objetivo global, el de nuestra permanencia en el espacio digital (la expansión del tiempo de atención a distribuir); subordinado a un objetivo comercial  (la riqueza de cada una de estas empresas radica en cuán exitosas sean con este primer objetivo); y finalmente un sistema para lograr estos objetivos basado en la obtención de datos masivos que permiten crear perfiles digitales de cada unx de nosotrxs. La consecuencia de esto es la formación de espacios digitales públicos en los que se dirime parte importante de nuestras vidas, sobre reglas no elegidas y sobre las que es importante reflexionar.

La cuarentena generó el incremento del tiempo que pasamos online, no solo en actividades ociosas sino también por el traslado al ámbito digital de las tareas laborales y de todo tipo de clases, reuniones y encuentros. Aparece entonces la idea de que, no solo la vida misma y sus diversas aristas pueden ser trasladadas al espacio virtual, sino que quedan también completamente virtualizadas las ideas que nos hacemos sobre el mundo, nuestrxs vecinxs, la sociedad en la que vivimos y el juego de tensión que hacemos unxs con otrxs  para establecer nuestro lugar en el espacio público. Esta conveniencia y practicidad, que permite sostener la productividad en las tareas de mayor nivel de formación, tiende a menguar la capacidad crítica frente a los modos en los que se construyen los ambientes digitales en los que pasamos cada vez más tiempo.

Solemos estar preocupadxs por las disputas de sentido dadas en los territorios digitales en torno a determinados fenómenos, acontecimientos de agenda o incluso palabras. Pero poco reflexionamos sobre la dinámica de esos territorios y su capacidad para eludir la crítica sobre sí. Intentaremos reflexionar sobre la forma misma de esas plataformas, sus lógicas e intentar comprender qué tipo de ordenamiento producen.

 

Perfilado digital

Producimos para los algoritmos, de manera directa o sin darnos cuenta, una cantidad enorme de información que las plataformas acumulan. Esta primera fase, de acuerdo a Antoinette Rouvroy y Thomas Berns[2] constituye la instancia de acumulación en la que todo dato posible de ser acopiado lo será. Esto se produce a través de las aplicaciones que tenemos en nuestros teléfonos y computadoras, allí todo fragmento de información importa, todo movimiento, interacción o vinculación con otro perfil es registrado.

Se produce en esta primera instancia una primera idea, la de captación del mundo. La creación de esta información aparece ya como más certera que la de la estadística tradicional o la de una encuesta en la que el encuestado pone en juego su voluntad, sus especulaciones sobre qué debe o no debe contestar. Nada de eso sucede con nuestros comportamientos online. Efectivamente un algoritmo puede captar algunas cuestiones más allá de la respuesta que podríamos dar de manera voluntaria. Puede captar cuánto tiempo nos quedamos mirando una foto, aunque no la comentemos ni likeemos, puede saber qué tipo de foto o video vemos. Puede saber qué tipo de búsquedas realizamos, en qué época del año, a qué hora, después de estar con quién, antes de comprar qué producto en qué tienda online o física, etc.

Luego de esta primera fase de acopio se produce una segunda etapa de análisis y procesamiento mediante la cual se genera un tipo de conocimiento sobre lo social denominado “dato”. Esta noción, como veremos más adelante, está construida con las reglas del lenguaje científico mientras oculta su proceso y ética de creación.

Ese dato es ya el aplanamiento y el destierro de su secuencia temporal y espacial de las circunstancias que lo produjeron. Tiene además dos características centrales, al estar aislado aparece como inofensivo para quienes habilitamos su descubrimiento (un like, un comentario, un vínculo con otrx usuario, movernos por la ciudad), y al aparecer como objetivo (como un mero registro de algo que sucede) se desvincula del sujeto, hacia una suerte de anonimato. La acumulación de esos datos no pueden entonces formar algo que podamos llamar realidad social, sino que se trata más bien de un conjunto de espacios individuales, unos frankensteins, que vinculan nuestras acciones y relaciones digitales para constituir nuestro reverso en la red: un perfil.

Una vez perfilados, los algoritmos tenderán a retroalimentar nuestro perfil en un loop que solo produce abroquelamiento sobre lo mismo. Sobre aquello que ya se sabe, ya se cree, reafirmando esas creencias y constituyendo una tendencia a extremar posiciones[3] a través de la validación constante de esas creencias, a cargo de otros perfiles similares con los que la plataforma nos vincula de manera más intensa, y de la imposibilidad de llegar a otras posiciones y perspectivas de las que existen en el mundo digital.

El tercer momento en esta dinámica es el de la predicción de nuestro comportamiento como consumidorxs (de productos, servicios, información o intercambios con otros perfiles) a través de la correlación entre nuestro perfil, constituido a través de datos y aquello que la acumulación de datos de otros perfiles permite vincular. Estamos en un momento en el que esta última instancia ha llegado a las conversaciones cotidianas: “nos escuchan”, “cómo saben que quiero comprar eso”, etc. Y si bien es importante que se comience a problematizar de manera masiva, aún queda mucho esfuerzo por hacer para trasladar estas cuestiones a los expertos a la política.

Estos perfilados permiten entonces constituir entornos personalizados en función de lo que fuimos diciéndole a los algoritmos que nos interesaba. Su lógica parecería decir “si le interesó X, le va a interesar X1” o “si le interesó Y, eso lo hace un perfil Z, como a todos los perfiles Z les interesa W, demoslé W”. Es decir que la estructura general de estos algoritmos para pensar a lxs usuarixs es la de lo mismo, la repetición, la norma.

Esta lógica constituye un tipo de relación con el mundo y lxs otrxs que lejos está de parecerse al espacio público en el que diversos actores ponen en juego, tensionan y generan consensos o conflictos comunes. Esta faceta de nuestra interrelación con otrxs tiene reglas bien distintas a las de la ficción que damos en llamar sociedad a la que estamos acostumbradxs. Ese afuera digitalizado es para cada uno de nuestros perfiles un espacio distinto que el que obtienen los demás, y la interrelación con otros perfiles cercanos constituye un espacio público ad-hoc y no completamente común con esos otros que vienen a compartir un intercambio a esta superposición de círculos.

A diferencia de ese mundo digital en el que todo responde de manera directa a nuestro perfil previamente esbozado, como una especie de incubadora rodeada de almohadas que nos evitan el desagrado de encontrarnos con el otro, afuera, cuando debamos salir de la cuarentena, el peso de cada unx de nosotrxs está profundamente relativizado para la constitución de ese mundo circundante. Los algoritmos crean espacios digitales a nuestra imagen y semejanza como jamás podríamos crear en otros ámbitos. La vuelta a esos espacios, esa necesaria inadecuación, produce una incomodidad, un resto de angustia insondable, y lo que surge de allí no puede ser otra cosa que la violencia y la frustración.

Si estas dinámicas son tan centrales en nuestras vidas ¿por qué no estamos abordándolas desde perspectivas que trasciendan el interés del consumidxr al que el algoritmo le sacó la ficha y podamos ponerlo sobre una perspectiva de subjetivación política? No lo tengo claro, lo que puedo esbozar es una pequeña hipótesis de disputa. Hay que romper los tres mitos que rodean a los algoritmos y las plataformas digitales: el algoritmo como el reflejo de la sociedad, el algoritmo como neutral y el algoritmo como producto de la ciencia. Veamos rápidamente cada uno.

 

Los algoritmos como reflejo de la sociedad

Tanto Google como Facebook se han descrito a sí mismos como meros espejos de lo que sucede en la sociedad. Mark Zuckerberg, creador, dueño y CEO de Facebook dijo “Las normas sociales evolucionan a lo largo del tiempo. Nuestro rol en el sistema es innovar y actualizar nuestro sistema constantemente para que refleje las normas sociales actuales”[4].  Hace unos años, en un evento en el que Google adelantaba un producto llamado “Contextual Discovery” (una funcionalidad que ofrecería contenidos -y anuncios- a los usuarios en base a sus intereses y geolocalización sin que el usuario haya realizado una búsqueda), Marissa Mayer, que luego fuera CEO de Yahoo!, se refería a cómo Google se veía a sí mismo: “Intentamos construir un espejo virtual del mundo en todo momento”.[5]

Esta pretensión de meros puntos de pasaje de lo social se ve también en el tratamiento mediático y a veces académico. Lo que sucede en las redes cobra relevancia como un modo de acercamiento a lo que pasa en la sociedad.

Está claro que los algoritmos de Google, Facebook, Twitter, Youtube y tantos otros no tienen una relación de reflejo de lo que sucede en las sociedades, como no lo tienen ninguno de los medios. Precisamente porque los algoritmos moldean y producen nuestros ambientes digitales bajo las lógicas que señalábamos al principio de esta nota, fuertemente vinculadas a los intereses comerciales y políticos de estas empresas; producen jerarquización de aquello que vemos en base al perfilado y devuelven luego de ese proceso de acopio, constitución del dato y proyección de futuro, un tipo de reensamble de los fragmentos al que llaman sociedad reflejada. Eso que llaman reflejo no es más que la cristalización de lo hegemónico, anulando en el proceso cualquier perspectiva minoritaria.

El reflejo de la sociedad termina por desbordar en instancias en las que se logran ver los cables de la moral de los algoritmos. En principio porque, como dicen lxs ejecutivxs de Facebook y Google, su funcionamiento tiende a cristalizar aquello que aparece de manera más masiva, conformando no un reflejo del complejo social sino la reafirmación de lo mismo, de aquellas aristas de lo social consolidadas como hegemónicas.

 

Los algoritmos como neutrales

Hace unas semanas Twitter decidió calificar un tweet de Donald Trump como contenido con información falsa, agregando una etiqueta en la que se invitaba a chequear fuentes confiables sobre el tema. Trump respondió con la firma de una orden ejecutiva retirando la inmunidad otorgada por la “Communications Decency Act” a las plataformas digitales y definiéndolas como curadoras de contenidos, no ya como espacios neutrales de publicaciones de terceros. Lo que Trump está diciendo es “las plataformas no son meros muros neutrales donde lxs usuarixs colocan contenidos, son productores de contenidos”. Si bien Trump no vendría a ser nuestro mejor aliado, es interesante el proceso que abre hacia adelante.

Cabe destacar que bajo una estrategia completamente diferente a la de Twitter, Facebook se desmarcó en lo que parece otro paso de Mark Zuckerberg hacia su objetivo de autorregulación de las plataformas. La disputa entre Twitter y Trump probablemente dificulte ese camino pero el saldo es un terreno de discusión muy distinto al que teníamos hace unos meses.

Lo que queda claro es que el tipo de organización de la información que los algoritmos producen es ya una postura particular.

 

Los algoritmos como producto de la ciencia

A pesar de que muchas de estas empresas fueron efectivamente creadas dentro de los campus universitarios estadounidenses, la vinculación entre las plataformas digitales y la ciencia es solo una apuesta política para constituir la validez de sus exploraciones. La retórica y la estética en torno a los productos de Google y Facebook está atravesada por los “modos” de la ciencia. Esta superposición de esferas que hasta mediados del siglo XX parecían excluirse es ya una realidad. Abundan los espacios creados por estas empresas denominados “Labs” y a toda un área del tratamiento de los datos masivos se le llama “Ciencia de Datos”. En La locura del solucionismo tecnológico, Evgeny Morozov cita a Eric Schmidt, quien fuera director de Google hasta 2011: “Somos científicos. Entonces, si funciona, genial. Si no funciona, probamos otra cosa”. Más allá de la particular perspectiva sobre la ciencia, está claro que las plataformas encuentran un buen recurso político en articularse con el sector científico antes que con el de las grandes corporaciones.

 

En busca de la dimensión política

El problema de los monopolios de Google y Facebook no está en la incapacidad individual que tengamos por “elegir” (ese gran dispositivo de sedación de las preguntas por el cambio, las alternativas, la crítica), sino en la imposibilidad de construir dispositivos masivos bajo otras lógicas de funcionamiento.

Difícilmente nos sirva de algo reemplazar el mito del algoritmo autónomo, sin responsables humanos detrás, por el mito de la conspiración teledirigida a partir de una voluntad maligna que todo lo quiere controlar. Sobre todo porque, si en el primer mito naturalizamos el estado de las cosas, en el segundo nos despegamos de nuestras propias responsabilidades en el asunto. Como consumidorxs, como ciudadanxs, como sujetos políticos. La preocupación por la intimidad y las respuestas morales y los intentos de autorregulación de estas plataformas digitales potencian el problema: nos lleva a discutir en un terreno en el que ya estamos perdiendo, el de establecer nuestros derechos como consumidorxs e individuos libres.

Las respuestas, las resistencias, que suponen que lo único que somos es consumidorxs (que queremos neutralidad de la red, que queremos nuestros datos resguardados) anulan la potencia política de nuestra subjetividad, la reducen a una pulsión individual, egoísta, de protección de unx mismx. El desafío será abordar estos temas sin enterrar nuestra subjetividad política en el camino.


Referencias:

[1] Licenciado en Comunicación Social. Docente de la UBA. Consultor en Comunicación Política, Redes Sociales, Publicidad Digital y Big Data. @pavloce

[2] Rouvroy, Antoinette y Berns, Thomas; “Gubernamentalidad algorítmica y perspectivas de emancipación ¿La disparidad como condición de individuación a través de la relación?”:

https://www.academia.edu/30732187/Gubernamentalidad_algori_tmica_y_perspectivas_de_emancipacio_n_La_disparidad_como_condicio_n_de_individuacio_n_a_trave_s_de_la_relacio_n_Antoinette_Rouvroy_y_Thomas_Berns_

[3] Sobre este tema puede verse (ambos en inglés): Opinion | YouTube, the Great Radicalizer y https://datasociety.net/wp-content/uploads/2018/09/DS_Alternative_Influence.pdf,

[4] Facebook CEO Challenges the Social Norm of Privacy

[5] Marissa Mayer’s Next Big Thing: «Contextual Discovery» — Google Results Without Search