El Toque / @eltoquecom
Por Jorge Tirzo
(2 de julio, 2014).- Facebook hizo lo que hace todos los días, pero con fines experimentales. Experimentó con su algoritmo para saber cómo reaccionaban los usuarios al ver publicaciones negativas. El estudio “Evidencia experimental de contagio emocional a nivel masivo a través de redes sociales” fue dirigido en 2012 por Adam D.I. Kramer del Core Data Scientist Team, el equipo de investigación de Facebook.
¿En qué consistió el experimento? Facebook filtró las publicaciones de amigos, pero esta vez, para mostrar solamente las negativas. ¿El objetivo? Conocer qué nivel de influencia ejercen en los lectores. ¿Las conclusiones? Estar expuesto a publicaciones de amigos asociadas con tristeza, depresión y otros sentimientos considerados negativos; es contagioso. Es decir, que si un amigo está triste y lo publica en Facebook, aquellos que estén expuestos a sus contenidos son susceptibles a contagiarse de esa tristeza y publicarlo en Facebook.
Además, el estudio encontró que los usuarios expuestos a publicaciones neutras dejan de compartir cosas en Facebook. En otras palabras, a Facebook le conviene tener usuarios con emociones intensas, ya sean positivas o negativas, pues son los que le dan vida a la red. Entristece o alegra a los usuarios y publicarán sobre eso en Facebook.
Por qué es cuestionable
Dejando a un lado la importancia de los resultados (que la tienen y bastante), nos centramos en el dilema ético de experimentar con las emociones de los usuarios. El estudio fue técnicamente legal, ya que todos los usuarios de Facebook aceptamos mediante los “términos y condiciones de uso” que ellos manejen el algoritmo que nos muestra resultados. También aceptamos que recaben datos sobre nuestro comportamiento, siempre que no se identifiquen con nuestro perfil y sean datos agregados. Sin embargo, la legalidad deja algunas lagunas sobre el control que podría ejercer Facebook con los datos sobre grandes grupos sociales.
En realidad, el problema tiene que ver con la forma en que fue elaborado y sus implicaciones. Los usuarios analizados no sabían qué estaban leyendo publicaciones negativas filtradas a propósito. ¿Cómo sabemos que nuestro Facebook no nos está mostrando cosas filtradas con ciertos objetivos? Por poner un ejemplo sencillo: En esta época mundialista, ¿Cómo sabemos que alguna empresa no le pagó a Facebook para que filtre nuestros resultados para persuadirnos y ver los partidos de fútbol? La situación puede ser más complicada en otros escenarios. ¿Qué nos garantiza que Facebook no filtre resultados con contenidos políticos para influir a favor o en contra de algún partido o ley?
Como ya hemos visto en artículos anteriores, los filtros juegan un papel crucial en la era de la información. En tiempos donde se generan millones de datos por minuto, toda aquella persona y/o software encargado de seleccionar la información es vital.
¿Los filtros de Facebook en buenas manos?
El algoritmo de Facebook juega un papel crucial, pues es el filtro mediante el cual millones de usuarios recibimos la información de millones de nuestros contactos. Ahora que sabemos científicamente que tales publicaciones influyen en nuestros estados de ánimo, es necesario que ese filtro esté en buenas manos.
Facebook ha tenido problemas en ese sentido últimamente. Los administradores de páginas nos hemos topado con que en los últimos meses las publicaciones llegan a muchas menos personas. Voces suspicaces aseguran que es un cambio para propiciar que se compre publicidad e historias patrocinadas. Por su parte, Facebook ha asegurado que fue un cambio necesario en el algoritmo para evitar la saturación de contenidos. En vez de mostrar el contenido de las páginas a todos sus seguidores, ahora sólo se muestran a aquéllos que suelen participar e interactuar con ella. Es decir, aquellos que probablemente usarán esa información.
No se trata de satanizar al algoritmo de Facebook. Si pensamos en todas las publicaciones que nuestros contactos generan diariamente, es fácil llegar a la conclusión de que es imposible leerlas todas. Necesitamos una ayuda para recibir sólo las que nos interesan. Lo importante es que dicho filtro cuente con elementos claros, neutrales y que no puedan ser influidos por intereses externos. Lo mismo aplica a otros algoritmos de vital importancia en nuestra vida, como el buscador de Google.
No está mal que Facebook realice investigaciones y haga cambios en su algoritmo. Yo mismo suelo participar activamente en sus encuestas, estudios de opinión y preguntas sobre lo que debe mostrarse en mi “feed”. Lo hago incluso con gusto, pero cuando soy notificado. A nadie le gusta saber que se experimentó con sus emociones a sus espaldas. Ni siquiera con fines científicos.


