En un experimento, Facebook manipuló las emociones de cientos de miles de sus usuarios

Durante una semana, del 11 al 18 de enero 2012, la popular red social y científicos de las universidades de Cornell y California en San Francisco manipularon en secreto las cuentas de cerca de 700.000 usuarios para estudiar el «contagio emocional» en el contexto de un estudio. Esta práctica ha enfurecido a los usuarios y plantea cuestiones éticas

Para esto, usaron los algoritmos del sitio para cambiar el contenido de la información recibida por un grupo usuarios en inglés, con el fin de estudiar el impacto en sus emociones. La investigación fue publicada en la revista Proceedings de la Academia Nacional de Ciencias de EEUU (PNAS) el pasado 17 de junio.

Los miles de usuarios fueron parte de un estudio usando mensajes negativos y positivos a la espera de su reacción. Existe un dicho en internet que, con muchas variaciones, es más o menos así: “Si usas un producto gratuito y no pagas un céntimo por ello, entonces tú eres el producto”. Esto es lo que han aprendido miles de usuarios de Facebook, o no.

Facebook publicó los resultados de un estudio realizado a 689.003 usuarios de la red social donde manipularon sus emociones mediante su News Feed. El estudio fue realizado por un ingeniero del equipo de estudios de datos de Facebook y dos investigadores de las universidades de Cornell y la Universidad de California en San Francisco durante una semana en 2012.

En este estudi,o lo que Facebook hizó fue una prueba ante miles de personas, en la que buscaba determinar si mostrando información positiva o negativa en su muro de actualizaciones, su comportamiento cambiaría según lo que esta persona leyera. «Demostramos, a través de un experimento masivo (N = 689.003) en Facebook, que los estados emocionales pueden ser transferidos a otros a través del contagio emocional, lo que lleva a la gente a experimentar mismas emociones sin su conocimiento».

Durante esta semana comprobaron cómo se podía manipular a dos grupos con mensajes positivos y negativos, comprobando que no es necesario que alguien diga verbalmente un mensaje positivo o negativo.

«Proveemos evidencia experimental de que el contagio emocional se produce sin la interacción directa entre personas (la exposición a un amigo que expresa una emoción es suficiente), y en ausencia total de señales no verbales.»

Estos son los hechos. Facebook ha dado permiso para manipular a miles de personas sin su consentimiento, provocando un estado emocional a personas cuyo estado emocional no fue previamente investigado. Facebook está aprendiendo como es capaz de manipularnos, algo que no debería escandalizarnos en sí, pero sí la forma de hacerlo.

Facebook se escuda en que el uso de los datos de su Política de Uso les da consentimiento para hacer esta clase de experimentos. Lo cual ya nos indica cómo nadie lee estos contratos, y lo poco que a la mayoría de las personas les importa el uso que se haga de estos datos hasta que se usan en su contra. Pero el contrato de Facebook que aceptas al ingresar en el servicio indica que toman el control de tus datos para “el análisis, pruebas e investigaciones de datos”.

Manipulación de sentimientos para vender publicidad

Facebook hace dinero gracias a la publicidad en sus aplicaciones y en su sistema. Esto es algo lógico, lo hacen millones de otras páginas, pero la gran diferencia con el 99,9% del resto de internet con Facebook es que no se poseen tantos datos personales como los tienen en Facebook.

El peligro de la manipulación de tus sentimientos mediante una red social es que esto podría ser usado en contra de tus intereses. Porque nunca sabremos como ataca Facebook a los usuarios para tener publicidad más adecuada.

Imagine por un momento que un anunciante de pastillas contra la ansiedad paga a Facebook para que a un rango de usuarios se les muestre un tipo de información que les podría llevar al consumo del fármaco que anuncia. Puede ser muy peligroso y malvado.

Un escándalo… ¿sin gran impacto?

«¡Facebook me está manipulando! ¡Qué vergüenza!» Sí, es una vergüenza que Facebook nos manipule, pero nunca olvidemos que somos nosotros los que les dimos permiso para hacerlo. Es muy simple: Si usas un servicio donde se te dice que tus datos serán usados, eres responsable de dar esos datos y de que se usen en ti.

No hay que olvidar que Facebook vive de la publicidad, y la finaidad de esa publicidad es manipular tu estado emocional. Un anuncio de detergentes, de perfumes o de un automóvil intentará manipular tus sentimientos para que creas que no puedes estar sin ese producto o servicio. No existe gran diferencia entre lo que ha hecho Facebook o lo que se hace continuamente por televisión.

Tampoco podemos olvidar el valor de este estudio científico. Se ha comprobado que es posible manipular personas simplemente exponiéndolas a noticias positivas o negativas. Es cierto que esto podría usarse para manipulación en términos políticos, sociales o culturales.

 

 

La sociedad lleva miles de años manipulando las emociones de los demás. Manipular las emociones de una persona es más sencillo de lo que se piensa, simplemente con mensajes indirectos. La publicidad lo lleva haciendo décadas y estas empresas, se llamen Facebook, Twitter, Google, Yahoo, Microsoft o como sea, dependen de tus emociones para que tú sigas creyendo en ellas y sigas siendo un usuario fiel que paga, visita o da datos para que se siga creando una relación de necesidad mutua.

Si estás registrado en Facebook y lo usas, aquí tienes los términos de servicio. Revisa con detenimiento lo que pueden hacer con tus datos y después, decide si quieres o no seguir usándolo. Pero si cualquier persona tiene una web, mide las analíticas de sus visitantes y hace cambios basándose en estos resultados, ya ha estado haciendo un experimento psicológico, como dice Marc Andreessen.

Artículo original: Experimental evidence of massive-scale emotional contagion through social networks

Fuente: Varios medios. Aportado por Eduardo J. Carletti

Más información: