Facebook realiza experimentos masivos con sus 1.300 millones de cobayas: ingeniería emocional

Pocos de los 1.300 millones de usuarios de Facebook sabían que se encontraban en el proceso de selección del Equipo de Ciencia de los Datos de Facebook. Tampoco sabían sobre la Manipulación Algorítmica de la Atención y Emociones, el Experimento de Contagio Emocional y las conclusiones extraídas del mismo a cerca de la relación Facebook/ Felicidad Complacencia o sobre la Iniciativa Minerva del Departamento de Defensa de los Estados Unidos y las Revoluciones de colores. Eso ha cambiado después de las denuncias a cerca de un experimento psicológico llevado a cabo con cerca de 700.000 usuarios en 2012. Ahora algunos lo sabemos.

facebook

La querella: manipulación de los News Feed y la información

El grupo de presión de Defensa de la Privacidad EEUU, Electronic Privacy Information Center EPIC, ha presentado una querella ante la FTC que exige al organismo de control investigar las actividades de Facebook acusando a la compañía de practicas abusivas por usar sus recursos, ya no realizar estudios, sino para realizar experimentos, lo cual implica manipulación y prueba de las variables. A Facebook se la pela y anuncia que ni es el primero ni será el último.

En el experimento llevado a cabo durante más de una semana en 2012 y fue publicado en las Actas de la Academia Nacional de Ciencias. Durante su desarrollo se escondió «un pequeño porcentaje» de «palabras emocionales», con contenido emocional, extraídas de los feeds de noticias de usuarios, sin su consentimiento, para poner a prueba el efecto que tuvo en sus «estados», los «me gusta», que luego publicaron, o ante las que reaccionaron de algún modo.

«La compañía deliberadamente jugó con la mente de las personas», afirma EPIC en la denuncia. «Facebook llevó a cabo el experimento psicológico con investigadores de la Universidad de Cornell y la Universidad de California, San Francisco, que no siguieron los protocolos éticos habituales para la investigación con seres humanos.» 

http://www.theguardian.com/technology/2014/jul/04/privacy-watchdog-files-complaint-over-facebook-emotion-experiment

>Nuevamente las organizaciones fascistas, capitalistas y mercantilístas se quejan no del hecho de realizar este tipo de experimentos sino por su inadecuación a la sacrosanta fórmula legal pertinente.

También en 2012 miles de usuarios de Fuckbook fueron víctimas de otro experimento. Recibieron un mensaje inquietante: estaban siendo bloqueados fuera de la red social bajo la excusa de que se creía que eran robots o usaban nombres falsos. Para volver a, los usuarios tenían que demostrar que eran reales. 

El experimento fue el trabajo del equipo de Ciencia de los Datos de Facebook, un grupo de unas tres docenas de investigadores con acceso único a uno de los yacimientos de datos más ricos del mundo: los movimientos, pensamientos y emociones de 1.300 millones de usuarios de Facebook.

El poco conocido grupo, saltó a la luz esta semana por los informes acerca del experimento de 2012 en el que lo alimentadores de noticias, feed news, de casi 700.000 usuarios de Facebook fueron manipulados para mostrar los mensajes más positivos o negativos. El estudio encontró que los usuarios que vieron el contenido más positivo tenían más probabilidades de escribir mensajes positivos, y viceversa. También de volver al Facebook. http://online.wsj.com/articles/facebook-experiments-had-few-limits-1404344378

Facebook reconoce la manipulación y anuncia que lo volverá a hacer

La segunda ejecutiva más poderoso de Fuckbook, la CEO Sheryl Sandberg, ha pedido disculpas por la realización de pruebas psicológicas secretas en cerca de 700.000 usuarios en 2012, lo que provocó la indignación de usuarios y expertos por igual.

Esto lo presentaron como si «formasen parte de investigaciones mercantiles ya en curso, realizadas por las distintas empresas  para probar diferentes productos, y eso era lo que era; estaba mal comunicado «, dijo Sandberg, director de operaciones de Facebook, desde Nueva Delhi. «Y por esa falta de comunicación nos disculpamos. No quisimos molestar». theguardian.com:facebook-apologises-psychological-experiments-on-users

>La cúpula dirigente de Facebook no se retracta del experimento en sí, ni del la manipulación, ni de tratar a la gente como cobayas, si mintieron o si crearon perjuicios, si no de la fórmula legal en la que se ampararon. Aplicaron la táctica de hechos consumados. El estudio era absolutamente fundamental. Los datos obtenidos son mucho más valiosos que cualquier multa y suponen la herramienta predictiva que les permitirá pervivir y extenderse en el futuro a medio y largo plazo.

Este estudio no es realmente lo que está en juego. Lo que está en juego es la dinámica subyacente de cómo Facebook se ejecuta su negocio, opera su sistema, y toma decisiones que no tienen nada que ver con lo que sus usuarios quieren Facebook para operar. No se trata de la investigación. Es una cuestión de Poder. medium.com

Objetivo primario del experimento: vuelve a Facebook!

Un objetivo primario fue determinar si el contenido sentimental de los mensajes podría afectar a la respuesta emocional de las personas después de estar en Facebook. [Sabemos por lógica que sí, la parte científica viene a la hora de cuantificar, medir y manipular el marasmo de variables obtenidas para obtener un resultado concreto y preciso]. En otras palabras, dado que Facebook quiere mantener a la gente en Facebook, si la gente que sale del Facebook se siente más triste, es de suponer que serían menos propensos a querer volver a Facebook de nuevo. Por lo tanto, es el interés de Facebook dejar a la gente «sintiéndose más feliz». Y este experimento estudia cómo el sentimiento, cómo la carga emocional del contenido, influencia los sentimientos de las personas. Esto sugiere que una carga emocional rápida aplicada al producto minimiza los contenidos negativos. Es de suponer que esto es lo mejor para los usuarios y lo mejor para Facebook. https://medium.com/message/what-does-the-facebook-experiment-teach-us-c858c08e287f

La manipulación algorítmica de la Atención y Emociones 

>Otro punto clave es desarrollar una fórmula matemática para que el programa pueda responder a su propósito. Es decir, una vez extraídas las conclusiones el producto tiene que funcionar.

Facebook altera activamente el contenido que vemos. La mayoría de las personas se centran en la prácticas de marketing, comercialización, pero la mayor parte de lo que los algoritmos de Facebook hacen implican la recolección de contenidos [content curation] para luego ofrecer lo que ellos piensan que cada uno desea ver. Facebook determina algorítmicamente cuál de los mensajes de tus amigos vas a ver. Según el autor no lo hacen esto por razones de marketing. Lo hacen porque quieren que desees volver a la página día tras día. Quieren que seamos felices. No quieren que quedes sobrecargado después de la visita. Sus algoritmos cotidianos tienen el propósito de manipular nuestras emociones. ¿Qué factores son tenidos en cuanta para ello? No lo sabemoshttps://medium.com/message/what-does-the-facebook-experiment-teach-us-c858c08e287f

El Experimento de Contagio Emocional como parte de la Iniciativa Minerva

Facebook y Cornell researchers han sido acusados de que el controvertido experimento «contagio emocional» fue financiado por el Departamento de Defensa de EE.UU (DoD) en el marco de la Iniciativa Minerva comenzado en 2008 a raíz del uso mundial de las redes sociales para organizar las revueltas populares.

La Iniciativa Minerva se puso en marcha en 2008, el año de la crisis bancaria global, y se creó para permitir que el Departamento de Defensa se asociase con universidades «para mejorar la comprensión básica del DoD de las fuerzas sociales, culturales, conductuales y fuerzas políticas que dan forma a las regiones del mundo de importancia estratégica para los EEUU».

El objetivo del proyecto es determinar «la masa crítica (punto de inflexión)» de contagios sociales mediante el estudio de sus «huellas digitales» en los casos de la revolución/golpe de estado egipcio de 2011, las elecciones rusas a la Duma de 2011, la crisis de subsidio a los combustibles de Nigeria 2012, que dio lugar a un brote de violencia y las proptestas del Parque Gazi en Turquia en el 2013.

http://www.theguardian.com/technology/2014/jul/04/facebook-denies-emotion-contagion-study-government-military-ties

>Tanto Cornell Reseach como la Universidad de California se han visto asociadas con dicho proyecto militar.

Facebook dirigido por un dictador benevolente

Para bien o para mal, la gente se imagina que Facebook está dirigido por un dictador benevolente, que el sitio está ahí para que la gente pueda conectar mejor con los demás. En algunos sentidos, esto es cierto. Pero Facebook también es una empresa. Y una empresa pública para el caso. Tiene que encontrar formas de ser más rentable cada trimestre que pasa. Esto significa que se diseñan sus algoritmos no sólo para comercializar en forma directa, sino para convencernos de volver una y otra vez. medium.com

>La realidad es que facebook es una corporación, una de las Bilderberg, no tan benevolente cuando acumula y vende metadatos al mejor postor, pasa información confidencial a los servicios secretos de las potencias y corporaciones capitalistas y sirve de base publicitaria para las actividades comerciales del resto de corporaciones.

Sistemas de selección de información, y generación automática de noticias: saturando la red de basura

Facebook no está solo en el negocio de la predicción algorítmica del contenido que desea ver. Cualquier sistema de recomendación o sistema curatorial [selectivo] está dando prioridad a algunos contenidos sobre otros (incluyendo el que se usa aquí en medio). Pero vamos a comparar lo que recogemos en este estudio con la práctica habitual.

La mayoría de los sitios, de los principales medios de prensa, medios de comunicación social [y los buscadores como Google o Yahoo, tweeter, linked], tienen algún algoritmo que selecciona el contenido, generalmente donde la gente haga más clic. Esto es lo que impulsa a los Medios a producir listicles, artículos y titulares a partir de listas, automátización usando las palabras más usadas, [trending topics como «conseguir dinero gratis»], obteniendo titulares llamativos, como noticias de accidentes de automóvil. [Para llamar la atención, de ahí la necesidad de un algoritmo de Atención preciso]¿Qué crees que genera más tráfico en tu web, un análisis detallado de lo que está sucediendo en Siria o 29 fotos de los miembros más lindos del reino animal? La B.

Algo de lo que los medios aprendieron hace mucho tiempo es que el miedo y los rumores/chismes venden periódicos. Esto significa que las historias fabulosas sobre secuestros de niños, islas llenas de peligrosas serpientes y famosos envueltos en escándalos sexuales suelen ser los más clicados, retweeteados, favorito, etc …Así que toda una industria ha surgido para usar el click en el contenido basura como cebo con la bandera de «noticias seria».

Cuando las personas están rodeadas de medios de comunicación vendemiedos el ansia general crece. Se temen a las cosas equivocadas. Por lo general aceptamos que los «algorítmos de selección» tienen todo el derecho a priorizar contenido, sin importar el efecto psicológico sobre los individuos o la sociedad. ¿Que hace que su práctica diferente [a la práctica periodística tradicional, sujeta a códigos deontológicos, aunque constantemente se quebrante]?  medium.com

Conclusiones sobre el experimento

Para realizar el exprerimento debieron realizar dos trabajos. Uno prospectivo, seleccionando a las cobayas que lo sufrirían. Después realizaron el perfil de 700.000 de los usuarios seleccionadoas. A cada usuario le corresponden un perfil, y a cada perfil está  hecho con un sin fin de parámetros biopsicosociales y económicos. Estos se analizan primero uno a uno, para discernir su importancia, y después en grupos de dos, de tres y conjuntos, para analizar las relaciones entre ellos. Así se pueden conocer los rasgos de la personalidad más importantes, y los más influyentes.

Por último se realiza el trabajo perspectivo. Se prepara una noticia/producto ajustado a un perfil concreto y se mide la eficacia, es decir, de todos los usuarios que aceptan el producto cuántos se ajustan el perfil deseado. A cada perfil se le corresponde con una u otra información.

Más siniestros son los estudios sobre la psicología de las masas. Repetimos, los motivos y las dinámicas de los brotes de violencia y apaciguamiento se conocen desde  antiguo. Lo que se desconoce es su cuantificación, parámetros, variables y medidas. Una vez conocidos, asociados a las condiciones, se pueden manipular las emociones de modo que una masa enfurecida sea capaz de asaltar una plaza e iniciar un golpe de Estado, al estilo Ucrania, lo cual ahorraría millones en gasto militar y muchos años de subversión e infiltración. O se puede calmar a una masa a pesar de encontrarse en un nivel crítico de tensión, al estilo Egipto o España.

En facebook se habla de los Algoritmos cotidianos para referirse a aquellos que se manejan en el día a día. Existen cientos de algoritmos no cotidianos, de prueba o especiales, ocasionales que también deben ser puestos a punto para su utilización. Nos referimos a por ejemplo los Algoritmos Emocionales, aquellos capaces de seleccionar las noticias o incluso introducir palabras que logren alterar nuestros estados anímicos de ansiedad, humor o bienestar.

Facebook se encarga de enseñar a cada usuario lo que quiere ver. Ajustan lo que tú quieres con lo que facebook quiere que quieras. Si eres anarquista verás surgir la revolución por todo el mundo en tu pantalla, si eres fascista se alzará el imperio español, si eres comunista… suerte.

¿Hay algún modo de usar facebook sin caer en sus trampas? No. Facebook conecta tu vida con aquellos que te importan y consigue que vuelvas una y otra vez a verlos, como si de un recuerdo o memoria se tratases, rompiendo las barreras del espacio. El problema es que esto es muy difícil de realizar sin ceder datos personales, metadatos, huellas digitales, que es de lo que la Corporación Facebook se nutre y busca. Es un sifón de datos. Si lo logras y evitas ser trazada ole tus ovarios. Menéalo!

Frente a la falta de una red social popular eficiente, son los medios de contrainformación, alternativos e independiente actualmente los generadores de información ajustada a la realidad más importantes. Pero la información hay que buscarla activamente. Atiende por ahora a la artesanía y arte del practicante, y vuelcan íntegros los sentimientos de los autores. Su labor hace de balanza y compensación ante el ataque diario de la basura automatizada que nos tragamos. y debido a la manipulación de los medios masivos, son la única referencia al mundo fuera de nuestra esfera de actuación local. Mientras los Media se dedican a llenar la red de basura prefabricada, desde el fondo de internet crece una base de información que solo parará cuando se corte el cable.

facebook

Cada vez que conocemos más sobre la psicología y matemáticas modernas más nos acordamos de la famosa obra de Asimov, La Fundación.

Fuente- Tarcoteca contrainfo: Facebook realiza experimentos masivos con sus 1.300 millones de cobayas: ingeniería emocional

¡Haz clic para puntuar esta entrada!
(Votos: 0 Promedio: 0)

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Scroll al inicio