Facebook macht Nutzer zu Versuchskaninchen in psychologischer Studie
Eine jüngst veröffentlichte Studie auf Basis von Facebook-Teilnehmern geht gerade durch die Medien und sorgt für Aufregung. 689.003 Teilnehmer wurden hierzu unwissentlich ausgewählt, sie wurden Teil der bereits 2012 durchgeführten Studie. Worum ging es? Grob heruntergebrochen sollte ermittelt werden, ob das Lesen bestimmter Status-Mitteilungen sich auch auf das eigene Gemüt überträgt. Über den Zeitraum von gut einer Woche bekamen die Probanden von Gruppe A gute Nachrichten, die von Gruppe B schlechte Nachrichten zu sehen.
Diese schlechten oder guten Nachrichten ließen sich in gewisser Weise auf die mitlesenden Probanden übertragen, sodass Freunde theoretisch beeinflusst werden könnten:
„In these conditions, when a person loaded their News Feed, posts that contained emotional content of the relevant emotional valence, each emotional post had between a 10% and 90% chance (based on their User ID) of being omitted from their News Feed for that specific viewing. It is important to note that this content was always available by viewing a friend’s content directly by going to that friend’s “wall” or “timeline,” rather than via the News Feed. Further, the omitted content may have appeared on prior or subsequent views of the News Feed. Finally, the experiment did not affect any direct messages sent from one user to another.“
Maschinell wurden hierbei drei Millionen Einträge via Computer ausgewertet und auf Emotionen geprüft – zumindest ich habe hier meine Schwierigkeiten mit der Aussagefähigkeit der Studie, da die Software sicherlich nicht die oftmals kurzen Informationen in Statusmitteilungen korrekt auswerten kann.
Ob die Studie jetzt allerdings auch aussagt, dass ein Sehen häufiger positiver Postings zu Angela Merkel diese sympathischer oder wählbarer macht, dürft ihr für euch entscheiden. Wäre ja mal ein Fallbeispiel, wo man diese Erkenntnisse via Facebook missbrauchen könnte.
In Sachen Facebook heißt das: Ihr seid Kunde und Ware zugleich. Ihr dürft die Plattform kostenlos nutzen, müsst dafür damit leben, dass eure Daten verarbeitet werden. Dingen dieser Art haben Nutzer zugestimmt, als sie das Netzwerk betraten.
In Sachen Newsfeed gab es schon etliche Diskussionen, inwiefern dieser überhaupt noch das widerspiegelt, was ihr sehen wollt – wahrscheinlich ist es das, was Facebook will oder denkt, was ihr sehen wollt. Spricht wieder einmal für eine nette Pflege von Listen von Personen, die man lesen will und für das Ignorieren des Newsfeeds, der in meinen Augen mittlerweile zum letzten Schwachsinn geworden ist, genau wie die Standardansicht in den Facebook-Apps.
Jedes Tech-Unternehmen, dass die Chance des intensiven A/B-Testings auslässt, verliert irgendwann den Anschluss. Studien sind schön und gut, aber nur harte Daten lassen einen echten Schluss zu. Bei Facebook wird mit „Gefühlen“ gespielt, deswegen vielleicht diese mediale Entrüstung. Aber egal auf ihr auf google.com, auf instragram.com oder auf booking.com seid – die Chance in irgendeinem A/B-Test zu landen (und sei es die Farbe des „Kommentar absenden“ Buttons) liegt bei 50% und mehr.
Ich pflege sowohl Listen von Personen als auch Seiten. Diese Unterscheidung zwischen Seiten und Personen find ich eh komisch, man sollte her unterscheiden zwischen Outgoing and Ingoing Lists, also Listen, die ich konsumiere und solche an die ich aktiv „füttere“. Dabei sollte es egal sein, ob sich Personen oder Seiten darin befinden.
Leider gibt es bis heute kein Listenmanagement, bei dem es möglich ist, gleich mehrere Personen/Seiten graphisch von Listen in andere zu schieben, in einem Rutsch. So muss ich immer mit mehreren Fenstern und Reloads arbeiten, um Items umzusortieren, falls manche Liste bspw. zu groß wird.
So etwas kann FB auch manipulativ missbrauchen um in gewissen Region der Welt etwas auszulösen….
„Ihr seid Kunde und Ware zugleich. Ihr dürft die Plattform kostenlos nutzen, müsst dafür damit leben, dass eure Daten verarbeitet werden“
Meint ihr wirklich das bei Firmen wie Apple oder Microsoft dieses anders ist. So naiv kann doch kein Mensch sein und das zu glauben. Überall wo Daten anfallen werden diese verarbeitet, katalogisiert und natürlich studiert. Im Endeffekt bezahlen gewisse Kundenkreise für ihre Verarbeitung. ? Nicht falsch verstehen da schließe ich mich nicht aus, doch gebe ich mich nicht der Illusion hin nur weil ich für Ware bezahle nicht durchleuchtet und studiert zu werden.
Ja, zumindest einer, nämlich Knut, teilt meine Befürchtung.
Glaubt denn wirklich jemand, FB hat diesen Test nur für diese eine Studie benutzt?
Die Studie zeigt ganz klar, wie man zukünftig Menschen manipulieren kann. Man werte die Postings der Nutzer aus Region X aus, lässt aber in den Timelines nur Postings erscheinen, welche die Meinung von FB oder irgendeiner Regierung, eines Unternehmens, einer Organisation, für die FB dann arbeitet, entsprechen.
Die Studie sollte beweisen, dass dies möglich ist und dies auch zukünftig so geschehen kann und wird.
Schöne neue Welt, schönes 1984!
der newsfeed ist wirklicher mist. bei mir werden von 200 gelikten seiten immer nur die gleichen 5 angezeigt. alles andere wird irgendwie verborgen -.-
@Knut
ein amerikanisches unternehmen würde sowas nie tuen 😉
ps. In Chrome auf Android lässt sich das Kommentar nicht nachträglich bearbeiten. Mobil wie Web Ansicht. Wollte mein Kommentar ausbessern. Wird einfach nicht richtig gespeichert.
@Max @knut Das wird nicht nur passieren sondern ist auch schon passiert und wird auch weiterhin gemacht.
Jedes neue Medium wird dahingehend missbraucht. Brauchst doch nur den sogenannten Volksempfänger im zweiten Weltkrieg betrachten.
Das Spiel geht einfach mit neuen Mitteln weiter. Nur darf auch nicht vergessen werden das wir, die Bürger, auch mehr Möglichkeiten haben sich zu informieren. Doch ob es was bringt. Da bin ich mir noch nicht so sicher.
Hm, die Ergebnisse zu berichten wäre ja jetzt auch spannend gewesen. Nicht nur der kurze Abschnitt über die Methodik….
Dass für unheimlich viele Studien Facebook genutzt wird, ist schon mal logisch und klar. Recht einfach kann man so viele interessante Daten bekommen. Im Grunde weist diese Studie eigentlich nur nach, dass ein normaler, oft dokumentierter, menschlicher Prozess auch über Facebook und rein textuell funktioniert, als auch peripher ohne gezielte Interaktionsperson funktioniert, wobei sich mir da die Frage stellt, ob das noch Emotional Contagion (Gefühlsansteckung) im Definitionssinn ist. Diesen Prozess nutzten Medien und Unternehmen schon bevor dieser überhaupt methodisch untersucht wurde.
Dass man bei der Stichprobengröße auch sinifikante Ergebnisse bekommt, ist auch nicht sonderlich überraschend. Grundsätzlich zeigen die Ergebnisse aber auch winzige Effektstärken (was die Autoren löblicherweise auch erwähnen).
Big Scale gesehen, kann das natürlich schon beträchtliche Auswirkungen haben. Aber insgesamt wirklich nichts neues.
Und ja, wenn man mehr Merkel sieht, sollte sie insgesamt sympathischer wirken (familiarity effekt).
Es zeigt dann nun doch auf wie dicht Marc Elsberg mit seinem Buch „Zero“ an der Wahrheit liegt. Bald haben wir alle tolle ActApps