Má nás Facebook za laboratorní krysy? Experiment vyvolal bouřlivé reakce

Jaký vliv má na uživatele přísun zpráv, které jsou jenom negativní, či jenom pozitivní? To přesně na uživatelích zkoumal Facebook. A vzbudil vlnu nevole – byť to samé dělá pořád.

Hodně zvláštní experiment se v lednu 2012 odehrával na Facebooku. Po jeden týden se vybrané skupině zhruba 700 tisícům nic netušících uživatelů zobrazoval pozměněný výběr příspěvků od jejich přátel. Některým z nich se zobrazovaly více příspěvky pozitivní a šťastné, jiným opačné.

Po týdnu se ukázalo, že nálada příspěvků uživatele výrazně ovlivňuje (o výsledcích studie se můžete dočíst v Proceedings of the National Academy of Sciences). Zásadní otázkou ale zůstává, jestli Facebook nezašel příliš daleko.

Sociální síť se už v minulosti stala zdrojem dat pro řadu studií, dosud ale při žádné nedošlo k záměrné manipulaci s lidmi. A jakkoliv experiment není nikterak nelegální, je to experiment děsivý. Facebook dnes používá více než polovina světové internetové populace a možnost manipulovat s náladami lidí, a tím i ovlivňovat jejich chování,  je zde předvedena v plné síle.

Jedno z tisíce slov

Debata, která se kolem studie rozjela v zahraničních médiích, tomu odpovídá. Pro Facebook jsme laboratorními krysami, píší komentátořiaktivisté. A vedoucí experimentu Adam D. I. Kramer se (svým způsobem) veřejně kaje

„Rozumím tomu, proč má řada lidí k experimentu výhrady. Mě i ostatní spoluautory velmi mrzí, jakým způsobem jsme výsledky výzkumu v publikované práci popsali a jaké to vyvolalo rozrušení. Zpětně vzato se zdá, že to výsledky výzkumu nemusí všechno toto napětí ospravedlňovat.“ 

A vysvětluje, že dopady experimentu na emoce lidí byly vlastně na hranici statistické měřitelnosti: „Výsledkem bylo, že lidé v následujícím týdnu použili v průměru na tisíc slov o jedno emocionálně zabarvené slovo méně,“ píše.

Podle toho, co čtete, se chováte

O co šlo? 689 003 lidí dostávalo v průběhu jednoho týdne upravený „newsfeed“, tedy tu část Facebooku,  kde čtete příspěvky od přátel, sledovaných uživatelů, stránek či aplikací. Části vzorku byly předkládány pouze kladné příspěvky, části záporné. Výsledkem je zjištění, že právě složením toho, co uživatelé čtou, lze ovlivnit i to, jaké druhy příspěvků oni sami na Facebook vkládají.

Záměrem studie bylo podle Kramera také potvrdit či vyvrátit předpoklad, že pokud uživatelé na Facebooku vidí samé pozitivní zprávy svých přátel, jsou z toho frustrovaní. Tato teorie se prý nakonec nepotvrdila.

Pokud jste obklopení šťastnými lidmi a dostává se vám pozitivních a šťastných příspěvků, budete také více psát příspěvky, které jsou pozitivní. Pokud jste vystaveni negativitě a zlobě, budete psát příspěvky negativní, zjistila studie. A pokud došlo k omezení pozitivních či negativních příspěvků, příjemci snížili svou aktivitu na Facebooku.

(Ne)povedený experiment

John M. Grohol, profesor psychologie na Princentonské universitě, v Emotional Contagion on Facebook? More Like Bad Research Methods upozorňuje, že experiment je spíše nepovedený. Hlavně proto, že počítačové analýzy sentimentu chybují a negativní vyjádření běžně označují za pozitivní. A také proto, že nejsou přizpůsobeny délce (tedy spíše extrémní krátkosti) příspěvků na sociálních sítích.

Problém demonstruje i na příkladu dvou vět, „i am not happy“ a „I am not having a great day“, které jsou v každém případě negativní. Software je ve skutečnosti označí za pozitivní, protože se nechá poplést slovem „great“ a „happy“  a zároveň negativní (protože obě obsahují „not“, tedy zápor).

Grohol zároveň upozorňuje, že testovaný vzorek je sice poměrně velký, ale v měřítku Facebooku a světa je ve skutečnosti malý a ukazuje pouze nepatrný vliv směrem do reálného světa.

Facebook manipuluje s uživateli neustále

Nezapomeňme, prosím, na jednu podstatnou skutečnost: Facebook manipuluje s informacemi předkládanými uživatelům neustále. Výmluvy o nutnosti omezit počet zobrazovaných příspěvků (Facebook došel k názoru, že nesmíme vidět víc než 1500 postů za den) sice slouží hlavně jako obrana proti kritice postupného zpoplatňování viditelnosti příspěvků, ale ve skutečnosti výše popsaný experiment probíhá neustále.

Co smíme vidět v „newsfeedu“ totiž určuje počítačový algoritmus. V případě příspěvků a stránek tak už ukazuje příspěvky pouze několika procentům fanoušků (u velkých stránek, u těch malých je omezení výrazně menší). V případě přátel vám ukazuje také pouze zlomek publikovaných příspěvků. Zmíněný algoritmus hlavně vybírá takové posty, které mají vysokou míru zapojení – které jiní lidé komentují, sdílí a dávají na ně Líbí.

UX16

Jaké příspěvky nám potom asi Facebook ukazuje? Samozřejmě ne ty, které jsou emočně ploché. Nejvíce příspěvků, které projdou filtry, tvoří ty, které vyvolaly vysokou míru emocí. A v zásadě jde buď o příspěvky „kapitálně pitomé“ nebo silně negativní či pozitivní.

Ve výsledku je pak daleko pravděpodobnější, že uvidíte spíše příspěvky směřující do negativní části. Samozřejmě pokud jste si do přátel nepřidali pouze samé beznadějně pozitivní sluníčkové lidi.

12 názorů Vstoupit do diskuse
poslední názor přidán 3. 7. 2014 8:15
Zasílat nově přidané názory e-mailem

Školení: Online Public Relations aneb PR sociálního věku

  •  
    Jak se liší digitální PR oproti klasickému PR.
  • Jak tvořit tiskové zprávy.
  • Jak monitorovat a vyhodnocovat PR.

Detailní informace o školení »