Hlavní navigace

Facebook vyhodil zpravodajský tým a neuhodnete, co se stalo

Daniel Dočekal

Nedávno ohlášený boj Facebooku proti clikbaitingovým titulkům i aféra s trendujícími tématy má zajímavé pokračování s velmi užitečným poučením.

Když před několika týdny jeden z bývalých editorů trendujících témat na Facebooku poskytl médiím interní „návod“, podle kterého měli editoři hodnotit zprávy, vedlo to k aféře okolo toho, jak sociální síť témata vybírá.

Aby byla vyvážená, objektivní a vůbec správná, spravoval je totiž tým editorů. Jenže, jak se ukázalo, editoři jsou jen lidé, takže výběr odkazů vykazoval znaky zkreslení podle toho, jaké názory sami editoři zastávají. A navíc byl ovlivněný tím, že dostali návod, co mají považovat za správné, co mají ukazovat a co naopak potlačovat. O aféře jsme podrobněji psali v Facebook prý záměrně ovlivňoval zprávy předkládané uživatelům.

Současně s touto událostí navíc Facebook vyrazil do boje proti clikbaitingovým titulkům. Prý „naučil umělou inteligenci“ rozpoznávat titulky, které lákají ke kliknutí, ale pak neplní očekávání. Případně jsou prostě zcela vymyšlené jenom proto, aby na ně uživatelé klikali. Už jenom představa o tom, že software bude podle vzorků několika tisíc titulků určovat, jaký titulek je správně, či špatně, je úsměvná, ale budiž. Facebook se dlouhodobě prezentuje jako firma, která umělé inteligenci a algoritmům rozumí.

Facebook vyhodil tým editorů Trendů

Jenže tím to nekončí. Na aféru s trendy nakonec Facebook zareagoval s mírným zpožděním vcelku klasicky: na hodinu vyhodil tým lidí, kteří se starali o to, aby výběr trendujících článků dával smysl a aby se mezi ně nedostaly žádné výmysly. Jejich práci se rozhodl svěřit stroji, asi tak stejně, jako to dělá Twitter. Jenže už u Twitteru víme, že tamní trendy jsou dost zoufalé. Ale také to, že je běžně možné je ovlivnit.

Výsledek se brzy dostavil. Chvíli poté, co Facebook tým editorů vyhodil, se tak do trendů dostal zcela smyšlený pseudo článek („BREAKING: Fox News Exposes Traitor Megyn Kelly, Kicks Her Out For Backing Hillary“).

V praxi tak můžete vidět, že pokud výběr svěříte algoritmu, který vychází z toho, co lidé na Facebooku sdílí, může to vést k vypíchnutí nesmyslů a lží. Algoritmus totiž nedokáže pořádně poznat, že jde o výmysl – a v tomto případě to šlo poznat už jenom z titulku, ale nakonec i samotného obsahu.

Tým editorů sice ke své práci používal podobný (nebo skoro stejný) algoritmus, ale konečný výběr odkazů zpracovával do textové podoby a také články ověřoval a schvaloval. Pokud by něco takového stále fungovalo, výše uvedený „BREAKING“ nesmysl by se ven mohl dostat jenom těžko. Ve skutečnosti ani nešlo o článek, ale o tři odstavce textu bez uvedeného zdroje, které lze snadno odhalit jako výmysl, hoax či prostě záměrná manipulace.

Algoritmus bude bojovat s nekvalitními titulky

Je tedy vcelku jasné, jak to dopadne i s oním algoritmem, který má bojovat s nekvalitními titulky. Nebude mít sice asi zásadní problém poznat takové ty klasiky „Událost … neuhodnete, co se stalo“, ale bude mít zásadní potíž odhalit šikovně napsaný titulek, který nebude odpovídat obsahu článku. A naopak, bude jiné titulky označovat neprávem, což povede k postihům stránek a webů bez reálného základu.

test

Stejně jako je možné ovlivnit algoritmus pro výběr trendů, bude možné i poškozovat weby a stránky podvrhováním „nekvalitních“ titulků. Nikde nebudou lidé, kteří by zasáhli, ověřili a napravili škodu.

Celé je to ale nakonec plně v souladu s představami o tom, že lidé nejsou potřeba a všechno zvládají algoritmy. Co na tom, že oběťmi algoritmů nakonec budou právě lidé.

Našli jste v článku chybu?
6. 9. 2016 11:34
Karel (neregistrovaný)

Podle mě schválně a velmi vtipně zvolený nadpis :))

6. 9. 2016 8:07

Jako vždy tisková zpráva FB mají cí zacíl upevnit zdání toho že FB to má pod kontrolou a že inzerenti se na něj mohou spolehnout.