Nemyslim si to. Kdyz jsem byl pred nekolika lety u jejich prezentace, tak tam byl vespod tusim Bayes, coz se (ironie) "velmi dobre" implementuje na velka data. Narozdil od seniornich lidi, kteri se v teto oblasti teorie neorientuji, jsem mel jiste pochyby o kvalite a prinosnosti vysledku. Pak uz jsem je nikdy nevidel a docela by me (uprimne) zajimalo jak zvladaji skalovani, ktere pri pohledu na jejich ekonomicke vysledky musi bezpodminecne vyresit.
tohle je věcí strategie dané firmy, buď mohou paběrkovat nebo zainvestovat a ovládnout trh.
Před dvěma lety měli roční náklady na zaměstnance 100M, několik stovek virtuálních serverů a několik desítek TB dat. Bayes je sice problematický, ale ve Sparku nad hadoopem běhá slušně.
Problém oboru je až moc rychlé změny a špatná data na vstupu. Nelze stáhnout data a hodit je do grafu, musí se pročistit, spojit s dalšímí sítěmi, zajistit kontinualitu výpočtu, aby časové grafy dávaly smysl atd.