Dokud Google neodstrani klasický fulltext, je to asi jedno. Ale pokud by se to stalo, zmizel by důvod Google používat protože Googlem si jdu něco ověřit právě tehdy, když tu informaci získám z AI. Takže pokud bych narazil jen na další AI, byl by pak prakticky zbytečný. Nemluvě tedy o tom, že Gemini chronicky odpovídá jak člověk, co se usilovně snaží neodpovědět ale to se může změnit.
Ano, teoreticky lze ověřovat tak, že se zeptám více AI a když se náhodou shodnou, budu to moci považoivat za ověřené. Jenomže jednak informace nejsou jen černé a bílé a druhak jsem se už setkal několikrát s tím, že nesmysly generovaly obě.
A víte, co je nejzajímavější? Že k tomu, že jsou "tvrdě antivax" mají dost často dobré odborné důvody. Takže není vhodné jim ani slepě nevěřit. Ono to totiž platí obecně, že není vhodné něčemu slepě věřit nebo nevěřit. Zvláštní ovšem je, že pokud jde o zdraví, tři čtvrtiny lidí prostě vypnou mozek.
To byste ty ten výsledek musel vidět - a uznal byste, že to přirovnání vůbec nebylo mimo. ;-D
(Kolega, co to měl na starosti, použil jiné přirovnání, ale to bylo o prostitutkách, a nechtěl jsem je sem použít.
"barevné označení si nezadalo s LGBT+ vlajkoslávou "
když nemáš co říct, vraž tam buzny (staré ajťácké přísloví)
Tohle má ještě jeden důsledek: pokud se bude AI učit jen tam, kde mu to bude dovoleno, velmi pravděpodobně se naučí mnohem víc nesmyslů, které jsou přístupné (pokud se přímo nepodbízejí k dalšímu šíření), než seriosních informací ze stránek za paywallem.
Problém je, že to uživatelé ani nebudou schopni zjistit či posoudit.
Ideální prostředí pro šíření konspiračních teorií či dezolátských smyšlenek.
To je jednoduché Google vlastně krade obsah bez povolení a licence, sám si ho zpracuje a pak prodává lidem.
Pokud nebude Google posílat lidi na weby, tak mu weby nebudou dávat data a jeho model tak bude zanic.
Je to podobná kauza, jak se rozčilovaly deníky, že Google uvádí citace a nemá na ně právo. Tady to jde ještě o krok dál, že je dál zpracovává a nemá na to právo.
Weby mu nedaly licenci na to, aby si s daty dělal co chtěl.
On vlastně vykrade všechny textové, obrazové a zvukové informace ze světa, na které nemá licenci k použití, pak zpracuje data (AI) a dává odpověď.
Měl by zpracovávat ne všechna data, ale jen data, na které má licenci, jinak je to krádež.
Ale za ty omezene zdroje uceni IT prece nemuze. To uz je problem z jine roviny, predevsim roviny pravni. Modely se uci z toho, co maji k dispozici mimojine pote, co zauraduji pravnici, zeano :-) Na druhou stranu, co se tech lidi a prace s vystupy tyce tyce - ta situace neni o moc horsi nez s klasickym vyhledavanim. Taky musite byt schopen posoudit verohodnost toho, co vam ten klasicky vyhledavac predhodi.
I tady plati, ze do kvality toho vysledku promlouva vice stran, nejen to IT. A zajmy jsou ruzne a casto i protichudne.
Mluvit v kontextu *artificial* intelligence o *přirozeném* vývoji je poněkud absurdní, v tomto případě ještě s takovým nádechem obav a nejistoty :-D.
A jedna z věcí, kterou by se IT mělo naučit, je pěkně v klidu a bez spěchu přemýšlet o důsledcích svých rozhodnutí a to v kontextu historické zkušenosti. Pak vyvstane třeba zajímavá otázka, nakolik současná slepá důvěra v technologii, která má velmi omezené zdroje učení a která dokáže velmi přesvědčivě halucinovat by neměla být používána s mnohem větší opatrností a určitě ne lidmi, kteří nedokáží věrohodnost jejích odpovědí posoudit.
Myslím, že zrovna na AI docela dobře sedí biblický text "Všechno je mi dovoleno – ano, ale ne všechno prospívá. Všechno je mi dovoleno – ano, ale ničím se nedám zotročit."
Jinak abych nebyl špatně pochopený, tím AI myslím přesněji LLM a generativní chatboty. Proti prokazatelnému přínosu např. medicínských diagnostických klasifikátorů nic nemám. Byť by bylo taky zajímavé zjistit, nakolik použití těchto nástrojů snižuje schopnosti samotných lékařů.
Celkem chápu, že se manažeři snaží zapojit AI, která by jednou mohla snížit i stav zaměstnanců. Otázka je, kdo bude pod výstupem z AI podepsán, tedy, kdo ponese zodpovědnost.
Když zadání od managera zní udělejte to pomocí AI
, tak to tak prostě uděláte.
Že to jste schopen sám v Excelu zvládnout ve zlomku času je jiná věc.
Problém s AI, se kterým se opakovaně potkáváme, je ten, že občas nepochopí zadání
a jen formálně operuje s prvním výsledkem.
Konkrétně tady správně upravila tabulku a vygenerovala prezentaci, ale absolutně se nepokoušela interpretovat obsah té tabulky; nedošlo jí, že váhy v procentech prostě mají dávat 100 %, respektive vůbec neřešila význam onoho sloupce. Tupě odebrala data z posledního řádku a celé to přepočítala.
Další kroky ji pak jen mátly a sváděly stále dál po špatné cestě.
Tohle pozorujeme (u obecných AI) poměrně často. Prostě si vedou svou
a když něco potřebujete upřesnit/opravit, je potřeba velmi, velmi pečlivě definovat, co a jak má udělat.
(Jen pro pobavení: naši managoři se rozhodli, že všichni musíme umět s AI, takže občas nám dávají podobné - někdy zbytečné či nesmyslné - úkoly, a pak kontrolují, zda nepodvádíme použitím inteligence vlastní.)
Zase nějaký bla bla povídačky od RRŠ. Jestli se někdo snaží HODINU ohnout AI na to, co pak opraví za 30 sec, tak je nesvéprávnej.
Jo, a k mertiu věci, takže AI mu vlastně pomohla dost, protože až po tu poslední blbinu to vlastně udělala za něho.
Kde vidis jaky odpor? Mozna by bylo lepsi reagovat na to co pisu, a ne na to, co si myslis, ze si myslim.
Ono nejde ani tak o odpor proti AI, ale spíše odpor proti jejímu využívání tam, kde to vůbec nedává smysl, jen z důvodu, aby se použila AI - a taky že ostatní to už dávno mají
.
Čerstvý příklad: kolega dostal za úkol provést vyhodnocení jakýchsi tabulek za pomoci AI. Což o to: grafy byly nádherné a barevné označení si nezadalo s LGBT+ vlajkoslávou - prostě pastva pro oči managera. Ale ve chvíli, kdy požádal ještě jak by to vypadalo bez položky na posledním řádku
, AI prostě ta políčka vymazala, překreslila graf - a pranic ji nezajímalo, že pomět vah by v součtu měl dávat 100 % (nebo 1).
Trvalo skoro hodinu vysvětlování a upřesňování - než to vzdal a za 30 sekund upravil ručně.
Zarytý odpor vůči přirozenému vývoji je u IT pracovníků nepochopitelný. No, i když - možná jsem pouze žil v iluzi, že IT = učím se celý život.
Jestli bude s AI nějaký problém, tak v okamžiku, kdy do ní bude úmyslně zaveden bias, tj. upřednostňování určitých předem daných názorů.
Dokud tam ten bias není, je AI srovnatelná s odpovědí jakéhokoliv náhodného člověka orientujícího se v dané problematice (tj. s akceptovatelnou chybou).
Tj. například existují odborníci na molekulární biologii, kteří jsou tvrdě antivax a nikdo jim to nevymluví. A jistě není vhodné jim slepě věřit.
Současné AI jsou jazykové generátory, které produkují nejpravděpodobnější odpověď na základě známých informací a stavbě jazyka, což není stejné jako fakticky správná odpověď.
Fakticky správnou odpověď neprodukují ani právníci a existují nejen oficiální výklady zákonů, ale i stanoviska úřadů a rozhodnutí soudů, které je nutné brát v potaz.
Je samozřejmě možné si zaplatit speciální AI na právní otázky, ovšem ani tak bych výsledky nepřeceňoval.
Tady si hotspot nevyrobíš: barák má vlastní BTS, která pouští pouze registrované (firemní, BYOD) mobily, a nefiremní wifiny jsou aktivně potlačovány. ;-D
Funguje mi modem v routeru na úplném kraji budoovy, ale připojovat se musím ethernetem.
Nekomentuju.
Prostě velká firma kancelářského charakteru
, kde si majitel prostřednictvím managementu umínil, že zaměstnanci mají v práci pracovat a ne brouzdat po internetu. Takže přístupy chodí skrz proxy, kde co není na whitelistu
, nejde.
Já to obecně chápu, ale trochu mi to komplikuje práci. Naštěstí je lupa.cz a root.cz mezi (pro mne) povolenými - když to potřebuji pro svou práci. (Aneb: je potřeba mít dobré zdůvodnění a získat podpis managera
.)
to nefunguje 40.114.177.156 ? a nebo ti došly data? neb hotspot nejde? dnes každý ntb má wifi a pomalu i pc.
Prosím, dá se to nějak přepnout do pouze vyhledávacího
režimu?
(Poznámka: běžně používám DuckDuck Go, ale v práci nám to teď vypnuli, a nevím, jestli nám to zase povolí...)
Nemluvím o bulvárních novinách, ale o sbírce zákonů. Je dobré naučit se mezi těmito zdroji rozlišovat. Člověk se pak v životě může vyhnout nepřijemným překvapením.
Myslím, že velká část (většina?) lidí si nic neověřuje ani teď. A to není nic nového, co by přišlo s AI, stačí jen, jak třeba lidi berou za fakt cokoliv, co si přečtou někde na idnesu, novinkách a podobných pochybných zdrojích.
A když AI upozorním, že mi odpověděla špatně, tak se typicky omluví a zkusí to znovu (ne nutně lépe, a nikde není záruka, že mně nebo někomu jinému znova neodpoví stejně špatně).
HlavnÍ problém bude, že AI lži si lidé nebudou ověřovat. A to chaty s oblibou, třeba v právních věcech, tvrdí úplný opak. A když je na to člověk upozorní, tak ještě arogantně trvaj na svým (s prupovídkami o tom, jak jsou právní předpisy složité a že je pochopitelné, že se v tom lidé někdy těžko orientují).
Když chci využít AI jdu na https://openai.com/ a pokecám si s ní, ale když chci googlit, tak se s AI bavit nechci, proto ten uBlock.
Hned jsem si přidala do Firefoxu https://raw.githubusercontent.com/laylavish/uBlockOrigin-HUGE-AI-Blocklist/main/list_uBlacklist.txt Až to nebude opt-in bude se hodit...
To je fakt empiricky ověřený mezi rodinou a kámošema. Guglit už nechce nikdo, prostě se zeptá svýho telefonu přes boční tlačítko.