HlavnÍ problém bude, že AI lži si lidé nebudou ověřovat. A to chaty s oblibou, třeba v právních věcech, tvrdí úplný opak. A když je na to člověk upozorní, tak ještě arogantně trvaj na svým (s prupovídkami o tom, jak jsou právní předpisy složité a že je pochopitelné, že se v tom lidé někdy těžko orientují).
Myslím, že velká část (většina?) lidí si nic neověřuje ani teď. A to není nic nového, co by přišlo s AI, stačí jen, jak třeba lidi berou za fakt cokoliv, co si přečtou někde na idnesu, novinkách a podobných pochybných zdrojích.
A když AI upozorním, že mi odpověděla špatně, tak se typicky omluví a zkusí to znovu (ne nutně lépe, a nikde není záruka, že mně nebo někomu jinému znova neodpoví stejně špatně).
Současné AI jsou jazykové generátory, které produkují nejpravděpodobnější odpověď na základě známých informací a stavbě jazyka, což není stejné jako fakticky správná odpověď.
Fakticky správnou odpověď neprodukují ani právníci a existují nejen oficiální výklady zákonů, ale i stanoviska úřadů a rozhodnutí soudů, které je nutné brát v potaz.
Je samozřejmě možné si zaplatit speciální AI na právní otázky, ovšem ani tak bych výsledky nepřeceňoval.
Jestli bude s AI nějaký problém, tak v okamžiku, kdy do ní bude úmyslně zaveden bias, tj. upřednostňování určitých předem daných názorů.
Dokud tam ten bias není, je AI srovnatelná s odpovědí jakéhokoliv náhodného člověka orientujícího se v dané problematice (tj. s akceptovatelnou chybou).
Tj. například existují odborníci na molekulární biologii, kteří jsou tvrdě antivax a nikdo jim to nevymluví. A jistě není vhodné jim slepě věřit.