Těch nástrojů je víc, já používám ROVO dev od Atlassian. Jsem bývalý konzultant, takže jsem pár systémů do firem implementovala. Manžel je živnostník, pracoval hlavně v Excelu a Wordu. Takže mu jako koníček buduju skvělý podnikový systém, od automatického vytváření projektů a dokumentů po CRM s rozvětvenou fakturací. Stačilo pronajmout server v cloudu, pomocí chat GPT zabezpečit a rozběhat prostředí a pak jen dirigovat agenta nechat ho dělat. Poslouchá líp než programátoři a neodmlouvá. A celá ta legrace za 8 dolarů měsíčně (20 mil tokenů)
"pomocí chat GPT zabezpečit a rozběhat prostředí" no a tohle právě je ta velmi slabá stránka věci. Prakticky je problém z toho dostat použitelný (myšleno dostatečně bezpečný) výsledek i pro mě, který tu bezpečnost 20 let dělá jako hlavní činnost a jsem schopný nějak výstup i posoudit.
Svěřit pak takové aplikaci něco kritického a důležitého je vyloženě hazard, na to mysli.
A pak těm Vibe coding tupcům vysvětlujte, že lze LLM/LRM manipulovat pomocí technik jako Data poisoning, Tool poisoning, Prompt injection etc. Nehledě na to, že kódy tvořené AI mají běžné zranitelnosti jako Path traversal, SQL injection, XSS a další. Oni mají pocit, že tomu nemusí rozumět, hlavně když to funguje a LLM jim řeklo, že je to bezpečné.
Nebo si do Cursoru nainstalují fake rozšíření na práci s Ethereem a přijdou o crypto v peněžence na disku za 11mil Kč...
https://www.bleepingcomputer.com/news/security/malicious-vscode-extension-in-cursor-ide-led-to-500k-crypto-theft/