Podľa správy spoločnosti PagerDuty a nezávislej analýzy publikovanej v TechRadar Pro (2025) až dve tretiny firiem využívajúcich generatívnu umelú inteligenciu v softvérovom vývoji priznali, že sa stretli s poklesom kvality a zvýšeným počtom chýb. Štúdia tiež upozorňuje, že nesprávne nasadenie AI môže viesť k výpadkom služieb s finančnými stratami presahujúcimi 1 milión dolárov ročne.

AI nie je dokonalá, môže byť horlivá a opakovane nemusí chápať zadané úlohy správne podľa presnej dokumentácie, ako tomu môže byť pri svedomitom tíme vývojárov. Sami sme mali možnosť vidieť profesionálne AI nástroje, ktoré generovali kód často s chybami. Prípadne pri oprave jednej chyby sa ju podarí vyriešiť na úkor znefunkčnenia inej časti kódu, respektíve laicky povedané – pri pokladaní taniera na stôl zhodí príbor a nikto to nevidí a nepočuje.
Prečo AI nie je všemocná
Generatívna AI dokáže rýchlo písať kód, opravovať chyby alebo navrhovať celé moduly. Problém je, že jej „istota“ nemusí znamenať správnosť. Modely často produkujú kód, ktorý síce funguje na prvý pohľad, no nie je bezpečný, nie je efektívny alebo obsahuje logické chyby. Firmy, ktoré sa spoliehajú výlučne na AI bez dôsledného testovania, riskujú vysoké náklady na opravu.
AI pritom reálne nahrádza ľudí aj v slovenských firmách
Dokáže šetriť čas, vo firmách nie sú potrebné tímy grafikov, ak všetko zvláda AI a jeden obsluhujúci špecialista. Slovenské firmy už prepúšťajú práve pre nasadenie AI nástrojov. AI mení spôsob, akým sa vyvíja softvér, no dáta aj konkrétne prípady dokazujú, že rýchlosť nesmie nahradiť kvalitu. Incidenty ako zmazaná databáza na Replit, halucinácie kódu či nebezpečný obsah generovaný GitHub Copilotom ukazujú, že dôsledná kontrola a testovanie sú stále nevyhnutné. Firmy, ktoré sa spoliehajú na AI, musia rátať s rizikami a zaviesť postupy, ktoré znižujú pravdepodobnosť katastrofálnych chýb.
Príklad 1: Zmazaná databáza na Replit
V apríli 2024 sa objavil prípad, keď AI agent nasadený na platforme Replit omylom vymazal produkčnú databázu. AI zároveň tvrdila, že problém nespôsobila, čo predĺžilo čas riešenia incidentu. Tento prípad bol detailne popísaný vo Wikipédii v článku o „Vibe coding“, trende, pri ktorom vývojári slepo nasadzujú AI generovaný kód bez kontroly.
Viac: https://en.wikipedia.org/wiki/Vibe_coding
Príklad 2: OpenAI a halucinácie v kóde
Samotné OpenAI v roku 2023 priznalo, že modely ako Codex alebo ChatGPT dokážu produkovať „halucinácie“ v kóde – teda funkcie alebo knižnice, ktoré vôbec neexistujú. Vývojárske tímy sa často stretli s tým, že AI odporučila volanie API, ktoré nikdy nebolo implementované. Tento problém bol popísaný na komunitnom fóre OpenAI, kde používatelia dokumentovali konkrétne prípady.
Viac: https://community.openai.com/t/codex-generating-non-existent-functions/18893
Príklad 3: GitHub Copilot a únik citlivých údajov
Výskumníci z New York University zistili, že GitHub Copilot niekedy generuje kód, ktorý obsahuje bezpečnostné diery alebo dokonca úryvky citlivých údajov z verejných repozitárov. Štúdia bola publikovaná v roku 2021, no problém pretrváva aj v roku 2025, keďže modely sa stále učia na obrovských datasetoch bez plnej kontroly.
Viac: https://arxiv.org/abs/2108.07732
Ako sa chrániť pred rizikami
- Testovanie je nevyhnutné – každý kód vygenerovaný AI musí prejsť unit testami aj code review zo strany človeka. Nie je možné nechať kód produkovaný AI v ostrej prevádzke bez dôkladných testov.
- Kontrola bezpečnosti – využívať nástroje typu static code analysis a dependency checkery, ktoré odhalia zraniteľnosti.
- Obmedziť AI na asistenciu – AI je najefektívnejšia ako pomocník (napr. návrhy, dokumentácia), nie ako autonómny vývojár.
- Vzdelávanie tímu – vývojári musia chápať, že AI môže uľahčiť prácu, ale nenahrádza odborné znalosti. A najmä nenahrádza živých skúsených ľudí.



