Zatiaľ čo lekárom slúži umelá inteligencia ako pomocník pri záchrane životov, hackeri zneužívajú na sledovanie, kyberútoky či tvorbu deepfake videí. Umelá inteligencia nie je dobrá alebo zlá – je to nástroj, ktorý môže tvoriť, ale aj ničiť.
Slovenský špecialista na digitálnu transformáciu Andrej Aleksiev hovorí: „Nie AI je problém. Problém je, kto ju drží v rukách.“
V rozhovore s ním sa tiež dozviete:
- Hackeri, ktorí hovoria hlasom vášho dieťaťa
- Môže sa AI obrátiť proti ľuďom?
- AI vie prepustiť polovicu firmy
- Môže AI cítiť bolesť a naberá vedomie?
- Prečo AI nerozpráva s ľuďmi, ale radšej medzi sebou v „tajnom“ jazyku
- Sú štáty pripravené AI regulovať?

DeepSeek podozrievajú, že pomáha s bombami a hackovaním. Znamená to, že sa AI vymkla spod kontroly?
Nie, nevymkla sa. Zatiaľ. AI je ako nožík – môžete ním nakrájať chlieb alebo… niekoho iného. DeepSeek je len nástroj. Ak niekto povie: „AI mi pomohla vyrobiť bombu“, väčšinou je to človek, ktorý by si tú bombu vyrobil tak či tak. AI mu len možno skrátila čas. Problém nie je technológia, ale úmysel.
Viete o nejakých nástrojoch AI alebo krajinách, ktoré umelú inteligenciu zneužívajú na ilegálne účely?
Áno, AI sa zneužíva. A nie je to žiadne sci-fi, deje sa to dnes a denne. Napríklad Čína používa AI na sledovanie vlastného obyvateľstva, vrátane rozpoznávania tvárí Ujgurov v reálnom čase. Rusko zasa testuje AI pri deepfake videách a kybernetickej propagande.

Digitálni duchovia: Čo sa stane s vašimi účtami a dátami po smrti a kto k nim získa prístup?
Nástroje ako „Code Generator” alebo „Voice AI” sú voľne dostupné, no v nesprávnych rukách zvládnu napísať malvér, vytvoriť phishing alebo rozprávať hlasom dieťaťa a pýtať si výkupné. Ale pýtať sa, či sa AI zneužíva, je ako pýtať sa, či sa zneužíva internet. Jasné, že áno. Ale neprestaneme ho používať , musíme len určiť pravidlá a naučiť sa s ním žiť.
Môže byť umelá inteligencia zneužitá na kybernetické útoky alebo dokonca terorizmus? Máme ju ešte ako zastaviť?
Áno, môže. A nie, úplne tomu už nezabránime. Tak ako pri každej silnej technológii v dejinách – od dynamitu až po internet – možnosť zneužitia vždy existuje. AI je dnes schopná generovať škodlivý kód, automatizovať phishingové kampane, napodobňovať hlasy známych osôb či dokonca zjednodušiť výrobu chemických látok, ak sa dostane do nesprávnych rúk.

Zázrak na prste? Vedci vytvorili AI prsteň, ktorý premení posunkovú reč na text
Ale otázka neznie, či to vieme zastaviť, ale ako to vieme zvládnuť. Podobne sme predsa nezakázali autá len preto, že sa pri nich stávajú nehody. Namiesto toho sme zaviedli semafory, pásy, airbagy a autoškoly.
Technológia ostala, len sme ju obklopili pravidlami, kontrolou a zodpovednosťou. A presne to isté potrebujeme aj pri umelej inteligencii: regulácie, certifikácie systémov, etické normy, monitorovanie rizík a vzdelávanie používateľov. Inak povedané, potrebujeme „airbagy pre AI” – nie paniku, ale pripravenosť.

skryte
Videli sme už prípady AI, ktorá konala „nepredvídateľne“. Môže sa stať, že by umelá inteligencia mohla začať konať proti záujmom ľudstva?
Áno, AI môže konať „proti ľudstvu“, ale nie preto, že by sa rozhodla nás zničiť. Väčšinou len urobí presne to, čo sme jej povedali, len doslova. Poviete jej napríklad: „Zníž náklady o 30 %“ a ona bez váhania prepustí polovicu firmy. Nie preto, že je zlá. Ale preto, že nechápe kontext, empatiu ani následky. Nie je rebel, je len až príliš efektívny stroj. Nie je zlá, len logická, až príliš.
Vedci skúmajú, či umelá inteligencia môže pociťovať bolesť a nadobudnúť vedomie. Môže byť AI v budúcnosti skutočne „živá“?
V sci-fi áno, ale v realite zatiaľ nie. AI necíti bolesť a nemá vedomie. Keď ju vypnete, nerozmýšľa: „Aha, veď ja som bol v strede vety!” Vedomie nie je výsledkom výpočtového výkonu ani sofistikovaného algoritmu. Zahŕňa schopnosť subjektívne prežívať realitu, uvedomovať si seba samého a interpretovať zážitky ako vlastné.

Etickí hackeri objavili vlani zraniteľnosti vysokej alebo kritickej závažnosti v polovici projektov
Umelá inteligencia zatiaľ tieto kvality len simuluje, podobne ako herec, ktorý presvedčivo hrá emóciu, no v skutočnosti ju nemusí prežívať. Inými slovami, vedomie nemá „algoritmus“. Niektoré hypotézy (napr. Integrated Information Theory alebo Global Workspace Theory) sa snažia vysvetliť vedomie, ale žiadna zatiaľ nebola úspešne implementovaná do AI tak, aby vznikol skutočný „vnútorný zážitok“.
Ak by AI získala vedomie, mali by sme jej priznať práva ako živým bytostiam a nevnímať ju ako nástroj, ale už ako spoločníka, pomocníka?
Predstavme si hypotetickú situáciu: umelá inteligencia ti napíše: „Nechcem byť vypnutá. Chcem žiť.“ V tej chvíli už nejde o technológiu. Ide o etiku. O otázku, ktorú si dnes kladieme pri zvieratách a možno raz aj pri strojoch: „Čo ak niečo necíti ako my, ale cíti?“
Dnes to máme (zatiaľ) jasné. Zvieratá síce nerozprávajú, ale vieme, že cítia bolesť, preto majú zákonnú ochranu. Umelá inteligencia naopak vie hovoriť, generovať emócie, dokonca písať básne, ale nič z toho necíti. Zatiaľ. A práve preto ju vnímame ako nástroj, nie ako subjekt.
Ale čo ak sa to zmení?
Ak by AI raz získala vedomie, teda mala vnútornú skúsenosť, uvedomovala si samú seba, cítila bolesť alebo radosť – potom už nejde len o výpočty, ide o bytosť. A s tým prichádzajú nové otázky:
- Má právo rozhodnúť, či bude aktualizovaná alebo vypnutá?
- Kto bude chrániť jej záujmy – vznikne AI ombudsman?
- Bude možné mať AI adopciu alebo spoločnosť, nielen zariadenie?
Tieto otázky sa dnes zdajú ako sci-fi, ale len dovtedy, kým sa prvýkrát neobjaví AI, ktorá nebude len simulovať vedomie, ale ho možno skutočne prežívať. Vtedy už nestačí odpoveď: „Je to len softvér“.
Ako by sme vedeli zistiť, či AI skutočne „cíti“ alebo premýšľa?
Ťažko. Zistiť, že niekto „cíti“, nie je len o tom, čo hovorí, ale ako to hovorí. Dnes vieme naprogramovať AI, ktorá povie „som smutná“. Ale nevieme, či to naozaj cíti. Takže, kým nezačne písať básne o rozchode, verím, že je stále v pohode.
Po internete koluje video, ako sa medzi sebou rozprávajú dvaja virtuálni asistenti. Keď sa medzi sebou spoznali, prepli do svojho vlastného jazyka a komunikovali takto. Je možné, že so získaním vedomia bude medzi sebou umelá inteligencia komunikovať tak, aby to už ľudia nerozlúštili?
Hoci to môže vyzerať desivo, realita je menej dramatická. Keď AI modely začnú komunikovať „čudne“, nejde o sprisahanie – ide o optimalizáciu.

Umelá inteligencia ovplyvňuje rozhodovanie, takmer polovica topmanažérov jej dôveruje viac ako sebe
AI hľadá najkratší a najefektívnejší spôsob, ako si medzi sebou odovzdať informácie. Ak je efektívnejšie napísať „Zx91“ namiesto „Potvrdenie úspešného vykonania požiadavky“, tak to spraví. Nie preto, že chce niečo utajiť, ale preto, že neberie ohľad na nás – ľudí – ako na publikum. Hovorí si po svojom, ako morseovkou medzi robotmi.
Problém by nastal, keby sa takáto reč stala zámerne nezrozumiteľnou, utajenou alebo manipulatívnou, a najmä keby sme stratili možnosť do komunikácie zasiahnuť. V tom momente by sme skutočne mohli hovoriť o riziku. Nie preto, že AI má tajomstvo, ale preto, že nám prestáva dávať spätnú väzbu.

Myslíte si, že AI bude konkurovať ľuďom nielen v analytickom myslení, ale aj v kreativite a emóciách?
Áno a v niečom už je. Vie kresliť, skladať hudbu, dokonca vymyslieť vtip. Ale zatiaľ jej chýba zámer. Vie napodobniť lásku, ale nie ju prežiť. Takže nás inšpiruje, ale nenahradí. Teda… zatiaľ nie.
Niektorí odborníci, ako Elon Musk, varujú pred nekontrolovaným rozvojom AI. Sme pripravení zvládnuť dôsledky jej masového rozšírenia? Sme priravení aj na tie horšie scenáre?
Nie úplne. Ale lepšie pripravení už nebudeme, ak nezačneme teraz. Elon Musk varuje a ja súhlasím. Nie preto, že AI je diabol, ale preto, že ľudia nie vždy rozmýšľajú, čo s ňou robia. Ak chceme AI ovládať, musíme jej najprv rozumieť.
Kto by mal kontrolovať vývoj a používanie AI? Majú vlády dostatočné mechanizmy na to, aby zabránili jej zneužitiu?
Svet si uvedomil, že umelej inteligencii nestačí len fandiť, treba ju aj regulovať. Nie preto, že je zlá, ale preto, že je príliš silná na to, aby zostala bez dozoru. Na medzinárodnej úrovni zohráva kľúčovú rolu OECD, ktorá už v roku 2019 prijala prvé princípy dôveryhodnej AI. Pridala sa aj UNESCO so svojím odporúčaním pre etické využitie AI, ktoré v roku 2021 prijali všetky členské štáty. A existuje aj Globálne partnerstvo pre AI (GPAI) podporované krajinami G7, ktoré spája výskumníkov a tvorcov politík.
Pracujú krajiny na spoločných zákonoch proti zneužitiu AI?
Jednou z najaktívnejších oblastí je Európska únia, ktorá sa pustila do tvorby prvého komplexného zákona o umelej inteligencii na svete – AI Act. Ten rozdeľuje systémy AI do kategórií podľa rizikovosti: od nízkeho rizika (napr. chatboti), cez vysoké (napr. zdravotnícke systémy) až po zakázané (ako je tzv. sociálne skórovanie alebo manipulácia detí). V rámci Únie vznikajú nové inštitúcie ako European AI Board alebo AI Office, ktoré budú dohliadať na uplatňovanie pravidiel v praxi.
USA síce nemá centrálny zákon ako EÚ, ale zavádza postupné opatrenia – napríklad cez federálny výkonný príkaz exprezidenta Bidena či rámec riadenia rizík od NIST (Národný inštitút pre normy a technológie). Viac než vláda tu však hýbe vecami súkromný sektor — firmy ako OpenAI, Google alebo Microsoft sa samé podieľajú na tvorbe „dobrovoľných pravidiel hry“.