Alarmujúci predel pre umelú inteligenciu alebo prehnaná hrozba?
Nedávne oznámenie startupu AI Anthropic, že zistil prvú hackerskú kampaň na svete založenú na umelej inteligencii, vyvolalo množstvo reakcií odborníkov na kybernetickú bezpečnosť.
Odporúčané príbehy
zoznam 4 položiekkoniec zoznamu
Zatiaľ čo niektorí pozorovatelia upozornili na dlho obávaný príchod nebezpečného inflexného bodu, iní privítali tieto tvrdenia skepticky a tvrdili, že účet startupu vynecháva kľúčové detaily a vyvoláva viac otázok ako odpovedí.
V piatkovej správe spoločnosť Anthropic uviedla, že jej asistent Claude Code bol zmanipulovaný, aby vykonal 80 až 90 percent „rozsiahleho“ a „vysoko sofistikovaného“ kybernetického útoku, pričom ľudský zásah bol potrebný „len sporadicky“.
Antropic, tvorca populárneho chatbota Claude, uviedol, že cieľom útoku bolo infiltrovať vládne agentúry, finančné inštitúcie, technologické firmy a chemické výrobné spoločnosti, hoci operácia bola úspešná len v malom počte prípadov.
Spoločnosť so sídlom v San Franciscu, ktorá útok pripísala čínskym štátom sponzorovaným hackerom, nešpecifikovala, ako operáciu odhalila, ani neidentifikovala „približne“ 30 subjektov, ktoré sa podľa nej stali terčom útoku.
Roman V Yampolskiy, odborník na AI a kybernetickú bezpečnosť z University of Louisville, povedal, že niet pochýb o tom, že hackovanie pomocou AI predstavuje vážnu hrozbu, aj keď je ťažké overiť presné detaily účtu Anthropic.
„Moderné modely dokážu písať a prispôsobovať exploit kód, prehľadávať obrovské objemy ukradnutých údajov a organizovať nástroje rýchlejšie a lacnejšie ako ľudské tímy,“ povedal Yampolskiy pre Al Jazeera.
„Znižujú bariéru zručností pre vstup a zväčšujú rozsah, v ktorom môžu dobre financovaní aktéri pôsobiť. Efektívne umiestňujeme juniorský tím kybernetických operácií do cloudu, ktorý je možné prenajímať na hodinu.“
Yampolskiy povedal, že očakáva, že AI zvýši frekvenciu aj závažnosť útokov.
Jaime Sevilla, riaditeľ Epoch AI, povedal, že v správe Anthropic nevidí veľa nového, ale minulé skúsenosti diktovali, že útoky s pomocou AI sú uskutočniteľné a pravdepodobne sa stanú čoraz bežnejšími.
„Toto pravdepodobne najviac zasiahne stredne veľké podniky a vládne agentúry,“ povedala Sevilla pre Al Jazeera.
„Historicky neboli dostatočne hodnotné ciele pre špecializované kampane a často sa nedostatočne investovali do kybernetickej bezpečnosti, ale umelá inteligencia z nich robí ziskové ciele. Očakávam, že mnohé z týchto organizácií sa prispôsobia tým, že si najmú špecialistov na kybernetickú bezpečnosť, spustia programy odmeňovania zraniteľností a použijú AI na interné zisťovanie a opravovanie slabín.“
Zatiaľ čo mnohí analytici vyjadrili svoju túžbu po ďalších informáciách od spoločnosti Anthropic, niektorí jej tvrdenia odmietali.
Po tom, čo senátor Spojených štátov Chris Murphy varoval, že útoky vedené AI by nás „zničili“, ak sa regulácia nestane prioritou, hlavný vedec Meta AI Yann LeCun vyzval zákonodarcu, že sa na neho „hrá“ spoločnosť, ktorá sa snaží reguláciu zachytiť.
„Všetkých strašia pochybnými štúdiami, takže modely s otvoreným zdrojovým kódom sú regulované mimo existenciu,“ uviedol LeCun v príspevku na X.
Antropic nereagoval na žiadosť o komentár.
Hovorca čínskeho veľvyslanectva vo Washingtone, DC, uviedol, že Čína sa „dôsledne a rozhodne“ stavia proti všetkým formám kybernetických útokov.
„Dúfame, že príslušné strany zaujmú profesionálny a zodpovedný postoj a založia svoju charakteristiku kybernetických incidentov na dostatočných dôkazoch, a nie na nepodložených špekuláciách a obvineniach,“ povedal Liu Pengyu Al-Džazíre.
Toby Murray, expert na počítačovú bezpečnosť z University of Melbourne, uviedol, že spoločnosť Anthropic mala obchodné stimuly, aby poukázala na nebezpečenstvá takýchto útokov a na svoju schopnosť čeliť im.
„Niektorí ľudia spochybnili tvrdenia Anthropicu, ktoré naznačujú, že útočníci boli schopní prinútiť Claude AI vykonávať veľmi zložité úlohy s menším ľudským dohľadom, než sa zvyčajne vyžaduje,“ povedal Murray pre Al Jazeera.
„Bohužiaľ, neposkytujú nám jasné dôkazy, aby sme mohli presne povedať, aké úlohy boli vykonané alebo aký dohľad bol poskytnutý. Takže je ťažké vyniesť rozsudok tak či onak o týchto tvrdeniach.“
Napriek tomu Murray povedal, že správu nepovažuje za zvlášť prekvapujúcu, vzhľadom na to, ako efektívni sú niektorí asistenti AI pri úlohách, ako je kódovanie.
„Nevidím, že by hackovanie poháňané AI zmenilo druhy hackov, ktoré sa vyskytnú,“ povedal.
„Môže to však znamenať zmenu rozsahu. Mali by sme očakávať, že v budúcnosti uvidíme viac hackov poháňaných AI a že tieto hacky budú úspešnejšie.“
Zatiaľ čo AI bude predstavovať rastúce riziko pre kybernetickú bezpečnosť, bude tiež kľúčová pri posilňovaní obrany, hovoria analytici.
Fred Heiding, výskumný pracovník Harvardskej univerzity, ktorý sa špecializuje na počítačovú bezpečnosť a bezpečnosť AI, povedal, že verí, že AI poskytne odborníkom na kybernetickú bezpečnosť z dlhodobého hľadiska „významnú výhodu“.
„V súčasnosti je veľa kybernetických operácií brzdených nedostatkom ľudských kybernetických profesionálov. Umelá inteligencia nám pomôže prekonať túto prekážku tým, že nám umožní testovať všetky naše systémy vo veľkom rozsahu,“ povedal Heiding pre Al Jazeera.
Heiding, ktorý označil účet Anthropic za všeobecne dôveryhodný, ale „prehnaný“, povedal, že veľkým nebezpečenstvom je, že hackeri budú mať príležitosť vyblázniť sa, pretože bezpečnostní experti sa snažia dohnať ich využívanie čoraz pokročilejšej AI.
„Bohužiaľ, defenzívna komunita bude pravdepodobne príliš pomalá na to, aby implementovala novú technológiu do automatizovaných riešení na testovanie bezpečnosti a opravy,“ povedal.
„Ak je to tak, útočníci spôsobia zmätok v našich systémoch stlačením tlačidla skôr, ako ich naša obrana stihne dobehnúť.“



