Stručná odpoveď: UI nenahradí kybernetickú bezpečnosť úplne, ale prevezme značnú časť opakujúcej sa SOC a bezpečnostnej inžinierskej práce. Ak sa používa ako redukcia šumu a sumarizátor – s ľudským prepísaním – urýchľuje triedenie a stanovovanie priorít; ak sa s ňou zaobchádza ako s veštcom, môže zaviesť riskantnú falošnú istotu.
Kľúčové poznatky:
Rozsah : Umelá inteligencia nahrádza úlohy a pracovné postupy, nie samotnú profesiu ani zodpovednosť.
Zníženie námahy : Využite umelú inteligenciu na zoskupovanie upozornení, stručné súhrny a triedenie podľa vzorov protokolov.
Zodpovednosť za rozhodovanie : Zachovajte si ľudskú základňu pre ochotu riskovať, riadenie incidentov a náročné kompromisy.
Odolnosť voči zneužitiu : Návrh pre okamžité vstreknutie, otravu a pokusy o vyhýbanie sa nepriateľovi.
Riadenie : Presadzovanie hraníc údajov, auditovateľnosti a napadnuteľných ľudských prepísaní v nástrojoch.

Články, ktoré by ste si mohli prečítať po tomto:
🔗 Ako sa generatívna umelá inteligencia používa v kybernetickej bezpečnosti
Praktické spôsoby, ako umelá inteligencia posilňuje detekciu, reakciu a prevenciu hrozieb.
🔗 Nástroje na penetračné testovanie umelej inteligencie pre kybernetickú bezpečnosť
Najlepšie riešenia s umelou inteligenciou na automatizáciu testovania a vyhľadávanie zraniteľností.
🔗 Je umelá inteligencia nebezpečná? Riziká a realita
Jasný pohľad na hrozby, mýty a zodpovedné ochranné opatrenia v oblasti umelej inteligencie.
🔗 Sprievodca najlepšími nástrojmi zabezpečenia umelou inteligenciou
Najlepšie bezpečnostné nástroje využívajúce umelú inteligenciu na ochranu systémov a údajov.
„Nahradiť“ rámovanie je pasca 😅
Keď ľudia hovoria „Môže umelá inteligencia nahradiť kybernetickú bezpečnosť?“ , zvyčajne majú na mysli jednu z troch vecí:
-
Nahradiť analytikov (ľudia nie sú potrební)
-
Výmena nástrojov (jedna platforma s umelou inteligenciou robí všetko)
-
Výsledkov výmeny (menej porušení, menšie riziko)
Umelá inteligencia je najsilnejšia v nahrádzaní opakujúceho sa úsilia a skracovaní času rozhodovania. Najslabšia je v nahrádzaní zodpovednosti, kontextu a úsudku. Bezpečnosť nie je len detekcia – sú to zložité kompromisy, obchodné obmedzenia, politika (fuj) a ľudské správanie.
Viete, ako to chodí – narušenie nebolo spôsobené „nedostatkom upozornení“. Bolo to kvôli tomu, že niekto neveril, že na upozornení záleží. 🙃
Kde umelá inteligencia už „nahrádza“ prácu v oblasti kybernetickej bezpečnosti (v praxi) ⚙️
Umelá inteligencia už preberá určité kategórie práce, aj keď organizačná štruktúra stále vyzerá rovnako.
1) Triedenie a zoskupovanie poplachov
-
Zoskupovanie podobných upozornení do jedného incidentu
-
Deduplikácia šumových signálov
-
Poradie podľa pravdepodobného vplyvu
Na tom záleží, pretože pri triedení ľudia strácajú vôľu žiť. Ak umelá inteligencia čo i len trochu zníži hluk, je to ako stlmiť požiarny alarm, ktorý kričí už týždne 🔥🔕
2) Analýza protokolov a detekcia anomálií
-
Odhaľovanie podozrivých vzorov pri rýchlosti stroja
-
Označenie „toto je nezvyčajné v porovnaní s východiskovým stavom“
Nie je to dokonalé, ale môže to byť cenné. Umelá inteligencia je ako detektor kovov na pláži – veľa pípa a niekedy je to vrchnák od fľaše, ale občas je to prsteň 💍… alebo kompromitovaný administrátorský token.
3) Klasifikácia malvéru a phishingu
-
Klasifikácia príloh, URL adries a domén
-
Detekcia podobných značiek a vzorcov falšovania
-
Automatizácia súhrnov verdiktov v sandboxe
4) Stanovenie priorít riadenia zraniteľností
Nie „ktoré CVE existujú“ – všetci vieme, že ich je príliš veľa. Umelá inteligencia pomáha odpovedať na:
-
Ktoré sú tu pravdepodobne zneužiteľné. EPSS (PRVÝ)
-
Ktoré sú vystavené zvonku
-
Ktoré sa priraďujú k cenným aktívam. Katalóg CISA KEV
-
Ktorý by sa mal najskôr opraviť bez toho, aby sa organizácia zapálila. NIST SP 800-40 Rev. 4 (Správa podnikových opráv)
A áno, aj ľudia by to dokázali – keby bol čas nekonečný a nikto si nikdy nebral dovolenku.
Čo robí dobrú verziu umelej inteligencie v kybernetickej bezpečnosti 🧠
Toto je časť, ktorú ľudia preskakujú a potom obviňujú „AI“, akoby to bol jeden produkt s pocitmi.
Dobrá verzia umelej inteligencie v kybernetickej bezpečnosti má zvyčajne tieto vlastnosti:
-
Vysoká disciplína signálu od šumu
-
Musí redukovať šum, nie vytvárať ďalší šum efektným frázovaním.
-
-
Vysvetliteľnosť, ktorá pomáha v praxi
-
Nie román. Žiadne vibrácie. Skutočné indície: čo videl, prečo mu na tom záleží, čo sa zmenilo.
-
-
Úzka integrácia s vaším prostredím
-
IAM, telemetria koncových bodov, správa cloudu, systém ticketingu, inventúra aktív… tie nenápadné veci.
-
-
Vstavané ľudské prepísanie
-
Analytici to musia opravovať, ladiť a niekedy ignorovať. Ako juniorský analytik, ktorý nikdy nespí, ale občas panikári.
-
-
Bezpečné spracovanie údajov
-
Jasné hranice toho, čo sa ukladá, trénuje alebo ponecháva. NIST AI RMF 1.0
-
-
Odolnosť voči manipulácii
-
Útočníci sa pokúsia o okamžitú injekciu, otravu a klamstvo. Vždy to robia. OWASP LLM01: Kódex postupov pre kybernetickú bezpečnosť umelej inteligencie v Spojenom kráľovstve
-
Buďme úprimní – veľa „bezpečnostných opatrení založených na umelej inteligencii“ zlyháva, pretože sú nacvičené tak, aby zneli isto, nie aby boli správne. Sebavedomie nie je kontrola. 😵💫
Časti, ktoré umelá inteligencia ťažko nahrádza – a na tom záleží viac, než sa zdá 🧩
Tu je nepríjemná pravda: kybernetická bezpečnosť nie je len technická. Je sociotechnická. Sú to ľudia plus systémy plus stimuly.
UI zápasí s:
1) Obchodný kontext a chuť riskovať
Bezpečnostné rozhodnutia sa zriedkavo týkajú otázky „je to zlé“. Skôr sú takéto:
-
Či je to dostatočne závažné na to, aby to zastavilo príjmy
-
Či sa oplatí prerušiť proces nasadenia
-
Či výkonný tím akceptuje prestoje kvôli tomu
UI môže pomôcť, ale nemôže sa za to postarať. Niekto podpíše rozhodnutie. Niekto dostane hovor o druhej ráno 📞
2) Velenie incidentu a koordinácia medzi tímami
Počas skutočných incidentov je „práca“ nasledovná:
-
Získanie správnych ľudí v miestnosti
-
Zosúladenie sa s faktami bez paniky
-
Riadenie komunikácie, dôkazov, právnych záležitostí a správ so zákazníkmi NIST SP 800-61 (Sprievodca riešením incidentov)
Umelá inteligencia vie vytvoriť časovú os alebo zhrnúť záznamy, to je isté. Nahradiť vedenie pod tlakom je... optimistické. Je to ako požiadať kalkulačku, aby vykonala požiarne cvičenie.
3) Modelovanie a architektúra hrozieb
Modelovanie hrozieb je čiastočne logika, čiastočne kreativita, čiastočne paranoja (väčšinou zdravá paranoja).
-
Vymenovanie toho, čo by sa mohlo pokaziť
-
Predvídanie toho, čo útočník urobí
-
Výber najlacnejšej kontroly, ktorá zmení útočníkove výpočty
Umelá inteligencia dokáže navrhovať vzorce, ale skutočná hodnota pramení z poznania vašich systémov, vašich ľudí, vašich skratiek a vašich špecifických závislostí od starých systémov.
4) Ľudské faktory a kultúra
Phishing, opätovné použitie poverení, tieňové IT, nedbalé kontroly prístupu – to sú ľudské problémy oblečené v technických kostýmoch 🎭.
UI dokáže odhaliť, ale nedokáže opraviť, prečo sa organizácia správa tak, ako sa správa.
Útočníci tiež používajú umelú inteligenciu - takže sa hracie pole nakláňa nabok 😈🤖
Akákoľvek diskusia o nahradení kybernetickej bezpečnosti musí zahŕňať zrejmé: útočníci sa nehýbu.
Umelá inteligencia pomáha útočníkom:
-
Píšte presvedčivejšie phishingové správy (menej porušenej gramatiky, viac kontextu). Varovanie FBI pred phishingom s využitím umelej inteligencie. Informácie IC3 o generatívnych podvodoch/phishingu s využitím umelej inteligencie.
-
Rýchlejšie generovanie polymorfných variácií malvéru. Správy o hrozbách OpenAI (príklady škodlivého použitia).
-
Automatizácia prieskumu a sociálneho inžinierstva Europol „Správa ChatGPT“ (prehľad zneužívania)
-
Lacné škálovanie pokusov
Takže prijatie umelej inteligencie obrancami nie je z dlhodobého hľadiska voliteľné. Je to skôr ako... že si so sebou beriete baterku, pretože druhá strana práve dostala okuliare na nočné videnie. Nemotorná metafora. Stále je to do istej miery pravdivé.
Útočníci sa tiež zamerajú na samotné systémy umelej inteligencie:
-
Okamžitá injekcia do bezpečnostných kopilotov OWASP LLM01: Okamžitá injekcia
-
Otrava dátami skresľuje modely Kódex postupov pre kybernetickú bezpečnosť s umelou inteligenciou v Spojenom kráľovstve
-
Príklady kontradiktornosti na vyhnutie sa odhaleniu MITRE ATLAS
-
o extrakciu modelu v niektorých nastaveniach MITRE ATLAS
Bezpečnosť bola vždy hra na mačku a myš. Umelá inteligencia len robí mačky rýchlejšími a myši vynaliezavejšími 🐭
Skutočná odpoveď: AI nahrádza úlohy, nie zodpovednosť ✅
Toto je „nepríjemný stred“, do ktorého sa dostane väčšina tímov:
-
AI zvláda škálovanie
-
Ľudia manipulujú s kolíkmi
-
Spoločne zvládajú rýchlosť a úsudok
V mojom vlastnom testovaní bezpečnostných pracovných postupov je umelá inteligencia najlepšia, keď sa s ňou zaobchádza takto:
-
Asistent triedenia
-
Zhrňovač
-
Korelačný nástroj
-
Pomocník s politikou
-
Partner na kontrolu kódu pre rizikové vzory
UI je najhoršia, keď sa s ňou zaobchádza takto:
-
Veštec
-
Jediný bod pravdy
-
Obranný systém „nastav a zabudni“
-
Dôvod na podvýživu tímu (toto sa stane neskôr... tvrdým)
Je to ako najať si strážneho psa, ktorý aj píše e-maily. Skvelé. Ale niekedy šteká na vysávač a nevšimne si chlapa, ktorý preskakuje plot. 🐶🧹
Porovnávacia tabuľka (najlepšie možnosti, ktoré tímy používajú denne) 📊
Nižšie je uvedená praktická porovnávacia tabuľka - nie je dokonalá, trochu nerovnomerná, ako v reálnom živote.
| Nástroj / Platforma | Najlepšie pre (publikum) | Cenová atmosféra | Prečo to funguje (a aké sú zvláštnosti) |
|---|---|---|---|
| Microsoft Sentinel Microsoft Learn | Tímy SOC žijúce v ekosystémoch spoločnosti Microsoft | $$ - $$$ | Silné cloudovo-natívne SIEM vzory; veľa konektorov, môže byť hlučné, ak nie sú naladené… |
| Splunk Splunk Enterprise Security | Väčšie organizácie s rozsiahlym protokolovaním a vlastnými potrebami | $$$ (často úprimne povedané $$$$) | Výkonné vyhľadávanie + dashboardy; úžasné, keď sú spravované správne, bolestivé, keď nikto nevlastní hygienu údajov |
| Bezpečnostné operácie spoločnosti Google v cloude Google | Tímy, ktoré chcú telemetriu v riadenom rozsahu | $$ - $$$ | Vhodné pre rozsiahle dáta; závisí od zrelosti integrácie, ako mnoho iných vecí |
| CrowdStrike Falcon CrowdStrike | Organizácie zamerané na koncové body a IR tímy | $$$ | Silná viditeľnosť koncových bodov; skvelá hĺbka detekcie, ale stále potrebujete ľudí, ktorí budú riadiť reakciu |
| Microsoft Defender pre koncové body Microsoft Learn | Organizácie zamerané na M365 | $$ - $$$ | Úzka integrácia so spoločnosťou Microsoft; môže byť skvelá, ale ak je nesprávne nakonfigurovaná, môže to byť „700 upozornení vo fronte“ |
| Palo Alto Cortex XSOAR Palo Alto Networks | SOC zamerané na automatizáciu | $$$ | Herné knihy znižujú námahu; vyžadujú si starostlivosť, inak automatizujete poruchu (áno, aj to je možné) |
| Platforma Wiz | Tímy cloudovej bezpečnosti | $$$ | Silná viditeľnosť cloudu; pomáha rýchlo prioritizovať riziká, stále si vyžaduje riadenie |
| Platforma Snyk | Organizácie zamerané na vývoj, AppSec | $$ - $$$ | Pracovné postupy priateľské k vývojárom; úspech závisí od prijatia vývojármi, nielen od skenovania |
Malá poznámka: žiadny nástroj „nevyhráva“ sám o sebe. Najlepší nástroj je ten, ktorý váš tím používa denne bez toho, aby sa naňho hneval. To nie je veda, to je prežitie 😅
Realistický operačný model: ako tímy vyhrávajú s umelou inteligenciou 🤝
Ak chcete, aby umelá inteligencia zmysluplne zlepšila bezpečnosť, postup je zvyčajne nasledovný:
Krok 1: Použite umelú inteligenciu na zníženie námahy
-
Súhrny obohatenia upozornení
-
Vypracovanie lístkov
-
Kontrolné zoznamy zhromažďovania dôkazov
-
Návrhy dopytov protokolov
-
Rozdiely v konfiguráciách v časti „Čo sa zmenilo“
Krok 2: Na overenie a rozhodnutie využite ľudí
-
Potvrdiť vplyv a rozsah
-
Vyberte opatrenia na obmedzenie
-
Koordinácia opráv medzi tímami
Krok 3: Automatizujte bezpečné veci
Dobré ciele automatizácie:
-
Umiestnenie známych škodlivých súborov do karantény s vysokou spoľahlivosťou
-
Obnovenie prihlasovacích údajov po overenom kompromitovaní
-
Blokovanie zjavne škodlivých domén
-
Presadzovanie korekcie odchýlok od politiky (opatrne)
Rizikové ciele automatizácie:
-
Automatická izolácia produkčných serverov bez ochranných opatrení
-
Odstraňovanie zdrojov na základe neistých signálov
-
Blokovanie veľkých rozsahov IP adries, pretože „model sa tak cítil“ 😬
Krok 4: Zohľadnenie poznatkov v kontrolách
-
Ladenie po incidente
-
Vylepšené detekcie
-
Lepšia inventúra majetku (večná bolesť)
-
Užšie privilégiá
Tu umelá inteligencia veľmi pomáha: sumarizovanie postmortemových analýz, mapovanie medzier v detekcii, premena poruchy na opakovateľné vylepšenia.
Skryté riziká zabezpečenia riadeného umelou inteligenciou (áno, existuje ich niekoľko) ⚠️
Ak vo veľkej miere využívate umelú inteligenciu, musíte si naplánovať nasledujúce nevýhody:
-
Vymyslená istota
-
Bezpečnostné tímy potrebujú dôkazy, nie rozprávanie príbehov. UI má rada rozprávanie príbehov. NIST AI RMF 1.0
-
-
Únik údajov
-
Výzvy môžu nechtiac obsahovať citlivé údaje. Záznamy sú plné tajomstiev, ak sa na ne pozriete pozorne. OWASP Top 10 pre žiadosti o titul LLM
-
-
Prílišná závislosť
-
Ľudia prestávajú učiť sa základy, pretože kopilot „vždy vie“... až kým ich neprestane vedieť.
-
-
Posun modelu
-
Prostredia sa menia. Vzorce útokov sa menia. Detekcie potichu hnijú. NIST AI RMF 1.0
-
-
Zneužívanie zo strany protivníka
-
Útočníci sa budú snažiť riadiť, zmiasť alebo zneužiť pracovné postupy založené na umelej inteligencii. Pokyny pre vývoj bezpečných systémov umelej inteligencie (NSA/CISA/NCSC-UK)
-
Je to ako keby ste si postavili veľmi inteligentný zámok a potom nechali kľúč pod rohožkou. Zámok nie je jediný problém.
Takže… Dokáže umelá inteligencia nahradiť kybernetickú bezpečnosť: jasná odpoveď 🧼
Dokáže umelá inteligencia nahradiť kybernetickú bezpečnosť?
Môže nahradiť veľa opakujúcej sa práce v rámci kybernetickej bezpečnosti. Môže urýchliť detekciu, triedenie, analýzu a dokonca aj časti reakcie. Nemôže však úplne nahradiť disciplínu, pretože kybernetická bezpečnosť nie je jednorazová úloha – je to riadenie, architektúra, ľudské správanie, vedenie incidentov a neustále prispôsobovanie sa.
Ak chcete čo najúprimnejšie zarámovanie (trochu priamočiare, prepáčte):
-
AI nahrádza zaneprázdnenosť
-
AI vylepšuje dobré tímy
-
AI odhaľuje zlé procesy
-
Ľudia zostávajú zodpovední za riziko a realitu
A áno, niektoré role sa posunú. Úlohy na vstupnej úrovni sa budú meniť najrýchlejšie. Objavia sa však aj nové úlohy: pracovné postupy bezpečné z hľadiska promptov, validácia modelov, inžinierstvo automatizácie bezpečnosti, detekčné inžinierstvo s nástrojmi s podporou umelej inteligencie… práca nezmizne, ale zmutuje 🧬
Záverečné poznámky a rýchle zhrnutie 🧾✨
Ak sa rozhodujete, čo robiť s umelou inteligenciou v oblasti bezpečnosti, tu je praktické ponaučenie:
-
Využite umelú inteligenciu na skrátenie času – rýchlejšie triedenie, rýchlejšie súhrny, rýchlejšia korelácia.
-
Ponechajte si ľudí pre posudzovanie – kontext, kompromisy, vedenie, zodpovednosť.
-
Predpokladajte, že útočníci používajú aj umelú inteligenciu – návrh pre klamanie a manipuláciu. MITRE ATLAS pre vývoj bezpečných systémov umelej inteligencie (NSA/CISA/NCSC-UK)
-
Nekupujte si „kúzla“ – kupujte si pracovné postupy, ktoré merateľne znižujú riziko a namáhavosť.
Takže áno, umelá inteligencia dokáže nahradiť časti práce a často to robí spôsobmi, ktoré sa na prvý pohľad zdajú nenápadné. Víťazným krokom je urobiť z umelej inteligencie svoju páku, nie svoju náhradu.
A ak sa obávate o svoju kariéru – zamerajte sa na tie časti, s ktorými má umelá inteligencia problém: systémové myslenie, vedenie incidentov, architektúra a to, že ste osobou, ktorá dokáže rozlíšiť medzi „zaujímavým upozornením“ a „budeme mať veľmi zlý deň“. 😄🔐
Často kladené otázky
Dokáže umelá inteligencia úplne nahradiť tímy kybernetickej bezpečnosti?
Umelá inteligencia môže prevziať značnú časť práce v oblasti kybernetickej bezpečnosti, ale nie celú disciplínu. Vyniká v opakujúcich sa úlohách s vysokou priepustnosťou, ako je zoskupovanie upozornení, detekcia anomálií a tvorba súhrnných údajov. Nenahrádza však zodpovednosť, obchodný kontext a úsudok, keď sú v stávke vysoké riziká. V praxi sa tímy usadia v „nepríjemnej strednej situácii“, kde umelá inteligencia zabezpečuje rozsah a rýchlosť, zatiaľ čo ľudia si ponechávajú zodpovednosť za následné rozhodnutia.
Kde už umelá inteligencia nahrádza každodennú prácu v oblasti SOC?
V mnohých SOC už umelá inteligencia preberá časovo náročnú prácu, ako je triedenie, deduplikácia a hodnotenie upozornení podľa pravdepodobného dopadu. Dokáže tiež zrýchliť analýzu protokolov tým, že označuje vzory, ktoré sa odchyľujú od základného správania. Výsledkom nie je menej incidentov ako zázrakom – je to menej hodín strávených brodením sa šumom, takže analytici sa môžu sústrediť na vyšetrovania, ktoré sú dôležité.
Ako nástroje umelej inteligencie pomáhajú so správou zraniteľností a prioritizáciou záplat?
Umelá inteligencia pomáha posunúť riadenie zraniteľností z hľadiska „príliš veľa CVE“ na „čo by sme mali najskôr opraviť“. Bežný prístup kombinuje signály pravdepodobnosti zneužitia (ako napríklad EPSS), známe zoznamy zneužitia (ako napríklad katalóg KEV od CISA) a kontext vášho prostredia (vystavenie internetu a kritickosť aktív). Ak sa to urobí dobre, znižuje sa to dohady a podporuje sa opravovanie bez narušenia podnikania.
Čo odlišuje „dobrú“ umelú inteligenciu v kybernetickej bezpečnosti od hlučnej umelej inteligencie?
Dobrá umelá inteligencia v kybernetickej bezpečnosti znižuje šum, namiesto toho, aby vytvárala sebavedomo znejúci chaos. Ponúka praktické vysvetlenie – konkrétne indície, ako napríklad čo sa zmenilo, čo sa pozorovalo a prečo je to dôležité – namiesto dlhých, vágnych naratívov. Integruje sa tiež s kľúčovými systémami (IAM, koncové body, cloud, ticketing) a podporuje ľudské prepísanie, aby analytici mohli zmeny v prípade potreby opraviť, vyladiť alebo ignorovať.
Ktoré časti kybernetickej bezpečnosti má umelá inteligencia problém nahradiť?
Umelá inteligencia má najväčšie problémy so sociotechnickou prácou: chuť riskovať, riadenie incidentov a koordinácia medzi tímami. Počas incidentov sa práca často stáva komunikáciou, nakladaním s dôkazmi, právnymi záležitosťami a rozhodovaním v neistote – oblasťami, kde vedenie prevyšuje porovnávanie vzorov. Umelá inteligencia môže pomôcť so sumarizáciou protokolov alebo návrhom časových harmonogramov, ale spoľahlivo nenahradí zodpovednosť pod tlakom.
Ako útočníci využívajú umelú inteligenciu a mení to prácu obrancu?
Útočníci využívajú umelú inteligenciu na škálovanie phishingu, generovanie presvedčivejšieho sociálneho inžinierstva a rýchlejšie iterácie variantov malvéru. To mení pravidlá hry: obrancovia, ktorí prijímajú umelú inteligenciu, sa časom stávajú menej voliteľnými. Pridáva to tiež nové riziko, pretože útočníci sa môžu zamerať na pracovné postupy umelej inteligencie prostredníctvom rýchlej injekcie, pokusov o otrávenie alebo obchádzania nepriateľa – čo znamená, že aj systémy umelej inteligencie potrebujú bezpečnostné kontroly, nie slepú dôveru.
Aké sú najväčšie riziká spoliehania sa na umelú inteligenciu pri bezpečnostných rozhodnutiach?
Hlavným rizikom je vymyslená istota: UI môže znieť sebavedomo, aj keď sa mýli, a sebavedomie nie je kontrolou. Únik údajov je ďalším častým úskalím – bezpečnostné výzvy môžu nechtiac obsahovať citlivé podrobnosti a protokoly často obsahujú tajomstvá. Prílišné spoliehanie sa môže tiež narušiť základy, zatiaľ čo posun modelu nenápadne zhoršuje detekciu, keďže sa prostredie a správanie útočníka menia.
Aký je realistický operačný model pre využitie umelej inteligencie v kybernetickej bezpečnosti?
Praktický model vyzerá takto: využite umelú inteligenciu na zníženie námahy, zachovajte ľudskú účasť na overovaní a rozhodovaní a automatizujte iba bezpečné veci. Umelá inteligencia je silná pri obohacujúcich súhrnoch, tvorbe tiketov, kontrolných zoznamoch dôkazov a porovnávaní „čo sa zmenilo“. Automatizácia sa najlepšie hodí pre vysoko spoľahlivé akcie, ako je blokovanie známych chybných domén alebo resetovanie prihlasovacích údajov po overenom kompromitovaní, s ochrannými opatreniami, ktoré zabraňujú prekročeniu limitu.
Nahradí umelá inteligencia pozície v oblasti kybernetickej bezpečnosti na vstupnej úrovni a ktoré zručnosti sa stanú cennejšími?
Najrýchlejšie sa pravdepodobne zmení počet úloh na základnej úrovni, pretože umelá inteligencia dokáže absorbovať opakujúcu sa prácu s triedením, sumarizáciou a klasifikáciou. Objavujú sa však aj nové úlohy, ako napríklad budovanie pracovných postupov bezpečných pre výzvy, overovanie výstupov modelov a automatizácia bezpečnostných inžinierskych prác. Kariérna odolnosť zvyčajne pramení zo zručností, s ktorými má umelá inteligencia problém: systémové myslenie, architektúra, vedenie incidentov a preklad technických signálov do obchodných rozhodnutí.
Referencie
-
PRVÝ - EPSS (PRVÝ) - first.org
-
Agentúra pre kybernetickú bezpečnosť a bezpečnosť infraštruktúry (CISA) – katalóg známych zneužitých zraniteľností – cisa.gov
-
Národný inštitút pre štandardy a technológie (NIST) - SP 800-40 Rev. 4 (Správa podnikových záplat) - csrc.nist.gov
-
Národný inštitút pre štandardy a technológie (NIST) - AI RMF 1.0 - nvlpubs.nist.gov
-
OWASP - LLM01: Prompt Injection - genai.owasp.org
-
Vláda Spojeného kráľovstva - Kódex postupov pre kybernetickú bezpečnosť umelej inteligencie - gov.uk
-
Národný inštitút pre štandardy a technológie (NIST) - SP 800-61 (Sprievodca riešením incidentov) - csrc.nist.gov
-
Federálny úrad pre vyšetrovanie (FBI) - FBI varuje pred rastúcou hrozbou kybernetických zločincov využívajúcich umelú inteligenciu - fbi.gov
-
Centrum FBI pre sťažnosti na internetovú kriminalitu (IC3) – IC3 PSA o generatívnych podvodoch/phishingu s využitím umelej inteligencie – ic3.gov
-
OpenAI – Správy o hrozbách OpenAI (príklady škodlivého použitia) – openai.com
-
Europol – „Správa o ChatGPT“ od Europolu (prehľad zneužitia) – europol.europa.eu
-
MITRE - ATLAS MITRE - mitre.org
-
OWASP – OWASP Top 10 pre prihlášky na LLM – owasp.org
-
Národná bezpečnostná agentúra (NSA) – Pokyny pre zabezpečenie vývoja systémov umelej inteligencie (NSA/CISA/NCSC-UK a partneri) – nsa.gov
-
Microsoft Learn – Prehľad služby Microsoft Sentinel – learn.microsoft.com
-
Splunk - Splunk Enterprise Security - splunk.com
-
Google Cloud – Bezpečnostné operácie spoločnosti Google – cloud.google.com
-
CrowdStrike - platforma CrowdStrike Falcon - crowdstrike.com
-
Microsoft Learn – Microsoft Defender pre koncové body – learn.microsoft.com
-
Palo Alto Networks - Cortex XSOAR - paloaltonetworks.com
-
Wiz - platforma Wiz - wiz.io
-
Snyk - Platforma Snyk - snyk.io