MI és Kiberbiztonság: Új fenyegetések vagy csak a régiek turbózva?

Mesterséges Intelligencia: Jó, Rossz és Kiberbiztonság

A mesterséges intelligencia (MI) forradalma zajlik, és szinte naponta szembesülünk újabb és újabb fejleményekkel. De mit is jelent pontosan az MI, és hogyan befolyásolja a digitális biztonságunkat?

Alapfogalmak tisztázása

Mielőtt mélyebbre ásnánk, érdemes tisztázni néhány kulcsfogalmat:

  • Mesterséges Intelligencia (MI): Az emberi intelligencia gépek általi szimulációja, amely lehetővé teszi számukra olyan feladatok elvégzését, mint a döntéshozatal vagy problémamegoldás. Ez a legtágabb fogalom.
  • Gépi Tanulás (Machine Learning, ML): Az MI egy részterülete, amely algoritmusok és statisztikai modellek fejlesztésére összpontosít, hogy a gépek adatokból tanuljanak és ez alapján hozzanak döntéseket vagy jóslatokat.
  • Mélytanulás (Deep Learning, DL): A gépi tanulás specializált ága, amely többrétegű neurális hálókat használ komplex adatmintázatok elemzésére. Különösen hatékony kép- és beszédfelismerésben.
  • Nagy Nyelvi Modellek (Large Language Models, LLM): Olyan MI modellek, amelyeket hatalmas szöveges adathalmazokon tanítottak be emberihez hasonló szöveg megértésére és generálására. A mélytanulás egy specifikus alkalmazása.
  • Generatív MI (GenAI): Olyan MI rendszerek, amelyek képesek új tartalmak (szöveg, kép, zene stb.) létrehozására a tanítási adataik alapján, gyakran LLM-ekre és mélytanulásra támaszkodva.

A nagy nyelvi modellek fejlesztése a 2000-es évek elején kezdődött a természetes nyelvi feldolgozás (NLP) fejlődésével, de az igazi áttörést Ashish Vaswani 2017-es „Attention is All You Need” című publikációja hozta, amely lehetővé tette sokkal nagyobb modellek óriási adathalmazokon való tanítását.

Mint minden technológia, az LLM-ek is semlegesek – jó és rossz célokra egyaránt használhatók. A kérdés az, hogy a támadók vagy a védők profitálnak-e belőle többet, vagy gyorsabban?

MI a védelem szolgálatában

A mesterséges intelligencia már régóta jelen van a biztonsági technológiákban, és számos területen segíti a védelmet:

  • Termelékenység és kommunikáció: Javíthatja az irodai hatékonyságot és a belső/külső kommunikációt, beleértve a többnyelvű kommunikációt is.
  • Információgyűjtés és elemzés: Segíthet a kutatásban, nyílt forráskódú hírszerzésben (OSINT), valamint nagy mennyiségű, strukturálatlan szöveges adat (pl. biztonsági naplók, eseményinformációk) összegzésében és elemzésében.
  • Fenyegetésészlelés: Segíthet rosszindulatú e-mailek, fájlok, valamint hamis vagy megtévesztő szöveges, képi vagy videós tartalmak azonosításában.
  • Biztonsági tesztelés: Támogathatja a felderítési és sebezhetőség-keresési feladatokat.

Példák a gyakorlatból:

  • Behatolásészlelő Rendszerek (IDS): A Darktrace gépi tanulást használ a normál viselkedéstől való eltérések azonosítására és a fenyegetések valós idejű észlelésére.
  • Adathalászat-észlelés: A Proofpoint és a Microsoft Defender ML algoritmusokkal elemzi az e-mailek tartalmát, metaadatait és a felhasználói viselkedést a támadások kiszűrésére.
  • Végpontvédelem (EDR): A CrowdStrike Falcon ML segítségével azonosítja a szokatlan viselkedést a végpontokon.
  • Microsoft Copilot for Security: Generatív MI-t (pl. GPT modelleket) használ a biztonsági szakemberek munkájának támogatására a fenyegetésészlelésben és incidenskezelésben.

MI a támadók kezében

Sajnos a támadók is kihasználhatják az MI előnyeit:

  • Hatékonyságnövelés: Javíthatja a rosszindulatú szereplők „irodai” munkáját, kommunikációját (akár több nyelven is).
  • Információgyűjtés: Segítheti a célpontokról (pl. közösségi médiából) történő adatgyűjtést és elemzést célzott adathalász (spear-phishing) támadásokhoz.
  • Támadási folyamatok segítése: Támogathatja a felderítést és sebezhetőség-keresést.
  • Megtévesztő tartalmak létrehozása: Segíthet hihető szövegek (pl. adathalász e-mailekhez), képek vagy videók (deepfake) generálásában.
  • Adatszivárgás kockázata: Az MI rendszerek használata véletlen adatkisztatáshoz vagy jogosulatlan hozzáféréshez vezethet.
  • Új támadási felület: Maguk az MI rendszerek is sebezhetővé és vonzó célponttá válhatnak.

Bár az MI-alapú támadások valós példái még viszonylag ritkák (pl. az MIT Automated Exploit Generation vagy az IBM DeepLocker inkább koncepciók voltak), láthatóak aggasztó jelek. 2024 októberében például a Rhadamanthys zsarolóvírus-szolgáltatás (MaaS) már MI-t használt a képeken található érzékeny információk (pl. jelszavak) optikai karakterfelismerésére (OCR). Egy másik elhíresült eset, amikor a brit Arup mérnöki céget állítólag 25 millió dollárral károsították meg csalók, akik egy vezető hangját digitálisan klónozva, videokonferencián utasították pénzügyi átutalásokra a munkatársakat.

Vajon az MI fokozza a fenyegetéseket? Négy szempont

A lehetséges kockázatok szisztematikus vizsgálatához négy nézőpontot érdemes figyelembe venni:

  1. Az elmaradás kockázata (Risk of Non-adoption): Sok vállalat nyomást érez az LLM-ek bevezetésére. A vezetők attól tartanak, hogy lemaradnak a versenyben, ha nem használják ki az MI hatékonyságnövelő (pl. Copilot, ChatGPT) vagy új üzleti lehetőségeket feltáró potenciálját. Aggódnak, hogy MI nélkül „elavultnak” tűnnek a piacon. Ezek jogos aggodalmak, de az alapfeltevések gyakran nincsenek tesztelve. Egy 2024 júliusi felmérés szerint bár a vezetők 96%-a vár termelékenységnövekedést az MI-től, az alkalmazottak közel fele (47%) nem tudja, hogyan érje el ezt, 77% pedig úgy érzi, az MI eszközök inkább csökkentették a termelékenységüket és növelték a terheiket. Figyelembe kell venni a bevezetés költségeit (licenc, implementáció, tesztelés, képzés), az alternatív befektetési lehetőségek elmaradását (opportunity cost), a biztonsági és adatvédelmi kockázatokat, valamint a szélesebb körű externáliákat:
    • Erőforrás-felhasználás: Az LLM-ek tanítása és működtetése hatalmas energia- és vízigényű (egyes becslések szerint a Microsoft MI adatközpontjai 6 éven belül több energiát fogyaszthatnak, mint egész India).
    • Etikai aggályok: Kreatív alkotásokat gyakran az alkotók beleegyezése nélkül használnak fel a modellek tanítására.
    • Piaci koncentráció: Az MI néhány nagy szereplő kezében összpontosulhat, ami gazdasági, társadalmi és geopolitikai hatásokkal járhat. Az elmaradás kockázatának mérlegelésekor a potenciális előnyöket gondosan össze kell vetni a közvetlen, közvetett és külső költségekkel, beleértve a biztonsági kockázatokat is.
  2. Meglévő fenyegetések MI-vel (Existing Threats From AI): Bár az államilag támogatott támadócsoportok (APT-k) MI-adoptációja valószínűleg még korai szakaszban van, csak idő kérdése, hogy szélesebb körben elterjedjen.
    • APT-k és LLM-ek: Észak-koreai csoportok LLM-eket használnak sebezhetőségek megértésére, szkriptelésre és célpontfelderítésre. Iráni csoportok adathalász e-maileket generálnak és adatgyűjtésre használják. Kínai csoportok a kompromittáció utáni műveletekhez használták fel az LLM-eket. Az OpenAI 2024 eleje óta több mint 20 visszaélést akadályozott meg (malware fejlesztés, félretájékoztatás, észlelés kijátszása, adathalászat), amelyeket kínai és iráni csoportokhoz kötöttek.
    • Dezinformáció: Államilag támogatott csoportok MI-t használnak hamis szövegek, képek és videók létrehozására befolyásolási és dezinformációs kampányokhoz (pl. választások befolyásolása).
    • Kiberbűnözés: A legális chatbotok mellett megjelentek a kifejezetten csalásra trenírozott „sötét LLM-ek” (pl. FraudGPT, WormGPT), amelyeket adathalászat automatizálására, malware fejlesztés segítésére és átverésekhez használnak. Növekszik a deepfake (pl. szexuális zsarolás, romantikus átverések), az MI-alapú adathalász eszközök és az MI-alapú hangalapú adathalászat (vishing) elérhetősége és minősége.
    • Sebezhetőségek kihasználása: Bár az MI még korlátokkal küzd a sebezhetőség-leírások alapján történő exploit kód írásában, a technológia fejlődése komoly hatással lehet a fenyegetési környezetre, potenciálisan bárki számára elérhetővé téve az exploit fejlesztés képességét (különösen nyílt forráskódú szoftverek esetén).
  3. LLM-ekből fakadó új fenyegetések (New Threats from LLMs): Az új fenyegetések attól függnek, hogyan és hol használják az LLM-eket.
    • Fenyegetések a felhasználókra (Consumers): Akár vállalatokról, akár egyéni munkavállalókról van szó, akik külső LLM szolgáltatásokat (pl. ChatGPT) használnak, a fő kockázatok az adatbiztonsághoz kapcsolódnak:
      • Adatszivárgás: A dolgozók véletlenül bizalmas adatokat oszthatnak meg az LLM rendszerekkel.
      • Hallucináció: A GenAI pontatlan, félrevezető vagy helytelen tartalmat generálhat, ami jogi felelősséghez vezethet (pl. hibás vagy nem biztonságos kód).
      • Szellemi tulajdonjogok: A kimenetek felhasználása és a modellek tanítása körüli tulajdonjogi kérdések tisztázatlanok, ami jogi kockázatokat rejt.
    • Fenyegetések a szolgáltatókra/integrálókra (Providers): Amikor egy vállalat LLM-et integrál saját rendszereibe vagy folyamataiba, újabb fenyegetések jelennek meg:
      • Modellel kapcsolatos fenyegetések: A betanított modell értékes, így célpontja lehet lopásnak, „mérgezésnek” (pontosság rontása), megsemmisítésnek vagy elérhetetlenné tételnek. Jogi felelősség is felmerülhet a modell által generált hibás vagy jogellenes tartalom miatt.
      • GenAI mint támadási felület: Az igazi új veszély az LLM-ek integrálásával létrejövő megnövekedett támadási felület. Az LLM-eket gyakran csevegőfelületeken keresztül teszik elérhetővé, amelyek Retrieval-Augmented Generation (RAG) segítségével kapcsolódnak a vállalati tudásbázisokhoz és API-kon keresztül a háttérrendszerekhez. Ez az architektúra, amely az internet felé nyitott lehet, új, összetett és potenciálisan sebezhető határfelületet hoz létre. Mivel az LLM-ek nem determinisztikusak, még a fejlesztőik sem mindig értik teljesen a belső működésüket, ami kihasználhatóvá teszi őket.
      • Prompt Injection: Az OWASP szerint ez a legkritikusabb GenAI sebezhetőség. A támadó speciálisan kialakított bemenettel (prompt) manipulálja a modellt, hogy az kikerülje a biztonsági korlátokat, nem szándékolt műveleteket hajtson végre, vagy bizalmas információkat adjon ki. Már most gyorsan fejlődnek az ilyen támadásokhoz szükséges eszközök és technikák, hasonlóan a webalkalmazások elleni támadások korai időszakához. A Muah.ai „NSFW” chatbot oldal feltörése is rávilágít, hogy a sebtében összerakott rendszerek könnyű célpontot jelenthetnek.

Konklúzió: Több a régiből, nem egy új dimenzió?

Természetes, hogy tartunk attól, milyen hatással lehetnek az LLM-ek az ellenfeleink kezében. Sok szó esik arról, hogyan „gyorsíthatja fel a fenyegetéseket” az MI. Ez a bizonytalanság gyakran további biztonsági beruházások melletti érvként jelenik meg.

Azonban, bár vannak változások, sok kiemelt „új” fenyegetés már az LLM technológia előtt is létezett, és legfeljebb csak felerősödik általa (online megszemélyesítés, olcsó adathalászat, hanghamisítás, fordítás, jelszótörés, sebezhetőség-felfedezés stb.). Ezek kezelése nem feltétlenül igényel alapvetően új biztonsági gyakorlatokat, inkább a meglévők következetes alkalmazását.

Az LLM-ek mint támadási felület kockázata viszont jelentősen alulbecsült. Kulcsfontosságú, hogy tanuljunk a korábbi technológiai forradalmak (pl. webalkalmazások, API-k) hibáiból, és ne vezessünk be meggondolatlanul egy teszteletlen és nehezen tesztelhető technológiát a nyílt kibertér és a kritikus belső rendszereink határára. A vállalatoknak rendkívül óvatosan kell mérlegelniük a GenAI felületek bevezetésének potenciális előnyeit a biztosan megjelenő kockázatokkal szemben.

Végül is a biztonsági „Kockázat” továbbra is alapvetően a Fenyegetés, a Sérülékenység és a Hatás szorzata. Egy LLM önmagában nem teremti meg ezeket, ha nincsenek már jelen. Ha pedig ezek az elemek adottak, a kezelendő kockázat nagyrészt független az MI létezésétől.