Kunstig intelligens er ikke klogere, end at den stadig kan snydes. Derfor maner it-sikkerhedsekspert Torben Clemmensen til besindighed, når det kommer til blindt at implementere AI-drevne it-sikkerhedsløsninger.
Mange it-sikkerhedsvirksomheder fremhæver kunstig intelligens (AI) som løsningen på nutidens og fremtidens trusler, hvor AI automatisk skal opdage og stoppe mistænkelig adfærd.
Men ifølge Torben Clemmensen, it-sikkerhedsspecialist hos SECUINFRA i Norden, kan dette være en farlig vej for danske virksomheder at gå – da mange de nye teknologier og løfter ikke altid holder i praksis. Han mener, at vi først skal forstå AIs begrænsninger, og ikke kaste al tillid i dens retning.
“For AI er ikke intelligent. Det svarer til at have en savlende hund i hjørnet, som tisser på gulvet, indtil du har lært den andet. Faktisk kan du lære den hvad som helst, så længe den udsættes for nok læringsmateriale, hvilket også er det, der gør den farlig at stole på,” siger han.
Begge veje
At AI er kommet for at blive i virksomhederne, er de fleste enige om, men spørger man informationssikkerhedsekspert, Helge Djernes, er det vigtigt at gøre sig klart, at de nye teknologier også bruges på den anden side af loven.
“Da teknologien er godt på vej til at blive en hygiejnefaktor for alle, og en konkurrencefordel for udvalgte, kan vi være sikre på, at vores cyberkriminelle modstandere ihærdigt undersøger, hvordan teknologien bedst kan bruges imod os. At teknologien er svær at gennemskue, gør den kun mere attraktiv for banditterne,” skrev han tidligere i Marketconnect.
Og de it-kriminelle – hvad end de er statsstøttede, opportunister eller ”hacktivister” – taler i dag også sammen på lukkede og skjulte internetfora om, hvordan AI både gør deres arbejde sværere – og hvordan de kan udnytte den nye teknologi til lettere at bryde ind eller påvirke software.
“Hackere kan udnytte AI-drevne endpoint-løsninger ved at manipulere de underliggende maskinlæringsmodeller til eksempelvis at fejlklassificere deres ondsindede aktiviteter som normale. Det sker via forskellige strategier, men vi ser dem allerede ske nu,” siger Torben Clemmensen.
Seks eksempler
Han giver her seks eksempler på nye metoder, der viser, hvordan hackerne snyder din AI-sikkerhedstjeneste.
Eksempel 1
Træning af AI-systemer til at opfatte ondsindet adfærd som normal (Forgiftningsangreb)
AI-drevne EDR/XDR-systemer er afhængige af træningsdatasæt for at lære, hvad der er normal og ondsindet aktivitet. Hackere kan bevidst – som en ulv i fåreklæder – indsætte ondsindet aktivitet, der ligner normal aktivitet, i træningsdataene. Over tid vænner AI’en sig til at klassificere deres specifikke ondsindede adfærd som normal.
- En hacker udfører gentagne gange lavprofil-rekognosceringsaktiviteter (fx netværksscanning) på en måde, der ligner administrative opgaver. AI’en begynder at behandle disse scanninger som legitime, selv hvis omfanget eller hyppigheden senere øges.
Eksempel 2
Undvigelsesangreb: Efterligning af legitim adfærd
Hackere tilpasser deres adfærd for at undgå detektion ved hjælp af teknikker som:
Living-off-the-Land (LotL): Brug af legitime værktøjer (fx PowerShell, WMI) til at udføre ondsindede aktiviteter, der ligner normale operationer.
Polymorf malware: Udvikling af malware, der konstant ændrer sine karakteristika, hvilket gør det vanskeligere for statiske detektionsalgoritmer at identificere.
- Kryptering af data i små batches kan ligne en legitim backup-proces og narre AI’en til at tro, at ransomware-aktivitet er harmløs.
Eksempel 3
Udnyttelse af modeldrift
AI-systemer opdateres periodisk for at tilpasse sig nye miljøer. Hackere kan udnytte denne “drift” ved at fodre systemet med data, der gradvist ændrer dets forståelse af normal adfærd. Over tid bliver modellen mindre effektiv, da den inkorporerer hackerens omhyggeligt udformede aktiviteter i sin baseline for “normal” adfærd.
- En hacker uploader gentagne gange krypterede filer til cloud-lagring. Systemet markerer det i starten som mistænkeligt, men lærer over tid, at det er normal adfærd.
Eksempel 4
Støjinjektion
Ved at oversvømme et EDR/XDR-system med ubetydelige data eller hændelser kan hackere overbelaste det, så AI’en fejlklassificerer eller overser ondsindet aktivitet.
- Generering af harmløse alarmer eller anomalier i et sandbox-miljø kan gøre AI’en ufølsom over for reelle trusler og skjule ondsindede signaler i støjen.
Eksempel 5
Omgåelse af adfærdsanalyse
AI-drevne systemer overvåger ofte bruger- og systemadfærd for anomalier. Hackere kan undersøge og lære de specifikke triggere, der udløser alarmer (fx filadgangsmønstre, CPU-forbrug) – uden at blive opdaget og efterfølgende operere lige under de digitale lasere for at forblive usynlige og ikke aktivere alarmen.
- En hacker tilgår følsomme filer i små mængder, hvilket efterligner normal medarbejderadfærd i stedet for at udføre masseeksfiltration af data.
Eksempel 6
Dataforgiftning før implementering
Nogle avancerede angribere forsøger at kompromittere AI-træningsprocessen ved at manipulere data, før EDR/XDR-systemet overhovedet bliver implementeret.
- Hvis hackere kan indsætte forfalskede data i træningssættet under udviklingen (fx via kompromitterede forsyningskæder eller open-source-modeller), kan systemet lære at behandle visse typer malware som harmløse.