En ny rapport fra cybersikkerhedsfirmaet Palo Alto Networks viser, at generativ AI baseret på store sprogmodeller (LLM’er) er særligt sårbar over for såkaldte promptangreb. Rapporten fremhæver samtidig en række egnede tiltag, som kan beskytte organisationers AI‑systemer.
Mens AI breder sig mere og mere ud i de danske virksomheder, breder der sig også en potentiel trussel mod virksomheder fra de nye teknologier.
En ny rapport fra Palo Alto Networks advarer om, at generativ AI baseret på store sprogmodeller (LLM) er markant sårbar over for såkaldte promptangreb – og den leverer samtidig en række konkrete anbefalinger til, hvordan virksomheder kan beskytte sig.
Generativ AI har for længst fundet vej ind i virksomheders dagligdag, hvor den bruges til at øge effektiviteten, styrke konkurrenceevnen og reducere omkostningerne. Men når teknologien bliver en del af forretningskritiske processer, følger der også nye risici med. Cyberkriminelle og andre trusselsaktører har fået helt nye indgange til at udnytte AI-systemer.
Ifølge rapporten lykkes promptangreb i op til 88 procent af forsøgene – en bekymrende høj succesrate. Det gør angrebsformen til en reel trussel, fordi den i værste fald kan aktivere skjulte funktioner eller give adgang til følsomme oplysninger.
Hvad er et promptangreb?
Et promptangreb består i at skjule manipulerende instruktioner i inputtet til AI‑modellen, så den leverer resultater, der strider mod dens hensigt eller organisationens regler. Teknikken er stadig relativt ny, men den breder sig hurtigt – derfor skal både ledere, udviklere og sikkerhedsspecialister forstå mekanismerne og etablere solide værn.
Fire udbredte angrebstyper – og modtræk
- Goal Hijacking
 
Vildledende beskeder og ledende prompts får modellen til at udføre handlinger, den ikke burde kunne.
Forsvar: Opsæt ufravigelige “gelændere” og politikker, der ikke kan omgås – heller ikke med kreative formuleringer.
- Guardrail Bypass
 
Angriberen forsøger at koble eksisterende beskyttelseslag fra ved at omgå de etablerede sikkerhedsforanstaltninger.
Forsvar: Hold modeller, regler og filtreringsmekanismer løbende opdateret og veldokumenteret.
- Informations- og datalækage
 
Angreb, der aflurer system‑prompts, træningsdata eller andre følsomme oplysninger via probing‑ eller replay‑teknikker.
Forsvar: Filtrér både ind‑ og udgående data for at forhindre lækager.
- Infrastrukturangreb
 
Prompts, der misbruger ressourcer eller kører uautoriseret kode, fx CPU‑overbelastning eller fjernudførelse.
Forsvar: Kombinér klassiske sikkerhedskontroller med AI‑specifik logik og bloker gentagne forsøg via promptdetektion og rate‑limiting.
En helhedsorienteret AI‑sikkerhedsstrategi
Palo Alto Networks fremhæver, at forsvarsmekanismerne skal passe til hver angrebstype, men også arbejde sammen i et lagdelt, integreret forsvar. Organisationer bør derfor:
1. Kortlægge de systemer, processer og tjenester, der er mest udsatte.
2. Etablere klare gelændere omkring alle AI‑funktioner.
3. Overvåge og opdatere modeller, filtre og regler kontinuerligt.
4. Implementere detektion af mistænkelige prompts og logge alle forsøg.

									 
					