Omedvetna AI-användare, bristande efterlevnad av grundläggande skydd och en övertro på den egna förmågan driver upp cyberriskerna. Det framgår av Arctic Wolfs rapport 2025 Human Risk Behavior Snapshot, uppger företaget i ett pressmeddelande. Undersökningen bygger på svar från över 1 700 IT-beslutsfattare och användare, däribland i Norden.
Rapporten beskriver hur företag och organisationer fortsatt har hög tilltro till sin säkerhet samtidigt som hotaktiviteten är omfattande och många incidenter kan härledas till vardagliga misstag. Nätfiske via bluffmeddelanden är fortsatt en vanlig intrångsorsak. Samtidigt ökar användningen av generativ AI, vilket enligt rapporten stärker risken för oavsiktlig exponering av känsliga uppgifter.
Fler intrång och grundskydd som brister
Globalt uppger 68 procent av IT-cheferna att deras organisation drabbats av dataintrång under det senaste året, en ökning med 8 procentenheter jämfört med 2024. I Norden är andelen 71 procent, över genomsnittet och en tydlig uppgång från 60 procent 2024.
Nästan två tredjedelar av IT-cheferna och hälften av de anställda medger att de klickat på skadliga länkar. Samtidigt anser tre fjärdedelar av ledarna att deras organisationer är säkra. Ledningsgrupper fortsätter att vara särskilt utsatta: 39 procent har drabbats av nätfiskeförsök och 35 procent av angrepp med skadlig kod.
Rapporten pekar även på brister i grundläggande skydd. Endast 54 procent av organisationerna uppger att flerfaktorsautentisering tillämpas för alla användare. I kombination med enkla och svaga lösenord lämnas konton sårbara för intrång.
AI driver nya läckagerisker
Användningen av generativ AI är utbredd: 80 procent av IT-cheferna och 63 procent av de anställda använder sådana verktyg i sitt arbete. 60 procent av ledarna och 41 procent av personalen uppger att de matar AI-verktygen med interna data, vilket enligt rapporten ökar risken för oavsiktliga dataläckor. När AI blir vardag i organisationer blir det svårare att bedöma och styra den mänskliga faktorns påverkan på cybersäkerheten.
– Generativ AI ger oss kraftfulla nya verktyg, men tillför också kraftfulla nya risker. När ansvariga chefer förbiser hur anställda faktiskt använder tekniken skapar det perfekta förutsättningar för intrång som orsakas av mänskliga misstag. För att minska dessa risker är det viktigt att ledningen inser att det handlar om ett ansvar som måste tas och delas genom hela organisationen, liksom att bygga en kultur där medarbetarna har möjlighet att säga ifrån, lära av misstag och kontinuerligt förbättra sig, säger Adam Marrè, vice VD och informationssäkerhetschef (CISO) på Arctic Wolf.
Arctic Wolf framhåller att mänskliga beteenden – från att klicka på blufflänkar till att dela konfidentiell information i AI-verktyg – driver stora delar av riskexponeringen. De organisationer som lyckas bäst kombinerar tekniska säkerhetsåtgärder med kontinuerlig utbildning och en tydlig säkerhetskultur.
Undersökningen bygger på två parallella enkäter genomförda av Sapio Research i juli 2025: 855 IT- och säkerhetschefer på ledningsnivå och 855 slutanvändare (mellan- och högre chefer) vid företag med över 50 anställda i 17 länder, enligt rapporten.







