Digital Services Act (DSA) skärper kraven på online-tjänster som sociala medier, marknadsplatser, appbutiker samt rese- och boendesajter, i syfte att skapa en säkrare digital miljö där grundläggande rättigheter värnas, enligt Europeiska kommissionen. Problemet som adresseras är spridning av olagligt innehåll, manipulerande design och bristande skydd för barn; lösningen är tydligare regler, transparens och kraftfull tillsyn.
Så påverkas användare
Plattformar måste motivera när innehåll tas bort eller konton begränsas, och användare kan överklaga via interna system eller tvistlösningsorgan utanför domstol. Olagligt innehåll, varor och tjänster ska kunna anmälas genom lättanvända verktyg, och plattformarna ska återkoppla beslut och möjligheter till överklagande.
På mycket stora plattformar med över 45 miljoner användare i EU kan användare välja icke-personaliserade flöden, till exempel kronologisk sortering. DSA kräver också annonstransparens och förbjuder riktad annonsering till barn samt att känsliga uppgifter som religion, sexuell läggning eller etnicitet används för annonsering. Manipulativa så kallade ”dark patterns” förbjuds, och marknadsplatser måste verifiera säljare och visa kontaktuppgifter (”know your trader”).
Tillsyn och pågående granskningar
DSA trädde i kraft i augusti 2023 för mycket stora plattformar och sökmotorer och sedan februari 2024 för övriga plattformar i EU, med undantag för mikro- och småföretag. Tillsynen delas mellan nationella myndigheter – Digital Services Coordinators – och Europeiska kommissionen. Kommissionen har särskilt ansvar för de största plattformarna och kan inleda utredningar, begära information, hålla intervjuer och genomföra platsinspektioner.
Flera granskningar har öppnats. TikTok lanserade 2024 programmet Rewards men drog tillbaka det efter att en EU-utredning inleddes om risker med potentiellt beroendeframkallande design för barn. AliExpress utreds för bristande riskbedömning kring skadliga och olagliga produkter, men har lovat åtgärder som ökad transparens i annonsering och rekommendationssystem samt bättre flaggning av olagligt innehåll. Temu misstänks brista i riskhanteringen för olagliga produkter, beroendeframkallande design, rekommendationssystem och forskartillgång till data; preliminära iakttagelser pekar på överträdelser. Facebook och Instagram utreds för otillräckligt skydd av minderåriga, inklusive om algoritmer kan driva så kallade ”rabbit-hole”-effekter.
Plattformar som bryter mot DSA kan få sanktionsavgifter på upp till 6 procent av den globala årsomsättningen och åläggas korrigerande åtgärder. Kommissionen uppger att tillsynen fortsätter och att åtgärder vidtas när det behövs.







