Ny rapport: Vem tar ansvar för AI?

Publicerat 2021-04-01

Rättslig reglering för att motverka riskerna med AI

Artificiell intelligens (AI) spås förändra många delar av samhället i grunden. Redan idag används AI för att ställa medicinska diagnoser, minska energianvändningen, ta fram nya produkter och tjänster, effektivisera industriell produktion och förbättra kundservicen.

AI kan användas för att förbättra säkerheten och till att säkerställa skyddet för grundläggande rättigheter. Det kan handla om att förhindra olyckor i trafiken eller om att upptäcka och motverka it-baserade angrepp. Rätt använda kan AI-lösningar öka transparensen i samhället och förhindra kränkningar av privatlivet i onlinemiljöer.

Samtidigt är AI-tekniken i sig förenad med risker, där vissa är betydande. Om AI-system som används i självkörande fordon eller sjukvården fallerar kan det leda till sak- eller personskador. Om beslut fattas av bristfälliga AI-system kan individer utsättas för diskriminering eller felaktig hantering av personuppgifter.

Denna rapport handlar om den rättsliga reglering som ska möta denna typ av risker. Fokus riktas mot regler som syftar till att förhindra och ersätta sak- och personskador, men regler som syftar till att motverka kränkningar av mänskliga rättigheter (diskriminering, skydd för personuppgifter etc.) berörs också kortfattat.

I rapporten presenteras även vissa framlagda förslag på ny reglering för att hantera riskerna med AI i den privata sektorn. Avslutningsvis diskuteras vad som är en lämplig regleringsstrategi.

Rapporten är skriven på uppdrag av Svenskt Näringsliv och den kan laddas ner under Publikationer.

Intresserad av andra aspekter på AI och juridik? Läs min artikel Den fjärde industriella revolutionen – en immaterialrättslig introduktion!