Forskarporträttet


Katja de Vries har fått forskningsstöd och ett biträdande universitetslektorat i offentligt rätt (2020-24) av Ragnar Söderbergs stiftelse och börjar nu på juridiska institutionen. Hon forskar inom rättsinformatik och vår samexistens med Artificiell Intelligens (AI). Den kommande fyra åren ska hon undersöka implikationerna av skapande AI inom ramen för Europarätten med beröringspunkter på cyberbrott och immaterialrätt, samt dataskydd och yttrandefrihet.

Katja de Vries har en spännande bakgrund. Hon genomförde parallellt tre masterprogram vid Leiden universitet (Nederländerna), i civilrätt, kognitiv psykologi och filosofi. Dessutom kompletterade hon sin utbildning med en juristexamen från Oxford Universitet. Vid denna tid började big data eran och frågor om hur big data ska hanteras på ett juridiskt korrekt sätt växte. Under Katjas studier i kognitiv psykologi utvecklade hon ett stort intresse i statistik vilket ledde till en doktorsavhandling i rättsinformatik med titeln: ”Machine learning/informational fundamental rights. Making of sameness and difference” (de Vries, 2016). Sedan dess har Katja de Vries forskat på juridiska och sociala implikationer av AI och maskininlärning på integritet, dataskydd och diskriminering.

En av Katjas forskningsämne är den allmänna dataskyddsförordningen eller GDPR (General Data Protection Regulation) som reglerar behandlingen av personuppgifter inom EU och som har varit i kraft sedan 2018. Vi frågar Katja vad hon tycker är spännande med forskning kring dataskyddsförordningen?

- Dataskyddsförordningen adresserar ett jätteviktigt dilemma: hur kan man nyttja personuppgifternas ekonomiska och samhälleliga värden utan att hamna i ett digitalt panoptikon där allt vi gör utvärderas av staten och stora företag? Det är ett mycket aktuellt problem under coronaviruspandemin när olika appar utvecklas för att följa spridningen av sjukdomen, vilket väcker etiska, politiska och juridiska frågor. Vem litar vi på mest? Stora företag? Myndigheter? Staten? Samtidigt är det lätt att uppleva dataskyddsförordningen som en stor byråkratifälla som skapar stor frustration i vardagen. Personuppgifter finns överallt, hela tiden, och att uppfylla alla dataskyddsförordningens krav tar tid och energi. Jag kan själv också bli frustrerad att man inte bara kan ta en bild på mitt barns förskola på Santa Lucia, eller att jag är tvungen att ge samtycke till behandling av mina uppgifter hela tiden. Som forskare, företag eller myndighet kan det kännas begränsande att man ska uppfylla GDPR krav. Det är därför inte så konstigt att många försöker att komma undan från dataskyddsförordningens reglering genom att anonymisera personuppgifter. När en lag konfronteras med verkligheten blir det alltid spännande, det utmanar lagens betydelse. En rättsregel kan verka enkel på pappret, men sen kommer det ny teknologi som lagstiftaren inte hade förutsett eller fiffiga tricks för att undvika regleringen och då framkallas svåra, nästan filosofiska frågor.

Ett bra exempel är anonymisering av personuppgifter. Det är inte alls självklart när en uppgift är tillräckligt anonymiserat för att falla utom dataskyddförordningens tillämpningsområde. Även om något inte verkar uppenbart knuten till en identifierbar person, gäller dataskyddsförordningen om man kan re-identifiera någon med lite detektivarbete. Det finns många stora företag och myndigheter som strävar efter att komma så nära gränsen som möjligt för att behålla så mycket information som möjligt utan att uppgifterna kan kvalificeras som personliga. En del av min forskning undersöker hur AI och maskininlärning har blivit ett verktyg för att förbättra anonymisering.

Den kommande fyra år ska du undersöka rättsimplikationerna av kreativ AI – kan du berätta vad det är?

- Tills nyligen användes AI och maskininlärning mest för att klassificera och sortera personer, objekt, transaktioner eller celler inom medicinen (klassificerande AI). Med kreativ AI (generative AI) finns nu möjlighet att skapa syntetiska data och komponera övertygande nya variationer på befintliga mönster (”deepfakes”), som t.ex. anonymiserade data, ansikten som inte existerar, falska videor, nya konstverk, vilket bildar nya perspektiv, nya uppmaningar… och ett nytt fokusområde för mig!

Vad har kreativ AI med straffrätt att göra?

- Kreativ AI utmanar flera juridiska områden som t.ex. straffrätt när falskt material används mot en person. Det finns ganska mycket uppmärksamhet kring hur kreativ AI kan underlätta skapandet av ”fake news” och underminera demokratin. Men faran inom det privata livet är kanske större än för demokratin. Journalister eller andra organisationer lägger resurser på att verifiera nyheter, men vem skyddar den privata personen som är utpressad eller mobbad på sociala medier? Där finns det mindre skydd. Frågan är när man kan kvalificera publikation av syntetiskt bildmaterial som förtal eller förolämpning.

Vad har kreativ AI med immaterialrätt att göra?

- Generativ AI kommer att påverka immaterialrätten eftersom både data som går i systemet för att träna modeller samt nya data som går ut ur systemet har ett behov att vara skyddade. Vad gäller träningsdata har EU antagit ett nytt upphovsrättsdirektiv som ger nya möjligheter för datautvinning (text- och data mining på engelska) för att träna AI-modeller inom forskning. Vad gäller ny syntetisk data som skapas av kreativ AI så är deras status fortfarande inte helt klar. Bakom ligger stora ekonomiska konsekvenser t.ex. inom medicin vid utveckling av nya läkemedel eller inom konst.

Vad är bästa sättet att reglera kreativ AI från ett samhälleligt perspektiv?

-Kreativ AI och syntetiska uppgifter har så många tillämpningsområden att det är svårt att ge ett enkelt svar. En reglering för syntetisk output i formen av t.ex. upphovsrätt eller patent för att både skydda och uppmuntra innovation skulle kunna vara ett sätt, men det ska utvärderas utifrån dess speciella användning.

Man hör mycket om hur automatiserat beslutsfattande kan sakna transparens och tar diskriminerande beslut. Kan man använda syntetiska data för att göra klassificerande AI system mer rättvist och transparent?

- Det är något som ingår i min forskning – men det ser ganska lovande ut! Med klassificerande AI kan bias uppstå om systemet matas under inlärningsprocess med information som underrepresenterar särskilda kategorier. Att använda de mer variabla syntetiska data som input data kan vara ett sätt att minska bias genom att få en mer representativ inlärningsprocess. Möjligtvis kan syntetiska uppgifter också användas för att ge transparens i algoritmisk beslutfattandes. Syntestiska data kan fungera som en counter-factual, parallell historia. De kan visa vad som behövs ändras för att systemet skulle ha tagit ett annat beslut.

Kreativ AI kan användas på olika område och har implikationer inom olika rättsområden. Det skrämmer inte Katja de Vries. Kanske tvärttom! Hon är van med att prata med icke-jurister. Hon har samarbetat i många tvärvetenskapliga projekt och kommer att fortsätta göra så. Nu forskar hon med en konstnär och hon hoppas kunna jobba även med mediciniska data. Några inom generativ AI pratar om maskin kreativitet och maskin fantasi. På samma sätt som kreativ AI förvandlar verkligheten, mer eller mindre beroende på vilka parametrar som används, och där en bild är inte längre ett bevis behöver vi också, menar hon, ändra vårt sätt att betrakta data och information.

För att veta mer om ”deepfakes” och generativ AI, läs de Vries (2020).

Källor:

de Vries E. 2016. Machine learning/informational fundamental rights. Making of sameness and difference. Vrije Universiteit Brussel.

de Vries K. 2020. You never fake alone. Creative AI in action, Information, Communication & Society, DOI: 10.1080/1369118X.2020.1754877.

Ytterligare forskarporträtt