Forskargruppen
Forskargruppen består av forskare med skiftande begrund som alla delar ett intresse i relationen mellan AI och rätten.
Gregor Noll
Gregor Noll has an extensive track record of mapping the effects of AI, digitalization and advanced technology onto law at large, and international law in particular. His seminal Weaponizing Neurotechnology? International Humanitarian Law and the Loss of Language (open access, 2014) was an early intervention into what is now a burgeoning field, showing why it is impossible to assess whether the use of technologically advanced weapons system bypassing human consciousness is lawful under the laws of war. Later, Noll co-edited and co-authored War and Algorithm (Rowman & Littlefield 2019), a volume that looks at the increasing power of algorithms in emerging forms of warfare from the perspectives of critical theory, philosophy, legal studies, and visual studies. A 2020 lecture at Harvard Law School based on his contribution to this book is available online. Noll is also the initiator and editor of the first textbook on AI and law in the Swedish language, scheduled for publication by Studentlitteratur by mid-2021. In the past years, Noll built a vibrant milieu on AI, digitalization and law at Gothenburg university, where researchers from various disciplines contribute to a variety of ongoing research projects funded by major donors. Together with Professor Elena Raviola (SBEL, Gothenburg), Noll wrote an application that brought Swedish donor WASP-HS to fund one new senior and two new doctoral positions within a five-year project on AI, the Societal Contract and Democracy.
Noll is the current holder of the Torsten Söderberg Research Chair at the School of Business, Economics and Law at the University of Gothenburg and a professor of international law at its Department of Law.
Merima Bruncevic
Jag är docent i rättsvetenskap och kursansvarig för den nya fördjupningskursen: AI och Rätten.
Min forskning befinner sig i gränslandet mellan immaterialrätt, kulturarvsrätt och rättsfilosofi. I mitt arbete har jag bl.a. studerat ”technoheritage”, ”cultural commons” och möjligheten att introducera sådana koncept i rätten eller ge dem en rättslig plattform. Jag är särskilt intresserad av kunskapsteoretiska frågor, kontinentalfilosofi, och dess metoder och kopplingar till rätten. Jag har bl.a. använt mig av Gilles Deleuzes och Félix Guattaris teorier i min forskning för att diskutera rättens kunskapsmässiga öppenhet i frågor som rör kulturarv, AI, rättvisa, social hållbarhet och globala rättvisefrågor. Jag undervisar rättsfilosofi, AI och immaterialrätt vid Juridiska Institutionen, Göteborgs Universitet.
Om mitt kapitel i kommande lärobok: AI, kulturproduktion och upphovsrätt
Det här kapitlet handlar om AI och upphovsrätt. Kapitlet undersöker hur man ska förhålla sig till det upphovsrättsliga regelverket när det kommer frågor rörande verk skapade av artificiell intelligens (AI), men också genom Generative Adversial Networks (GAN) och/eller Experience Reality (XR). Kapitlet utgår ifrån riktiga exempel som t.ex. New Rembrandt Project (https://www.nextrembrandt.com), Obvious Project (https://obvious-art.com/writings.html) och Museo 900 (https://www.m9digital.it/en). Här diskuteras hur man framöver kommer att förhålla sig till vissa upphovsrättsliga grundbultar så som upphovsman, verk, originalitet och intrång. Kapitlet kommer dessutom att diskutera hur upphovsrättens utformning påverkar kreativitet, rörelse och samskapande i en bredare bemärkelse.
Merima Bruncevic, Senior Lecturer/Research Fellow, LL.M, LL.D
Author of: https://t.co/cS9hxzxjl2
Deputy Director: https://cip.gu.se/ ,
Governing Board: http://www.ishtip.org/
David Jivegård
I min forskning intresserar jag mig för sambandet rätt, stad, styrning.
De senaste decennierna har ny(gaml)a metoder och nya tekniker för avgränsande samt försvårande och förenklande av närvaro i det offentliga rummet tagits fram. Med dessa handlar det inte längre så mycket om att stänga ute (att ställa upp absoluta hinder), som det handlar om att upprätta barriärer, trögheter och svårigheter för vissa att ta del av vissa platser i staden; inte heller handlar det så mycket om att inkludera, som det handlar om att förenkla, anpassa och smidiggöra för andra att ta del av dessa platser (kortfristig kontroll i snabb rotation). Till detta finns det idag tekniker som – genom, bland annat, mätningar och analyser av flöden av människor – möjliggör den typ av kontroll som dessa mer nyanserade ’exkluderingar’ och ’inkluderingar’ kräver; som exempel kan nämnas system för produktion av geodata, såsom Geografiskt informationssystem (GIS), Building Information Modelling (BIM), City Information Modelling (CIM), samt system för kontroll av befolkningar, såsom crowd insights och analys av mobilnätsdata, vilka möjliggör avläsningar av mänsklig aktivitet och rörelse direkt i det spatio-temporala rummet.
Men teknikerna består inte endast i tekniska innovationer. Lika mycket består de av sociala relationer, exempelvis genom taktiker för förenkling och strömlinjeformning: myndigheters och domstolars användande av besluts- och domskrivningsmallar är exempel på detta, likaså företags kundmedlemskap, bankers lojalitetsprogram och konton på sociala medier. Gemensamt för dessa är att de reducerar människan till datapunkter som möjliggör analys och kontroll av henne. Detta förenklande och strömlinjeformande intresse för den mänskliga tillvaron lägger grunden till önskemål om automatiserade beslutsprocesser.
Ytterligare en aspekt är de systemförändringar som sedan 1990-talet har skett i välfärdssystemen, vilka har inneburit att det allmänna har tagit ett steg tillbaka från ansvaret för helheten i systemen och i stället låter detta ansvar vila på marknadskrafter: det fria skolvalet inom vilket frågan om helhetsansvaret för elevsammansättningar vilar på den aggregerade mängd val som sker av vårdnadshavare, valfrihetssystem inom sjukvård och äldreomsorg där helhetsansvaret vilar på konsumentmakten. Om dessa systemförändringar inte innebär att systemen själva bär en slags förmåga till automatiserat beslutsfattande, så lägger de grunden till behov av tekniker för avancerad styrning och kontroll.
I min forskning försöker jag förstå rättens roll i detta; hur den är delaktig i formerandet av staden i komplexa nät av tekniker för styrning och kontroll.
Matilda Arvidsson
Jag är forskare och universitetslärare vid Juridiska institutionen. Följande 7 abstract är hämtade från mina olika aktuella artiklar.
1. M Arvidsson (2020 forthcoming) “The ‘turn to history’ and the year of the yearbook of international law”, Netherlands Yearbook of International Law
Abstract: This article concerns the relation between time, progression and history in international law. It places the yearbook in a broader context of the ‘turn to history’ in international legal scholarship, and asks how the ‘year’ figures as a placeholder of meaning and authority in international law and its’ narratives. Drawing on recent scholarly debates on narration in relation to international law and emerging technologies – especially artificial intelligence (AI) – the article calls for a book of international law that knows of no year, no history, no beginning and no perpetually postponed end.
2. M. Arvidsson & B. Sjöstedt (2021 forthcoming) ’Ordering Human-Other relationships: International Humanitarian Law and Ecologies of Armed Conflicts’, in F. Mégret, U. Natarajan, and V. Chapaux (eds) International Law and Anthropocentrism (Abingdon: Routledge).
Abstract: Drawing on recent scholarship on (post)anthropocentrism, law and the environment this chapter maps the international humanitarian law (IHL) and its ‘legal ordering’ of human and other relationships during armed conflict and disaster. Our chapter focuses on two examples of human-other ordering during armed conflict: human-environment ordering; and human- artificially intelligent (AI) swarming drone ordering. The chapter starts with a brief introduction to how ‘the posthuman’ sits within contemporary armed conflicts, IHL and the military-industry complex, what the Deleuze-Guattarian ‘war machine’ is or can be, as well as how IHL orders armed conflict ecologies through its main principles and norms. We then go on to look at our two examples after which we expand on the main point of our chapter: while IHL orders human-other human as well as human-other relations in ways reminiscent of how feminist, potshumanist and post-anthropocentric environmental international legal scholarship has already pointed out as excluding, binary, and hierarchical modes of subjugation and ‘exiling’, we find that IHL is primarily trying to order and control the affects and powers of the war machine. In doing so IHL has some potential in developing in a post-anthropocentric direction, specifically in re-orienting its focus from armed conflicts to violent outbursts. By putting more emphasis on how war machines - e.g. armed groups (including state armies, although with the caveat that this involves state appropriation of war machines), volcanos, packs of wolves and viruses - are to be ordered in a shared posthuman ecology (rather than having as its continuous focus the “traditional” state army warfare), such a reorientation, we suggest, would involve protection on a more equal basis: protecting environments - inclusive or not of humans - from violent war machines, and war machines from state violence and appropriation.
3. M. Arvidsson (2020b) ‘The swarm that we already are: Artificially Intelligent (AI) swarming “insect drones”, targeting and international humanitarian law in a posthuman ecology’, 11(1) (2020) Journal of Human Rights and the Environment, 114–137.
Abstract: Over the last fifty-odd years the US Defense Advanced Research Project Agency (DARPA) has launched programs aiming at emulating and incorporating insect technologies in military technology. The US Army Unmanned Aircrafts Systems Roadmap 2010–2035 has specified insect swarming as a field of development for Unmanned Aviation Systems. While legal scholarship has paid substantial attention to drones, autonomous weapons systems and artificial intelligence (AI), developments based on insect swarming technologies have been largely ignored. This article takes emerging AI swarming technologies in military warfare systems as its starting point and asks about the significance of the swarming insect in and through contemporary International Humanitarian Law (IHL) and warfare. Taking up Gilles Deleuze and Félix Guattari's notions of ‘the swarm’ and the ‘war machine’, and drawing on critical environmental legal scholarship, the article argues that rather than dispersing the human from its central position in the ‘targeting loop’, the increased interest in insects for commercial and warfare purposes is an intensification of transhumanist desires and an acceleration of late capitalism. As a counter-move, and as a contribution to a posthumanist turn in IHL, the article calls for becoming-insect, swarm and minoritarian as an epistemological practice and ontological shift in IHL and its critical scholarship, resulting in a posthumanitarian legal ordering of becoming.
4. M. Arvidsson (2018) ‘Targeting, Gender, and International Posthumanitarian Law and Practice: Framing the Question of the Human in International Humanitarian Law’ 44(1) (2018) Australian Feminist Law Journal, 9-28.
Abstract: Focusing on targeting law and practice in contemporary high-tech warfare, this article brings international humanitarian legal scholarship into conversation with posthumanist feminist theory for the purpose of rethinking international humanitarian law (IHL) in terms of the posthuman condition. I suggest that posthumanist feminist theory – in particular Rosi Braidotti’s scholarship – is helpful to the IHL scholar for understanding and describing high-tech warfare that recognises the ‘targetable body’ as both material and digital. Posthumanist feminist theory, moreover, avails us of a much-needed critical position from which to reframe the question of what the ‘humanitarian’ aim in IHL is: who, and what, can the ‘human’ of this humanitarianism be? This article sets out the framework for a posthumanitarian international law as an ethical-normative order worthy, as Braidotti puts it, of the complexity of our times.
5. M. Arvidsson (2021) ’Maskininlärning och migrationsrättsliga avgöranden: Vad ett självlärande system kan lära sig och andra om den digitala rättstillämpningens möjligheter och begränsningar’ i G. Noll (red.) AI och rätten (Lund: Studentlitteratur).
Forskningsprojekt med AI:
6. Artificiell intelligens och åldrande: Hur äldre kan nå en utökad rättslig beslutskapacitet med hjälp av ny teknologi? Forskningsprojekt finansierat inom ramen för AgeCap, Göteborgs universitet
Projektet är tänkt att undersöka om och på vilket sätt AI kan förlänga den åldrande individens egna beslutskapacitet. Centrat är att identifiera i vilken mån nuvarande gode mans- och förvaltar-instituten, samt de inte lika formaliserade praktikerna genom vilka beslut idag fattas av närstående och omsorgspersonal, kan kompletteras med individuellt anpassningsbara AI-baserade beslutshjälpmedel.
Målet är att tillsammans med andra forskare, och i samråd med berörda intressegrupper och tänkta slutanvändare inom offentlig förvaltning och kommunal äldreomsorg, utveckla ett AI-baserat och individuellt anpassningsbart beslutsstöd för personer vars förmåga att fatta rättsliga beslut försämras på grund av tilltagande ålder och sjukdom.
7. Likabehandling i asylmål: kan maskininlärning bidra till bättre beslut?, Vinnova-finansierat projekt
Sammanfattning: Projektet syftar till att bidra till innovativa lösningar, strategiska samarbeten och partnerskap mellan en myndighet (Migrationsverket), akademin (juridiska institutionen vid Göteborgs universitet) och innovationsdrivet företagande inom AI (Smartr). Vårt projekt riktar in sig mot samhällsutmaningarna i Agenda 2030, särskilt jämställdhet (SDG 5, i synnerhet 5.1) och minskad ojämlikhet (SDG 10). Med kompetens i maskininlärning och rättslig specialistkompetens i jämlikhetsfrågor identifierar projektet hur beslutsfattande inom asylmål hos Migrationsverket kan förbättras, ett område som Migrationsverket prioriterar i sitt kvalitetsförbättrande arbete.
På lång sikt vill vi ta fram ett system för beslutsstöd som minskar risken för diskriminering inom Migrationsverkets asylbeslut. Initieringsstudien skall kartlägga förutsättningar för och genomförbarheten av detta beslutsstödssystem. I initieringsstudien kommer vi att ta fram en mindre databas av asylärenden och kartlägga utfallsrelevanta variabler med en s k random forest-algoritm. Därefter analyseras med rättsvetenskaplig metod om dessa variabler kan kopplas till diskriminering. I fullt utvecklad form skulle applikationen kunna användas för att undersöka nya asylärenden och varna för typiska diskrimineringsrisker.
Moa de Lucia Dahlbäck
Jag medverkar i kommande lärobok kring AI och rätten.
En vanlig utgångspunkt för diskussioner om AI:s implikationer för rätten är att behandla fenomenet som en naturlig och – på det stora hela taget – önskad effekt av en tilltagande mänsklig kapacitet att fatta beslut baserat på rationella slutsatser. I en sådan inramning har den rättsliga diskursen i sina närmanden av AI främst fokuserat på frågor som rör fenomenets praktiska effekter på rättsliga regleringar av handlingar tidigare enbart varit associerade till människor men som nu, genom utvecklingen av mer avancerad teknologi, har kommit att bli genomförbara också av maskiner eller andra, av människor skapade, autonoma intelligenser. Ett exempel på detta fokus ser vi i debatten kring hur dödliga autonoma vapensystem (LAWS efter den engelska akronymen för Lethal Autonomous Weapons Systems) utmanar applikationen av nästan alla av den internationella humanitärrättens grundprinciper. Med en översikt av denna rättsliga debatt som utgångspunkt, tar detta kapitel sikte på att synliggöra hur den rättsliga diskursens fokus på AI som praktiskt problem för rätten tenderar att överskugga en problematik av en helt annan karaktär som också aktualiseras genom ett mänskligt användandet av AI vid handlingar som är rättsligt reglerade. Genom att koppla ihop frågan om AI och rätten med en genomgång av en rättsfilosofisk debatt om två olika sätt att förstå rättens yttersta syfte, så avser kapitlet visa två saker. För det första hur den ena av dessa förståelser leder till en skarp kritik mot utgångspunkten att AI är ett naturligt och oundvikligt inslag i rätten. För det andra, och så till vida att denna förståelsen av rättens yttersta syfte stämmer överens med den nutida allmänna förståelsen av rätten syfte, att rätten verkar ha byggt in en paradox i sitt hanterande av AI som ett praktiskt problem.