Forskergruppen i erstatningsrett og forsikringsrett ved Det juridiske fakultet, Universitetet i Bergen, gleder seg til å være en del av det største juridiske miljøet innenfor KI-forskning i Norge.

Forskerne deltar i et intensitvt forskningsssamarbeid med andre vitenskapsdisipliner innenfor samfunnsvitenskap, naturvitenskap og filosofi. I Bergen skal vi særlig ha et nært samarbeid med Canadas KI-institutter, Vector Institute, the Schwartz Reisman Institute, Acceleration Consortium, IVADO og AMII, samt European Centre of Tort and Insurance Law, med direktør og professor Ernst Karner (ekstern lenke) i spissen. 

Forskerne skal også delta i klynger med norske brukerpartnere hvor tverrfaglige løsninger kan testes på de 44 partnernes driftsområder.

Erstatningsrettslige og forsikringsrettslige problemstillinger vil bli utforsket i de fleste av TRUST sine 14 forskningsområder, herunder: 

  • Tilordning av ansvar:
    Vi skal jobbe tverrfaglig for å analysere hvordan tekniske metoder kan støtte juridiske krav til forklaring og ansvarlighet, blant annet i erstatningsretten og under EU's AI-forordning (produktsikkerhetsregler).
     
  • Årsakssammenheng i KI-systemer:
    Vi skal bidra til å analysere hvordan man kan bevise faktisk årsak (ikke bare korrelasjon) mellom prosessene i AI-systemer og skader – noe som er avgjørende for erstatningsansvar. Dette inkluderer nye metoder for å oppfylle juridiske krav til bevis for årsakssammenheng, spesielt ved indirekte diskriminering eller skade.
     
  • Usikkerhetsanalyse:
    Vi bidrar til tverrfaglig forskning på hvordan usikkerhet i AI-systemers prediksjoner påvirker hvem som skal holdes juridisk ansvarlige.
     
  • Kvalitetssikring og regeloverholdelse:
    Vårt perspektiv er en del av forskning på styringsmekanismer og rammeverk for evaluering av risiko i KI-systemer som skal sikre at de følger etiske og juridiske regler. Dette inkluderer prosesser som gir utviklere og brukere klarhet om hvordan de kan unngå ansvar.
     
  • Digitale tvillinger og hybridmodeller:
    Vi forsker på hvordan ansvar, datakontroll og håndheving kan håndteres i komplekse KI-systemer som bruker digitale tvillinger. Disse brukes blant annet til å simulere skadescenarier under utvikling eller overvåkning av KI-systemer.
     
  • Uventet atferd (Emergent Behaviour):
    Anne Marie Frøseth er co-leder for et forskningsområde der man skal analysere uønskede eller skadelige virkninger av utilsiktet samhandling mellom KI-systemer. Slik atferd gjør det vanskelig å finne årsaken til skader og anvende alminnelige erstatningsregler. Vi skal analysere svakhetene i gjeldende rett og foreslå nye modeller for ansvarsfordeling som kan fungere på tvers av land.