Opptak av konferansen finnes nederst i saken.

I konferansens første del åpnet vi Pandoras eske med prosjektets store, konseptuelle spørsmål. Disse inkluderer forskjellen mellom beregningsmessig forklaringer og juridisk begrunnelse, de underliggende formålene med juridiske krav til å avgi begrunnelsen, og hva som kan utgjøre en tilstrekkelig god eller tilstrekkelig begrunnelse for en juridisk beslutning. 

Konferansens andre del undersøkte de nye kravene i norsk lovgivning til å forklare bruken av kunstig intelligens i forvaltningsretten, de case-baserte systemene som per nå er tilgjengelige, og bruken av KI i norsk masseforvaltning. 

I den tredje delen av konferansen gikk vi dypere inn i potensialet for å bruke store språkmodeller som verktøy i juridiske beslutningsprosesser. Dette inkluderte diskusjoner om metodiske utfordringer knyttet til å identifisere «like» saker som må behandles likt, anvendeligheten av RAG-systemer i juridiske sammenhenger, samt andre hybride løsninger som kan bidra til å effektivisere samhandlingen mellom staten og innbyggerne.

Fremragende foredragsholdere bidro til en livlig debatt som ga et solid grunnlag for videre utvikling av prosjektet. Hele konferansen er tilgjengelig som opptak under. Du kan navigere i foredragene ved hjelp av kapittelopplistingen under. 

In the first part of the conference, we opened Pandora’s box of the project’s major conceptual questions. These include the distinction between computational explanations and legal justification, the underlying purposes of legal requirements to provide reasons, and what may constitute a sufficiently good or adequate reasoning for a legal decision.

The second part of the conference examined the new requirements in Norwegian legislation for explaining the use of artificial intelligence in public administrative law, the case‑based reasoning systems currently available, and the state of AI use in Norwegian mass administration.

In the third part of the conference, we explored in greater depth the potential for using large language models as tools in legal decision‑making processes. This included discussions of methodological challenges in identifying “similar” cases that must be treated alike, the applicability of RAG systems in legal contexts, and other hybrid solutions that may help streamline interaction between the state and its citizens.

Distinguished speakers helped foster a lively debate that provided a strong foundation for further project development. The full conference is available as a recording, and you can navigate the video using the chapter bookmarks shown below.

Principal Investigator Henrik Palmer Olsen.
Foto LEXplain

Opptak av konferansen

Opptaket er delt inn i følgende kapitler:

Kapittel 1: LEXplain: Explainability for legal decisions in the era of AI. Professor and Project Manager Henrik Palmer Olsen, Københavns universitet og Universitetet i Bergen

Kapittel 2: To Explain or to Justify? Computer science and public law accountability approches. Dr. Jennifer Raso, McGill University, Faculty of Law

Kapittel 3: What is a good (enough) reason for a legal decision? Professor Mathilde Cohen, Professor of Law at University of Connecticut/Centre National de la Recherche Scientifique (Paris)

Kapittel 4: Questions and discussion. Mathilde Cohen, Jennifer Raso, Henrik Palmer Olsen and Ragna Aarli (Chair)

Kapittel 5: Automatic for the people. Prof. Karl Haral Søvig, Universitetet i Bergen

Kapittel 6: Case Based Reasoning systems for decision support in public administration. Postdoc Paul Cosma, Copenhagen University

Kapittel 7: How far have we come with AI as decision support for caseworkers in public mass administration that requires the use of discretion? Carine Røkenes, Bjørn Eriksen, Kaja Vollan Amundsen and Robindra Prabhu in dialogue with Ragna Aarli

Kapittel 8: Computational approaches to assessment of case similarity, Docent Johan Lindholm, Umeå Universitet

Kapittel 9: Automated legal information retrieval and analysis: state of the art and evaluation metrics, Professor Henrik Palmer Olsen

Kapittel 10: XHAILe: Explainable Hybrid-AIfor computational Law & accurate Legal chatbots. Professor Thomas Hildebrandt, Københavns Universitet

Kapittel 11: Questions and discussion. Synne Sæther Mæhle (chair), Thomas Hildebrandt, Henrik Palmer Olsen og Johan Lindholm