Produktsikkerhet ved bruk av kunstig intelligens

KI-forordningen ble nylig vedtatt i EU og vil bli tatt inn i norsk lov. Bruk av «intelligente» maskiner reiser en rekke juridiske og etiske spørsmål. Hvem bør f.eks. holdes ansvarlig hvis bruken av kunstig intelligens gjør skade?

Forordningen («AI Act») ble vedtatt av EU-parlamentet 13. mars, og EU har dermed vedtatt verdens første lov om kunstig intelligens (KI). Formålet med forordningen er å tette hullene i dagens teknologinøytrale regelverk. De fleste kravene i regelverket vil likevel ikke gjelde i EU før om ett til to år. Kunstig intelligens er definert som programvare som kan produsere et gitt sett av mål fastsatt av mennesker ved hjelp av bl.a. algoritmer og såkalt deep learning. Forordningen har en risikobasert tilnærming til skadepotensialet ved bruk av KI. Den retter seg først og fremst mot tilbydere av KI-teknologi, som får størst ansvar, men brukere av KI-teknologi blir også pålagt forpliktelser.

Forordningen fastslår at jo høyere risiko bruk av KI utgjør, jo strengere skal bruken reguleres. Dette er begrunnet i at KI med høy risiko representerer en betydelig trussel mot enkeltpersoner og samfunnet. Forordningen deler KI-systemene inn i fire hovedgrupper. KI-systemer med uakseptabel risiko blir forbudt, systemer med høy risiko blir gjenstand for særlig regulering mens KI-systemer med begrenset risiko blir underlagt mindre omfattende regler. KI-systemer som derimot faller utenfor disse kategoriene, blir ikke berørt av loven.

Uakseptabel risiko – forbud
Forbudet vil gjelde KI-systemer som kan brukes til sosial rangering («social scoring»). Dette er systemer som benytter biometrisk kategorisering basert på personopplysninger (f.eks. politiske meninger, rase, seksuell orientering), og visse systemer for ansiktsgjenkjennelse. Forbudt KI kan likevel tillates for særlige etterretningsformål slik som terrorforebygging og forebyggelse av alvorlig kriminalitet. Mangelfull etterlevelse av forbudet kan medføre overtredelsesgebyrer fra EUR 35 millioner eller 7 % av global omsetning (den som er av høyest verdi).

KI -systemer med høy risiko
Dette er KI-systemer som medfører høy risiko for personers helse, sikkerhet eller grunnleggende rettigheter. Slike systemer må være underlagt et risikostyringssystem som blant annet innebærer at data som systemene benytter, må ha høy kvalitet slik at resultatene blir upartiske og ikke-diskriminerende. Systemet må ha detaljert dokumentasjon om hvordan det fungerer, slik at tilsynsmyndighetene kan vurdere om reglene blir overholdt. Leverandører plikter å dele informasjon med brukerne slik at de kan forstå og bruke KI-systemer på korrekt måte. KI-teknologien skal ha menneskelig tilsyn, det legges vekt på korrekt bruk av anerkjente sikkerhetsstandarder og det er etablert sertifiseringskrav og krav om registrering og CE-merking.

KI-systemer med begrenset risiko
Denne gruppen omfatter generelle KI-systemer (general purpose AI) som er laget for å samhandle med mennesker, f.eks. systemer som er trent på store mengder data, slik som GPT-modellen ChatGPT. Disse systemene skal være innrettet slik at brukeren blir informert om at man samhandler med et KI-system, med mindre dette framgår av sammenhengen. De generelle KI-systemer er underlagt et transparenskrav som setter krav til teknisk dokumentasjon/informasjon og åpenhet. Formålet med dette er at er brukerne skal kunne ta informerte valg og kunne forstå tjenesten som benyttes.

KI-systemer med minimal risiko
De KI-systemene som ikke inngår i de tre regulerte kategoriene, er ikke underlagt noen særskilte forpliktelser. De fleste KI-systemene som er i bruk per i dag, representerer antagelig minimal risiko for enkeltpersoner og samfunnet som helhet.

Dag Thorstensen
dt@forsberglaw.no


Om illustrasjonen:

Illustrasjonen som følger denne artikkelen er laget av AI-tjenesten DAL-E via ChatGPT med følgende instruks:
«We need an illustration, graphical, cartoon-like, of an AI-assisted product causing damage, to illustrate the following topic in a Norwegian newsarticle for a law firm:
Produktsikkerhet ved bruk av kunstig intelligens: KI-forordningen ble nylig vedtatt i EU og vil bli tatt inn i norsk lov. Bruk av «intelligente» maskiner reiser en rekke juridiske og etiske spørsmål. Hvem bør f.eks. holdes ansvarlig hvis bruken av kunstig intelligens gjør skade?

Kontakt

Telefon
+47 22 00 79 50

Epost
post@forsberglaw.no

Adresse
Postboks 1289 Vika
0111 Oslo

Besøksadresse
Wergelandsveien 1

Advokatfirmaet Forsberg AS
935 518 083 MVA

Kompetanse

Arbeidsrett

Arv og generasjonsskifte

Fast eiendom

Fusjoner, fisjoner og omdannelser

Generell forretningsjuss

Immaterialrett

Kontraktsrett

Mellommannsrett

Selskapsrett

Skatt og avgift

Transaksjoner / M&A

Tvisteløsning