Ansvarsfordeling når kunstig intelligent militær-drone gjør fatal feil

Hovedformålet med denne studien var å besvare det overordnede forskningsspørsmålet: «Hvor plasseres ansvaret når kunstig intelligent militær-drone gjør fatal feil?» Syv hypoteser ble utviklet i tro på at tilstedeværelse av valgmuligheter, i vesentlig grad spiller en rolle for menneskers ansvarsplass...

Ausführliche Beschreibung

Gespeichert in:
Bibliographische Detailangaben
1. Verfasser: Berntsen, Tobias
Format: Dissertation
Sprache:nor
Schlagworte:
Online-Zugang:Volltext bestellen
Tags: Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
Beschreibung
Zusammenfassung:Hovedformålet med denne studien var å besvare det overordnede forskningsspørsmålet: «Hvor plasseres ansvaret når kunstig intelligent militær-drone gjør fatal feil?» Syv hypoteser ble utviklet i tro på at tilstedeværelse av valgmuligheter, i vesentlig grad spiller en rolle for menneskers ansvarsplassering, slik det fremgikk i studiene til Cappelen et al., (2016) og Savani & Rattan (2012). Gjennom et eksperiment, som hadde et mellomgruppe-design, ble to uavhengige grupper sammenlignet. Den ene gruppen ble forespeilet en situasjon hvor den menneskelige aktøren kunne velge å la det kunstig intelligente systemet ta beslutninger, eller, ta beslutninger selv. Den andre gruppen ble forespeilet en situasjon hvor dronen tok full-autonome beslutninger, og aktøren kunne derfor ikke påvirke dronens avgjørelser. Resultatene i studien viste at tilstedeværelse av valgmuligheter ikke medførte signifikante forskjeller i ansvarsfordelingen. Til tross for at deltakerne stilte seg mer kritisk til den menneskelige aktøren ved tilstedeværelse av valgmuligheter, var det ikke signifikante mellomgruppeforskjeller som impliserte at deltakerne i de to utvalgene hadde vesentlig forskjellige oppfatninger og holdninger til aktøren sin fremferd. Funnene i studien viste at den norske stat i vesentlig grad pålegges et erstatningsansvar for den fatale feilen. I bredere sammenheng impliserer dette at stater/organisasjoner/selskaper bør være klar over at implementering av kunstig intelligent og autonom beslutningsteknologi, som kan volde sivil skade, kan medføre en betydelig ansvarliggjøring når disse gjør fatale feil – kanskje i enda større grad enn ved tradisjonell beslutningstaking, som i stor grad beror på den menneskelige aktøren sine evner.