Ansvarsfordeling når kunstig intelligent militær-drone gjør fatal feil
Hovedformålet med denne studien var å besvare det overordnede forskningsspørsmålet: «Hvor plasseres ansvaret når kunstig intelligent militær-drone gjør fatal feil?» Syv hypoteser ble utviklet i tro på at tilstedeværelse av valgmuligheter, i vesentlig grad spiller en rolle for menneskers ansvarsplass...
Gespeichert in:
1. Verfasser: | |
---|---|
Format: | Dissertation |
Sprache: | nor |
Schlagworte: | |
Online-Zugang: | Volltext bestellen |
Tags: |
Tag hinzufügen
Keine Tags, Fügen Sie den ersten Tag hinzu!
|
Zusammenfassung: | Hovedformålet med denne studien var å besvare det overordnede
forskningsspørsmålet:
«Hvor plasseres ansvaret når kunstig intelligent militær-drone gjør fatal feil?»
Syv hypoteser ble utviklet i tro på at tilstedeværelse av valgmuligheter, i vesentlig
grad spiller en rolle for menneskers ansvarsplassering, slik det fremgikk i studiene
til Cappelen et al., (2016) og Savani & Rattan (2012).
Gjennom et eksperiment, som hadde et mellomgruppe-design, ble to uavhengige
grupper sammenlignet. Den ene gruppen ble forespeilet en situasjon hvor den
menneskelige aktøren kunne velge å la det kunstig intelligente systemet ta
beslutninger, eller, ta beslutninger selv. Den andre gruppen ble forespeilet en
situasjon hvor dronen tok full-autonome beslutninger, og aktøren kunne derfor
ikke påvirke dronens avgjørelser. Resultatene i studien viste at tilstedeværelse av
valgmuligheter ikke medførte signifikante forskjeller i ansvarsfordelingen. Til
tross for at deltakerne stilte seg mer kritisk til den menneskelige aktøren ved
tilstedeværelse av valgmuligheter, var det ikke signifikante
mellomgruppeforskjeller som impliserte at deltakerne i de to utvalgene hadde
vesentlig forskjellige oppfatninger og holdninger til aktøren sin fremferd.
Funnene i studien viste at den norske stat i vesentlig grad pålegges et
erstatningsansvar for den fatale feilen. I bredere sammenheng impliserer dette at
stater/organisasjoner/selskaper bør være klar over at implementering av kunstig
intelligent og autonom beslutningsteknologi, som kan volde sivil skade, kan
medføre en betydelig ansvarliggjøring når disse gjør fatale feil – kanskje i enda
større grad enn ved tradisjonell beslutningstaking, som i stor grad beror på den
menneskelige aktøren sine evner. |
---|