Dodelike outonome wapenstelsel

‘n Dodelike outonome wapen (DOW) is 'n tipe outonome militêre stelsel wat onafhanklik na teikens kan soek en aanval op grond van geprogrammeerde beperkings en beskrywings. DOW's staan ook bekend as dodelike wapenstelsels (DOW's), outonome wapenstelsels (OW's), robotwapens of moordrobotte. DOW's kan in die lug, op land, op water, onder water of in die ruimte werk. Die outonomie van stelsels was vanaf 2018 beperk in die sin dat 'n mens die finale bevel gee om aan te val, hoewel daar uitsonderings is met sekere "verdedigende" stelsels.
Om outonoom te wees as 'n wapen
[wysig | wysig bron]Om "outonoom" te wees, het verskillende betekenisse in verskillende studierigtings. In terme van militêre wapenontwikkeling is die identifisering van 'n wapen as outonoom nie so duidelik soos in ander gebiede nie.[1] Die spesifieke standaard wat by die konsep van outonoom betrokke is, kan geweldig wissel tussen verskillende geleerdes, state en organisasies.
Die amptelike beleid van die Verenigde State se Departement van Verdediging oor outonomie in wapenstelsels definieer 'n outonome wapenstelsel as: "'n Wapenstelsel wat, sodra dit geaktiveer is, teikens kan kies en aanval sonder verdere ingryping deur 'n menslike operateur."[2] Heather Roff, 'n skrywer vir die Case Western Reserve-universiteit se Regskool, beskryf outonome wapenstelsels as "gewapende wapenstelsels, in staat om hul 'funksionering in reaksie op veranderende omstandighede in die omgewing waarin [hulle] ontplooi word,' te leer en aan te pas, sowel as in staat om self besluite oor vuur te neem."[3]
Die Britse Ministerie van Verdediging definieer outonome wapenstelsels as "stelsels wat in staat is om hoër vlak van bedoeling en rigting te verstaan. Vanuit hierdie begrip en sy persepsie van sy omgewing, is so 'n stelsel in staat om gepaste stappe te neem om 'n verlangde toestand te bewerkstellig. Dit is in staat om 'n plan van aksie te besluit, uit 'n aantal alternatiewe, sonder om op menslike toesig en beheer staat te maak - sulke menslike betrokkenheid by die stelsel kan steeds teenwoordig wees. Terwyl die algehele aktiwiteit van 'n outonome onbemande vliegtuig voorspelbaar sal wees, is individuele aksies dalk nie."[4]
ʼn Kunsmatige agent wat, ten minste, in staat is om sy eie interne toestande te verander om 'n gegewe doelwit, of stel doelwitte, binne sy dinamiese bedryfsomgewing en sonder die direkte ingryping van 'n ander agent te bereik, en wat ook toegerus kan wees met 'n paar vermoëns om sy eie oorgangsreëls te verander sonder die ingryping van 'n ander agent, en wat ontplooi word met die doel om kinetiese krag teen 'n fisiese entiteit (hetsy 'n voorwerp of 'n mens) uit te oefen en tot hierdie doel in staat is om die teiken te identifiseer, te selekteer of aan te val sonder die ingryping van 'n ander agent, is 'n OWS. Sodra dit ontplooi is, kan 'n OWS met of sonder een of ander vorm van menslike beheer (binne, op of buite die lus) bedryf word. 'n Dodelike OWS is 'n spesifieke deelversameling van 'n OWS met die doel om kinetiese krag teen mense uit te oefen.[5]
Geleerdes soos Peter Asaro en Mark Gubrud glo dat enige wapenstelsel wat in staat is om 'n dodelike krag vry te stel sonder die operasie, besluit of bevestiging van 'n menslike toesighouer as outonoom beskou kan word.[6][7]
Gevolglik vereis die samestelling van 'n verdrag tussen state 'n algemeen aanvaarde etikettering van wat presies 'n outonome wapen uitmaak.[8]
Outomatiese verdedigingstelsels
[wysig | wysig bron]Die oudste outomaties-geaktiveerde dodelike wapen is die landmyn, wat sedert ten minste die 1600's gebruik word, en vlootmyne, wat sedert ten minste die 1700's gebruik word. Antipersoneelmyne word in baie lande deur die Ottawa-verdrag van 1997 verbied, met uitsondering van die Verenigde State, Rusland en 'n groot deel van Asië en die Midde-Ooste.

'n Paar huidige voorbeelde van DOW's is outomatiese "hardkill" aktiewe beskermingstelsels, soos radar-geleide nabyverdediginingwapenstelsel (Engels: Close In Weapon System - CIWS) wat gebruik word om skepe te verdedig wat sedert die 1970's in gebruik is (bv. die Nederlandse Goalkeeper CIWS). Sulke stelsels kan outonoom aankomende missiele, vuurpyle, artillerievuur, vliegtuie en oppervlakvaartuie identifiseer en aanval volgens kriteria wat deur die menslike operateur gestel word. Soortgelyke stelsels bestaan vir tenks, soos die Russiese Arena, die Israeliese Trofee en die Duitse AMAP-ADS. Verskeie tipes stilstaande waggewere, wat op mense en voertuie kan vuur, word in Suid-Korea en Israel gebruik. Baie missielverdedigingstelsels, soos die Iron Dome, het ook outonome teikenvermoëns.
Die hoofrede waarom daar nie 'n "mens in die lus" in hierdie stelsels is nie, is die behoefte aan vinnige reaksie. Hulle is oor die algemeen gebruik om personeel en installasies teen inkomende projektiele te beskerm.
Outonome aanvallende stelsels
[wysig | wysig bron]Volgens The Economist, soos tegnologie vorder, kan toekomstige toepassings van onbemande onderseese voertuie, mynopruiming, mynlegging, anti-duikboot sensornetwerke in betwiste waters, patrollering met aktiewe sonar, hervoorsiening van bemande duikbote, en die ontwikkeling van laekoste-missielplatforms insluit.[9] In 2018 het die Amerikaanse Nuclear Posture Review beweer dat Rusland 'n "nuwe interkontinentale, kernwapen-aangedrewe, kernaangedrewe, onderseese outonome torpedo" ontwikkel met die naam "Status 6".[10]
Die Russiese Federasie ontwikkel kunsmatige intelligente missiele,[11] hommeltuie,[12] onbemande voertuie, militêre robotte en mediese robotte.[13][14][15][16]
Die Israeliese minister Ayoob Kara het in 2017 verklaar dat Israel militêre robotte ontwikkel, insluitend robotte so klein soos vlieë.[17]
In Oktober 2018 het Zeng Yi, 'n senior uitvoerende beampte by die Chinese verdedigingsfirma Norinco, 'n toespraak gehou waarin hy gesê het dat "In toekomstige slagvelde sal daar geen mense wees wat veg nie", en dat die gebruik van dodelike outonome wapens in oorlogvoering "onvermydelik" is.[18] In 2019 het die Amerikaanse minister van verdediging, Mark Esper, China gekritiseer omdat hulle hommeltuie verkoop het wat lewens kan neem sonder menslike toesig.[19]
Die Britse Leër het in 2019 nuwe onbemande voertuie en militêre robotte ontplooi.[20]
Die Amerikaanse Vloot ontwikkel "spook"-vlote van onbemande skepe.[21]

In 2020 het 'n Kargu 2-hommeltuig 'n menslike teiken in Libië gevolg en aangeval, volgens 'n verslag van die VN-Veiligheidsraad se Paneel van Kenners oor Libië, wat in Maart 2021 gepubliseer is. Dit was moontlik die eerste keer dat 'n outonome moordenaarrobot, gewapen met dodelike wapens, mense aangeval het.[22][23]
In Mei 2021 het Israel 'n KI-geleide gevegshommeltuig-swermaanval in Gasa uitgevoer.[24]
Sedertdien was daar talle berigte van swerms en ander outonome wapenstelsels wat op slagvelde regoor die wêreld gebruik word.[25]
Daarbenewens werk DARPA daaraan om swerms van 250 outonome dodelike hommeltuie beskikbaar te stel aan die Amerikaanse weermag.[26]
Etiese en wetlike kwessies
[wysig | wysig bron]Graad van menslike beheer
[wysig | wysig bron]Drie klassifikasies van die mate van menslike beheer oor outonome wapenstelsels is deur Bonnie Docherty in 'n 2012 Human Rights Watch-verslag uiteengesit.[27]
- mens-in-die-lus: 'n mens moet die aksie van die wapen aanhits (met ander woorde nie ten volle outonoom nie).
- mens-op-die-lus: 'n mens kan 'n aksie staak.
- mens-buite-die-lus: geen menslike aksie is betrokke nie.
Standaard wat in VSA-beleid gebruik word
[wysig | wysig bron]Huidige Amerikaanse beleid lui: "Outonome ... wapenstelsels moet ontwerp word om bevelvoerders en operateurs toe te laat om gepaste vlakke van menslike oordeel oor die gebruik van geweld uit te oefen."[28] Die beleid vereis egter dat outonome wapenstelsels wat mense doodmaak of kinetiese krag gebruik, teikens selekteer en aanval sonder verdere menslike ingryping, gesertifiseer moet word as voldoenend aan "gepaste vlakke" en ander standaarde, nie dat sulke wapenstelsels nie aan hierdie standaarde kan voldoen nie en dus verbode is.[29] "Semi-outonome" jagter-moordenaars wat outonoom teikens identifiseer en aanval, vereis nie eers sertifisering nie.[29] Adjunk-minister van Verdediging, Robert O. Work, het in 2016 gesê dat die Departement van Verdediging "nie dodelike gesag aan 'n masjien sou delegeer om 'n besluit te neem nie", maar dit dalk moet heroorweeg aangesien "outoritêre regimes" dit mag doen.[30] In Oktober 2016 het president Barack Obama gesê dat hy vroeg in sy loopbaan versigtig was vir 'n toekoms waarin 'n Amerikaanse president wat van hommeltuigoorlogvoering gebruik maak, "ewigdurende oorloë oor die hele wêreld kon voer, en baie daarvan in die geheim, sonder enige verantwoordbaarheid of demokratiese debat".[31][32] In die VSA val sekuriteitsverwante KI sedert 2018 onder die bevoegdheid van die Nasionale Veiligheidskommissie oor Kunsmatige Intelligensie.[33][34]Op 31 Oktober 2019 het die Verenigde State se Departement van Verdediging se Verdedigingsinnovasieraad die konsepverslag gepubliseer wat vyf beginsels vir bewapende KI uiteensit en 12 aanbevelings maak vir die etiese gebruik van kunsmatige intelligensie deur die Departement van Verdediging wat sou verseker dat 'n menslike operateur altyd in die 'swart boks' sou kon kyk en die doodmaakkettingproses sou kon verstaan. 'n Groot bekommernis is hoe die verslag geïmplementeer sal word.[35]
Moontlike oortredings van etiek en internasionale wette
[wysig | wysig bron]Stuart Russell, professor in rekenaarwetenskap van die Universiteit van Kalifornië, Berkeley, het gesê dat sy kommer oor wette oneties en onmenslik is. Die hoofprobleem met hierdie stelsel is dat dit moeilik is om te onderskei tussen vegters en nie-vegters.[36]
Daar is kommer onder sommige ekonome[37] en regsgeleerdes oor die vraag of DOW 's internasionale humanitêre reg sou skend, veral die beginsel van onderskeiding, wat die vermoë vereis om vegters van nie-vegters te onderskei, en die beginsel van proporsionaliteit, wat vereis dat skade aan burgerlikes proporsioneel moet wees tot die militêre doel.[38] Hierdie kommer word dikwels aangevoer as 'n rede om "moordenaarrobotte" heeltemal te verbied - maar dit is twyfelagtig dat hierdie kommer 'n argument kan wees teen DOW 's wat nie Internasionale Humanitêre Reg skend nie.[39][40][41]
'n Verslag van die Amerikaanse Kongresnavorsingsdiens in 2021 verklaar dat "daar geen binnelandse of internasionale wetlike verbod op die ontwikkeling van die gebruik van DOW 's is nie," hoewel dit voortgesette gesprekke by die VN-konvensie oor sekere konvensionele wapens (CCW) erken.[42]
Sommige mense sê dat DOW's die grense van wie verantwoordelik is vir 'n spesifieke doodslag vervaag.[43][37] Filosoof Robert Sparrow voer aan dat outonome wapens oorsaaklik, maar nie moreel verantwoordelik is nie, soortgelyk aan kindersoldate. In elke geval voer hy aan dat daar 'n risiko is dat gruweldade plaasvind sonder 'n gepaste onderwerp om verantwoordelik te hou, wat jus in bello skend.[44] Thomas Simpson en Vincent Müller voer aan dat hulle dit makliker kan maak om aan te teken wie watter bevel gegee het.[45] Potensiële IHR-oortredings deur DOW's is – per definisie – slegs van toepassing in konfliksituasies wat die behoefte behels om tussen vegters en burgerlikes te onderskei. As sodanig sal enige konflikscenario sonder burgerlikes se teenwoordigheid – d.w.s. in die ruimte of die diepsee – nie die struikelblokke wat deur IHR veroorsaak word, teëkom nie.[46]
Veldtogte om DOW's te verbied
[wysig | wysig bron]
Die moontlikheid van DOW's het aansienlike debat ontketen, veral oor die risiko van "moordenaarrobotte" wat die aarde rondloop - in die nabye of verre toekoms. Die groep Campaign to Stop Killer Robots is in 2013 gestig. In Julie 2015 het meer as 1 000 kenners in kunsmatige intelligensie 'n brief onderteken wat waarsku teen die bedreiging van 'n kunsmatige intelligensie-wapenwedloop en 'n verbod op outonome wapens eis. Die brief is in Buenos Aires by die 24ste Internasionale Gesamentlike Konferensie oor Kunsmatige Intelligensie (IJCAI-15) aangebied en is mede-onderteken deur Stephen Hawking, Elon Musk, Steve Wozniak, Noam Chomsky, Skype-medestigter Jaan Tallinn en Google DeepMind-medestigter Demis Hassabis, onder andere.[47][48]
Volgens PAX For Peace (een van die stigtersorganisasies van die Campaign to Stop Killer Robots), sal volledig outomatiese wapens (VOW's) die drumpel van oorlogvoering verlaag namate soldate van die slagveld verwyder word en die publiek gedistansieer word van oorlogvoering, wat politici en ander besluitnemers meer ruimte gee om te besluit wanneer en hoe om oorlog toe te gaan.[49] Hulle waarsku dat DOW’s, sodra hulle ontplooi is, demokratiese beheer van oorlog moeiliker sal maak, iets waaroor die skrywer van Kill Decision (’n roman oor die onderwerp) en IT-spesialis Daniel Suarez ook gewaarsku het: volgens hom kan dit mag in baie min hande hersentraliseer deur baie min mense te vereis om oorlog toe te gaan.[49]
Daar is webwerwe wat protesteer teen die ontwikkeling van DOW's deur ongewenste gevolge aan te bied indien navorsing oor die toepassing van kunsmatige intelligensie op die aanwysing van wapens voortduur. Op hierdie webwerwe word nuus oor etiese en wetlike kwessies voortdurend opgedateer sodat besoekers kan opsom met onlangse nuus oor internasionale vergaderings en navorsingsartikels rakende DOW’s.[50]
Die Heilige Stoel het die internasionale gemeenskap by verskeie geleenthede versoek om die gebruik van DOW's te verbied. In November 2018 het Aartsbiskop Ivan Jurkovic, die permanente waarnemer van die Heilige Stoel by die Verenigde Nasies, verklaar dat "Om 'n wapenwedloop en die toename in ongelykhede en onstabiliteit te voorkom, is dit 'n noodsaaklike plig om vinnig op te tree: nou is die tyd om te verhoed dat DOW's die werklikheid van môre se oorlogvoering word." Die Kerk is bekommerd dat hierdie wapenstelsels die vermoë het om die aard van oorlogvoering onomkeerbaar te verander, losmaking van menslike agentskap te skep en die menslikheid van samelewings in twyfel te trek.[51]
Vanaf 29 Maart 2019 het die meerderheid van die regerings wat by 'n VN-vergadering verteenwoordig is om die saak te bespreek, het hulself ten gunste van 'n verbod op DOW's uitgespreek.[52] 'n Minderheid van regerings, insluitend dié van Australië, Israel, Rusland, die Verenigde Koninkryk en die VSA, het 'n verbod teengestaan.[52] Die Verenigde State het verklaar dat outonome wapens gehelp het om die doodmaak van burgerlikes te voorkom.[53]
In Desember 2022 het 'n stemming van die San Francisco-raad van toesighouers om die San Francisco-polisiedepartement se gebruik van DOW's te magtig, nasionale aandag en protes getrek.[54][55] Die Raad het hierdie stemming in 'n daaropvolgende vergadering omgekeer.[56]
Geen verbod nie, maar regulering
[wysig | wysig bron]'n Derde benadering fokus op die regulering van die gebruik van outonome wapenstelsels in plaas van 'n verbod.[57] Militêre KI-wapenbeheer sal waarskynlik die institusionalisering van nuwe internasionale norme vereis wat beliggaam word in effektiewe tegniese spesifikasies gekombineer met aktiewe monitering en informele ('Spoor II') diplomasie deur gemeenskappe van kundiges, tesame met 'n wetlike en politieke verifikasieproses.[58][59][60][61] In 2021 het die Verenigde State se Departement van Verdediging 'n dialoog met die Chinese Volksbevrydingsleër oor KI-geaktiveerde outonome wapens versoek, maar is geweier. [62]
'n Spitsberaad van 60 lande is in 2023 gehou oor die verantwoordelike gebruik van KI in die weermag.[63]
Op 22 Desember 2023 is 'n resolusie van die Verenigde Nasies se Algemene Vergadering aangeneem om internasionale bespreking rakende kommer oor DOW’s te ondersteun. Die stemming was 152 ten gunste, vier daarteen en 11 onthoudings.[64]
Verwysings
[wysig | wysig bron]- ↑ Crootof, Rebecca (2015). "The Killer Robots Are Here: Legal and Policy Implications". Cardozo L. Rev. 36: 1837 – via heinonline.org.
- ↑ Allen, Gregory (6 Junie 2022). "DOD Is Updating Its Decade-Old Autonomous Weapons Policy, but Confusion Remains Widespread". Center for Strategic and International Studies. Besoek op 24 Julie 2022.
- ↑ Roff, Heather (2015). "Lethal Autonomous Weapons and Jus Ad Bellum Proportionality".
- ↑ "Unmanned aircraft systems (JDP 0-30.2)". GOV.UK (in Engels). Besoek op 8 Junie 2018.
- ↑ Taddeo, Mariarosaria; Blanchard, Alexander (2022). "A Comparative Analysis of the Definitions of Autonomous Weapons Systems". Science and Engineering Ethics. 28: 37. doi:10.1007/s11948-022-00392-3. PMC 9399191.
- ↑ Asaro, Peter (2012). "On Banning Autonomous Weapon Systems: Human Rights, Automation, and the Dehumanization of Lethal Decision-Making". Red Cross. 687: 94.
- ↑ "Autonomy without Mystery: Where do you draw the line?". 1.0 Human (in Engels (VSA)). 9 Mei 2014. Geargiveer vanaf die oorspronklike op 16 November 2018. Besoek op 8 Junie 2018.
- ↑ Krishnan, Armin (2016). Killer Robots: Legality and Ethicality of Autonomous Weapons (in Engels). Taylor & Francis. doi:10.4324/9781315591070. ISBN 9781317109129. Besoek op 8 Junie 2018.
- ↑ "Getting to grips with military robotics". The Economist. 25 Januarie 2018. Besoek op 7 Februarie 2018.
- ↑ "US says Russia 'developing' undersea nuclear-armed torpedo". CNN. 3 Februarie 2018. Besoek op 7 Februarie 2018.
- ↑ "Russia is building a missile that can makes its own decisions". Newsweek. 20 Julie 2017.
- ↑ Litovkin, Nikolai (31 Mei 2017). "Russia's digital doomsday weapons: Robots prepare for war - Russia Beyond". Russia Beyond.
- ↑ "'Comrade in Arms': Russia is developing a freethinking war machine". 9 Augustus 2017.
- ↑ "Rise of the Machines: A look at Russia's latest combat robots". 6 Junie 2017.
- ↑ "Is Terminator back? Russians make major advances in artificial intelligence". Russia Beyond. 10 Februarie 2016.
- ↑ "Virtual trainer for robots and drones developed in Russia". 15 Mei 2017. Geargiveer vanaf die oorspronklike op 11 Oktober 2017. Besoek op 3 September 2017.
- ↑ "Kara: I wasn't revealing state secrets about the robots". The Jerusalem Post.
- ↑ Allen, Gregory. "Understanding China's AI Strategy". Center for a New American Security. Besoek op 11 Maart 2019.
- ↑ "Is China exporting killer robots to Mideast?". Asia Times. 28 November 2019. Besoek op 21 Desember 2019.
- ↑ "British Army to operationally deploy new robots in 2019 | March 2019 Global Defense Security army news industry | Defense Security global news industry army 2019 | Archive News year".
- ↑ "US Navy plans to build an unmanned Ghost Fleet".
- ↑ Hambling, David. "Drones may have attacked humans fully autonomously for the first time". New Scientist (in Engels (VSA)). Besoek op 30 Mei 2021.
- ↑ "Killer drone 'hunted down a human target' without being told to". Fox News (in Engels (VSA)). 29 Mei 2021. Besoek op 30 Mei 2021.
- ↑ Hambling, David (30 Junie 2021). "Israel used world's first AI-guided combat drone swarm in Gaza attacks". New Scientist (in Engels (VSA)). Besoek op 15 Januarie 2023.
- ↑ "SLAUGHTERBOTS ARE HERE".
- ↑ McMillan, Tim (1 Desember 2020). "DARPA's Dream of a Tiny Robot Army Is Close To Becoming a Reality". The Debrief.
- ↑ Amitai Etzioni; Oren Etzioni (Junie 2017). "Pros and Cons of Autonomous Weapons Systems". army.mil. Geargiveer vanaf die oorspronklike op 9 Junie 2017.
- ↑ US Department of Defense (2012). "Directive 3000.09, Autonomy in weapon systems" (PDF). p. 2. Geargiveer vanaf die oorspronklike (PDF) op 1 Desember 2012.
- ↑ US Department of Defense (2012). "Directive 3000.09, Autonomy in weapon systems" (PDF). p. 2. Geargiveer vanaf die oorspronklike (PDF) op 1 Desember 2012.
- ↑ Lamothe, Dan (30 Maart 2016). "Pentagon examining the 'killer robot' threat". Boston Globe.
- ↑ Chait, Jonathan (3 Oktober 2016). "Barack Obama on 5 Days That Shaped His Presidency". Daily Intelligencer. Besoek op 3 Januarie 2017.
- ↑ Devereaux, Ryan; Emmons, Alex (3 Oktober 2016). "Obama Worries Future Presidents Will Wage Perpetual, Covert Drone War". The Intercept. Besoek op 3 Januarie 2017.
- ↑ Stefanik, Elise M. (22 Mei 2018). "H.R.5356 - 115th Congress (2017–2018): National Security Commission Artificial Intelligence Act of 2018". www.congress.gov. Besoek op 13 Maart 2020.
- ↑ Baum, Seth (30 September 2018). "Countering Superintelligence Misinformation". Information. 9 (10): 244. doi:10.3390/info9100244. ISSN 2078-2489.
- ↑ United States. Defense Innovation Board. AI principles : recommendations on the ethical use of artificial intelligence by the Department of Defense. OCLC 1126650738.
- ↑ Russell, Stuart (27 Mei 2015). "Take a stand on AI weapons". International Weekly Journal of Science. 521.
- ↑ 37,0 37,1 Coyne, Christopher; Alshamy, Yahya A. (3 April 2021). "Perverse Consequences of Lethal Autonomous Weapons Systems". Peace Review. 33 (2): 190–198. doi:10.1080/10402659.2021.1998747. ISSN 1040-2659. S2CID 233764057.
- ↑ Sharkey, Noel E. (Junie 2012). "The evitability of autonomous robot warfare*". International Review of the Red Cross (in Engels). 94 (886): 787–799. doi:10.1017/S1816383112000732. ISSN 1816-3831. S2CID 145682587.
- ↑ Müller, Vincent C. (2016). Autonomous killer robots are probably good news. Ashgate. pp. 67–81.
- ↑ Umbrello, Steven; Torres, Phil; De Bellis, Angelo F. (1 Maart 2020). "The future of war: could lethal autonomous weapons make conflict more ethical?". AI & Society (in Engels). 35 (1): 273–282. doi:10.1007/s00146-019-00879-x. hdl:2318/1699364. ISSN 1435-5655. S2CID 59606353.
- ↑ Umbrello, Steven; Wood, Nathan Gabriel (20 April 2021). "Autonomous Weapons Systems and the Contextual Nature of Hors de Combat Status". Information. 12 (5): 216. doi:10.3390/info12050216. hdl:1854/LU-8709449.
- ↑ Kelley M. Sayler (8 Junie 2021). Defense Primer: Emerging Technologies (Report). Congressional Research Service. https://fas.org/sgp/crs/natsec/IF11105.pdf. Besoek op 22 Julie 2021.
- ↑ Nyagudi, Nyagudi Musandu (9 Desember 2016). "Doctor of Philosophy Thesis in Military Informatics (OpenPhD #openphd ) : Lethal Autonomy of Weapons is Designed and/or Recessive". Geargiveer vanaf die oorspronklike op 7 Januarie 2017. Besoek op 6 Januarie 2017.
- ↑ SPARROW, ROBERT (2007). "Killer Robots". Journal of Applied Philosophy. 24 (1): 62–77. doi:10.1111/j.1468-5930.2007.00346.x. ISSN 0264-3758. JSTOR 24355087. S2CID 239364893.
- ↑ Simpson, Thomas W; Müller, Vincent C. (2016). "Just war and robots' killings". Philosophical Quarterly. 66 (263): 302–22. doi:10.1093/pq/pqv075.
- ↑ Boulanin et al., "Limits on Autonomy in Weapon Systems", SIPRI & ICRC (2020): 37.
- ↑ Zakrzewski, Cat (27 Julie 2015). "Musk, Hawking Warn of Artificial Intelligence Weapons". WSJ Blogs - Digits. Besoek op 28 Julie 2015.
- ↑ Gibbs, Samuel (27 Julie 2015). "Musk, Wozniak and Hawking urge ban on warfare AI and autonomous weapons". The Guardian. Besoek op 28 Julie 2015.
- ↑ 49,0 49,1 "Deadly Decisions - 8 objections to killer robots" (PDF). p. 10. Geargiveer vanaf die oorspronklike (PDF) op 27 September 2020. Besoek op 2 Desember 2016.
- ↑ "Front page". Ban Lethal Autonomous Weapons (in Engels (VSA)). 10 November 2017. Besoek op 9 Junie 2018.
- ↑ "Holy See renews appeal to ban killer robots". Catholic News Agency. 28 November 2018. Besoek op 30 November 2018.
- ↑ 52,0 52,1 Gayle, Damien (29 Maart 2019). "UK, US and Russia among those opposing killer robot ban". The Guardian. Besoek op 30 Maart 2019.
- ↑ Werkhäuser, Nina (27 Augustus 2018). "Should 'killer robots' be banned?". Deutsche Welle (DW). Besoek op 31 Desember 2021.
- ↑ Silva, Daniella (2 Desember 2022). "San Francisco vote to allow police use of deadly robots spurs concern and outrage". NBC News. Besoek op 5 Desember 2022.
- ↑ Holand, Lena (5 Desember 2022). "Activists push back against SFPD's deadly force robots amid legality issues". KGO-TV. Besoek op 5 Desember 2022.
- ↑ Morris, J.D. (6 Desember 2022). "S.F. halts 'killer robots' police policy after huge backlash — for now". San Francisco Chronicle. Besoek op 6 Desember 2022.
- ↑ Bento, Lucas (2017). "No Mere Deodands: Human Responsibilities in the Use of Violent Intelligent Systems Under Public International Law". Harvard Scholarship Depository. Besoek op 14 September 2019.
- ↑ Geist, Edward Moore (15 Augustus 2016). "It's already too late to stop the AI arms race—We must manage it instead". Bulletin of the Atomic Scientists. 72 (5): 318–321. Bibcode:2016BuAtS..72e.318G. doi:10.1080/00963402.2016.1216672. ISSN 0096-3402. S2CID 151967826.
- ↑ Maas, Matthijs M. (6 Februarie 2019). "How viable is international arms control for military artificial intelligence? Three lessons from nuclear weapons". Contemporary Security Policy. 40 (3): 285–311. doi:10.1080/13523260.2019.1576464. ISSN 1352-3260. S2CID 159310223.
- ↑ Ekelhof, Merel (2019). "Moving Beyond Semantics on Autonomous Weapons: Meaningful Human Control in Operation". Global Policy. 10 (3): 343–348. doi:10.1111/1758-5899.12665. ISSN 1758-5899.
- ↑ Umbrello, Steven (5 April 2021). "Coupling levels of abstraction in understanding meaningful human control of autonomous weapons: a two-tiered approach". Ethics and Information Technology (in Engels). 23 (3): 455–464. doi:10.1007/s10676-021-09588-w. hdl:2318/1784315. ISSN 1572-8439.
- ↑ Allen, Gregory C. (20 Mei 2022). "One Key Challenge for Diplomacy on AI: China's Military Does Not Want to Talk". Center for Strategic and International Studies (CSIS) (in Engels). Besoek op 20 Mei 2022.
- ↑ Vigliarolo, Brandon (17 Februarie 2023). "Nations agree to curb enthusiasm for military AI before it destroys the world". The Register (in Engels). Besoek op 17 Februarie 2023.
- ↑ Pandey, Shashank (4 Januarie 2024). "HRW calls for international treaty to ban 'killer robots'". Jurist. Besoek op 8 Januarie 2024.