Enkeling

in Wikipedia, die vrye ensiklopedie

In toekomsstudies is die Enkeling (Engels: Singleton) 'n hipotetiese wêreldorde waarin daar 'n enkele besluitnemingsagentskap op die hoogste vlak funksioneer wat in staat is om effektiewe beheer oor sy domein uit te oefen, en om interne en eksterne bedreigings vir sy oppergesag permanent te voorkom. Die term is die eerste keer deur Nick Bostrom omskryf.[1][2][3][4][5][6][7][8]

Oorsig[wysig | wysig bron]

'n Kunsmatige algemene intelligensie wat 'n intelligensie-ontploffing ondergaan het, kan sodanige Enkeling vorm, asook 'n wêreldregering wat beskik oor tegnologie vir waarneming en gedrag beheer. 'n Enkeling hoef nie alles in sy domein regstreeks te bestuur nie; dit kan uiteenlopende vorme van organisasie in sigself toelaat, hoewel dit gewaarborg kan word binne streng parameters. 'n Enkeling hoef nie 'n beskawing te ondersteun nie, en kan dit inderdaad uitwis wanneer hy aan bewind kom.

'n Enkeling hoef nie noodwendig 'n organisasie, regering of kunsmatige intelligensie (KI) te wees nie. Dit kan ontstaan deurdat almal dieselfde waardes of doelstellings aanvaar. Hierdie mense wat saamkom, sou volgens Bostrom 'n "agentskap" vorm in die breë sin van die term.[9]

'n Enkeling hou potensiële risiko's en potensiële voordele in. In die besonder kan 'n geskikte Enkeling wêreldkoördineringsprobleme oplos wat andersins nie oplosbaar sou wees nie, wat andersins ook onbeskikbare ontwikkelingsbane vir die beskawing sou kon open. Ben Goertzel, 'n Kunstmatige algemene intelligensie-navorser, stel byvoorbeeld voor dat mense in plaas daarvan kan besluit om 'n "KI Opsigter" met 'ligte bomenslike intelligensie en toesigmagte' te skep, om die mensdom te beskerm teen eksistensiële risiko's soos nanotegnologie en om die ontwikkeling van ander (onvriendelike) kunsmatige intelligensies tot tyd en wyl die veiligheidskwessies opgelos is. [10] Verder stel Bostrom voor dat 'n enkeling Darwinistiese evolusiedruk in toom kan hou, sodat agente wat slegs in reproduksie belangstel, nie kan oorheers nie.[11]

Tog beskou Bostrom ook die moontlikheid van 'n stabiele, onderdrukkende, totalitêre wêreldwye regime as 'n ernstige bestaansrisiko.[12] Die stabiliteit van 'n Enkeling maak die installering van 'n slegte Enkelmaat veral katastrofies, aangesien die gevolge nooit ongedaan gemaak kan word nie. Bryan Caplan skryf dat 'miskien sal 'n ewigheid van totalitarisme erger sal wees as uitwissing'.[13]

Hans Morgenthau het ook benadruk dat die meganiese ontwikkeling van wapens, vervoer en kommunikasie "die verowering van die wêreld tegnies moontlik maak, en dit maak dit ook tegnies moontlik om die wêreld in daardie verowerde staat te hou". Die gebrek daaraan was die rede waarom groot antieke ryke, hoewel groot, nie daarin geslaag het om die universele verowering van hul wêreld te voltooi en die verowering te verewig nie. Nou is dit egter moontlik. Tegnologie maak beide geografiese en klimaatsversperrings ongedaan. "Daar bestaan vandag geen tegnologiese struikelblok in die weg van 'n wêreldryke ryk nie", aangesien "moderne tegnologie dit moontlik maak om die beheer van verstand en aksie uit te brei na elke uithoek van die wêreld, ongeag geografie en seisoen."[14]Morgenthau het voorts verklaar ten opsigte van tegnologiese vooruitgang:

"Die vreesaanjaende, wêreldomvattende stukrag wat blykbaar tevrede is met niks minder as wêreldheerskappy nie, het ook tot algehele oorlog aanleiding gegee ... Die masjientydperk verwek sy eie triomf, elke stap vorentoe roep twee of meer op die pad van tegnologiese vooruitgang. Dit verwek ook sy eie oorwinnings, militêr en polities; want met die vermoë om die wêreld te oorwin en oorwin te hou, skep dit die wil om te oorheers."[15]

Sien ook[wysig | wysig bron]

Verwysings[wysig | wysig bron]

  1. Nick Bostrom (2006). "What is a Singleton?". Linguistic and Philosophical Investigations 5(2): 48-54.
  2. Dvorsky, George. "7 Totally Unexpected Outcomes That Could Follow the Singularity". io9. Besoek op 3 Februarie 2016.
  3. Miller, James D. (6 September 2011). "The Singleton Solution". hplusmagazine.com. Besoek op 3 Februarie 2016.
  4. Thiel, Thomas (21 Desember 2014). "Die Superintelligenz ist gar nicht super". Faz.net. Frankfurter Allgemeine Zeitung. Besoek op 3 Februarie 2016.
  5. Barrat, James (Oktober 2013). Our Final Invention: Artificial Intelligence and the End of the Human Era. ISBN 978-0312622374. Besoek op 3 Februarie 2016.
  6. Haggstrom, Olle (2016). Here Be Dragons: Science, Technology and the Future of Humanity. ISBN 9780198723547. Besoek op 3 Februarie 2016.
  7. O'Mathúna, Dónal (2009). Nanoethics: Big Ethical Issues with Small Technology. A&C Black. p. 185. ISBN 9781847063953. Besoek op 3 Februarie 2016.
  8. Könneker, Carsten (19 November 2015). "Fukushima der künstlichen Intelligenz". Spektrum. Besoek op 3 Februarie 2016.
  9. Nick Bostrom (2006). "What is a Singleton?". Linguistic and Philosophical Investigations 5(2): 48-54.
  10. Goertzel, Ben. "Should Humanity Build a Global AI Nanny to Delay the Singularity Until It’s Better Understood?", Journal of consciousness studies 19.1-2 (2012): 1-2.
  11. Nick Bostrom (2004). "The Future of Human Evolution". Death and Anti-Death: Two Hundred Years After Kant, Fifty Years After Turing, ed. Charles Tandy (Ria University Press: Palo Alto, California): 339-371.
  12. Nick Bostrom (2002). "Existential Risks: Analyzing Human Extinction Scenarios and Related Hazards". Journal of Evolution and Technology 9(1).
  13. Bryan Caplan (2008). "The totalitarian threat". Global Catastrophic Risks, eds. Bostrom & Cirkovic (Oxford University Press): 504-519. ISBN 9780198570509
  14. Politics Among Nations: The Struggle for Power and Peace, 4de uitgawe, New York: Alfred A. Knopf, 1967, bl 358-365.
  15. Politics Among Nations, bl. 369-370.
Hierdie artikel is in sy geheel of gedeeltelik vanuit die Engelse Wikipedia vertaal.