Eksistensiële risiko as gevolg van kunsmatige algemene intelligensie: Verskil tussen weergawes

in Wikipedia, die vrye ensiklopedie
Content deleted Content added
Sobaka (besprekings | bydraes)
Begin 'n nuwe artikel, nog besigǃ
(Geen verskil)

Wysiging soos op 18:49, 16 Oktober 2023

Eksistensiële risiko as gevolg van kunsmatige algemene intelligensie is die hipotese dat aansienlike vordering in kunsmatige algemene intelligensie (KAI) tot menslike uitwissing of 'n ander onomkeerbare globale katastrofe kan lei.[1][2][3]

Een argument is soos volg: mense oorheers ander spesies omdat die menslike brein oor eiesoortige vermoëns beskik wat ander diere kort. As KI die mensdom in algemene intelligensie sou oortref en superintelligent sou word, kan dit moeilik of onmoontlik word om te beheer. Net soos die lot van die berggorilla afhang van menslike welwillendheid, so kan die lot van die mensdom afhang van die optrede van 'n toekomstige masjien superintelligensie.[4]

Die geloofwaardigheid van eksistensiële katastrofe as gevolg van KI word wyd gedebatteer, en hang deels af of KAI of superintelligensie haalbaar is, die spoed waarteen gevaarlike vermoëns en gedrag na vore kom,[5] en of praktiese scenario's vir KI-oornames bestaan.[6] Kommer oor superintelligensie is uitgespreek deur vooraanstaande rekenaarwetenskaplikes en tegniese uitvoerende hoofde soos Geoffrey Hinton,[7] Yoshua Bengio,[8] Alan Turing,[9][10] Elon Musk,[11] en Sam Altman, uitvoerende hoof van OpenAI.[12] In 2022 het 'n opname onder KI-navorsers met 'n 17%-reaksiekoers bevind dat die meerderheid respondente geglo het dat daar 'n 10 persent of groter kans is dat ons onvermoë om KI te beheer 'n eksistensiële katastrofe sal veroorsaak.[13][14] In 2023 het honderde KI-kundiges en ander noemenswaardige figure 'n verklaring onderteken dat "Die versagting van die risiko van uitwissing van KI 'n wêreldwye prioriteit moet wees saam met ander maatskaplike skaalrisiko's soos pandemies en kernoorlog."[15] Na groter kommer oor KI. risiko's, het regeringsleiers soos die Britse premier Rishi Sunak[16] en die Verenigde Nasies se sekretaris-generaal António Guterres[17] 'n beroep gedoen op 'n groter fokus op wêreldwye KI-regulering.

Twee bronne van kommer spruit uit die probleme van KI-beheer en -belyning: om 'n superintelligente masjien te beheer of dit in lyn met mens-versoenbare waardes in te bring, kan moeilik wees. Baie navorsers glo dat 'n superintelligente masjien pogings sal weerstaan om dit uit te skakel of sy doelwitte te verander, aangesien dit dit sal verhoed om sy huidige doelwitte te bereik. Dit sal uiters moeilik wees om 'n superintelligensie in lyn te bring met die volle breedte van beduidende menslike waardes en beperkings.[1][18][19] Daarteenoor argumenteer skeptici soos rekenaarwetenskaplike Yann LeCun dat superintelligente masjiene geen begeerte vir selfbehoud sal hê nie.[20]

Verwysings

  1. 1,0 1,1 Russell, Stuart; Norvig, Peter (2009). "26.3: The Ethics and Risks of Developing Artificial Intelligence". Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4.
  2. Bostrom, Nick (2002). "Existential risks". Journal of Evolution and Technology. 9 (1): 1–31.
  3. Turchin, Alexey; Denkenberger, David (3 Mei 2018). "Classification of global catastrophic risks connected with artificial intelligence". AI & Society. 35 (1): 147–163. doi:10.1007/s00146-018-0845-5. ISSN 0951-5666. S2CID 19208453.
  4. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First uitg.). Oxford University Press. ISBN 978-0-19-967811-2.
  5. Vynck, Gerrit De (23 Mei 2023). "The debate over whether AI will destroy us is dividing Silicon Valley". Washington Post (in Engels (VSA)). ISSN 0190-8286. Besoek op 27 Julie 2023.
  6. Metz, Cade (10 Junie 2023). "How Could A.I. Destroy Humanity?". The New York Times (in Engels (VSA)). ISSN 0362-4331. Besoek op 27 Julie 2023.
  7. ""Godfather of artificial intelligence" weighs in on the past and potential of AI". www.cbsnews.com (in Engels (VSA)). 25 Maart 2023. Besoek op 10 April 2023.
  8. "How Rogue AIs may Arise". yoshuabengio.org (in Engels (VSA)). 26 Mei 2023. Besoek op 26 Mei 2023.
  9. In ‘n 1951 lesing Turing, Alan, Intelligent machinery, a heretical theory. Lesing aan die '51 Society' in Manchester, besoek op 2022-07-22, 1951, The Turing Digital Archive by https://turingarchive.kings.cam.ac.uk/publications-lectures-and-talks-amtb/amt-b-4, bl 16, geargiveer 26 September 2022, argief https://web.archive.org/web/20220926004549/https://turingarchive.kings.cam.ac.uk/publications-lectures-and-talks-amtb/amt-b-4, Turing het aangevoer dat "Dit lyk waarskynlik dat sodra die masjiendenkmetode begin het, dit nie lank sal neem om ons swak kragte te oortref nie. Daar sal geen sprake wees van die masjiene wat doodgaan nie, en hulle sal met mekaar kan praat om hul te verskerp. Ons behoort dus op 'n stadium te verwag dat die masjiene beheer sal neem, op die manier wat in Samuel Butler se Erewhon genoem word." Ook in 'n lesing wat oor die BBC }}}}
  10. "Can digital computers think?". Automatic Calculating Machines (BBC). 15 Mei 1951.  het hy die mening uitgespreek: "As 'n masjien kan dink, dink dit dalk meer intelligent as ons, en waar moet ons dan wees? Selfs al kan ons die masjiene in 'n diensbare posisie hou, byvoorbeeld deur die krag af te skakel by strategiese oomblikke, moet ons as 'n spesie baie nederig voel. . . . Hierdie nuwe gevaar . . . is beslis iets wat ons angs kan gee."
  11. Parkin, Simon (14 Junie 2015). "Science fiction no more? Channel 4's Humans and our rogue AI obsessions". The Guardian (in Engels). Geargiveer vanaf die oorspronklike op 5 Februarie 2018. Besoek op 5 Februarie 2018.
  12. Jackson, Sarah. "The CEO of the company behind AI chatbot ChatGPT says the worst-case scenario for artificial intelligence is 'lights out for all of us'". Business Insider (in Engels (VSA)). Besoek op 10 April 2023.
  13. "The AI Dilemma". www.humanetech.com (in Engels). Besoek op 10 April 2023. 50% van KI-navorsers glo daar is 'n 10% of groter kans dat mense uitsterf weens ons onvermoë om KI te beheer.
  14. "2022 Expert Survey on Progress in AI". AI Impacts (in Engels (VSA)). 4 Augustus 2022. Besoek op 10 April 2023.
  15. Roose, Kevin (30 Mei 2023). "A.I. Poses 'Risk of Extinction,' Industry Leaders Warn". The New York Times (in Engels (VSA)). ISSN 0362-4331. Besoek op 3 Junie 2023.
  16. Sunak, Rishi (14 Junie 2023). "Rishi Sunak Wants the U.K. to Be a Key Player in Global AI Regulation". Time.
  17. Verwysingfout: Invalid <ref> tag; no text was provided for refs named :12
  18. Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). Global Catastrophic Risks: 308–345. Bibcode:2008gcr..book..303Y. Geargiveer (PDF) vanaf die oorspronklike op 2 Maart 2013. Besoek op 27 Augustus 2018.
  19. Russell, Stuart; Dewey, Daniel; Tegmark, Max (2015). "Research Priorities for Robust and Beneficial Artificial Intelligence" (PDF). AI Magazine. Association for the Advancement of Artificial Intelligence: 105–114. arXiv:1602.03506. Bibcode:2016arXiv160203506R. Geargiveer (PDF) vanaf die oorspronklike op 4 Augustus 2019. Besoek op 10 Augustus 2019., cited in "AI Open Letter - Future of Life Institute". Future of Life Institute. Januarie 2015. Geargiveer vanaf die oorspronklike op 10 Augustus 2019. Besoek op 9 Augustus 2019.
  20. Dowd, Maureen (April 2017). "Elon Musk's Billion-Dollar Crusade to Stop the A.I. Apocalypse". The Hive (in Engels). Geargiveer vanaf die oorspronklike op 26 Julie 2018. Besoek op 27 November 2017.