Gaan na inhoud

Vriendelike kunsmatige intelligensie

in Wikipedia, die vrye ensiklopedie

Vriendelike kunsmatige intelligensie (ook vriendelike KI of VKI) is hipotetiese kunsmatige algemene intelligensie (KAI) wat 'n positiewe (goedaardige) uitwerking op die mensdom sal hê of ten minste in lyn sal wees met menslike belange of bydra tot die bevordering van die verbetering van die menslike spesie. Dit is deel van die etiek van kunsmatige intelligensie en is nou verwant aan masjien-etiek. Terwyl masjien-etiek gemoeid is met hoe 'n kunsmatig intelligente agent moet optree, is vriendelike kunsmatige intelligensie-navorsing gefokus op hoe om hierdie gedrag prakties teweeg te bring en om te verseker dat dit voldoende beperk word.

Etimologie en gebruik

[wysig | wysig bron]
Eliezer Yudkowsky, KI-navorser en skepper van die term.

Die term is geskep deur Eliezer Yudkowsky,[1] wat veral bekend is vir die popularisering van die idee, [2][3] om superintelligente kunsmatige agente te bespreek wat menslike waardes betroubaar implementeer. Stuart J. Russell en Peter Norvig se voorste kunsmatige intelligensie-handboek, Artificial Intelligence: A Modern Approach, beskryf die idee:[2]

"Yudkowsky (2008) gaan in meer besonderhede oor hoe om 'n vriendelike KI te ontwerp. Hy beweer dat vriendelikheid ('n begeerte om nie mense skade aan te doen nie) van die begin af ontwerp moet word, maar dat die ontwerpers beide moet erken dat hul eie ontwerpe foutief kan wees, en dat die robot mettertyd sal leer en ontwikkel. Die uitdaging is dus een van meganisme-ontwerp - om 'n meganisme te definieer vir ontwikkelende KI-stelsels onder 'n stelsel van kontrole en teenwigte, en om die stelsels nutsfunksies te gee wat vriendelik sal bly in die lig van sulke veranderinge."

'Vriendelik' word in hierdie konteks as tegniese terminologie gebruik, en kies agente uit wat veilig en bruikbaar is, nie noodwendig een wat "vriendelik" in die omgangstaal is nie. Die konsep word hoofsaaklik aangewend in die konteks van besprekings van rekursief selfverbeterende kunsmatige agente wat vinnig in intelligensie ontplof, op grond daarvan dat hierdie hipotetiese tegnologie 'n groot, vinnige en moeilik beheerbare impak op die menslike samelewing sou hê.[4]

Risiko's van onvriendelike KI

[wysig | wysig bron]

Hoof Artikel: Eksistensiële risiko as gevolg van kunsmatige algemene intelligensie

Die wortels van kommer oor kunsmatige intelligensie is baie oud. Kevin LaGrandeur het getoon dat die gevare spesifiek vir KI gesien kan word in antieke literatuur oor kunsmatige menslike dienaars soos die golem, of die proto-robotte van Gerbert van Aurillac en Roger Bacon. In daardie verhale bots die uiterste intelligensie en krag van hierdie menslike skeppings met hul status as slawe (wat van nature as sub-menslik gesien word), en veroorsaak rampspoedige konflik.[5] Teen 1942 het hierdie temas Isaac Asimov aangespoor om die "Three Laws of Robotics" te skep—beginsels wat vasgelê is in al die robotte in sy fiksie, wat bedoel was om te verhoed dat hulle teen hul skeppers draai, of om hulle toe te laat om skade te berokken.[6]

In moderne tye, aangesien die vooruitsig van superintelligente KI nader kom, het filosoof Nick Bostrom gesê dat superintelligente KI-stelsels met doelwitte wat nie met menslike etiek ooreenstem nie, intrinsiek gevaarlik is, tensy uiterste maatreëls getref word om die veiligheid van die mensdom te verseker. Hy het dit so gestel:

“Basies moet ons aanvaar dat 'n 'superintelligensie' in staat sal wees om te bereik watter doelwitte dit ook al het. Daarom is dit uiters belangrik dat die doelwitte waarmee ons dit toeken, en sy hele motiveringstelsel, 'mensvriendelik' is.”

In 2008 het Eliezer Yudkowsky gevra vir die skepping van "vriendelike KI" om die eksistensiële risiko van gevorderde kunsmatige intelligensie te verminder. Hy verduidelik: "Die KI haat jou nie, en is ook nie lief vir jou nie, maar jy is gemaak van atome wat dit vir iets anders kan gebruik."[7]

Steve Omohundro sê dat 'n voldoende gevorderde KI-stelsel, tensy dit uitdruklik teengewerk word, 'n aantal basiese "dryfkragte" sal vertoon, soos hulpbronverkryging, selfbehoud en voortdurende selfverbetering, as gevolg van die intrinsieke aard van enige doelgedrewe stelsels en dat hierdie aandrywers, "sonder spesiale voorsorgmaatreëls", sal veroorsaak dat die KI ongewenste gedrag toon.[8][9]

Alexander Wissner-Gross sê dat KI's wat gedryf word om hul toekomstige vryheid van aksie (of oorsaaklike pad-entropie) te maksimeer as vriendelik beskou kan word as hul beplanningshorison langer as 'n sekere drempel is, en onvriendelik as hul beplanningshorison korter as daardie drempel is.[10][11]

Luke Muehlhauser, wat vir die Machine Intelligence Research Institute skryf, beveel aan dat masjien-etieknavorsers aanneem wat Bruce Schneier die "sekuriteitsingesteldheid" genoem het: Eerder as om te dink oor hoe 'n stelsel sal werk, stel jou voor hoe dit kan misluk. Hy stel byvoorbeeld voor dat selfs 'n KI wat net akkurate voorspellings maak en via 'n tekskoppelvlak kommunikeer, onbedoelde skade kan veroorsaak.[12]

In 2014 het Luke Muehlhauser en Nick Bostrom die behoefte aan 'vriendelike KI' onderstreep;[13] nietemin is die probleme met die ontwerp van 'n 'vriendelike' superintelligensie, byvoorbeeld deur die programmering van kontrafeitelike morele denke, aansienlik.[14][15]

Verwysings

[wysig | wysig bron]
  1. Tegmark, Max (2014). "Life, Our Universe and Everything". Our Mathematical Universe: My Quest for the Ultimate Nature of Reality (First uitg.). ISBN 9780307744258. Its owner may cede control to what Eliezer Yudkowsky terms a "Friendly AI,"...
  2. 2,0 2,1 Russell, Stuart; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4.
  3. Leighton, Jonathan (2011). The Battle for Compassion: Ethics in an Apathetic Universe. Algora. ISBN 978-0-87586-870-7.
  4. Wallach, Wendell; Allen, Colin (2009). Moral Machines: Teaching Robots Right from Wrong. Oxford University Press, Inc. ISBN 978-0-19-537404-9.
  5. Kevin LaGrandeur (2011). "The Persistent Peril of the Artificial Slave". Science Fiction Studies. 38 (2): 232. doi:10.5621/sciefictstud.38.2.0232. Geargiveer vanaf die oorspronklike op 13 Januarie 2023. Besoek op 6 Mei 2013.
  6. Isaac Asimov (1964). "Introduction". The Rest of the Robots. Doubleday. ISBN 0-385-09041-2.
  7. Eliezer Yudkowsky (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). In Nick Bostrom; Milan M. Ćirković (reds.). Global Catastrophic Risks. pp. 308–345. Geargiveer (PDF) vanaf die oorspronklike op 19 Oktober 2013. Besoek op 19 Oktober 2013.
  8. Omohundro, S. M. (Februarie 2008). "The basic AI drives". Artificial General Intelligence. 171: 483–492. CiteSeerX 10.1.1.393.8356.
  9. Bostrom, Nick (2014). "Chapter 7: The Superintelligent Will". Superintelligence: Paths, Dangers, Strategies. Oxford: Oxford University Press. ISBN 9780199678112.
  10. Dvorsky, George (26 April 2013). "How Skynet Might Emerge From Simple Physics". Gizmodo. Geargiveer vanaf die oorspronklike op 8 Oktober 2021. Besoek op 23 Desember 2021.
  11. Wissner-Gross, A. D.; Freer, C. E. (2013). "Causal entropic forces". Physical Review Letters. 110 (16): 168702. Bibcode:2013PhRvL.110p8702W. doi:10.1103/PhysRevLett.110.168702. hdl:1721.1/79750. PMID 23679649.
  12. Muehlhauser, Luke (31 Julie 2013). "AI Risk and the Security Mindset". Machine Intelligence Research Institute. Geargiveer vanaf die oorspronklike op 19 Julie 2014. Besoek op 15 Julie 2014.
  13. Muehlhauser, Luke; Bostrom, Nick (17 Desember 2013). "Why We Need Friendly AI". Think. 13 (36): 41–47. doi:10.1017/s1477175613000316. ISSN 1477-1756. S2CID 143657841.
  14. Boyles, Robert James M.; Joaquin, Jeremiah Joven (23 Julie 2019). "Why friendly AIs won't be that friendly: a friendly reply to Muehlhauser and Bostrom". AI & Society. 35 (2): 505–507. doi:10.1007/s00146-019-00903-0. ISSN 0951-5666. S2CID 198190745.
  15. Chan, Berman (4 Maart 2020). "The rise of artificial intelligence and the crisis of moral passivity". AI & Society (in Engels). 35 (4): 991–993. doi:10.1007/s00146-020-00953-9. ISSN 1435-5655. S2CID 212407078. Geargiveer vanaf die oorspronklike op 10 Februarie 2023. Besoek op 21 Januarie 2023.