Eliezer Yudkowsky
Eliezer S. Yudkowsky (/ˌɛliˈɛzər ˌjʌdˈkaʊski/ EH-lee-EH-zər YUD-KOW-skee; [1] gebore 11 September 1979) is 'n Amerikaanse kunsmatige intelligensie-navorser[2][3][4][5] en skrywer oor besluiteorie en etiek, veral bekend vir die popularisering van idees wat verband hou met vriendelike kunsmatige intelligensie,[6][7] insluitend die idee dat daar dalk nie 'n "brandalarm" vir KI is nie.[5] Hy is die stigter van en 'n navorsingsgenoot by die Machine Intelligence Research Institute (MIRI), 'n private navorsingsorganisasie sonder winsbejag gebaseer in Berkeley, Kalifornië. [8] Sy werk oor die vooruitsig van 'n weghol-intelligensie-ontploffing het filosoof Nick Bostrom se 2014-boek Superintelligence: Paths, Dangers, Strategies beïnvloed.[9]
Werk oor kunsmatige intelligensie veiligheid
[wysig | wysig bron]Doelwitleer en aansporings in sagtewarestelsels
[wysig | wysig bron]Yudkowsky se sienings oor die veiligheidsuitdagings wat toekomstige generasies KI-stelsels inhou, word bespreek in Stuart Russell en Peter Norvig se voorgraadse handboek Artificial Intelligence: A Modern Approach. Let daarop dat dit moeilik is om algemene doelwitte met die hand te spesifiseer, en Russell en Norvig haal Yudkowsky se voorstel aan dat outonome en aanpasbare stelsels ontwerp word om korrekte gedrag met verloop van tyd aan te leer:
"Yudkowsky (2008)[10] gaan in meer besonderhede oor hoe om 'n vriendelike KI te ontwerp. Hy beweer dat vriendelikheid ('n begeerte om nie mense skade aan te doen nie) van die begin af ontwerp moet word, maar dat die ontwerpers beide moet erken dat hul eie ontwerpe foutief kan wees, en dat die robot mettertyd sal leer en ontwikkel. Die uitdaging is dus een van meganisme-ontwerp—om 'n meganisme te ontwerp vir die ontwikkeling van KI onder 'n stelsel van kontrole en teenwigte, en om die stelsels nutsfunksies te gee wat vriendelik sal bly in die lig van sulke veranderinge.[6]
In reaksie op die kommer oor instrumentele konvergensie, dat outonome besluitnemingstelsels met swak ontwerpte doelwitte standaardaansporings sal hê om mense te mishandel, het Yudkowsky en ander MIRI-navorsers aanbeveel dat werk gedoen word om sagteware-agente te spesifiseer wat op veilige verstekgedrag konvergeer, selfs wanneer hulle doelwitte verkeerd gespesifiseer is.[11][7]
Voorspelling van vermoëns
[wysig | wysig bron]In die intelligensie-ontploffingscenario wat deur I.J. Good veronderstel is, gaan goeie, rekursief selfverbeterende KI-stelsels vinnig oor van ondermenslike algemene intelligensie na superintelligent. Nick Bostrom se 2014-boek Superintelligence: Paths, Dangers, Strategies skets Good se argument in detail, terwyl hy Yudkowsky aanhaal oor die risiko dat antropomorfisering van gevorderde KI-stelsels mense die aard van 'n intelligensie-ontploffing sal laat misverstaan. "KI kan 'n skynbaar skerp sprong in intelligensie maak bloot as gevolg van antropomorfisme, die menslike neiging om te dink aan 'dorpie-idioot' en 'Einstein' as die uiterste punte van die intelligensieskaal, in plaas van byna ononderskeibare punte op die skaal van gedagtes -in die algemeen."[6][10][12]
In Artificial Intelligence: A Modern Approach opper Russell en Norvig die beswaar dat daar bekende perke is aan intelligente probleemoplossing vanuit die rekenaarkompleksiteitsteorie; as daar sterk perke is op hoe doeltreffend algoritmes verskeie take kan oplos, is 'n intelligensie-ontploffing dalk nie moontlik nie.[6]
Time-meningsartikel
[wysig | wysig bron]In 'n 2023-op-ed vir Time-tydskrif, het Yudkowsky die risiko van kunsmatige intelligensie bespreek en voorgestelde aksie wat geneem kan word om dit te beperk, insluitend 'n totale stop op die ontwikkeling van KI[13][14]of selfs die "vernietig[ing] van 'n gevaarlike datasentrum deur lugaanval".[5] Die artikel het gehelp om die debat oor KI-belyning aan die hoofstroom bekend te stel, wat daartoe gelei het dat 'n verslaggewer president Joe Biden 'n vraag oor KI-veiligheid tydens 'n persinligtingsessie gevra het.[2]
Skryfwerk oor Rasionaliteit
[wysig | wysig bron]Tussen 2006 en 2009 was Yudkowsky en Robin Hanson die hoofbydraers tot Overcoming Bias, 'n kognitiewe en sosiale wetenskap-blog wat deur die Future of Humanity Institute van Oxford Universiteit geborg is. In Februarie 2009 het Yudkowsky LessWrong gestig, 'n "gemeenskapsblog wat daaraan gewy is om die kuns van menslike rasionaliteit te verfyn".[15][16] Overcoming Bias het sedertdien as Hanson se persoonlike blog gefunksioneer.
Meer as 300 blogplasings deur Yudkowsky oor filosofie en wetenskap (oorspronklik geskryf op LessWrong and Overcoming Bias) is vrygestel as 'n e-boek, Rationality: From AI to Zombies, deur MIRI in 2015 [17] MIRI het ook Inadequate Equilibria gepubliseer, Yudkowsky se 2017 e-boek oor maatskaplike ondoeltreffendheid.[18]
Yudkowsky het ook verskeie fiksiewerke geskryf. Sy fanfiction-roman Harry Potter and the Methods of Rationality gebruik storie-elemente uit J.K. Rowling se Harry Potter-reeks om onderwerpe in die wetenskap te illustreer.[15][19]Die New Yorker het Harry Potter and the Methods of Rationality beskryf as 'n hervertelling van Rowling se oorspronklike "in 'n poging om Harry se towery deur die wetenskaplike metode te verduidelik".[20]
Persoonlike lewe
[wysig | wysig bron]Yudkowsky is 'n outodidak[21] en het nie hoërskool of kollege bygewoon nie.[22] Hy is grootgemaak as 'n Moderne Ortodokse Jood, maar identifiseer nie godsdienstig as 'n Jood nie.[23][24]
Verwysings
[wysig | wysig bron]- ↑ "Eliezer Yudkowsky on “Three Major Singularity Schools”" op YouTube. February 16, 2012. Timestamp 1:18.
- ↑ 2,0 2,1 Silver, Nate (10 April 2023). "How Concerned Are Americans About The Pitfalls Of AI?". FiveThirtyEight. Geargiveer vanaf die oorspronklike op 17 April 2023. Besoek op 17 April 2023.
- ↑ Ocampo, Rodolfo (4 April 2023). "I used to work at Google and now I'm an AI researcher. Here's why slowing down AI development is wise". The Conversation (in Engels). Geargiveer vanaf die oorspronklike op 11 April 2023. Besoek op 19 Junie 2023.
- ↑ Gault, Matthew (31 Maart 2023). "AI Theorist Says Nuclear War Preferable to Developing Advanced AI". Vice (in Engels). Geargiveer vanaf die oorspronklike op 15 Mei 2023. Besoek op 19 Junie 2023.
- ↑ 5,0 5,1 5,2 Hutson, Matthew (16 Mei 2023). "Can We Stop Runaway A.I.?". The New Yorker (in Engels (VSA)). ISSN 0028-792X. Geargiveer vanaf die oorspronklike op 19 Mei 2023. Besoek op 19 Mei 2023.
Eliezer Yudkowsky, 'n navorser by die Masjien-intelligensie-navorsingsinstituut, in die Bay Area, het K.I.-veiligheidsaanbevelings met 'n brandalarmstelsel vergelyk. 'n Klassieke eksperiment het bevind dat, toe rokerige mis 'n vertrek begin vul het wat verskeie mense bevat, die meeste dit nie aangemeld het nie. Hulle het gesien hoe ander stoïsyns bly en die gevaar afgemaak. 'n Amptelike alarm kan aandui dat dit wettig is om op te tree. Maar in K.I. is daar niemand met die duidelike gesag om so 'n alarm te maak nie, en mense sal altyd verskil oor watter voorskotte tel as bewys van 'n brand. "Daar sal geen brandalarm wees wat nie 'n werklike lopende KAI is nie," het Yudkowsky geskryf. Selfs al stem almal saam oor die bedreiging, sal geen maatskappy of land op sy eie wil pouseer nie, uit vrees om deur mededingers verbygesteek te word. ... Dit kan vereis dat A.I. koue kalkoen voor ons voel dit is tyd om te stop, eerder as om al hoe nader aan die rand te kom, wat die noodlot aanlok. Maar om dit alles af te sluit, sal drakoniese maatreëls vereis - miskien selfs stappe so ekstreem soos dié wat deur Yudkowsky, wat onlangs in 'n hoofartikel vir Time geskryf het, geskryf het dat ons "bereid moet wees om 'n skelm datasentrum deur lugaanval te vernietig," selfs by die risiko om "'n volledige kernkraguitruiling" te veroorsaak.
- ↑ 6,0 6,1 6,2 6,3 Russell, Stuart; Norvig, Peter (2009). Artificial Intelligence: A Modern Approach. Prentice Hall. ISBN 978-0-13-604259-4.
- ↑ 7,0 7,1 Leighton, Jonathan (2011). The Battle for Compassion: Ethics in an Apathetic Universe. Algora. ISBN 978-0-87586-870-7.
- ↑ Kurzweil, Ray (2005). The Singularity Is Near. New York City: Viking Penguin. ISBN 978-0-670-03384-3.
- ↑ Ford, Paul (11 Februarie 2015). "Our Fear of Artificial Intelligence". MIT Technology Review (in Engels). Geargiveer vanaf die oorspronklike op 30 Maart 2019. Besoek op 9 Apri 2019.
{{cite magazine}}
: Gaan datum na in:|access-date=
(hulp) - ↑ 10,0 10,1 Yudkowsky, Eliezer (2008). "Artificial Intelligence as a Positive and Negative Factor in Global Risk" (PDF). In Bostrom, Nick; Ćirković, Milan (reds.). Global Catastrophic Risks. Oxford University Press. ISBN 978-0199606504. Geargiveer (PDF) vanaf die oorspronklike op 2 Maart 2013. Besoek op 16 Oktober 2015.
- ↑ (2015) "Corrigibility"., AAAI Publications.
- ↑ Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies. Oxford University Press. ISBN 978-0199678112.
- ↑ Moss, Sebastian (30 Maart 2023). ""Be willing to destroy a rogue data center by airstrike" - leading AI alignment researcher pens Time piece calling for ban on large GPU clusters". Data Center Dynamics. Geargiveer vanaf die oorspronklike op 17 April 2023. Besoek op 17 April 2023.
- ↑ Ferguson, Niall (9 April 2023). "The Aliens Have Landed, and We Created Them". Bloomberg News. Geargiveer vanaf die oorspronklike op 9 April 2023. Besoek op 17 April 2023.
- ↑ 15,0 15,1 Miller, James (2012). Singularity Rising. BenBella Books, Inc. ISBN 978-1936661657.
- ↑ Miller, James (28 Julie 2011). "You Can Learn How To Become More Rational". Business Insider. Geargiveer vanaf die oorspronklike op 10 Augustus 2018. Besoek op 25 Maart 2014.
- ↑ Miller, James D. "Rifts in Rationality – New Rambler Review". newramblerreview.com (in Engels (VK)). Geargiveer vanaf die oorspronklike op 28 Julie 2018. Besoek op 28 Julie 2018.
- ↑ Machine Intelligence Research Institute. "Inadequate Equilibria: Where and How Civilizations Get Stuck". Geargiveer vanaf die oorspronklike op 21 September 2020. Besoek op 13 Mei 2020.
- ↑ Snyder, Daniel D. (18 Julie 2011). "'Harry Potter' and the Key to Immortality". The Atlantic. Geargiveer vanaf die oorspronklike op 23 Desember 2015. Besoek op 13 Junie 2022.
- ↑ Packer, George (2011). "No Death, No Taxes: The Libertarian Futurism of a Silicon Valley Billionaire". The New Yorker. p. 54. Geargiveer vanaf die oorspronklike op 14 Desember 2016. Besoek op 12 Oktober 2015.
- ↑ Matthews, Dylan; Pinkerton, Byrd (19 Junie 2019). "He co-founded Skype. Now he's spending his fortune on stopping dangerous AI". Vox. Geargiveer vanaf die oorspronklike op 6 Maart 2020. Besoek op 22 Maart 2020.
- ↑ Saperstein, Gregory (9 Augustus 2012). "5 Minutes With a Visionary: Eliezer Yudkowsky". CNBC. Geargiveer vanaf die oorspronklike op 1 Augustus 2017. Besoek op 9 September 2017.
- ↑ Elia-Shalev, Asaf (1 Desember 2022). "Synagogues are joining an 'effective altruism' initiative. Will the Sam Bankman-Fried scandal stop them?". Jewish Telegraphic Agency. Besoek op 4 Desember 2023.
- ↑ Yudkowsky, Eliezer (4 Oktober 2007). "Avoiding your belief's real weak points". LessWrong. Geargiveer vanaf die oorspronklike op 3 Mei 2021. Besoek op 30 April 2021.