Kunsmatige algemene intelligensie

in Wikipedia, die vrye ensiklopedie
KI beeldgenereerder se voorstelling van kunsmatige algemene intelligensie

'n Kunsmatige algemene intelligensie (KAI) is 'n tipe hipotetiese intelligente agent. Die KAI-konsep is dat dit kan leer om enige intellektuele taak wat mense of ander diere kan verrig, uit te voer.[1][2] Alternatiewelik is KAI gedefinieer as 'n outonome stelsel wat menslike vermoëns in die meeste ekonomies waardevolle take oortref.[3] Die skep van KAI is 'n primêre doelwit van sommige kunsmatige intelligensie-navorsing en maatskappye soos OpenAI,[3] DeepMind,[4] en Anthropic. KAI is 'n algemene onderwerp in wetenskapfiksie en toekomsstudies.

Die tydlyn vir KAI-ontwikkeling bly 'n onderwerp van voortdurende debat onder navorsers en kundiges. Sommige argumenteer dat dit moontlik oor jare of dekades kan wees, ander hou vol dat dit 'n eeu of langer kan neem, en 'n minderheid glo dat dit dalk nooit bereik sal word nie.[5] Daarbenewens is daar debat oor die vraag of moderne diepleerstelsels, soos GPT-4, 'n vroeë dog onvolledige vorm van KAI[6] is of as nuwe benaderings vereis word.[7]

Daar bestaan twis oor die potensiaal vir KAI om 'n bedreiging vir die mensdom in te hou; byvoorbeeld, OpenAI hanteer dit as 'n eksistensiële risiko, terwyl ander vind dat die ontwikkeling van KAI te ver in die toekoms is om 'n risiko in te hou.[8][5][7]

'n 2020-opname het 72 aktiewe KAI navorsingsprojekte geïdentifiseer wat oor 37 lande versprei is.[9]

Terminologie[wysig | wysig bron]

KAI staan ook bekend as sterk KI,[10][11][12] volle KI,[13] of algemene intelligente aksie.[14][15] Sommige akademiese bronne behou egter die term "sterk KI" vir rekenaarprogramme wat gevoel of bewussyn ervaar.[16][17] Daarteenoor is swak KI (of nou KI) in staat om een spesifieke probleem op te los, maar het nie algemene kognitiewe vermoëns nie.[18][11] Sommige akademiese bronne gebruik "swak KI" om wyer te verwys na enige programme wat nie bewussyn ervaar of ook nie 'n verstand in dieselfde sin as mense het nie.[19]

Verwante konsepte sluit in menslike vlak KI, transformerende KI,[5] en superintelligensie.

Eienskappe[wysig | wysig bron]

Die "standaard interpretasie" van die Turingtoets, waarin speler C, die ondervraer, die taak kry om te probeer vasstel watter speler – A of B – 'n rekenaar is en watter 'n mens. Die ondervraer is beperk tot die gebruik van die antwoorde op geskrewe vrae om die bepaling te maak.[20]

Hoofartikel: Kunsmatige intelligensie

Verskeie kriteria vir intelligensie is voorgestel (die mees bekende Turingtoets) maar geen definisie word algemeen aanvaar nie. John McCarthy skryf: " ons kan nog nie in die algemeen karakteriseer watter soort berekeningsprosedures ons intelligent wil noem nie."[21][22]

Intelligensie eienskappe[wysig | wysig bron]

Navorsers meen egter oor die algemeen dat intelligensie nodig is om die volgende te doen: [23]

en, indien nodig, integreer hierdie vaardighede in die voltooiing van enige gegewe doelwit.

Baie interdissiplinêre benaderings (bv. kognitiewe wetenskap, rekenaarintelligensie en besluitneming) oorweeg bykomende eienskappe soos verbeelding (die vermoë om nuwe geestelike beelde en konsepte te vorm)[24] en outonomie.[25]

Rekenaargebaseerde stelsels wat baie van hierdie vermoëns vertoon, bestaan (sien byvoorbeeld rekenaarkreatiwiteit, outomatiese redenasie, besluitondersteuningstelsel, robot, evolusionêre berekening, intelligente agent). Daar is egter geen konsensus dat moderne KI-stelsels dit in 'n voldoende mate besit nie.

Fisiese eienskappe[wysig | wysig bron]

Ander belangrike vermoëns sluit in:[26]

  • die vermoë om aan te voel (bv. sien, hoor, ens.), en
  • die vermoë om op te tree (bv. beweeg en manipuleer voorwerpe, verander ligging om te verken, ens.)

Dit sluit die vermoë in om gevaar op te spoor en daarop te reageer.[27]

Wiskundige formulerings[wysig | wysig bron]

Marcus Hutter, kunsmatige intelligensie-navorser.

'n Wiskundig presiese spesifikasie van KAI is voorgestel deur Marcus Hutter in 2000. Genoem AIXI, die voorgestelde KAI-agent maksimeer "die vermoë om doelwitte in 'n wye verskeidenheid omgewings te bevredig".[28] Hierdie tipe KAI, wat gekenmerk word deur die vermoë om 'n wiskundige definisie van intelligensie te maksimeer eerder as om mensagtige gedrag te vertoon,[29] word ook universele kunsmatige intelligensie genoem.[30]

In 2015 het Jan Lieke en Marcus Hutter gewys dat Legg-Hutter-intelligensie - "'n agent se vermoë om doelwitte in 'n wye reeks omgewings te bereik"[31] - gemeet word met betrekking tot "'n vaste universele Turing-masjien (UTM). AIXI is die mees intelligente beleid as dit dieselfde UTM gebruik, 'n resultaat wat "alle bestaande optimaliteitseienskappe vir AIXI ondermyn".[32] Hierdie probleem spruit uit AIXI se gebruik van kompressie as 'n proxy vir intelligensie, wat slegs geldig is indien kognisie in isolasie plaasvind van die omgewing waarin doelwitte nagestreef word. Dit formaliseer 'n filosofiese posisie bekend as gees-liggaam dualisme. [33] Sommige vind enaktivisme meer aanneemlik - die idee dat kognisie plaasvind binne dieselfde omgewing waarin doelwitte nagestreef word.[34] Daarna het Michael Timothy Bennett enaktiewe kognisie geformaliseer en 'n alternatiewe gevolmagtigde vir intelligensie genaamd "swakheid" geïdentifiseer.[33] Die meegaande eksperimente (wat swakheid en kompressie vergelyk) en wiskundige bewyse het getoon dat die maksimalisering van swakheid die optimale "vermoë om 'n wye reeks take te voltooi",[35] of ekwivalent "vermoë om te veralgemeen"[36] tot gevolg het (dus maksimeer intelligensie volgens enige definisie ). As enaktivisme geld en gees-liggaam-dualisme nie, dan is kompressie nie nodig of voldoende vir intelligensie nie, wat wydverspreide sienings oor intelligensie bevraagteken (sien ook Hutter-prys).

Of 'n KAI wat aan een van hierdie formulerings voldoen, menslike gedrag (soos die gebruik van natuurlike taal) toon, sal van baie faktore afhang,[37] byvoorbeeld die wyse waarop die agent beliggaam word,[35] of dit het 'n beloningsfunksie wat menslike aspekte van kognisie soos honger, pyn, ensovoorts, nou naboots.[38]

Toetse vir menslike vlak KAI[wysig | wysig bron]

Alan Turing

Verskeie toetse wat bedoel is om KAI op menslike vlak te bevestig, is oorweeg, insluitend:[39][40]

Die Turingtoets (Turing)
'n Masjien en 'n mens praat albei ongesiens met 'n tweede mens, wat moet evalueer watter van die twee die masjien is, wat die toets slaag as dit die evalueerder 'n beduidende fraksie van die tyd kan flous. Let wel: Turing skryf nie voor wat as intelligensie moet kwalifiseer nie, net dat die wete dat dit 'n masjien is dit moet diskwalifiseer.
Die koffietoets (Wozniak)
'n Masjien word benodig om 'n gemiddelde Amerikaanse huis binne te gaan en uit te vind hoe om koffie te maak: vind die koffiemasjien, vind die koffie, voeg water by, vind 'n beker en brou die koffie deur die regte knoppies te druk.
Die Robot kollege student Toets (Goertzel)
'n Masjien skryf in by 'n universiteit, neem en slaag dieselfde klasse as wat mense sou, en verwerf 'n graad.
Die indiensnemingstoets (Nilsson)
'n Masjien verrig 'n ekonomies belangrike werk minstens so goed soos mense in dieselfde werk.
Die Ikeatoets (Marcus)
Ook bekend as die platpakmeubeltoets. ’n KI bekyk die dele en instruksies van ’n Ikea-platpakproduk, en beheer dan ’n robot om die meubels korrek saam te stel.

KI-volledigheid probleme[wysig | wysig bron]

Daar is baie probleme wat algemene kundmatige intelligensie sal moet oorkom, as masjiene die probleme so goed wil oplos as wat mense dit kan doen. Byvoorbeeld, selfs spesifieke eenvoudige take, soos masjienvertaling, vereis dat 'n masjien in albei tale (NLP) lees en skryf, die skrywer se argument (rede) volg, weet waaroor gepraat word (kennis), en die skrywer se oorspronklike opset getrou weergee. (sosiale intelligensie). Al hierdie probleme moet gelyktydig opgelos word om masjienwerkverrigting op menslike vlak te kry.

'n Probleem word informeel "KI-volledigheid " of "KI-hard" genoem as daar geglo word dat 'n mens sterk KI moet implementeer om dit op te los, want die oplossing is buite die vermoëns van 'n doelspesifieke algoritme.[41]

KI-volledigheid probleme word veronderstel om algemene rekenaarvisie, natuurlike taalbegrip en die hantering van onverwagte omstandighede in te sluit terwyl enige werklike wêreldprobleem opgelos word.[42]

KI-volledigheid probleme kan nie opgelos word met huidige rekenaartegnologie alleen nie en vereis 'n mate van menslike berekening. Hierdie beperking kan nuttig wees om te toets vir die teenwoordigheid van mense, soos CAPTCHA's beoog om te doen; en vir rekenaarsekuriteit om brute-krag-aanvalle af te weer.[43][44]

Geskiedenis[wysig | wysig bron]

Klassieke KI[wysig | wysig bron]

Moderne KI-navorsing het in die middel-1950's begin.[45] Die eerste generasie KI-navorsers was oortuig daarvan dat kunsmatige algemene intelligensie moontlik was en dat dit oor net 'n paar dekades sou bestaan.[46] KI-pionier Herbert A. Simon het in 1965 geskryf: "masjiene sal binne twintig jaar in staat wees om enige werk te doen wat 'n mens kan doen."[47] Hul voorspellings was die inspirasie vir Stanley Kubrick en Arthur C. Clarke se karakter HAL 9000, wat beliggaam het wat KI-navorsers geglo het hulle kon skep teen die jaar 2001. KI-pionier Marvin Minsky was 'n konsultant[48] op die projek om HAL 9000 as realisties te maak as moontlik volgens die konsensusvoorspellings van die tyd. Hy het in 1967 gesê: "Binne 'n generasie... sal die probleem van die skep van 'kunsmatige intelligensie' aansienlik opgelos word".[49]

Verskeie klassieke KI-projekte, soos Doug Lenat se Cyc-projek (wat in 1984 begin het), en Allen Newell se Soar-projek, was op KAI gerig. In die vroeë 1970's het dit egter duidelik geword dat navorsers die moeilikheid van die projek erg onderskat het.

Befondsingsagentskappe het skepties geraak oor KAI en het navorsers onder toenemende druk geplaas om nuttige "toegepaste KI" te produseer. Die Lighthill-verslag het spesifiek KI se "grootsugtige doelwitte" gekritiseer en gelei tot die aftakeling van KI-navorsing in Engeland.[50] In die VSA het DARPA vasbeslote geraak om slegs "missie-georiënteerde direkte navorsing, eerder as basiese ongerigte navorsing" te finansier.[51]

In die vroeë 1980's het Japan se vyfde generasie rekenaarprojek belangstelling in KAI laat herleef en 'n tydlyn van tien jaar uiteengesit wat KAI-doelwitte soos "voer 'n toevallige gesprek" insluit.[52] In reaksie hierop en die sukses van kundige stelsels, het beide die industrie en die regering geld in die veld teruggepomp.[53][54] Vertroue in KI het egter skouspelagtig ineengestort in die laat 1980's, en die doelwitte van die Vyfde Generasie Rekenaarprojek is nooit vervul nie.[55] Vir die tweede keer in 20 jaar het KI-navorsers wat die naderende prestasie van KAI voorspel het, hulle misgis. Teen die 1990's het KI-navorsers 'n reputasie gehad om ydele beloftes te maak. Hulle het enigsins huiwerig geword om voorspellings te maak en vermy die vermelding van kunsmatige intelligensie op "menslike vlak" uit vrees dat hulle as "wilde-oog dromer[s] geëtiketteer word.[56]

Nou KI-navorsing[wysig | wysig bron]

Sien Hoofartikel: Kunsmatige intelligensie

In die 1990's en vroeë 21ste eeu het hoofstroom KI kommersiële sukses en akademiese eerbaarheid behaal deur te fokus op spesifieke subprobleme waar KI verifieerbare resultate en kommersiële toepassings kan produseer, soos kunsmatige neurale netwerke en statistiese masjienleer.[57] Hierdie "toegepaste KI"-stelsels word nou op groot skaal deur die tegnologie-industrie gebruik, en navorsing in hierdie trant word goed befonds in beide die akademie en die industrie. Vanaf 2018 is ontwikkeling op hierdie gebied as 'n opkomende tendens beskou, en daar is verwag dat 'n volwasse stadium oor meer as 10 jaar sou plaasvind.[58]

Die meeste hoofstroom KI-navorsers[59] hoop dat sterk KI ontwikkel kan word deur programme te kombineer wat verskeie subprobleme oplos. Hans Moravec het in 1988 geskryf: "Ek is vol vertroue dat hierdie onder-na-bo-roete na kunsmatige intelligensie eendag die tradisionele bo-na-onder-roete meer as halfpad sal ontmoet, gereed om die regte wêreldbevoegdheid en die gesonde verstandkennis te verskaf wat so frustrerend ontwykend was in redenasieprogramme. Ten volle intelligente masjiene sal ontstaan wanneer die metaforiese goue piek aangedryf word wat die twee pogings verenig."[59]

Dit word egter betwis. Byvoorbeeld, Stevan Harnad van Princeton-universiteit het sy 1990 referaat oor die Simbool Gegronde Hipoteses afgesluit deur te sê: "Die verwagting is dikwels uitgespreek dat "bo na onder" (simboliese) benaderings tot modellering van kognisie op een of ander manier "onder na bo" (sensoriese) benaderings iewers tussenin sal ontmoet. As die grondoorwegings in hierdie vraestel geldig is, dan is hierdie verwagting hopeloos modulêr en is daar eintlik net een lewensvatbare roete van sintuig na simbole: van die grond af. 'n Vryswewende simboliese vlak soos die sagtewarevlak van 'n rekenaar sal nooit deur hierdie roete (of andersom) bereik word nie – en dit is ook nie duidelik waarom ons selfs so 'n vlak moet probeer bereik nie, aangesien dit lyk asof om daar te kom net daarop neerkom om ons simbole uit hul intrinsieke betekenisse te ontwortel (en daardeur onsself bloot te reduseer tot die funksionele ekwivalent van 'n programmeerbare rekenaar)."[60]

Moderne kunsmatige algemene intelligensie navorsing[wysig | wysig bron]

Die term "kunsmatige algemene intelligensie" is reeds in 1997 deur Mark Gubrud[61] gebruik in 'n bespreking van die implikasies van ten volle outomatiese militêre produksie en operasies. Die term is omstreeks 2002 weer gebruik en gewild gemaak deur Shane Legg en Ben Goertzel.[62] KAI-navorsingsaktiwiteit in 2006 is deur Pei Wang en Ben Goertzel beskryf as "die vervaardiging van publikasies en voorlopige resultate". Die eerste somerskool in AKI is in 2009 in Xiamen, China georganiseer[63] deur die Xiamen-universiteit se Kunsbreinlaboratorium en OpenCog. Die eerste universiteitskursus is in 2010[64] en 2011[65] by Plovdiv Universiteit, Bulgarye deur Todor Arnaudov aangebied. MIT het in 2018 'n kursus in KAI aangebied, georganiseer deur Lex Fridman en met 'n aantal gasdosente.

Vanaf 2023 gee die meeste KI-navorsers min aandag aan KAI, met sommige wat beweer dat intelligensie te kompleks is om op die kort termyn heeltemal gerepliseer te word. 'n Klein aantal rekenaarwetenskaplikes is egter aktief in KAI-navorsing, en baie dra by tot 'n reeks KAI-konferensies. Al hoe meer navorsers stel egter belang in oopleer,[66][67] wat die idee is om KI toe te laat om voortdurend te leer en te innoveer soos mense aksie neem. Alhoewel die meeste oop-einde-leerwerke steeds op Minecraft gedoen word,[68][69][70] kan die toepassing daarvan uitgebrei word na robotika en die wetenskappe.

Tydskale[wysig | wysig bron]

In die inleiding tot sy 2006-boek,[71] sê Goertzel dat ramings van die tyd wat nodig is voordat 'n werklik buigsame KAI gebou word, wissel van 10 jaar tot meer as 'n eeu. Vanaf 2007 het die konsensus in die KAI-navorsingsgemeenskap gelyk of die tydlyn wat deur Ray Kurzweil in The Singularity is Near[72] (d.w.s. tussen 2015 en 2045) bespreek is, moontlik is.[73] Hoofstroom KI-navorsers het 'n wye verskeidenheid menings gegee oor of vordering so vinnig sal wees. 'n 2012-meta-analise van 95 sulke menings het 'n vooroordeel gevind om te voorspel dat die aanvang van KAI binne 16-26 jaar vir moderne en historiese voorspellings sou plaasvind. Daardie referaat is gekritiseer vir hoe dit menings as deskundige of nie-deskundige gekategoriseer het.[74]

Geoffrey Hinton, op die Sentrumverhoog gedurende dag twee van Collision 2023 (28 Junie 2023) by die Enercare Centre in Toronto, Kanada.

In 2012 het Alex Krizhevsky, Ilya Sutskever en Geoffrey Hinton 'n neurale netwerk genaamd AlexNet ontwikkel, wat die ImageNet-kompetisie gewen het met 'n top-5 toetsfoutkoers van 15.3%, aansienlik beter as die tweedebeste inskrywing se koers van 26.3% (die tradisionele benadering het 'n geweegde som van tellings van verskillende vooraf gedefinieerde klassifiseerders gebruik).[75] AlexNet is beskou as die aanvanklike baanbreker van die huidige diep leergolf.[75]

In 2017 het navorsers Feng Liu, Yong Shi en Ying Liu intelligensietoetse uitgevoer op publiek-beskikbare en vrylik toeganklike swak KI soos Google KI, Apple se Siri, en ander. Op die maksimum het hierdie KI's 'n IK-waarde van ongeveer 47 bereik, wat ongeveer ooreenstem met 'n sesjarige kind in die eerste graad. 'n Volwassene kom gemiddeld op ongeveer 100. Soortgelyke toetse is in 2014 uitgevoer, met die IK-telling wat 'n maksimum waarde van 27 bereik het.[76][77]

In 2020 het OpenAI GPT-3 ontwikkel, 'n taalmodel wat in staat is om baie uiteenlopende take te verrig sonder spesifieke opleiding. Volgens Gary Grossman in 'n VentureBeat-artikel, hoewel daar konsensus is dat GPT-3 nie 'n voorbeeld van KAI is nie, word dit deur sommige as te gevorderd beskou om as 'n nou KI-stelsel te klassifiseer.[78]

In dieselfde jaar het Jason Rohrer sy GPT-3-rekening gebruik om 'n kletsbot te ontwikkel, en het 'n kletsbot-ontwikkelingsplatform genaamd "Project December" verskaf. OpenAI het gevra vir veranderinge aan die kletsbot om aan hul veiligheidsriglyne te voldoen; Rohrer het Project December van die GPT-3 API ontkoppel.[79]

In 2022 het DeepMind Gato ontwikkel, 'n "algemene-doel" stelsel wat in staat is om meer as 600 verskillende take uit te voer.[80]

In 2023 het Microsoft Research 'n studie gepubliseer oor 'n vroeë weergawe van OpenAI se GPT-4, en beweer dat dit meer algemene intelligensie as vorige KI-modelle getoon het en prestasie op menslike vlak gedemonstreer het in take wat oor verskeie domeine strek, soos wiskunde, kodering en die reg. Hierdie navorsing het 'n debat ontketen oor of GPT-4 as 'n vroeë, onvolledige weergawe van kunsmatige algemene intelligensie beskou kan word, wat die behoefte aan verdere verkenning en evaluering van sulke stelsels beklemtoon het.[81]

In 2023 het die KI-navorser Geoffrey Hinton gesê dat:[82]

“Die idee dat hierdie goed eintlik slimmer as mense kan word — 'n paar mense het dit geglo, [...]. Maar die meeste mense het gedink dit is ver weg. En ek het gedink dit is ver weg. Ek het gedink dit is 30 tot 50 jaar of selfs langer weg. Natuurlik dink ek nie meer so nie.”

Breinsimulasie[wysig | wysig bron]

Heelbrein-emulasie[wysig | wysig bron]

Raymond Kurzweil

Een moontlike benadering om KAI te bereik is heelbrein-emulasie: 'n Breinmodel word gebou deur 'n biologiese brein in detail te skandeer en te karteer en sy toestand na 'n rekenaarstelsel of 'n ander rekenaartoestel te kopieer. Die rekenaar bestuur 'n simulasiemodel wat voldoende getrou aan die oorspronklike is dat dit feitlik dieselfde optree as die oorspronklike brein.[83] Heelbrein-emulasie word in rekenaarneurologie en neuroinformatika bespreek, in die konteks van breinsimulasie vir mediese navorsingsdoeleindes. Dit word in kunsmatige intelligensie navorsing[73] bespreek as 'n benadering tot sterk KI. Neurobeeldingstegnologieë wat die nodige gedetailleerde begrip kan lewer, verbeter vinnig, en toekomskundige Ray Kurzweil voorspel in die boek The Singularity Is Near[72] dat 'n kaart van voldoende gehalte beskikbaar sal word op 'n soortgelyke tydskaal as die rekenaarvermoë wat nodig is om dit na te boots.

Vroeë skattings[wysig | wysig bron]

Vir laevlak breinsimulasie sal 'n uiters kragtige rekenaar nodig wees. Die menslike brein het 'n groot aantal sinapse. Elk van die 1011 (eenhonderd miljard) neurone het gemiddeld 7 000 sinaptiese verbindings (sinapse) met ander neurone. Die brein van 'n driejarige kind het ongeveer 1015 sinapse (1 kwadriljoen). Hierdie getal neem af met ouderdom en stabiliseer teen volwassenheid. Skattings verskil vir 'n volwassene, wat wissel van 1014 tot 5×1014 sinapse (100 tot 500 miljard).[84] 'n Skatting van die brein se verwerkingskrag, gebaseer op 'n eenvoudige skakelaarmodel vir neuronaktiwiteit, is ongeveer 1014 (100 miljard) sinaptiese opdaterings per sekonde (SUPS).[85]

In 1997 het Kurzweil na verskeie skattings gekyk vir die hardeware wat nodig is om gelyk te wees aan die menslike brein en 'n syfer van 1016 berekeninge per sekonde (bps) aanvaar.[86] (Ter vergelyking, as 'n "berekening" gelykstaande was aan een "drywende punt" werking" – 'n maatstaf wat gebruik word om huidige superrekenaars te gradeer – dan sal 1016 "berekeninge" gelykstaande wees aan 10 petaFLOPS, wat in 2011 behaal is, terwyl 1018 in 2022 behaal is.) Hy het hierdie syfer gebruik om te voorspel die nodige hardeware sal iewers tussen 2015 en 2025 beskikbaar wees, as die eksponensiële groei in rekenaarvermoë ten tyde van die skryf daarvan voortgegaan het.

Modellering van die neurone in meer detail[wysig | wysig bron]

Die kunsmatige neuronmodel wat deur Kurzweil aanvaar word en in baie huidige kunsmatige neurale netwerkimplementasies gebruik word, is eenvoudig in vergelyking met biologiese neurone. 'n Breinsimulasie sal waarskynlik die gedetailleerde sellulêre gedrag van biologiese neurone moet vasvang, wat tans slegs in breë trekke verstaan word. Die bokoste wat deur volledige modellering van die biologiese, chemiese en fisiese besonderhede van neurale gedrag (veral op 'n molekulêre skaal) ingestel word, sal berekeningvermoë vereis wat verskeie grootteordes groter is as Kurzweil se skatting. Boonop hou die skattings nie rekening met gliaselle nie, wat bekend is dat hulle 'n rol speel in kognitiewe prosesse.[87]

Huidige navorsing[wysig | wysig bron]

Sommige navorsingsprojekte ondersoek breinsimulasie deur meer gesofistikeerde neurale modelle te gebruik, geïmplementeer op konvensionele rekenaarargitekture. Die Artificial Intelligence System-projek het in 2005 nie-intydse simulasies van 'n "brein" (met 1011 neurone) geïmplementeer. Dit het 50 dae geneem op 'n groep van 27 verwerkers om 1 sekonde van 'n model te simuleer.[88] Die Blue Brain-projek het een van die vinnigste superrekenaar-argitekture, IBM se Blue Gene-platform, gebruik om 'n intydse simulasie van 'n enkele staaf neokortikale kolom te skep wat in 2006 uit ongeveer 10 000 neurone en 108 sinapse bestaan het.[89] ’n Langtermyndoelwit is om ’n gedetailleerde, funksionele simulasie van die fisiologiese prosesse in die menslike brein te bou: “Dit is nie onmoontlik om ’n menslike brein te bou nie en ons kan dit in 10 jaar doen,” Henry Markram, direkteur van die Bloubrein Projek, in 2009 by die TED-konferensie in Oxford gesê.[90] Neurosilikon-koppelvlakke is voorgestel as 'n alternatiewe implementeringstrategie wat beter kan opskaal.[91]

Hans Moravec het bogenoemde argumente aangespreek ("breine is meer ingewikkeld", "neurone moet in meer detail gemodelleer word") in sy 1997 referaat "Wanneer sal rekenaarhardeware ooreenstem met die menslike brein?".[92] Hy het die vermoë van bestaande sagteware gemeet om die funksionaliteit van neurale weefsel, spesifiek die retina, te simuleer. Sy resultate hang nie af van die aantal glialeselle nie, en ook nie van watter soort verwerkingsneurone waar verrig nie.

Die werklike kompleksiteit van die modellering van biologiese neurone is ondersoek in die OpenWorm-projek wat gemik was op volledige simulasie van 'n wurm wat slegs 302 neurone in sy neurale netwerk het (onder ongeveer 1000 selle in totaal). Die dier se neurale netwerk is goed gedokumenteer voor die aanvang van die projek. Alhoewel die taak aan die begin eenvoudig gelyk het, het die modelle gebaseer op 'n generiese neurale netwerk egter nie gewerk nie. Daarna fokus pogings op presiese emulasie van biologiese neurone (gedeeltelik op die molekulêre vlak), maar die resultaat kan nog nie 'n totale sukses genoem word nie.

Kritiek op simulasie-gebaseerde benaderings[wysig | wysig bron]

'n Fundamentele kritiek op die gesimuleerde breinbenadering kom uit beliggaamde kognisieteorie wat beweer dat menslike beliggaming 'n noodsaaklike aspek van menslike intelligensie is en nodig is om betekenis in te bed.[93] As hierdie teorie korrek is, sal enige ten volle funksionele breinmodel meer as net die neurone moet insluit (bv. 'n robotliggaam). Goertzel[73] stel virtuele beliggaming (soos in Second Life) as 'n opsie voor, maar dit is onbekend of dit voldoende sal wees.

Tafelrekenaars wat mikroverwerkers gebruik wat in staat is om meer as 109 cps (Kurzweil se nie-standaard eenheid "berekeninge per sekonde", sien hierbo) is beskikbaar sedert 2005. Volgens die breinkragberamings wat deur Kurzweil (en Moravec) gebruik word, behoort so 'n rekenaar te wees in staat om 'n simulasie van 'n bybrein te ondersteun, maar ten spyte van 'n mate van belangstelling[94]bestaan geen sodanige simulasie nie. Daar is verskeie redes hiervoor:

  1. Die neuronmodel blyk oorvereenvoudig te wees (sien volgende afdeling).
  2. Daar is onvoldoende begrip van hoër kognitiewe prosesse.[95] om akkuraat vas te stel waarmee die brein se neurale aktiwiteit (waargeneem met behulp van tegnieke soos funksionele magnetiese resonansbeelding) korreleer.
  3. Selfs al vorder ons begrip van kognisie voldoende, sal vroeë simulasieprogramme waarskynlik baie ondoeltreffend wees en sal dit dus aansienlik meer hardeware benodig.
  4. Die brein van 'n organisme, hoewel dit krities is, is dalk nie 'n gepaste grens vir 'n kognitiewe model nie. Om 'n bybrein te simuleer, kan dit nodig wees om die liggaam en die omgewing te simuleer. Die Extended Mind-proefskrif formaliseer hierdie filosofiese konsep, en navorsing oor koppotiges het duidelike voorbeelde van 'n gedesentraliseerde stelsel getoon.[96]

Daarbenewens is die skaal van die menslike brein tans nie goed ingeperk nie. Een skatting stel die menslike brein op ongeveer 100 biljoen neurone en 100 triljoen sinapse[97][98] Nog 'n skatting is 86 miljard neurone waarvan 16,3 miljard in die serebrale korteks en 69 miljard in die serebellum is.[99] Gliale sel sinapse is tans ongekwantifiseer, maar dit is bekend dat dit uiters talryk is.

Filosofiese perspektief[wysig | wysig bron]

Sien ook: Filosofie van kunsmatige intelligensie en Turingtoets

"Sterk KI" soos gedefinieer in filosofie[wysig | wysig bron]

In 1980 het filosoof John Searle die term "sterk KI" geskep as deel van sy Chinese kamerargument.[100] Hy wou tussen twee verskillende hipoteses oor kunsmatige intelligensie onderskei.[101]

  • Sterk KI-hipotese: 'n Kunsmatige intelligensiestelsel kan "dink" - 'n verstand en "bewussyn" hê.
  • Swak KI-hipotese: 'n Kunsmatige intelligensiestelsel kan (slegs) optree soos dit dink en 'n verstand en bewussyn het.

Die eerste een het hy "sterk" genoem omdat dit 'n sterker stelling maak: dit neem aan iets spesiaals het met die masjien gebeur wat verder gaan as daardie vermoëns wat ons kan toets. Die gedrag van 'n "swak KI"-masjien sal presies identies wees aan 'n "sterk KI"-masjien, maar laasgenoemde sal ook subjektiewe bewuste ervaring hê. Hierdie gebruik is ook algemeen in akademiese KI-navorsing en handboeke.[102]

In teenstelling met Searle en hoofstroom KI, gebruik sommige toekomskundiges soos Ray Kurzweil die term "sterk KI" om "kunsmatige algemene intelligensie op menslike vlak" te beteken.[72] Dit is nie dieselfde as Searle se sterk KI nie, tensy jy aanneem dat bewussyn nodig is vir menslike vlak KAI. Akademiese filosowe soos Searle glo nie dat dit die geval is nie, en vir die meeste kunsmatige intelligensie-navorsers is die vraag buite die omvang van hul navorsing.[103]

Hoofstroom KI stel die meeste belang in hoe 'n program optree.[72] Volgens Stuart J. Russell en Peter Norvig, "solank die program werk, gee hulle nie om of jy dit werklik of 'n simulasie noem nie."[103] As die program kan optree asof dit 'n verstand het, is dit nie nodig om weet of dit werklik verstand het - daar sal inderdaad geen manier wees om te sê nie. Vir KI-navorsing is Searle se "swak KI-hipotese" gelykstaande aan die stelling "kunsmatige algemene intelligensie is moontlik". Dus, volgens Russell en Norvig, "neem die meeste KI-navorsers die swak KI-hipotese as vanselfsprekend, en gee nie om oor die sterk KI-hipotese nie."[103] Dus, vir akademiese KI-navorsing, "Sterk KI" en "KAI" is twee baie verskillende dinge.

Bewussyn en selfbewustheid[wysig | wysig bron]

Ander aspekte van die menslike verstand behalwe intelligensie is relevant tot die konsep van sterk KI, en dit speel 'n groot rol in wetenskapfiksie en die etiek van kunsmatige intelligensie:

  • bewussyn: Om subjektiewe ervaring en denke te hê. Thomas Nagel verduidelik dat dit "voel soos" iets om bewus te wees. As ons nie bewus is nie, dan voel dit na niks nie. Nagel gebruik die voorbeeld van 'n vlermuis: ons kan sinvol vra " hoe voel dit om 'n vlermuis te wees?" Dit is egter onwaarskynlik dat ons sal vra "hoe voel dit om 'n broodrooster te wees?" Nagel kom tot die gevolgtrekking dat 'n vlermuis by bewussyn blyk te wees (d.w.s. bewussyn het), maar 'n broodrooster nie.[104]*selfbewustheid: Om bewus te wees van jouself as 'n aparte individu, veral om bewus te wees van jou eie gedagtes.
  • gevoel: Die vermoë om persepsies of emosies subjektief te "voel".
  • sapiens: Die kapasiteit vir wysheid.

Hierdie eienskappe het 'n morele dimensie, want 'n masjien met hierdie vorm van sterk KI kan regte hê, analoog aan die regte van nie-menslike diere. Voorlopige werk is gedoen om volledige etiese agente te integreer met bestaande wetlike en sosiale raamwerke, met die fokus op die regsposisie en regte van 'sterk' KI.[105] Bill Joy, onder andere, voer aan 'n masjien met hierdie eienskappe kan 'n bedreiging vir menslike lewe of waardigheid wees.[106]

Thomas Nagel

Navorsingsuitdagings[wysig | wysig bron]

Vordering in kunsmatige intelligensie het deur periodes van vinnige vordering gegaan, geskei deur periodes wanneer vordering gelyk het of dit opgehou het. [107] Beëindig elke hiatus fundamentele vooruitgang in hardeware, sagteware of albei om ruimte te skep vir verdere vordering [107][108][109] Byvoorbeeld, die rekenaarhardeware wat in die twintigste eeu beskikbaar was, was nie voldoende om diep leer te implementeer nie, wat groot getalle grafiese prosesseeringseenheid-geaktiveerde Sentrale verwerkingseenhede vereis.[110]

Die veld het ook gewissel tussen benaderings tot die probleem. Soms het pogings gefokus op eksplisiete opeenhoping van feite en logika, soos in kundige stelsels. Op ander tye is daar van stelsels verwag om op hul eie te verbeter deur middel van masjienleer, soos in kunsmatige neurale netwerke.[111]

'n Verdere uitdaging is die gebrek aan duidelikheid in die definisie van wat intelligensie behels. Vereis dit bewussyn? Moet dit die vermoë toon om doelwitte te stel sowel as om dit na te streef? Is dit bloot 'n kwessie van skaal, sodat intelligensie na vore sal kom as modelgroottes voldoende toeneem? Word fasiliteite soos beplanning, redenering en oorsaaklike begrip vereis? Vereis intelligensie die eksplisiete replisering van die brein en sy spesifieke fakulteite? Vereis dit emosies? [112] David Gelernter skryf: "Geen rekenaar sal kreatief wees tensy dit al die nuanses van menslike emosie kan simuleer nie."[113][114][115]

Voordele[wysig | wysig bron]

KAI kan 'n wye verskeidenheid toepassings hê. As dit op so 'n doelwit gerig is, kan KAI help om verskeie probleme in die wêreld soos honger, armoede en gesondheidsprobleme te versag.[116]

KAI kan produktiwiteit en doeltreffendheid in die meeste werke verbeter. Byvoorbeeld, in openbare gesondheid kan KAI mediese navorsing versnel, veral teen kanker.[117] Dit kan vir bejaardes sorg[118] en toegang tot vinnige, hoëgehalte mediese diagnostiek demokratiseer. Dit kan pret, goedkoop en persoonlike onderwys bied.[118] Vir feitlik enige werk wat die samelewing bevoordeel as dit goed gedoen word, sal dit waarskynlik vroeër of later verkieslik wees om dit aan 'n KAI oor te laat. Die behoefte om te werk om te bestaan kan verouderd raak as die welvaart wat geproduseer word behoorlik herverdeel word.[118] [119] Dit laat ook die vraag ontstaan oor die plek van mense in 'n radikaal geoutomatiseerde samelewing.

KAI kan ook help om rasionele besluite te neem, en om rampe te antisipeer en te voorkom. Dit kan ook help om die voordele van potensieel katastrofiese tegnologieë soos nanotegnologie of klimaatingenieurswese te pluk, terwyl die gepaardgaande risiko's vermy word.[120] As 'n KAI se primêre doelwit is om eksistensiële rampe soos menslike uitwissing te voorkom (wat moeilik kan wees as die Kwesbare Wêreldhipotese waar blyk te wees[121]), kan dit maatreëls tref om die risiko's drasties te verminder[120] terwyl die negatiewe impak tot die minimum beperk word.

Risiko’s[wysig | wysig bron]

Potensiële bedreiging vir menslike bestaan[wysig | wysig bron]

Sien Hoofartikel: Kunsmatige-intelligensie-veiligheid

KI voorstelling van KI-veiligheid

Die tesis dat KI 'n eksistensiële risiko vir mense inhou, en dat hierdie risiko baie meer aandag verg as wat dit tans kry, is omstrede, maar is onderskryf deur baie openbare figure, insluitend Elon Musk, Bill Gates en Stephen Hawking. KI-navorsers soos Stuart J. Russell, Roman Yampolskiy en Alexey Turchin ondersteun ook die basiese tesis van 'n potensiële bedreiging vir die mensdom.[122][105][123] Gates verklaar dat hy nie "verstaan waarom sommige mense nie bekommerd is nie",[124] en Hawking het wydverspreide onverskilligheid in sy 2014-meningsartikel gekritiseer:

“Dus, met moontlike toekoms van onberekenbare voordele en risiko's, doen die kundiges sekerlik alles moontlik om die beste uitkoms te verseker, nie waar nie? Verkeerd. As 'n voortreflike uitheemse beskawing vir ons 'n boodskap stuur wat sê: 'Ons kom oor 'n paar dekades,' sal ons net antwoord: 'OK, bel ons as jy hier kom—ons sal die ligte aan laat?' Waarskynlik nie – maar dit is min of meer wat met KI gebeur.”[125]

Die lot van die mensdom is soms vergelyk met die lot van gorillas wat deur menslike aktiwiteite bedreig word. Bykomende intelligensie het veroorsaak dat die mensdom gorillas oorheers, wat nou kwesbaar is op maniere wat hulle nie kon verwag het nie. Die gorilla het 'n bedreigde spesie geword, nie uit boosheid nie, maar bloot as 'n kollaterale skade deur menslike aktiwiteite.[126]

Die skeptikus Yann LeCun is van mening dat KAI's geen begeerte sal hê om die mensdom te oorheers nie en dat ons versigtig moet wees om hulle nie te antropomorfiseer en hul bedoelings te interpreteer soos ons vir mense sou doen nie. Hy het gesê dat mense nie "slim genoeg sal wees om super-intelligente masjiene te ontwerp nie, maar tog belaglik dom tot die punt om dit moroniese doelwitte te gee sonder voorsorgmaatreëls".[127] Aan die ander kant dui die konsep van instrumentele konvergensie daarop dat byna wat ook al hul doelwitte is, intelligente agente redes sal hê om te probeer oorleef en meer mag te verkry as tussengangerstappe om hierdie doelwitte te bereik. En dat dit nie vereis om emosies te hê nie. Nick Bostrom gee die gedagte-eksperiment van die skuifspelde-optimaliseerder:[128]

“Gestel ons het 'n KI wie se enigste doel is om soveel skuifspelde as moontlik te maak. Die KI sal vinnig besef dat dit baie beter sou wees as daar geen mense was nie, want mense kan besluit om dit af te skakel. Want as mense dit doen, sal daar minder skuifspelde wees. Menslike liggame bevat ook baie atome wat in skuifspelde gemaak kan word. Die toekoms waarna die KI sou probeer rat, sou een wees waarin daar baie skuifspelde was, maar geen mense nie.”

'n Sistematiese oorsig in 2021 van die risiko's verbonde aan KAI, terwyl die gebrek aan data opgemerk is, het die volgende potensiële bedreigings gevind: "KAI verwyder homself van die beheer van menslike eienaars/bestuurders, word gegee of ontwikkel onveilige doelwitte, ontwikkeling van onveilige KAIs, KAI's met swak etiek, sedes en waardes; onvoldoende bestuur van KAI, en eksistensiële risiko's".[129]

Baie geleerdes wat bekommerd is oor eksistensiële risiko, bepleit (moontlik massiewe) navorsing oor die oplossing van die moeilike "beheerprobleem" om die vraag te beantwoord: watter tipe beveiligingsmaatreëls, algoritmes of argitekture kan programmeerders implementeer om die waarskynlikheid te maksimeer dat hul rekursief-verbeterende KI sal voortgaan om op 'n vriendelike, eerder as vernietigende manier op te tree nadat dit superintelligensie bereik het?[105][130] Die oplossing van die beheerprobleem word bemoeilik deur die KI-wapenwedloop,[131][132] wat byna seker die militarisering en bewapening sal meebring van KAI deur meer as een nasiestaat, wat lei tot KAI-geaktiveerde oorlogvoering, en in die geval van KI-wanbelyning, KAI-gerigte oorlogvoering, moontlik teen die hele mensdom[133][134]

Die tese dat KI eksistensiële risiko kan inhou, het ook teenstanders. Skeptici beweer soms dat die tesis kripto-godsdienstig is, met 'n irrasionele geloof in die moontlikheid van superintelligensie wat 'n irrasionele geloof in 'n almagtige God vervang. Jaron Lanier het in 2014 aangevoer dat die idee dat die destydse huidige masjiene op enige manier intelligent was "'n illusie" en 'n "verstommende bedrogspul" deur die rykes is.[135]

Gordon Moore

Baie kritiek voer aan dat KAI op kort termyn onwaarskynlik is. Rekenaarwetenskaplike Gordon Bell voer aan dat die menslike ras homself sal vernietig voordat dit die tegnologiese singulariteit bereik. Gordon Moore, die oorspronklike voorstander van Moore se wet, verklaar: "Ek is 'n skeptikus. Ek glo nie dat ('n tegnologiese singulariteit) waarskynlik sal gebeur nie, ten minste nie vir 'n lang tyd nie."[136] Voormalige Baidu-visepresident en hoofwetenskaplike Andrew Ng het in 2015 gesê om bekommerd te wees oor KI-eksistensiële risiko is "soos om bekommerd te wees oor oorbevolking op Mars wanneer ons nog nie eens voet op die planeet gesit het nie."[137][138]

In 2023 het die HUB's van Google DeepMind, OpenAI en Anthropic, saam met ander bedryfsleiers en navorsers, 'n gesamentlike verklaring uitgereik waarin hulle beweer dat "Die versagting van die risiko van uitwissing van KI 'n wêreldwye prioriteit moet wees saam met ander risiko's op maatskaplike skaal soos pandemies en kernoorlog."[139]

Massa werkloosheid[wysig | wysig bron]

Navorsers van OpenAI het beraam dat "80% van die Amerikaanse arbeidsmag ten minste 10% van hul werktake kan hê wat deur die bekendstelling van LLM's geraak word, terwyl ongeveer 19% van werkers dalk sien dat ten minste 50% van hul take geraak word".[140][141] Hulle beskou kantoorwerkers as die mees blootgestelde, byvoorbeeld wiskundiges, rekenmeesters of webontwerpers.[141] KAI kan 'n beter outonomie hê, vermoë om besluite te neem, om met ander rekenaargereedskap te koppel, maar ook om gerobotiseerde liggame te beheer.

Volgens Stephen Hawking sal die uitkoms van outomatisering op die lewenskwaliteit afhang van hoe die rykdom herverdeel sal word:[142]

“Almal kan 'n lewe van luukse ontspanning geniet as die masjien-geproduseerde rykdom gedeel word, of die meeste mense kan ongelukkig arm word as die masjieneienaars suksesvol teen die herverdeling van rykdom steun. Tot dusver blyk die neiging na die tweede opsie te wees, met tegnologie wat steeds toenemende ongelykheid dryf.”

Elon Musk is van mening dat die outomatisering van die samelewing van regerings sal vereis om 'n universele basiese inkomste aan te neem. [143]

Verwysings[wysig | wysig bron]

  1. Hodson, Hal (1 Maart 2019). "DeepMind and Google: the battle to control artificial intelligence". 1843 magazine. Geargiveer vanaf die oorspronklike op 7 Julie 2020. Besoek op 7 Julie 2020. AGI stands for Artificial General Intelligence, a hypothetical computer program...
  2. Shevlin, Henry; Vold, Karina; Crosby, Matthew; Halina, Marta (4 Oktober 2019). "The limits of machine intelligence: Despite progress in machine intelligence, artificial general intelligence is still a major challenge". EMBO Reports (in Engels). 20 (10): e49177. doi:10.15252/embr.201949177. ISSN 1469-221X. PMC 6776890. PMID 31531926.
  3. 3,0 3,1 "OpenAI Charter". openai.com (in Engels (VSA)). Besoek op 6 April 2023.
  4. "About". openai.com (in Engels (VSA)). Besoek op 6 April 2023.
  5. 5,0 5,1 5,2 "AI timelines: What do experts in artificial intelligence expect for the future?". Our World in Data. Besoek op 6 April 2023.
  6. Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat et al. (2023-03-27). "Sparks of Artificial General Intelligence: Early experiments with GPT-4". [cs.CL]. 
  7. 7,0 7,1 "Artificial general intelligence: Are we close, and does it even make sense to try?". MIT Technology Review (in Engels). Besoek op 6 April 2023.
  8. "Impressed by artificial intelligence? Experts say AGI is coming next, and it has 'existential' risks". ABC News (in Australian English). 23 Maart 2023. Besoek op 6 April 2023.
  9. Baum, Seth, A Survey of Artificial General Intelligence Projects for Ethics, Risk, and Policy, Global Catastrophic Risk Institute Working Paper 20, https://gcrinstitute.org/papers/055_agi-2020.pdf, besoek op 13 Januarie 2022 
  10. Kurzweil 2005, p. 260.
  11. 11,0 11,1 Kurzweil, Ray (5 Augustus 2005), "Long Live AI", Forbes, archived from the original on 2005-08-14, https://web.archive.org/web/20050814000557/https://www.forbes.com/home/free_forbes/2005/0815/030.html : Kurzweil describes strong AI as "machine intelligence with the full range of human intelligence."
  12. Treder, Mike (10 Augustus 2005), "Advanced Human Intelligence", Responsible Nanotechnology, https://crnano.typepad.com/crnblog/2005/08/advanced_human_.html 
  13. "The Age of Artificial Intelligence: George John at TEDxLondonBusinessSchool 2013". Geargiveer vanaf die oorspronklike op 26 Februarie 2014. Besoek op 22 Februarie 2014.
  14. Newell & Simon 1976
  15. Dit is die term wat hulle gebruik vir "menslike-vlak" intelligensie in die fisiese simboolstelsel hipotese.
  16. "Searle's Strong AI"
  17. Sien hieronder vir die oorsprong van die term "sterk KI", en sien die akademiese definisie van "sterk KI" en swak KI in die artikel Chinese kamer.
  18. "The Open University on Strong and Weak AI". Geargiveer vanaf die oorspronklike op 25 September 2009. Besoek op 8 Oktober 2007.
  19. "Searle's Strong AI"
  20. Beeld aangepas vanaf Saygin 2000
  21. McCarthy, John (2007a). "Basic Questions". Stanford University. Geargiveer vanaf die oorspronklike op 26 Oktober 2007. Besoek op 6 Desember 2007.
  22. Vir 'n bespreking van sommige definisies van intelligensie wat deur kunsmatige intelligensie navorsers gebruik word, sien filosofie van kunsmatige intelligensie.
  23. Hierdie lys van intelligente eienskappe is gebaseer op die onderwerpe wat deur groot KI-handboeke gedek word, insluitend: Russell & Norvig 2003, Luger & Stubblefield 2004, Poole, Mackworth & Goebel 1998 en Nilsson 1998.
  24. Johnson 1987
  25. de Charms, R. (1968). Personal causation. New York: Academic Press.
  26. Pfeifer, R. and Bongard J. C., How the body shapes the way we think: a new view of intelligence (The MIT Press, 2007). ISBN 0-262-16239-3
  27. White, R. W. (1959). "Motivation reconsidered: The concept of competence". Psychological Review. 66 (5): 297–333. doi:10.1037/h0040934. PMID 13844397.
  28. Hutter, Marcus (2005). Universal Artificial Intelligence: Sequential Decisions Based on Algorithmic Probability. Texts in Theoretical Computer Science an EATCS Series. Springer. doi:10.1007/b138233. ISBN 978-3-540-26877-2. Geargiveer vanaf die oorspronklike op 19 Julie 2022. Besoek op 19 Julie 2022.
  29. Legg, Shane (2008). Machine Super Intelligence (PDF). University of Lugano. Geargiveer (PDF) vanaf die oorspronklike op 15 Junie 2022. Besoek op 19 Julie 2022.
  30. Goertzel, Ben (2014). "Artificial General Intelligence: Concept, State of the Art, and Future Prospects". Journal of Artificial General Intelligence. Lecture Notes in Computer Science. 8598. doi:10.1007/978-3-319-09274-4. ISBN 978-3-319-09273-7. S2CID 8387410.
  31. Everitt, Tom; Lea, Gary; Hutter, Marcus. "AGI Safety Literature Review" (PDF). International Joint Conferences on Artificial Intelligence Organization. Besoek op 26 April 2023.
  32. (2015) "Bad Universal Priors and Notions of Optimality" in The 28th Conference on Learning Theory.. 
  33. 33,0 33,1 Bennett, Michael Timothy (2022). "Computable artificial general intelligence". [cs.AI]. 
  34. Ward, Dave; Silverman, David; Villalobos, Mario (2017). "Introduction: The Varieties of Enactivism". Topoi. 36 (1): 365–375. doi:10.1007/s11245-017-9484-6.
  35. 35,0 35,1 Bennett, Michael Timothy (2021). "Symbol Emergence and The Solutions to Any Task" in 14th Conference on Artificial General Intelligence.. doi:10.1007/978-3-030-93758-4_4. 
  36. Chollet, Francois (2019). "On the Measure of Intelligence". [cs.AI]. 
  37. Bennett, Michael Timothy; Maruyama, Yoshihiro (2022). "Philosophical Specification of Empathetic Ethical Artificial Intelligence". IEEE Transactions on Cognitive and Developmental Systems. 14 (2): 292–300. arXiv:2107.10715. doi:10.1109/TCDS.2021.3099945. S2CID 236170941. Geargiveer vanaf die oorspronklike op 6 Desember 2022. Besoek op 6 Desember 2022.
  38. (2021) "The Artificial Scientist" in 14th Conference on Artificial General Intelligence.. doi:10.1007/978-3-030-93758-4_6. 
  39. Muehlhauser, Luke (11 Augustus 2013). "What is AGI?". Machine Intelligence Research Institute. Geargiveer vanaf die oorspronklike op 25 April 2014. Besoek op 1 Mei 2014.
  40. "What is Artificial General Intelligence (AGI)? | 4 Tests For Ensuring Artificial General Intelligence". Talky Blog (in Engels (VSA)). 13 Julie 2019. Geargiveer vanaf die oorspronklike op 17 Julie 2019. Besoek op 17 Julie 2019.
  41. Shapiro, Stuart C. (1992). "Artificial Intelligence" (PDF). In Stuart C. Shapiro (red.). Encyclopedia of Artificial Intelligence (Second uitg.). New York: John Wiley. pp. 54–57. Geargiveer (PDF) vanaf die oorspronklike op 1 Februarie 2016. (Section 4 is on "AI-Complete Tasks".)
  42. Yampolskiy, Roman V. (2012). Xin-She Yang (red.). "Turing Test as a Defining Feature of AI-Completeness" (PDF). Artificial Intelligence, Evolutionary Computation and Metaheuristics (AIECM): 3–17. Geargiveer (PDF) vanaf die oorspronklike op 22 Mei 2013.
  43. Luis von Ahn, Manuel Blum, Nicholas Hopper, and John Langford. CAPTCHA: Using Hard AI Problems for Security Geargiveer 4 Maart 2016 op Wayback Machine. In Proceedings of Eurocrypt, Vol. 2656 (2003), pp. 294–311.
  44. Bergmair, Richard (7 Januarie 2006). "Natural Language Steganography and an "AI-complete" Security Primitive". CiteSeer. CiteSeerX 10.1.1.105.129.
  45. Crevier 1993, pp. 48–50
  46. "Andreas Kaplan (2022) Artificial Intelligence, Business and Civilization - Our Fate Made in Machines". Geargiveer vanaf die oorspronklike op 6 Mei 2022. Besoek op 12 Maart 2022.
  47. Simon 1965, p. 96 quoted in Crevier 1993, p. 109
  48. "Scientist on the Set: An Interview with Marvin Minsky". Geargiveer vanaf die oorspronklike op 16 Julie 2012. Besoek op 5 April 2008.
  49. Marvin Minsky to (Darrach 1970), quoted in (Crevier 1993, p. 109).
  50. Harvnb, Lighthill, 1973
  51. Harvnb, Crevier, 1993, bl115–117–22.
  52. Crevier 1993, p. 211, Russell & Norvig 2003, p. 24 en sien ook Feigenbaum & McCorduck 1983
  53. NRC 1999, "Shift to Applied Research Increases Investment".
  54. Crevier 1993, pp. 161–162,197–203,240; Russell & Norvig 2003, p. 25.
  55. Crevier 1993, pp. 209–212
  56. Markoff, John (14 Oktober 2005). "Behind Artificial Intelligence, a Squadron of Bright Real People". The New York Times. Geargiveer vanaf die oorspronklike op 2 Februarie 2023. Besoek op 18 Februarie 2017. Op sy laagtepunt het sommige rekenaarwetenskaplikes en sagteware-ingenieurs die term kunsmatige intelligensie vermy uit vrees om as wilde-oog dromers beskou te word.
  57. Russell & Norvig 2003, pp. 25–26
  58. "Trends in the Emerging Tech Hype Cycle". Gartner Reports. Geargiveer vanaf die oorspronklike op 22 Mei 2019. Besoek op 7 Mei 2019.
  59. 59,0 59,1 Moravec 1988, p. 20
  60. Harnad, S (1990). "The Symbol Grounding Problem". Physica D. 42 (1–3): 335–346. arXiv:cs/9906002. Bibcode:1990PhyD...42..335H. doi:10.1016/0167-2789(90)90087-6. S2CID 3204300.
  61. Gubrud 1997
  62. "Who coined the term "AGI"? » goertzel.org" (in Engels (VSA)). Geargiveer vanaf die oorspronklike op 28 Desember 2018. Besoek op 28 Desember 2018., via Life 3.0: 'Die term "AGI" is gewild gemaak deur ...Shane Legg, Mark Gubrud and Ben Goertzel'
  63. "First International Summer School in Artificial General Intelligence, Main summer school: June 22 – July 3, 2009, OpenCog Lab: Julie 6-9, 2009". Geargiveer vanaf die oorspronklike op 28 September 2020. Besoek op 11 Mei 2020.
  64. "Избираеми дисциплини 2009/2010 - пролетен триместър" [Elective courses 2009/2010 - spring trimester]. Факултет по математика и информатика [Faculty of Mathematics and Informatics] (in Bulgaars). Geargiveer vanaf die oorspronklike op 26 Julie 2020. Besoek op 11 Mei 2020.
  65. "Избираеми дисциплини 2010/2011 - зимен триместър" [Elective courses 2010/2011 - winter trimester]. Факултет по математика и информатика [Faculty of Mathematics and Informatics] (in Bulgaars). Geargiveer vanaf die oorspronklike op 26 Julie 2020. Besoek op 11 Mei 2020.
  66. Ecoffet, Adrien; Clune, Jeff; Lehman, Joel (2020). "Open Questions in Creating Safe Open-ended AI: Tensions Between Control and Creativity". The 2020 Conference on Artificial Life. Cambridge, MA: MIT Press: 27–35. doi:10.1162/isal_a_00323. S2CID 219687488.
  67. "Open-Ended Learning Leads to Generally Capable Agents". www.deepmind.com (in Engels). Besoek op 9 Junie 2023.
  68. "Voyager | An Open-Ended Embodied Agent with Large Language Models". voyager.minedojo.org. Besoek op 9 Junie 2023.
  69. Zhang, Jenny; Lehman, Joel; Stanley, Kenneth; Clune, Jeff (2 Junie 2023). "OMNI: Open-endedness via Models of human Notions of Interestingness". [cs.AI]. 
  70. Wu, Yue; Prabhumoye, Shrimai; Min, So Yeon (24 Mei 2023). "SPRING: GPT-4 Out-performs RL Algorithms by Studying Papers and Reasoning". [cs.AI]. 
  71. Goertzel & Pennachin 2006.
  72. 72,0 72,1 72,2 72,3 (Kurzweil 2005, p. 260) of sien Advanced Human Intelligence Geargiveer 30 Junie 2011 op Wayback Machine waar hy sterk KI definieer as "masjien-intelligensie met die volle omvang van menslike intelligensie."
  73. 73,0 73,1 73,2 Goertzel 2007.
  74. Katja Grace (2016). "Error in Armstrong and Sotala 2012". AI Impacts (blog). Geargiveer vanaf die oorspronklike op 4 Desember 2020. Besoek op 24 Augustus 2020.
  75. 75,0 75,1 Butz, Martin V. (1 Maart 2021). "Towards Strong AI". KI - Künstliche Intelligenz (in Engels). 35 (1): 91–101. doi:10.1007/s13218-021-00705-x. ISSN 1610-1987.
  76. Liu, Feng; Shi, Yong; Liu, Ying (2017). "Intelligence Quotient and Intelligence Grade of Artificial Intelligence". Annals of Data Science. 4 (2): 179–191. arXiv:1709.10242. doi:10.1007/s40745-017-0109-0. S2CID 37900130.
  77. Brien, Jörn (5 Oktober 2017). "Google-KI doppelt so schlau wie Siri" [Google AI is twice as smart as Siri - but a six-year-old beats both] (in Duits). Geargiveer vanaf die oorspronklike op 3 Januarie 2019. Besoek op 2 Januarie 2019.
  78. Grossman, Gary (3 September 2020). "We're entering the AI twilight zone between narrow and general AI". VentureBeat. Geargiveer vanaf die oorspronklike op 4 September 2020. Besoek op 5 September 2020. Daar is beslis ook diegene wat beweer ons sien reeds 'n vroeë voorbeeld van 'n KAI-stelsel in die onlangs aangekondigde GPT-3 natuurliketaalverwerking (NLP) neurale netwerk. ... Is GPT-3 dus die eerste voorbeeld van 'n KAI-stelsel? Dit is debatteerbaar, maar die konsensus is dat dit nie KAI is nie. ... As niks anders nie, vertel GPT-3 vir ons dat daar 'n middeweg tussen eng en algemene KI is.
  79. Quach, Katyanna. "A developer built an AI chatbot using GPT-3 that helped a man speak again to his late fiancée. OpenAI shut it down". The Register. Geargiveer vanaf die oorspronklike op 16 Oktober 2021. Besoek op 16 Oktober 2021.
  80. Wiggers, Kyle (13 Mei 2022), "DeepMind's new AI can perform over 600 tasks, from playing games to controlling robots", TechCrunch, https://techcrunch.com/2022/05/13/deepminds-new-ai-can-perform-over-600-tasks-from-playing-games-to-controlling-robots/, besoek op 12 Junie 2022 
  81. Bubeck, Sébastien; Chandrasekaran, Varun; Eldan, Ronen; Gehrke, Johannes; Horvitz, Eric; Kamar, Ece; Lee, Peter; Lee, Yin Tat et al. (22 Maart 2023). "Sparks of Artificial General Intelligence: Early experiments with GPT-4". [cs.CL]. 
  82. Metz, Cade (1 Mei 2023). "'The Godfather of A.I.' Leaves Google and Warns of Danger Ahead". The New York Times (in Engels (VSA)). ISSN 0362-4331. Besoek op 7 Junie 2023.
  83. Sandberg & Boström 2008. "Die basiese idee is om 'n spesifieke brein te neem, sy struktuur in detail te skandeer en 'n sagtewaremodel daarvan te bou wat so getrou is aan die oorspronklike dat, wanneer dit op toepaslike hardeware gebruik word, dit in wese op dieselfde manier as die oorspronklike brein sal optree."
  84. Drachman 2005.
  85. Russell & Norvig 2003.
  86. Moravec 1988, p. 61.
  87. Swaminathan, Nikhil (Januarie–Februarie 2011). "Glia—the other brain cells". Discover. Geargiveer vanaf die oorspronklike op 8 Februarie 2014. Besoek op 24 Januarie 2014.
  88. Izhikevich, Eugene M.; Edelman, Gerald M. (4 Maart 2008). "Large-scale model of mammalian thalamocortical systems" (PDF). PNAS. 105 (9): 3593–3598. Bibcode:2008PNAS..105.3593I. doi:10.1073/pnas.0712231105. PMC 2265160. PMID 18292226. Geargiveer vanaf die oorspronklike (PDF) op 12 Junie 2009. Besoek op 23 Junie 2015.
  89. "Project Milestones". Blue Brain. Besoek op 11 Augustus 2008.
  90. "Artificial brain '10 years away'". BBC News. 22 Julie 2009. Geargiveer vanaf die oorspronklike op 26 Julie 2017. Besoek op 25 Julie 2009.
  91. University of Calgary news Geargiveer 18 Augustus 2009 op Wayback Machine, NBC News news Geargiveer 4 Julie 2017 op Wayback Machine
  92. Moravec 1998.
  93. de Vega, Glenberg & Graesser 2008. 'n Wye verskeidenheid sienings in huidige navorsing, wat almal tot 'n mate begronding vereis
  94. "[links to bee brain studies]". Honey Bee Brain. Geargiveer vanaf die oorspronklike op 25 Julie 2008. Besoek op 30 Maart 2010.
  95. In Goertzels se AGI-boek stel Eliezer Yudkowsky 5 vlakke van organisasie voor wat verstaan moet word – kode/data, sensoriese modaliteit, konsep & kategorie, denke en oorweging (bewussyn) – om die beskikbare hardeware te gebruik.}
  96. Yekutieli, Y; Sagiv-Zohar, R; Aharonov, R; Engel, Y; Hochner, B; Flash, T (Augustus 2005). "Dynamic model of the octopus arm. I. Biomechanics of the octopus reaching movement". J. Neurophysiol. 94 (2): 1443–58. doi:10.1152/jn.00684.2004. PMID 15829594. {{cite journal}}: Cite has empty unknown parameter: |1= (hulp)
  97. Williams & Herrup 1988
  98. "nervous system, human." Encyclopædia Britannica. 9 Januarie 2007
  99. Azevedo et al. 2009.
  100. Searle 1980
  101. Soos gedefinieer in 'n standaard KI-handboek: "Die bewering dat masjiene moontlik intelligent kan optree (of, miskien beter, kan optree asof hulle intelligent is), word deur filosowe die 'swak KI'-hipotese genoem, en die bewering dat masjiene wat dit doen eintlik dink (in teenstelling met die simulasie van denke) word die 'sterk KI'-hipotese genoem."
  102. Byvoorbeeld:
  103. 103,0 103,1 103,2 Russell & Norvig 2003, p. 947.
  104. Nagel 1974.
  105. 105,0 105,1 105,2 Sotala, Kaj; Yampolskiy, Roman V. (19 Desember 2014). "Responses to catastrophic AGI risk: a survey". Physica Scripta. 90 (1): 018001. doi:10.1088/0031-8949/90/1/018001. ISSN 0031-8949.
  106. Joy, Bill (April 2000). "Why the future doesn't need us". Wired.
  107. 107,0 107,1 Clocksin 2003.
  108. James, Alex P. (2022). "The Why , What , and How of Artificial General Intelligence Chip Development". IEEE Transactions on Cognitive and Developmental Systems. 14 (2): 333–347. arXiv:2012.06338. doi:10.1109/TCDS.2021.3069871. ISSN 2379-8920. S2CID 228376556. Geargiveer vanaf die oorspronklike op 28 Augustus 2022. Besoek op 28 Augustus 2022.
  109. Pei, Jing; Deng, Lei; Song, Sen; Zhao, Mingguo; Zhang, Youhui; Wu, Shuang; Wang, Guanrui; Zou, Zhe; Wu, Zhenzhi; He, Wei; Chen, Feng; Deng, Ning; Wu, Si; Wang, Yu; Wu, Yujie (2019). "Towards artificial general intelligence with hybrid Tianjic chip architecture". Nature (in Engels). 572 (7767): 106–111. Bibcode:2019Natur.572..106P. doi:10.1038/s41586-019-1424-8. ISSN 1476-4687. PMID 31367028. S2CID 199056116. Geargiveer vanaf die oorspronklike op 29 Augustus 2022. Besoek op 29 Augustus 2022.
  110. Pandey, Mohit; Fernandez, Michael; Gentile, Francesco; Isayev, Olexandr; Tropsha, Alexander; Stern, Abraham C.; Cherkasov, Artem (Maart 2022). "The transformational role of GPU computing and deep learning in drug discovery". Nature Machine Intelligence (in Engels). 4 (3): 211–221. doi:10.1038/s42256-022-00463-x. ISSN 2522-5839.
  111. "Artificial Intelligence (AI) vs. Machine Learning vs. Deep Learning". Pathmind (in Engels). Besoek op 13 Mei 2023.
  112. Deane, George (2022). "Machines That Feel and Think: The Role of Affective Feelings and Mental Action in (Artificial) General Intelligence". Artificial Life. 28 (3): 289–309. doi:10.1162/artl_a_00368. ISSN 1064-5462.
  113. Gelernter 2010.
  114. Kaplan, Andreas; Haenlein, Michael (2019). "Kaplan Andreas and Haelein Michael (2019) Siri, Siri, in my hand: Who's the fairest in the land? On the interpretations, illustrations, and implications of artificial intelligence". Business Horizons. 62: 15–25. doi:10.1016/j.bushor.2018.08.004. S2CID 158433736.
  115. Priyadarshini, Ishaani; Cotton, Chase (2022). "AI Cannot Understand Memes: Experiments with OCR and Facial Emotions". Computers, Materials & Continua (in Engels). 70 (1): 781–800. doi:10.32604/cmc.2022.019284. ISSN 1546-2226. Geargiveer vanaf die oorspronklike op 2 Februarie 2023. Besoek op 28 Augustus 2022.
  116. "Artificial General Intelligence – Do the cost outweigh benefits?" (in Engels (VSA)). 23 Augustus 2021. Besoek op 7 Junie 2023.
  117. "How we can Benefit from Advancing Artificial General Intelligence (AGI) - Unite.AI". www.unite.ai. Besoek op 7 Junie 2023.
  118. 118,0 118,1 118,2 Magazine, Smithsonian; Talty, Jules Julien,Stephan. "What Will Our Society Look Like When Artificial Intelligence Is Everywhere?". Smithsonian Magazine (in Engels). Besoek op 7 Junie 2023.{{cite web}}: AS1-onderhoud: meer as een naam (link)
  119. stevenson, matt (8 Oktober 2015). "Answers to Stephen Hawking's AMA are Here!". Wired (in Engels (VSA)). ISSN 1059-1028. Besoek op 8 Junie 2023.
  120. 120,0 120,1 Bostrom, Nick (2017). "§ Preferred order of arrival". Superintelligence: paths, dangers, strategies (Reprinted with corrections 2017 uitg.). Oxford, United Kingdom New York, NY: Oxford University Press. ISBN 978-0-19-967811-2.
  121. Piper, Kelsey (19 November 2018). "How technological progress is making it likelier than ever that humans will destroy ourselves". Vox (in Engels). Besoek op 8 Junie 2023.
  122. Müller, Vincent C. (3 Julie 2014). "Risks of general artificial intelligence". Journal of Experimental & Theoretical Artificial Intelligence. 26 (3): 297–301. doi:10.1080/0952813X.2014.895110. ISSN 0952-813X. S2CID 31835019.
  123. Turchin, Alexey (1 Maart 2019). "Assessing the future plausibility of catastrophically dangerous AI". Futures (in Engels). 107: 45–58. doi:10.1016/j.futures.2018.11.007. ISSN 0016-3287. S2CID 158975847.
  124. Rawlinson, Kevin. "Microsoft's Bill Gates insists AI is a threat". BBC News. Geargiveer vanaf die oorspronklike op 29 Januarie 2015. Besoek op 30 Januarie 2015.
  125. "Stephen Hawking: 'Transcendence looks at the implications of artificial intelligence – but are we taking AI seriously enough?'". The Independent (UK). Geargiveer vanaf die oorspronklike op 25 September 2015. Besoek op 3 Desember 2014.
  126. Herger, Mario. "The Gorilla Problem – Enterprise Garage" (in Engels (VSA)). Besoek op 7 Junie 2023.
  127. "The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI". The fascinating Facebook debate between Yann LeCun, Stuart Russel and Yoshua Bengio about the risks of strong AI (in Frans). Besoek op 8 Junie 2023.
  128. "Will Artificial Intelligence Doom The Human Race Within The Next 100 Years?". HuffPost (in Engels). 22 Augustus 2014. Besoek op 8 Junie 2023.
  129. McLean, Scott; Read, Gemma J. M.; Thompson, Jason; Baber, Chris; Stanton, Neville A.; Salmon, Paul M. (13 Augustus 2021). "The risks associated with Artificial General Intelligence: A systematic review". Journal of Experimental & Theoretical Artificial Intelligence. 35 (5): 649–663. doi:10.1080/0952813X.2021.1964003. ISSN 0952-813X.
  130. Bostrom, Nick (2014). Superintelligence: Paths, Dangers, Strategies (First uitg.). Oxford University Press. ISBN 978-0199678112.
  131. Naudé, Wim; Dimitri, Nicola (1 Junie 2020). "The race for an artificial general intelligence: implications for public policy". AI & Society (in Engels). 35 (2): 367–379. doi:10.1007/s00146-019-00887-x. ISSN 1435-5655. S2CID 52045822.
  132. Torres, Phil (4 Mei 2019). "The possibility and risks of artificial general intelligence". Bulletin of the Atomic Scientists. 75 (3): 105–108. Bibcode:2019BuAtS..75c.105T. doi:10.1080/00963402.2019.1604873. ISSN 0096-3402. S2CID 150498464. Geargiveer vanaf die oorspronklike op 2 Februarie 2023. Besoek op 29 Augustus 2022.
  133. Turchin, Alexey; Denkenberger, David (2018-07-27), "Military AI as a Convergent Goal of Self-Improving AI", Artificial Intelligence Safety and Security (First edition. | Boca Raton, FL : CRC Press/Taylor & Francis Group, 2018.: Chapman and Hall/CRC): pp. 375–393, doi:10.1201/9781351251389-25, ISBN 978-1-351-25138-9, http://dx.doi.org/10.1201/9781351251389-25, besoek op 2022-08-29 
  134. Carayannis, Elias G.; Draper, John (11 Januarie 2022). "Optimising peace through a Universal Global Peace Treaty to constrain the risk of war from a militarised artificial superintelligence". AI & Society (in Engels): 1–14. doi:10.1007/s00146-021-01382-y. ISSN 1435-5655. Geargiveer vanaf die oorspronklike op 2 Februarie 2023. Besoek op 29 Augustus 2022.
  135. Hamblin, James (9 Mei 2014). "But What Would the End of Humanity Mean for Me?". The Atlantic. Geargiveer vanaf die oorspronklike op 4 Junie 2014. Besoek op 12 Desember 2015.
  136. "Tech Luminaries Address Singularity". IEEE Spectrum: Technology, Engineering, and Science News (in Engels). No. SPECIAL REPORT: THE SINGULARITY. 1 Junie 2008. Geargiveer vanaf die oorspronklike op 30 April 2019. Besoek op 8 April 2020.
  137. Shermer, Michael (1 Maart 2017). "Apocalypse AI". Scientific American (in Engels). 316 (3): 77. Bibcode:2017SciAm.316c..77S. doi:10.1038/scientificamerican0317-77. PMID 28207698. Geargiveer vanaf die oorspronklike op 1 Desember 2017. Besoek op 27 November 2017.
  138. "AGI Expert Peter Voss Says AI Alignment Problem is Bogus | NextBigFuture.com" (in Engels (VSA)). 4 April 2023. Besoek op 8 Junie 2023.
  139. "Statement on AI Risk | CAIS". www.safe.ai. Besoek op 8 Junie 2023.
  140. "GPTs are GPTs: An early look at the labor market impact potential of large language models". openai.com (in Engels (VSA)). Besoek op 7 Junie 2023.
  141. 141,0 141,1 "80% of workers will be exposed to AI. These jobs will be most affected". euronews (in Engels). 23 Maart 2023. Besoek op 8 Junie 2023.
  142. stevenson, matt (8 Oktober 2015). "Answers to Stephen Hawking's AMA are Here!". Wired (in Engels (VSA)). ISSN 1059-1028. Besoek op 8 Junie 2023.
  143. Sheffey, Ayelet. "Elon Musk says we need universal basic income because 'in the future, physical work will be a choice'". Business Insider (in Engels (VSA)). Besoek op 8 Junie 2023.

Verwysingfout: <ref> tag with name "FOOTNOTEYudkowsky2006" defined in <references> is not used in prior text.

Verwysingfout: <ref> tag with name "FOOTNOTERussellNorvig2003" defined in <references> is not used in prior text.

Bronnelys[wysig | wysig bron]