Gaan na inhoud

Diepleer

in Wikipedia, die vrye ensiklopedie

Diepleer is deel van 'n breër familie van masjienleermetodes, wat gebaseer is op kunsmatige neurale netwerke met voorstellingsleer. Die byvoeglike naamwoord "diep" in diepleer verwys na die gebruik van veelvuldige lae in die netwerk. Metodes wat gebruik word kan óf onder toesig, semi-toesig óf sonder toesig wees.[1]

Diepleer argitekture soos diep neurale netwerke, diep geloof netwerke, diep versterking leer, herhalende neurale netwerke, konvolusionele neurale netwerke en transformators is toegepas op velde insluitend rekenaarvisie, spraakherkenning, natuurlike taalverwerking, masjienvertaling, bioinformatika, medisyne ontwerp, mediese beeldanalise, klimaatwetenskap, materiaalinspeksie en bordspeletjieprogramme, waar hulle resultate opgelewer het wat vergelykbaar is met en in sommige gevalle menslike deskundige prestasie oortref.[2][3][4]

Kunsmatige neurale netwerke (KNN'e) is geïnspireer deur inligtingverwerking en verspreide kommunikasienodes in biologiese stelsels. KNN'e het verskillende verskille van biologiese breine. Spesifiek, kunsmatige neurale netwerke is geneig om staties en simbolies te wees, terwyl die biologiese brein van die meeste lewende organismes dinamies (plasties) en analoog is.[5][6]

Definisie

[wysig | wysig bron]

Diepleer is 'n klas masjienleeralgoritmes wat[7](pp199–200)  veelvuldige lae gebruik om geleidelik hoërvlakkenmerke uit die rou insette te onttrek. Byvoorbeeld, in beeldverwerking kan onderste lae rande identifiseer, terwyl hoër lae die konsepte kan identifiseer wat relevant is vir 'n mens, soos syfers of letters of gesigte.

Vanuit 'n ander hoek om diepleer te beskou, verwys diepleer na "rekenaar-simuleer" of "outomatiseer" menslike leerprosesse vanaf 'n bron (bv. 'n beeld van honde) na 'n aangeleerde voorwerp (honde). Daarom maak 'n idee wat geskep word as "dieper" leer of "diepste" leer[8] sin. Die diepste leer verwys na die ten volle outomatiese leer van 'n bron na 'n finale geleerde objek. 'n Dieper leer verwys dus na 'n gemengde leerproses: 'n menslike leerproses van 'n bron na 'n aangeleerde semi-objek, gevolg deur 'n rekenaarleerproses van die menslike aangeleerde semi-objek tot 'n finale geleerde objek.

Verwysings

[wysig | wysig bron]
  1. LeCun, Yann; Bengio, Yoshua; Hinton, Geoffrey (2015). "Deep Learning". Nature. 521 (7553): 436–444. Bibcode:2015Natur.521..436L. doi:10.1038/nature14539. PMID 26017442. S2CID 3074096.
  2. Ciresan, D.; Meier, U.; Schmidhuber, J. (2012). "Multi-column deep neural networks for image classification". 2012 IEEE Conference on Computer Vision and Pattern Recognition. pp. 3642–3649. arXiv:1202.2745. doi:10.1109/cvpr.2012.6248110. ISBN 978-1-4673-1228-8. S2CID 2161592.
  3. Krizhevsky, Alex; Sutskever, Ilya; Hinton, Geoffrey (2012). "ImageNet Classification with Deep Convolutional Neural Networks" (PDF). NIPS 2012: Neural Information Processing Systems, Lake Tahoe, Nevada. Geargiveer (PDF) vanaf die oorspronklike op 10 Januarie 2017. Besoek op 24 Mei 2017.
  4. "Google's AlphaGo AI wins three-match series against the world's best Go player". TechCrunch. 25 Mei 2017. Geargiveer vanaf die oorspronklike op 17 Junie 2018. Besoek op 17 Junie 2018.
  5. Marblestone, Adam H.; Wayne, Greg; Kording, Konrad P. (2016). "Toward an Integration of Deep Learning and Neuroscience". Frontiers in Computational Neuroscience. 10: 94. arXiv:1606.03813. Bibcode:2016arXiv160603813M. doi:10.3389/fncom.2016.00094. PMC 5021692. PMID 27683554. S2CID 1994856.
  6. Bengio, Yoshua; Lee, Dong-Hyun; Bornschein, Jorg; Mesnard, Thomas; Lin, Zhouhan (13 Februarie 2015). "Towards Biologically Plausible Deep Learning". [cs.LG]. 
  7. Deng, L.; Yu, D. (2014). "Deep Learning: Methods and Applications" (PDF). Foundations and Trends in Signal Processing. 7 (3–4): 1–199. doi:10.1561/2000000039. Geargiveer (PDF) vanaf die oorspronklike op 14 Maart 2016. Besoek op 18 Oktober 2014.
  8. Zhang, W. J.; Yang, G.; Ji, C.; Gupta, M. M. (2018). "On Definition of Deep Learning". 2018 World Automation Congress (WAC): 1–5. doi:10.23919/WAC.2018.8430387. ISBN 978-1-5323-7791-4. S2CID 51971897.