Discover millions of ebooks, audiobooks, and so much more with a free trial

Only $11.99/month after trial. Cancel anytime.

Kunstmatige intelligentie: de vierde industriële revolutie
Kunstmatige intelligentie: de vierde industriële revolutie
Kunstmatige intelligentie: de vierde industriële revolutie
Ebook487 pages6 hours

Kunstmatige intelligentie: de vierde industriële revolutie

Rating: 0 out of 5 stars

()

Read preview

About this ebook

De vierde industriële revolutie vertegenwoordigt een fundamentele verandering in de manier waarop we leven, werken en met elkaar omgaan. Het is een nieuw hoofdstuk in menselijke ontwikkeling, mogelijk gemaaktdoor buitengewone technologische vooruitgang die evenredig is aan die van de eerste, tweede en derde industriële revoluties. Deze vooruitgang brengt de fysieke, digitale en biologische wereld samen op een manier die zowel een enorme belofte als potentieel gevaar met zich meebrengt. De snelheid, breedte en diepgang van deze revolutie dwingt ons om te heroverwegen hoe landen zich ontwikkelen, hoe organisaties waarde creëren en zelfs wat het betekent om mens te zijn. Kunstmatige intelligentie staat tegenwoordig terecht bekend als smalle AI (of zwakke AI), in die zin dat het is ontworpen om een smalle taak uit te voeren (bijvoorbeeld alleen gezichtsherkenning of alleen zoeken op internet of alleen autorijden). Het langetermijndoel van veel onderzoekers is echter om algemene AI (AGI of sterke AI) te creëren. Hoewel smalle AI mensen beter kan doen presteren dan wat haar specifieke taak ook is, zoals schaken of het oplossen van vergelijkingen, zou AGI de mens op bijna elke cognitieve taak overtreffen.
Authors: Vasil Teigens, Peter Skalfist, Daniel Mikelsten

LanguageNederlands
Release dateSep 15, 2020
ISBN9781005311308
Kunstmatige intelligentie: de vierde industriële revolutie
Author

Vasil Teigens

Vasil Teigens, is the pen name of a history and science author that aims to organize and collect technical, historical and scientific information.The student or the scientist, will be able to satisfy his needs of consultation and of study, by means of a work supported by abundant number of sources and bibliographical references.

Related authors

Related to Kunstmatige intelligentie

Related ebooks

Reviews for Kunstmatige intelligentie

Rating: 0 out of 5 stars
0 ratings

0 ratings0 reviews

What did you think?

Tap to rate

Review must be at least 10 words

    Book preview

    Kunstmatige intelligentie - Vasil Teigens

    Invoering

    De vierde industriële revolutie vertegenwoordigt een fundamentele verandering in de manier waarop we leven, werken en met elkaar omgaan. Het is een nieuw hoofdstuk in menselijke ontwikkeling, mogelijk gemaakt door buitengewone technologische vooruitgang die evenredig is aan die van de eerste, tweede en derde industriële revoluties. Deze vooruitgang brengt de fysieke, digitale en biologische wereld samen op een manier die zowel een enorme belofte als potentieel gevaar met zich meebrengt. De snelheid, breedte en diepgang van deze revolutie dwingt ons om te heroverwegen hoe landen zich ontwikkelen, hoe organisaties waarde creëren en zelfs wat het betekent om mens te zijn.

    Van SIRI tot zelfrijdende auto's, kunstmatige intelligentie (AI) vordert snel. Hoewel sciencefiction AI vaak afbeeldt als robots met mensachtige kenmerken, kan AI alles omvatten, van de zoekalgoritmen van Google tot IBM's Watson tot autonome wapens.

    Kunstmatige intelligentie staat tegenwoordig terecht bekend als smalle AI (of zwakke AI), in die zin dat het is ontworpen om een ​​smalle taak uit te voeren (bijvoorbeeld alleen gezichtsherkenning of alleen zoeken op internet of alleen autorijden). Het langetermijndoel van veel onderzoekers is echter om algemene AI (AGI of sterke AI) te creëren. Hoewel smalle AI mensen beter kan doen presteren dan wat haar specifieke taak ook is, zoals schaken of het oplossen van vergelijkingen, zou AGI de mens op bijna elke cognitieve taak overtreffen.

    De vierde industriële revolutie gaat over meer dan alleen technologiegedreven verandering; het is een kans om iedereen, inclusief leiders, beleidsmakers en mensen uit alle inkomensgroepen en landen, te helpen convergerende technologieën te benutten om een ​​inclusieve, mensgerichte toekomst te creëren. De echte kans is om verder te kijken dan technologie en manieren te vinden om het grootste aantal mensen de mogelijkheid te geven een positieve invloed te hebben op hun families, organisaties en gemeenschappen.

    Algemene kunstmatige intelligentie

    Kunstmatige algemene intelligentie (AGI) is de intelligentie van een machine die elke intellectuele taak van een mens kan begrijpen of leren. Het is een primair doel van enig onderzoek naar kunstmatige intelligentie en een veel voorkomend onderwerp in science fiction en futures-onderzoeken. AGI kan ook worden aangeduid als sterke AI, volledige AI of algemene intelligente actie. (Sommige academische bronnen reserveren de term sterke AI voor machines die bewustzijn kunnen ervaren.). Sommige autoriteiten benadrukken een onderscheid tussen sterke AI en toegepaste AI (ook wel smalle AI of zwakke AI genoemd): het gebruik van software om specifieke problemen op te lossen of te redeneren. Zwakke AI, in tegenstelling tot sterke AI, probeert niet het volledige scala van menselijke cognitieve vaardigheden uit te voeren.

    Er zijn verschillende criteria voor intelligentie voorgesteld (meest bekend de Turing-test), maar tot op heden is er geen definitie die aan iedereen voldoet. Er is echter brede overeenstemming tussen onderzoekers van kunstmatige intelligentie dat intelligentie vereist is om het volgende te doen:

    Redeneren, strategie gebruiken, puzzels oplossen en oordelen onder onzekerheid;

    Vertegenwoordigen kennis, inclusief gezond verstand;

    Plan;

    Leren;

    Communiceren in natuurlijke taal;

    En al deze vaardigheden integreren in de richting van gemeenschappelijke doelen.

    Andere belangrijke mogelijkheden zijn het vermogen om waar te nemen (bijv. Zien) en het vermogen om te handelen (bijv. Objecten verplaatsen en manipuleren) in de wereld waar intelligent gedrag moet worden waargenomen. Dit zou het vermogen om gevaren te detecteren en erop te reageren omvatten. Veel interdisciplinaire benaderingen van intelligentie (bijv. Cognitieve wetenschap, computationele intelligentie en besluitvorming) hebben de neiging om de nadruk te leggen op de noodzaak om extra eigenschappen te overwegen, zoals verbeelding (genomen als het vermogen om mentale beelden en concepten te vormen die niet zijn geprogrammeerd in) en autonomie. systemen die veel van deze mogelijkheden vertonen, bestaan ​​wel (zie bijvoorbeeld computationele creativiteit, geautomatiseerd redeneren, beslissingsondersteunend systeem, robot, evolutionaire berekening, intelligent agent), maar nog niet op menselijk niveau.

    Tests voor het bevestigen van AGI op menselijk niveau

    The Turing Test (Turing) Een machine en een mens wisselen allebei ongezien met een tweede mens, die moet evalueren welke van de twee de machine is, die de test doorstaat als hij de beoordelaar een aanzienlijk deel van de tijd voor de gek kan houden. Opmerking: Turing schrijft niet voor wat als intelligentie moet worden gekwalificeerd, alleen dat het weten dat het een machine is, het moet diskwalificeren. De koffietest (Wozniak) Een machine is vereist om een ​​gemiddeld Amerikaans huis binnen te komen en erachter te komen hoe koffie te maken: zoek de koffiemachine, zoek de koffie, voeg water toe, zoek een mok en zet de koffie door op de juiste knoppen te drukken. The Robot College Student Test (Goertzel) Een machine schrijft zich in aan een universiteit, neemt en doorloopt dezelfde klassen die mensen zouden doen, en behaalt een diploma. The Employment Test (Nilsson) Een machine is een economisch belangrijke taak, die minstens zo goed presteert als mensen in dezelfde taak.

    IQ-testen AGI

    Chineseresearchers Feng Liu, Yong Shi en Ying Liu hebben in de zomer van 2017 intelligentietests uitgevoerd met publiek beschikbare en vrij toegankelijke zwakke AI zoals Google AI of Apple's Siri en anderen. Deze AI bereikten maximaal een waarde van ongeveer 47, wat ongeveer overeenkomt met een zesjarig kind in de eerste klas. Een volwassene komt gemiddeld op ongeveer 100. In 2014 werden vergelijkbare tests uitgevoerd waarbij de AI een maximale waarde van 27 bereikte.

    Problemen die AGI moeten oplossen

    De moeilijkste problemen voor computers staan ​​informeel bekend als AI-compleet of AI-hard, wat inhoudt dat het oplossen ervan equivalent is aan de algemene aanleg van menselijke intelligentie of sterke AI, buiten de mogelijkheden van een doelspecifiek algoritme.

    AI-complete problemen worden verondersteld algemene computervisie, begrip van de natuurlijke taal en het omgaan met onverwachte omstandigheden te omvatten, terwijl een reëel probleem wordt opgelost.

    AI-complete problemen kunnen niet worden opgelost met de huidige computertechnologie alleen en vereisen ook menselijke berekeningen. Deze eigenschap kan bijvoorbeeld nuttig zijn om te testen op de aanwezigheid van mensen, zoals CAPTCHA's willen doen; en voor computerbeveiliging om brute-force aanvallen af ​​te weren.

    AGI onderzoek

    Klassieke AI

    Modern AI-onderzoek begon halverwege de jaren 50. De eerste generatie AI-onderzoekers was ervan overtuigd dat kunstmatige algemene intelligentie mogelijk was en dat deze binnen enkele decennia zou bestaan. Zoals AI-pionier Herbert A. Simon in 1965 schreef: machines kunnen binnen twintig jaar al het werk doen dat een man kan doen. Hun voorspellingen waren de inspiratie voor het personage HAL 9000 van Stanley Kubrick en Arthur C. Clarke, die belichaamde wat AI-onderzoekers geloofden dat ze tegen het jaar 2001 konden creëren. AI-pionier Marvin Minsky was een consultant bij het project om HAL 9000 zo realistisch mogelijk te maken volgens de consensusvoorspellingen van de tijd; Crevier citeert hem te hebben gezegd over het onderwerp in 1967: Binnen een generatie... zal het probleem van het creëren van 'kunstmatige intelligentie' grotendeels worden opgelost, hoewel Minsky beweert dat hij verkeerd werd geciteerd.

    Begin jaren zeventig werd het echter duidelijk dat onderzoekers de moeilijkheid van het project ernstig hadden onderschat. Financieringsinstanties werden sceptisch over AGI en zetten onderzoekers onder toenemende druk om bruikbare toegepaste AI te produceren. Toen de jaren tachtig begonnen, herleefde het vijfde computerproject van Japan de interesse in AGI, met een tijdlijn van tien jaar met AGI-doelen zoals een informeel gesprek voeren. Als reactie hierop en het succes van expertsystemen, hebben zowel de industrie als de overheid geld terug het veld in gepompt. Het vertrouwen in AI is spectaculair ingestort in de late jaren 1980 en de doelstellingen van het Fifth Generation Computer Project zijn nooit bereikt. tijd in 20 jaar bleken AI-onderzoekers die hadden voorspeld dat AGI op handen was, zich fundamenteel te vergissen. In de jaren negentig hadden AI-onderzoekers een reputatie opgebouwd voor het maken van ijdele beloften. Ze werden terughoudend om überhaupt voorspellingen te doen en elke vermelding van kunstmatige intelligentie op 'menselijk niveau' te vermijden uit angst om te worden bestempeld als 'wild-eyed dromer'.

    Smal AI-onderzoek

    In de jaren negentig en het begin van de 21ste eeuw heeft mainstream AI een veel groter commercieel succes en academische respectabiliteit behaald door zich te concentreren op specifieke subproblemen waar ze verifieerbare resultaten en commerciële toepassingen kunnen produceren, zoals kunstmatige neurale netwerken, computer vision of data mining. toegepaste AI-systemen worden nu op grote schaal gebruikt in de hele technologische industrie, en onderzoek in deze geest wordt zeer zwaar gefinancierd in zowel de academische wereld als de industrie. Momenteel wordt de ontwikkeling op dit gebied beschouwd als een opkomende trend, en een volwassen stadium zal naar verwachting over meer dan 10 jaar plaatsvinden.

    De meeste reguliere AI-onderzoekers hopen dat een sterke AI kan worden ontwikkeld door de programma's te combineren die verschillende subproblemen oplossen met behulp van een geïntegreerde agentarchitectuur, cognitieve architectuur of subsumptiearchitectuur. Hans Moravec schreef in 1988:

    Ik ben ervan overtuigd dat deze bottom-up route naar kunstmatige intelligentie ooit de traditionele top-down route meer dan halverwege zal ontmoeten, klaar om de echte wereldcompetentie en de algemene kennis te bieden die zo frustrerend ongrijpbaar is geweest in redeneerprogramma's. Volledig intelligente machines zal het resultaat zijn wanneer de metaforische gouden piek wordt aangedreven die de twee inspanningen verenigt.

    Zelfs deze fundamentele filosofie is echter betwist; Stevan Harnad van Princeton concludeerde bijvoorbeeld zijn artikel uit 1990 over de Symbol Grounding Hypothesis door te stellen:

    De verwachting is vaak geuit dat top-down (symbolische) benaderingen voor het modelleren van cognitie ergens ergens tussenin zullen komen (sensorische) benaderingen ergens tussenin. Als de aardingsoverwegingen in dit artikel geldig zijn, dan is deze verwachting hopeloos modulair en er is eigenlijk maar één haalbare route van zin naar symbolen: van de grond af Een vrij zwevend symbolisch niveau zoals het softwareniveau van een computer zal nooit via deze route worden bereikt (of vice versa) - noch is het duidelijk waarom we zelfs probeer een dergelijk niveau te bereiken, omdat het lijkt alsof het bereiken van onze symbolen gewoon zou leiden tot het verwijderen van onze symbolen uit hun intrinsieke betekenissen (waardoor we onszelf beperken tot het functionele equivalent van een programmeerbare computer).

    Modern kunstmatig algemeen intelligentieonderzoek

    Kunstmatige algemene intelligentie (AGI) beschrijft onderzoek dat gericht is op het creëren van machines die in staat zijn tot algemene intelligente actie. De term werd al in 1997 gebruikt door Mark Gubrudin, een discussie over de implicaties van volledig geautomatiseerde militaire productie en operaties. De term werd rond 2002 opnieuw geïntroduceerd en gepopulariseerd door Shane Legg en Ben Goertzel. Het onderzoeksdoel is veel ouder, bijvoorbeeld het Cyc-project van Doug Lenat (dat begon in 1984), en het Soar-project van Allen Newell worden beschouwd als binnen het bereik van AGI. AGI-onderzoeksactiviteit in 2006 werd beschreven door Pei Wang en Ben Goertzelas die publicaties en voorlopige resultaten produceerden. De eerste zomerschool in AGI werd in 2009 georganiseerd in Xiamen, China, door het Kunstmatige Hersenlaboratorium en OpenCog van de universiteit van Xiamen. De eerste universitaire cursus werd gegeven in 2010 en 2011 aan de universiteit van Plovdiv, Bulgarije door Todor Arnaudov. MIT presenteerde een cursus AGI in 2018, georganiseerd door Lex Fridman en met een aantal gastdocenten. Tot nu toe hebben de meeste AI-onderzoekers echter weinig aandacht besteed aan AGI, en sommigen beweren dat intelligentie te complex is om op korte termijn volledig te repliceren. Er is echter een klein aantal computerwetenschappers actief in AGI-onderzoek, en veel van deze groep dragen bij aan een reeks AGI-conferenties. Het onderzoek is zeer divers en vaak baanbrekend van aard. In de inleiding van zijn boek zegt Goertzel dat schattingen van de benodigde tijd voordat een echt flexibeleAGI wordt gebouwd variëren van 10 jaar tot meer dan een eeuw, maar de consensus in de AGI-onderzoeksgemeenschap lijkt te zijn dat de tijdlijn die door Ray Kurzweil in The Singularity is besproken is Near (dwz tussen 2015 en 2045) is aannemelijk.

    De meeste reguliere AI-onderzoekers betwijfelen echter dat de vooruitgang zo snel zal zijn. Organisaties die expliciet AGI nastreven, zijn onder meer het Zwitserse AI-lab IDSIA, Nnaisense, Vicarious, Maluuba, de OpenCog Foundation, Adaptive AI, LIDA en Numenta en het bijbehorende Redwood Neuroscience Institute. Daarnaast zijn organisaties zoals het Machine Intelligence Research Institute en OpenAI opgericht om het ontwikkelingstraject van AGI te beïnvloeden. Ten slotte hebben projecten zoals het Human Brain Project het doel om een ​​functionerende simulatie van het menselijk brein te bouwen. A2017-enquête van AGI gecategoriseerd vijfenveertig bekende actieve R & D-projecten die expliciet of impliciet (via gepubliceerd onderzoek) AGI onderzoeken, met de grootste drie DeepMind, het Human Brain Project en OpenAI (gebaseerd op artikel).

    In 2019 kondigde videogameprogrammeur en ruimtevaartingenieur John Carmack plannen aan om AGI te onderzoeken.

    Namelijk DeepMind met hun succes in Human Player Simulation voor bijvoorbeeld AlphaGo maakte gebruik van nieuwe concepten:

    Versterking leren om reeds getrainde netwerken te verbeteren met nieuwe gegevens of

    Leren zonder toezicht, bijvoorbeeld door Generative adversarial network om door concurrentie verbeterde netwerken te krijgen.

    Verwerkingskracht nodig om een ​​brein te simuleren

    Hele hersenemulatie

    Een populaire benadering die wordt besproken om algemene intelligente actie te bereiken, is emulatie van hele hersenen. Een low-level hersenmodel wordt gebouwd door een biologisch brein in detail te scannen en in kaart te brengen en de status ervan te kopiëren naar een computersysteem of een ander computerapparaat. De computer gebruikt een simulatiemodel dat zo trouw is aan het origineel dat het zich in wezen op dezelfde manier zal gedragen als het originele brein, of voor alle praktische doeleinden, niet van elkaar te onderscheiden. Hele hersenemulatie wordt besproken in computationele neurowetenschappen en neuro-informatica, in de context van hersensimulatie voor medisch onderzoek. Het wordt besproken in onderzoek naar kunstmatige intelligentie als een benadering van sterke AI. Neuroimaging-technologieën die het benodigde gedetailleerde inzicht kunnen bieden, verbeteren snel en futurist Ray Kurzweil in het boek The Singularity Is Near voorspelt dat een kaart van voldoende kwaliteit beschikbaar zal zijn op een vergelijkbaar tijdsschema als de vereiste rekenkracht.

    Vroege schattingen

    Voor hersensimulatie op laag niveau zou een extreem krachtige computer nodig zijn. Het menselijk brein heeft een enorm aantal synapsen. Elk van de 10 (honderd miljard) neuronen heeft gemiddeld 7, 000 synaptische verbindingen met andere neuronen. Er is geschat dat het brein van een driejarig kind ongeveer 10 synapsen heeft (1 quadriljoen). Dit aantal neemt af met de leeftijd en stabiliseert zich naar volwassenheid. Schattingen variëren voor een volwassene, variërend van 10 tot 5 × 10 synapsen (100 tot 500 biljoen). Een schatting van de verwerkingskracht van de hersenen, gebaseerd op een eenvoudig schakelmodel voor neuronactiviteit, is ongeveer 10 (100 biljoen) synaptische updates per seconde (SUPS). In 1997 keek Kurzweil naar verschillende schattingen voor de hardware die nodig is om het menselijk brein te evenaren en nam een ​​cijfer van 10 berekeningen per seconde (cps). (Ter vergelijking, als een berekening equivalent was aan één drijvende-kommabewerking - een maat die wordt gebruikt om de huidige supercomputers te beoordelen - dan zouden 10 berekeningen equivalent zijn aan 10 petaFLOPS, bereikt in 2011). Hij gebruikte dit cijfer om te voorspellen de benodigde hardware zou ergens tussen 2015 en 2025 beschikbaar zijn, als de exponentiële groei van computerkracht op het moment van schrijven zou voortduren.

    De neuronen modelleren in meer detail

    Het kunstmatige neuronenmodel dat door Kurzweil wordt aangenomen en dat in veel huidige kunstmatige neurale netwerkimplementaties wordt gebruikt, is eenvoudig vergeleken met biologische neuronen. Een hersensimulatie zou waarschijnlijk het gedetailleerde cellulaire gedrag van biologische neuronen moeten vastleggen, dat momenteel alleen in de breedste lijnen wordt begrepen. De overhead die wordt geïntroduceerd door volledige modellering van de biologische, chemische en fysische details van neuraal gedrag (vooral op moleculaire schaal), zou rekenkrachten nodig hebben die enkele ordes van grootte groter zijn dan de schatting van Kurzweil. Bovendien houden de schattingen geen rekening met gliacellen, die minstens evenveel zijn als neuronen, en die neuronen met wel 10: 1 kunnen overtreffen, en waarvan nu bekend is dat ze een rol spelen in cognitieve processen.

    Huidig ​​onderzoek

    Er zijn enkele onderzoeksprojecten die hersensimulatie onderzoeken met behulp van meer geavanceerde neurale modellen, geïmplementeerd op conventionele computerarchitecturen. Het Artificial Intelligence System-project implementeerde niet-realtime simulaties van een brein (met 10 neuronen) in 2005. Het duurde 50 dagen op een cluster van 27 processoren om 1 seconde van een model te simuleren. Het Blue Brain-project maakte gebruik van een van de snelste supercomputerarchitecturen ter wereld, het Blue Gene-platform van IBM, om in realtime een simulatie van een neocorticale kolom met ratten te maken bestaande uit ongeveer 10, 000 neuronen en 10 synapsen in 2006. Een langetermijndoelstelling is om een ​​gedetailleerde, functionele simulatie van thefysiologische processen in het menselijk brein te bouwen: Het is niet onmogelijk om een ​​menselijk brein te bouwen en we kunnen het over 10 jaar doen, zei Henry Markram, directeur van het Blue Brain Project in 2009 op de TED conferentie in Oxford. Er zijn ook controversiële claims geweest die het brein van een kat hebben gesimuleerd. Neuro-silicium-interfaces zijn voorgesteld als een alternatieve implementatiestrategie die mogelijk beter kan worden geschaald.

    Hans Morave ging in op de bovenstaande argumenten (hersenen zijn ingewikkelder , neuronen moeten gedetailleerder worden gemodelleerd) in zijn artikel uit 1997 Wanneer komt computerhardware overeen met het menselijk brein?. Hij mat het vermogen van bestaande software om de functionaliteit van neuraal weefsel, met name het netvlies. Zijn resultaten hangen niet af van het aantal gliacellen, noch van wat voor soort verwerkende neuronen waar uitvoeren.

    De werkelijke complexiteit van het modelleren van biologische neuronen is onderzocht in het OpenWorm-project dat was gericht op volledige simulatie van een worm die slechts 302 neuronen in zijn neurale netwerk heeft (van in totaal ongeveer 1000 cellen). Het neurale netwerk van het dier is goed gedocumenteerd vóór de start van het project. Hoewel de taak in het begin eenvoudig leek, werkten themodellen op basis van een generiek neuraal netwerk niet. Momenteel zijn de inspanningen gericht op precieze emulatie van biologische neuronen (deels op moleculair niveau), maar het resultaat kan nog geen volledig succes worden genoemd. Zelfs als het aantal problemen dat moet worden opgelost in een menselijk-hersenschaalmodel niet evenredig is met het aantal neuronen, is de hoeveelheid werk langs dit pad duidelijk.

    Kritieken op op simulatie gebaseerde benaderingen

    Een fundamentele kritiek op de gesimuleerde hersenbenadering komt voort uit belichaamde cognitie waarbij menselijke belichaming wordt beschouwd als een essentieel aspect van menselijke intelligentie. Veel onderzoekers geloven dat belichaming nodig is om betekenis te onderbouwen. Als deze visie correct is, moet elk volledig functioneel hersenmodel meer omvatten dan alleen de neuronen (dwz een robotlichaam). Goertzel stelt een virtuele belichaming voor (zoals Second Life), maar het is nog niet bekend of dit voldoende zou zijn.

    Desktopcomputers met microprocessors met een capaciteit van meer dan 10 cps (Kurzweil's niet-standaard eenheid berekeningen per seconde, zie hierboven) zijn beschikbaar sinds 2005. Volgens de schattingen van de hersenen die door Kurzweil (en Moravec) worden gebruikt, zou deze computer in staat moeten zijn om ondersteuning van een simulatie van bijenhersenen, maar ondanks enige interesse bestaat zo'n simulatie niet. Daar zijn minstens drie redenen voor:

    Het neuronenmodel lijkt te vereenvoudigd (zie volgende paragraaf).

    Er is onvoldoende begrip van hogere cognitieve processen om nauwkeurig vast te stellen waarmee de neurale activiteit van de hersenen, waargenomen met behulp van technieken zoals functionele magnetische resonantie, correleert met.

    Zelfs als ons begrip van cognitie voldoende vooruitgaat, zijn vroege simulatieprogramma's waarschijnlijk zeer inefficiënt en zullen daarom aanzienlijk meer hardware nodig hebben.

    De hersenen van een organisme, hoewel kritisch, zijn mogelijk geen geschikte grens voor een cognitief model. Om een ​​bijenbrein te simuleren, kan het nodig zijn om het lichaam en de omgeving te simuleren. De Extended Mind-thesis formaliseert het filosofische concept en onderzoek naar koppotigen heeft duidelijke voorbeelden van een gedecentraliseerd systeem aangetoond.

    Bovendien is de schaal van het menselijk brein momenteel niet goed beperkt. Eén schatting schat het menselijk brein op ongeveer 100 miljard neuronen en 100 biljoen synapsen. Een andere schatting is 86 miljard neuronen, waarvan 16,3 miljard in de hersenschors en 69 miljard in de kleine hersenen. Gliacelsynapsen zijn momenteel niet gekwantificeerd, maar staan ​​erom bekend extreem veel te zijn.

    Kunstmatig bewustzijnsonderzoek

    Hoewel de rol van bewustzijn in sterke AI / AGI betwistbaar is, beschouwen veel AGI-onderzoekers onderzoek dat mogelijkheden voor het implementeren van bewustzijn als cruciaal beschouwt. In een vroege poging oordeelde Igor Aleksander dat de principes voor het creëren van een bewuste machine al bestonden, maar dat het veertig jaar zou duren om zo'n machine te trainen om taal te begrijpen.

    Relatie met sterke AI

    In 1980 bedacht filosoof John Searle de term sterke AI als onderdeel van zijn argument in de Chinese kamer. Hij wilde onderscheid maken tussen twee verschillende hypothesen over kunstmatige intelligentie:

    Een kunstmatig intelligentiesysteem kan denken en een geest hebben. (Het woord geest heeft een specifieke betekenis voor filosofen, zoals gebruikt in het geest-lichaamsprobleem of de filosofie van de geest.)

    Een kunstmatig intelligentiesysteem kan (alleen) handelen zoals het denkt en een geest heeft.

    De eerste wordt de sterke AI-hypothese genoemd en de tweede is de zwakke AI-hypothese omdat de eerste de sterke verklaring geeft: er wordt van uitgegaan dat er iets speciaals is gebeurd met de machine dat verder gaat dan al zijn mogelijkheden die we kunnen testen. Searle verwees naar de sterke AI-hypothese als sterke AI. Dit gebruik is ook gebruikelijk in academisch AI-onderzoek en studieboeken.

    De zwakke AI-hypothese komt overeen met de hypothese dat kunstmatige algemene intelligentie mogelijk is. Volgens Russell en Norvig: De meeste AI-onderzoekers beschouwen de zwakke AI-hypothese als vanzelfsprekend en geven niets om de sterke AI-hypothese.

    In tegenstelling tot Searle gebruikt Kurzweil de term sterke AI om elk kunstmatig intelligentiesysteem te beschrijven dat zich gedraagt ​​als een geest, ongeacht of een filosoof zou kunnen bepalen of het werkelijk een geest heeft of niet.

    Mogelijke verklaringen voor de trage voortgang van AI-onderzoek

    Sinds de lancering van AI-onderzoek in 1956 is de groei van dit veld in de loop van de tijd afgenomen en heeft het de doelstellingen van het creëren van machines bedreven met intelligente actie op menselijk niveau tot stilstand gebracht. Een mogelijke verklaring voor deze vertraging is dat computers onvoldoende geheugen of verwerkingskracht hebben. Bovendien kan de complexiteit die verband houdt met het proces van AI-onderzoek ook de voortgang van AI-onderzoek beperken.

    Hoewel de meeste AI-onderzoekers geloven dat een sterke AI in de toekomst kan worden bereikt, zijn er mensen zoals Hubert Dreyfus en Roger Penrose die de mogelijkheid ontkennen om een ​​sterke AI te bereiken. John McCarthy was een van de verschillende computerwetenschappers die geloven dat AI op menselijk niveau zal worden bereikt, maar een datum kan niet nauwkeurig worden voorspeld.

    Conceptuele beperkingen zijn een andere mogelijke reden voor de traagheid van AI-onderzoek. AI-onderzoekers moeten mogelijk het conceptuele kader van hun discipline aanpassen om een ​​sterkere basis en bijdrage te leveren aan de zoektocht naar een sterke AI. Zoals William Clocksin in 2003 schreef: het raamwerk vertrekt van de constatering van Weizenbaum dat intelligentie zich alleen manifesteert in relatie tot specifieke sociale en culturele contexten.

    Bovendien hebben AI-onderzoekers computers kunnen maken die taken kunnen uitvoeren die voor mensen ingewikkeld zijn, maar omgekeerd hebben ze moeite om een ​​computer te ontwikkelen die in staat is taken uit te voeren die voor mensen eenvoudig zijn (Moravec's paradox). Een probleem beschreven door David Gelernter is dat sommige mensen denken en redeneren gelijkwaardig zijn. Het idee of gedachten en de maker van die gedachten afzonderlijk worden geïsoleerd, heeft AI-onderzoekers echter geïntrigeerd.

    De problemen die zich de afgelopen decennia hebben voorgedaan in AI-onderzoek hebben de voortgang van AI verder belemmerd. De mislukte voorspellingen die door AI-onderzoekers zijn beloofd en het gebrek aan een volledig begrip van menselijk gedrag hebben bijgedragen aan het verminderen van het primaire idee van AI op menselijk niveau. Hoewel de vooruitgang van AI-onderzoek zowel verbetering als teleurstelling heeft gebracht, hebben de meeste onderzoekers optimisme vastgesteld over het mogelijk bereiken van het doel van AI in de 21ste eeuw.

    Andere mogelijke redenen zijn voorgesteld voor het langdurige onderzoek naar de voortgang van een sterke AI. De complexiteit van wetenschappelijke problemen en de noodzaak om het menselijk brein volledig te begrijpen door middel van psychologie en neurofysiologie hebben veel onderzoekers beperkt van het emuleren van de functie van het menselijk brein in een computerhardware. Veel onderzoekers onderschatten elke twijfel die te maken heeft met toekomstige voorspellingen van AI, maar zonder die kwesties serieus te nemen, kunnen mensen dan oplossingen voor problematische vragen over het hoofd zien.

    Clocksin zegt dat een conceptuele beperking die de voortgang van AI-onderzoek kan belemmeren, is dat mensen mogelijk de verkeerde technieken gebruiken voor computerprogramma's en de implementatie van apparatuur. Toen AI-onderzoekers voor het eerst naar het doel van kunstmatige intelligentie begonnen te streven, was een hoofdbelang menselijk redeneren. Onderzoekers hoopten door middel van redeneren computermodellen van menselijke kennis op te zetten en erachter te komen hoe een computer met een specifieke cognitieve taak te ontwerpen.

    De praktijk van abstractie, die mensen de neiging hebben om opnieuw te definiëren wanneer ze met een bepaalde context in onderzoek werken, biedt onderzoekers een concentratie op slechts een paar concepten. Het meest productieve gebruik van abstractie in AI-onderzoek komt van planning en probleemoplossing. Hoewel het doel is om de snelheid van een berekening te verhogen, heeft de rol van abstractie vragen gesteld over de betrokkenheid van abstractieoperatoren.

    Een mogelijke reden voor de traagheid van AI houdt verband met de erkenning door veel AI-onderzoekers dat heuristiek een sectie is die een significante breuk bevat tussen computerprestaties en menselijke prestaties. De specifieke functies die op een computer zijn geprogrammeerd, zijn mogelijk in staat om veel van de vereisten te verklaren die het toelaten om menselijke intelligentie te evenaren. Deze verklaringen zijn niet noodzakelijkerwijs gegarandeerd de fundamentele oorzaken voor de vertraging bij het bereiken van een sterke AI, maar ze worden algemeen aanvaard door tal van onderzoekers.

    Er zijn veel AI-onderzoekers die debatteren over het idee of machines met emoties moeten worden gemaakt. Er zijn geen emoties in typische AI-modellen en sommige onderzoekers zeggen dat het programmeren van emoties in machines hen in staat stelt een eigen mening te hebben. Emotie vat de ervaringen van mensen samen omdat het hen in staat stelt die ervaringen te onthouden. David Gelernter schrijft: Geen enkele computer zal creatief zijn tenzij hij alle nuances van menselijke emotie kan simuleren. Deze bezorgdheid over emotie heeft problemen voor AI-onderzoekers opgeleverd en houdt verband met het concept van sterke AI naarmate het onderzoek vordert naar de toekomst.

    Bewustzijn

    Naast intelligentie zijn er andere aspecten van de menselijke geest die relevant zijn voor het concept van sterke AI die een belangrijke rol spelen in science fiction en de ethiek van kunstmatige intelligentie:

    Bewustzijn: subjectieve ervaring en gedachten hebben.

    Zelfbewustzijn: Zich bewust zijn van zichzelf als een afzonderlijk individu, vooral bewust zijn van zijn eigen gedachten.

    Gevoel: het vermogen om percepties of emoties subjectief te voelen.

    Sapience: het vermogen tot wijsheid.

    Deze eigenschappen hebben een morele dimensie, omdat een machine met deze vorm van sterke AI wettelijke rechten kan hebben, analoog aan de rechten van niet-menselijke dieren. Ook beweert Bill Joy dat een machine met deze eigenschappen een bedreiging kan vormen voor het leven of de waardigheid van de mens. Het moet nog worden aangetoond of een van deze eigenschappen nodig zijn voor een sterke AI. De rol van bewustzijn is niet duidelijk, en momenteel is er geen overeengekomen test voor zijn aanwezigheid. Als een machine is gebouwd met een apparaat dat de neurale correlaten van bewustzijn simuleert, zou het dan automatisch zelfbewustzijn hebben? Het is ook mogelijk dat sommige van deze eigenschappen, zoals gevoel, op natuurlijke wijze voortkomen uit een volledig intelligente machine, of dat het vanzelfsprekend wordt om deze eigenschappen aan machines toe te schrijven zodra ze beginnen te handelen op een manier die duidelijk intelligent is. Intelligente actie kan bijvoorbeeld voldoende zijn voor het sentiment, in plaats van andersom.

    In science fiction wordt AGI geassocieerd met eigenschappen zoals bewustzijn, gevoel, sapience en zelfbewustzijn waargenomen bij levende wezens. Volgens filosoof John Searle is het echter een open vraag of algemene intelligentie voldoende is voor bewustzijn. 'Sterke AI' (zoals hierboven gedefinieerd door Ray Kurzweil) moet niet worden verward met de 'sterke AI-hypothese van Searle'. De sterke AI-hypothese is de bewering dat een computer die zich net zo intelligent gedraagt ​​als een persoon, ook noodzakelijkerwijs een geest en bewustzijn moet hebben. AGI verwijst alleen naar de hoeveelheid intelligentie die de machine toont, met of zonder geest.

    Controverses en gevaren

    Haalbaarheid

    De meningen lopen uiteen of en wanneer kunstmatige algemene intelligentie zal aankomen. Aan het ene uiterste, AI-pionier Herbert A. Simonwrote in 1965: machines zullen binnen twintig jaar in staat zijn om al het werk te doen dat een man kan doen. Deze voorspelling is echter niet uitgekomen. Microsoft mede-oprichter Paul Allen geloofde dat dergelijke intelligentie onwaarschijnlijk is in de 21ste eeuw omdat het onvoorspelbare en fundamenteel onvoorspelbare doorbraken en een wetenschappelijk diep begrip van cognitie zou vereisen. Roboticus Alan Winfield schreef in The Guardian en beweerde dat de kloof tussen modern computergebruik en kunstmatige intelligentie op menselijk niveau even groot is als de kloof tussen de huidige ruimtevlucht en de praktische sneller-dan-lichte ruimtevlucht. De mening van experts over de haalbaarheid van AGI-wax en afgenomen, en mogelijk een heropleving gezien in de jaren 2010. Vier peilingen uitgevoerd in 2012 en 2013 suggereerden dat de gemiddelde gok onder experts voor wanneer ze 50% zeker zouden zijn dat AGI zou arriveren, 2040 tot 2050 was, afhankelijk van de peiling, met als gemiddelde 2081. Het is ook interessant om te zien dat 16,5% van de experts antwoordden met nooit toen dezelfde vraag werd gesteld, maar in plaats daarvan met een vertrouwen van 90%. Verdere huidige AGI-voortgangsoverwegingen zijn te vinden onder Tests voor het bevestigen van AGI op menselijke niveaus en IQ-tests AGI.

    Potentiële bedreiging voor het menselijk bestaan

    Het creëren van kunstmatige algemene intelligentie kan zo grote en zo complexe gevolgen hebben dat het niet mogelijk is om te voorspellen wat er daarna komt. Dus de gebeurtenis in de hypothetische toekomst van het bereiken van een sterke AI wordt de technologische singulariteit genoemd, omdat je er in theorie niet voorbij kunt kijken. Maar dit heeft filosofen en onderzoekers er niet van weerhouden te raden wat de slimme computers of robots van de toekomst kunnen doen, inclusief het vormen van een utopie door onze vrienden te zijn of ons te overweldigen in een AI-overname. Vooral deze laatste mogelijkheid is verontrustend omdat het een existentieel risico voor de mensheid inhoudt.

    Zelfreplicerende machines

    Slimme computers of robots zouden in staat zijn om verbeterde versies van zichzelf te ontwerpen en produceren. Een groeiende populatie van intelligente robots zou mogelijk inferieure mensen kunnen verslaan op banenmarkten, in het bedrijfsleven, in de wetenschap, in de politiek (het nastreven van robotrechten) en technologisch, sociologisch (door als één te fungeren) en militair. Tegenwoordig zijn al veel banen overgenomen door pseudo-intelligente machines aangedreven door een zwakke AI. Bijvoorbeeld robots voor huizen, gezondheidszorg, hotels en restaurants hebben veel delen van ons leven geautomatiseerd: virtuele bots veranderen klantenservice in zelf- service, big data AI-toepassingen worden gebruikt om portfoliomanagers te vervangen en sociale robots zoals Pepper worden gebruikt om menselijke begroetingen te vervangen voor klantenservice.

    Opkomende

    Enjoying the preview?
    Page 1 of 1