Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Tijdlijn van kunstmatige intelligentie AI - 2022 Update

Tijdlijn van kunstmatige intelligentie AI - 2022 Update

Laten we in dit onderwerp duiken vanaf de oudheid tot 2022.

Oudheid

Kunstmatige intelligentie (AI) begon met mythen, legenden en verhalen over kunstmatige wezens begiftigd met intellect of bewustzijn, gecreëerd door meester-kunstenaars. De vroege Griekse filosofen probeerden het menselijk denkproces voor te stellen als een machine-achtige manipulatie van symbolen om theorieën te vormen.

Latere fictie

Ideeën over kunstmatige mensen en denkende machines ontstonden in fictie, zoals Mary Shelley's Frankenstein of Karel Čapek's R.U.R. (Rossum's Universal Robots), en speculaties, zoals Samuel Butler's "Darwin among the Machines," en in echte voorvallen, waaronder Edgar Allan Poe's "Maelzel's Chess Player".

Automata

Kunstenaars uit alle beschavingen, waaronder Yan Shi, Held van Alexandrië, Al-Jazari, Pierre Jaquet-Droz en Wolfgang von Kempelen, hebben realistische mensachtige automaten ontworpen. De oude Egyptische en Griekse heilige beelden waren de eerste bekende automaten. De gelovigen geloofden dat de ambachtslieden deze figuren een echt verstand hadden gegeven. In de middeleeuwen zouden deze legendarische automaten antwoorden op aan hen gerichte vragen.

Formeel redeneren

Kunstmatige intelligentie is gebaseerd op het idee dat menselijk denken kan worden gemechaniseerd. Er is veel onderzoek gedaan naar formeel - of "mechanisch" - redeneren. De Chinese, Indiase en Griekse filosofen vonden in het eerste millennium voor Christus formele deductiemethoden uit. Ze werden ontwikkeld door filosofen als Aristoteles (die een rigoureuze analyse van het syllogisme schreef), Euclides (wiens Elementen een model waren van formeel redeneren), al-Khwārizmī (die de algebra creëerde en die zijn naam gaf aan het "algoritme"), en Europese scholastieke denkers als Willem van Ockham.

De Spaanse filosoof Ramon Llull (1232-1315) creëerde verschillende logische machines om kennis te creëren via logische procedures; hij noemde zijn apparaten mechanische wezens die fundamentele en onbetwistbare feiten konden combineren met behulp van eenvoudige logische bewerkingen de productie van alle mogelijke kennis. Gottfried Leibniz heeft de ideeën van Llull nieuw leven ingeblazen.

Leibniz, Thomas Hobbes en René Descartes onderzochten in de 16e eeuw het vooruitzicht dat al het rationele denken zou kunnen worden gereduceerd tot algebra of geometrie. De reden, volgens Hobbes, is "niets anders dan een afrekening". Leibniz stelde zich een globale taal van redeneren voor (zijn characteristica universalis) die het debat zou reduceren tot berekening, zodat "er geen discussie meer nodig zou zijn tussen twee filosofen dan tussen twee boekhouders. Want het zou voor hen voldoende zijn hun potloden te pakken. Deze denkers formuleerden voor het eerst de hypothese van het fysieke symboolsysteem, die uiteindelijk de centrale overtuiging van de AI-studie zou worden.

In de 20e eeuw ontwikkelde de logisch-wiskundige logica de cruciale doorbraak waardoor kunstmatige intelligentie praktisch leek. Dergelijke werken legden de basis voor Boole's The Laws of Thought en Frege's Begriffsschrift. In 1913 publiceerden Russell en Whitehead de Principia Mathematica, een formele studie van de grondslagen van de wiskunde, voortbouwend op het systeem van Frege.

De reactie die zij kregen was in twee opzichten onverwacht. Om te beginnen bewezen zij dat er grenzen waren aan wat de wiskundige logica kon bereiken. Ten tweede, en belangrijker (voor AI), gaf hun onderzoek aan dat elke wiskundige gevolgtrekking binnen deze parameters kan worden gemechaniseerd.

De Turingtest

De Turingtest is een langetermijndoel voor AI-onderzoek - zullen we ooit in staat zijn een computer te maken die zich zozeer als een mens kan voordoen dat een achterdochtige rechter het verschil niet kan zien? De test heeft een vergelijkbaar traject gevolgd als veel van het AI-onderzoek sinds zijn ontstaan. Aanvankelijk leek het moeilijk maar toch uitvoerbaar (zodra de hardwaretechnologie zover was).

Ondanks tientallen jaren van studie en aanzienlijke technologische verbeteringen blijft de Turingtest dienen als doel voor AI-onderzoekers, terwijl hij ook laat zien hoe ver we er nog van verwijderd zijn.

In 1950 publiceerde de Engelse wiskundige en computerwetenschapper Alan Turing een artikel getiteld "Computing Machinery and Intelligence", dat de aanzet gaf tot het vakgebied dat bekend zou worden als kunstmatige intelligentie. Dit was jaren voordat John McCarthy de term Kunstmatige Intelligentie bedacht. Het artikel begon met een eenvoudige vraag: "Kunnen machines denken?" Hierna stelde Turing een methode voor om te bepalen of machines kunnen denken, die bekend werd als de Turingtest. Het "Imitatiespel" werd ontwikkeld als een eenvoudige test waarmee zou kunnen worden vastgesteld of machines denken. Door aan te nemen dat een computer die geprogrammeerd is om precies op een intellectueel mens te lijken werkelijk heeft aangetoond dat computers kunnen denken.

Hoewel mensen blijven discussiëren over de vraag of machines kunnen denken en cyberspace kunnen testen, is het duidelijk dat Alan Turing en zijn voorgestelde criterium een krachtige en leerzame visie gaven voor het gebied van AI. Dit document, geschreven door Alan Turing zelf, leverde zijn baanbrekende bijdragen aan het AI-onderzoek en maakte de weg vrij voor de moderne computerwetenschap. De Turing-test wordt algemeen beschouwd als een mijlpaal op het gebied van kunstmatige intelligentie en kan nog vele jaren als doel worden beschouwd, terwijl het ook een mijlpaal is in het volgen van de vooruitgang van het hele AI-veld.

Try AppMaster no-code today!
Platform can build any web, mobile or backend application 10x faster and 3x cheaper
Start Free

Cybernetica en vroege neurale netwerken

De uitvinding van de computer inspireerde het vroege onderzoek naar intelligente machines. Eind jaren dertig, begin jaren veertig en begin jaren vijftig ontstond een samenvloeiing van ideeën die inspireerden tot eerder werk in de neurowetenschappen. Het werk van Norbert Wiener en Claude Shannon richtte zich op de controle en stabiliteit van elektrische netwerken. De informatietheorie van Claude Shannon beschreef digitale signalen (alles-of-niets-signalen). Alan Turing's theoretische notie van computergebruik bewees dat elk soort berekening digitaal kan worden weergegeven. Het nauwe verband tussen deze ideeën suggereerde dat een elektronisch brein zou kunnen worden gebouwd.

Robots zoals de schildpadden van W. Grey Walter en het Johns Hopkins Beest zijn voorbeelden van werk op dit gebied. Deze machines werden aangedreven door analoge elektronica en instinct in plaats van door computers, digitale elektronica of symbolisch redeneren; ze werden volledig bestuurd door analoge schakelingen.

In 1943 onderzochten Walter Pitts en Warren McCulloch netwerken van geïdealiseerde kunstmatige neuronen en toonden zij aan hoe zij logische basisbewerkingen konden uitvoeren. Zij waren de eersten die beschreven wat latere onderzoekers een neuraal netwerk zouden noemen. Een jonge Marvin Minsky, toen 24 jaar oud, werd geïnspireerd door Pitts en McCulloch. In 1951 creëerde hij (samen met Dean Edmonds) de eerste neurale netwerkmachine, de SNARC. De volgende 50 jaar zou Minsky een van de belangrijkste leiders en vernieuwers van AI zijn.

Spel-AI

In 1951 maakten Christopher Strachey en Dietrich Prinz damprogramma's voor de Ferranti Mark 1 machine aan de Universiteit van Manchester. Het damprogramma van Arthur Samuel, dat midden jaren 50 en begin jaren 60 werd gemaakt, bereikte uiteindelijk de vaardigheid op amateurniveau. Het gebruik van AI in spelletjes zou in de geschiedenis blijven bestaan als een maatstaf voor vooruitgang in AI.

Dartmouth Workshop 1956: de geboorte van AI

In 1956 werd de Dartmouth Conferentie georganiseerd door Marvin Minsky, John McCarthy en twee IBM senior wetenschappers: Claude Shannon en Nathan Rochester. "Een machine kan worden gebouwd om elk aspect van menselijke intelligentie te dupliceren," luidde het voorstel. Tot de deelnemers behoorden Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell en Herbert A. Simon - allen zouden in de eerste decennia van hun studie belangrijke AI-projecten opzetten. Op de conferentie onthulden Newell en Simon de "Logic Theorist" terwijl McCarthy er bij de aanwezigen op aandrong om "Artificial Intelligence" te accepteren als de naam van hun vakgebied. De Dartmouth-conferentie van 1956 was de gebeurtenis die AI haar naam, doel en eerste succes gaf, evenals haar hoofdrolspelers en bepalende momenten.

Symbolische AI 1956-1974

Voor de meeste mensen waren de jaren na de Dartmouth Workshop gewoonweg "verbazingwekkend": computers losten woordproblemen uit algebra op, bewezen meetkundige stellingen en leerden Engels praten. Aan het eind van de jaren zestig hadden weinigen gedacht dat dergelijk "intelligent" gedrag van machines denkbaar was. Privé en in gedrukte vorm spraken academici het grote optimisme uit dat binnen minder dan 20 jaar een volledig intelligente machine zou worden ontwikkeld. Het nieuwe gebied trok aanzienlijke financiering aan van overheidsinstellingen zoals DARPA.

De eerste AI-winter 1974-1980

In de jaren zeventig kreeg AI te maken met kritiek en financiële tegenslagen. De moeilijkheden waarmee AI-onderzoekers werden geconfronteerd, werden door hen niet onderkend. Hun hoge verwachtingen waren veel hoger gespannen dan redelijk was, en toen de beloofde voordelen uitbleven, verdween de overheidsfinanciering voor AI. Tegelijkertijd, tien jaar na Marvin Minsky's vernietigende kritiek op perceptoren, sluimerde het connectionisme (of neurale netwerken). Ondanks de negatieve kijk van het publiek op AI in de late jaren 1970, werden nieuwe ideeën verkend in logische programmering, gezond verstand redeneren, en een verscheidenheid aan andere gebieden.

Boom 1980-1987

Vanaf de begindagen van AI was kennis een belangrijk aandachtspunt. Expertsystemen, een vorm van AI-programma, werden in de jaren tachtig wereldwijd door bedrijven overgenomen en kennis werd de kern van het AI-onderzoek. In de jaren negentig investeerde de Japanse regering zwaar in AI met haar vijfde-generatiecomputerinitiatief. De heropleving van het connectionisme in het werk van John Hopfield en David Rumelhart begin jaren tachtig was een ander bemoedigend moment. Opnieuw was AI geslaagd.

De tweede AI-winter 1987-1993

In de jaren tachtig volgde de aandacht van het bedrijfsleven voor AI het klassieke patroon van een economische zeepbel. De crash werd veroorzaakt doordat commerciële leveranciers niet in staat waren verschillende werkbare oplossingen te produceren. Honderden bedrijven gingen failliet en veel investeerders weigerden erin te investeren. Velen geloofden dat de technologie niet levensvatbaar was, maar toch bleef het onderzoek doorgaan. Talrijke deskundigen, zoals Rodney Brooks en Hans Moravec, pleitten voor een radicaal nieuw soort AI.

AI 1993-2011

Het meer dan een halve eeuw oude gebied van de kunstmatige intelligentie heeft enkele van zijn meest fundamentele doelstellingen bereikt. Het wordt momenteel effectief gebruikt in de hele technologiesector, zij het enigszins stilletjes. Een deel daarvan was het resultaat van verbeterde computercapaciteit, een ander deel kwam tot stand door zich te concentreren op specifieke geïsoleerde kwesties en te streven naar de hoogste niveaus van wetenschappelijke verantwoording. En toch was de reputatie van AI in het bedrijfsleven niet zo geweldig. Binnen het vakgebied was er beperkte overeenstemming over waarom AI in de jaren zestig zijn belofte van intelligentie op menselijk niveau niet had kunnen waarmaken. AI was opgesplitst in een aantal verschillende disciplines die zich elk op een ander probleem of een andere methode richtten, maar toch de illusie wekten dat zij naar hetzelfde doel streefden.

Try AppMaster no-code today!
Platform can build any web, mobile or backend application 10x faster and 3x cheaper
Start Free

De "overwinning van de neats"

Onderzoekers van kunstmatige intelligentie begonnen in een hoger tempo dan ooit tevoren geavanceerde wiskundige benaderingen te creëren en te gebruiken. Veel van de problemen die AI moest aanpakken werden al aangepakt door academici op gebieden als wiskunde, elektrotechniek, economie en operationeel onderzoek. De gemeenschappelijke wiskundige taal maakte meer samenwerking tussen verschillende vakgebieden en het bereiken van meetbare en controleerbare resultaten mogelijk; AI was nu een serieuzere "wetenschappelijke" discipline geworden, aldus Russell & Norvig (2003).

Waarschijnlijkheids- en beslissingstheorie zijn in AI opgenomen sinds het invloedrijke werk van Judea Pearl in 1988 de waarschijnlijkheids- en beslissingstheorie in het vakgebied introduceerde. Bayesiaanse netwerken, verborgen Markov-modellen, informatietheorie, stochastische modellering en klassieke optimalisatie zijn slechts enkele van de vele nieuwe technieken die zijn toegepast. Er werden ook wiskundige representaties ontwikkeld voor "computationele intelligentie"-paradigma's zoals neurale netwerken en evolutionaire algoritmen.

Voorspellingen (of "Waar is HAL 9000?")

In 1968 voorspelden Arthur C. Clarke en Stanley Kubrick dat in 2001 een machine een intellect zou hebben dat vergelijkbaar is met of groter is dan dat van de mens. HAL 9000, het AI-personage dat zij ontwierpen, was gebaseerd op het idee van veel top-AI-experts dat zo'n apparaat tegen 2001 ontwikkeld zou zijn.

In 2016 bedroeg de markt voor AI-gerelateerde goederen, hardware en software meer dan 8 miljard dollar, waarbij de belangstelling voor AI een "manie" bereikte. De toepassingen van big data beginnen verder te reiken dan het terrein van de statistiek. Big data werden bijvoorbeeld gebruikt om modellen te trainen in de ecologie en voor diverse economische toepassingen. De vooruitgang in deep learning (met name diepe convolutionele neurale netwerken en terugkerende neurale netwerken) heeft geleid tot vooruitgang en onderzoek op het gebied van beeld- en videoverwerking, tekstanalyse en zelfs spraakherkenning.

Grote gegevens

Big data is een term die wordt gebruikt om enorme hoeveelheden numerieke gegevens te beschrijven die de mogelijkheden van typische toepassingssoftware te boven gaan. Het vereist een geheel nieuwe reeks verwerkingsmodellen om dit niveau van besluitvorming, inzicht en procesoptimalisatie aan te kunnen. In het Big Data-tijdperk definiëren Victor Meyer Schonberg en Kenneth Cooke big data als "alle gegevens worden gebruikt voor analyse in plaats van willekeurige evaluatie (steekproefonderzoek)".

Hieronder volgen vijf belangrijke kenmerken van big data: Volume, Velocity, Variety, Value en Veracity (voorgesteld door IBM). De betekenis van big data-technologie is niet het beheersen van enorme gegevensinformatie, maar het focussen op de belangrijke bits. Anders gezegd, als big data wordt vergeleken met de economie, is de sleutel tot winstgevendheid in deze sector het verbeteren van de "procesmogelijkheid" van de gegevens en het omzetten ervan in "toegevoegde waarde".

Kunstmatige algemene intelligentie

Het vermogen om elk probleem op te lossen, in plaats van alleen een specifiek probleem, staat bekend als algemene intelligentie. Kunstmatige algemene intelligentie (of "AGI") verwijst naar software die intellect kan toepassen op uiteenlopende problemen op dezelfde manier als mensen dat kunnen.

AI-onderzoekers betoogden begin jaren 2000 dat de ontwikkeling van AI het oorspronkelijke doel van het vakgebied, het creëren van kunstmatige algemene intelligentie, grotendeels had verlaten. AGI-studie werd opgericht als een aparte subdiscipline en tegen 2010 waren er academische conferenties, laboratoria en universitaire cursussen gewijd aan AGI-onderzoek, evenals particuliere consortia en nieuwe bedrijven.

Kunstmatige algemene intelligentie staat ook bekend als "sterke AI", "volledige AI" of een synthetisch soort intellect in plaats van "zwakke AI" of "smalle AI".

AI in 2022

Kunstmatige intelligentie (AI) is een zakelijke en organisatorische realiteit geworden voor tal van sectoren. Ook al zijn de voordelen van AI niet altijd even duidelijk, toch is gebleken dat het de efficiëntie van processen kan verbeteren, fouten en arbeid kan verminderen en inzichten uit grote gegevens kan halen.

Mensen praten over wat het volgende grote ding in de wereld zal zijn als het gaat om trends die door AI worden aangedreven. Een verzameling van de meest intrigerende AI-trends om op te anticiperen in 2022 wordt hier gepresenteerd:

  • ROI Driven AI implementatie;
  • Videoanalyse;
  • Het 'As a Service' bedrijfsmodel;
  • Verbeterde cyberbeveiliging;
  • AI in de Metaverse;
  • Een gegevensweefsel;
  • AI en ML met het internet der dingen (IoT);
  • AI die hyperautomatisering leidt.

Conclusie

Kunstmatige intelligentie heeft een enorme impact op de toekomst van elke sector van wetenschap, economie, productie en elk mens. Kunstmatige intelligentie heeft vanaf het begin bijgedragen aan de ontwikkeling van innovatieve technologieën zoals big data, robotica en het internet der dingen, en zal zich blijven ontwikkelen.

Gerelateerde berichten

Learning Management System (LMS) versus Content Management System (CMS): Belangrijkste verschillen
Learning Management System (LMS) versus Content Management System (CMS): Belangrijkste verschillen
Ontdek de essentiële verschillen tussen Learning Management Systems en Content Management Systems om onderwijspraktijken te verbeteren en de levering van content te stroomlijnen.
De ROI van elektronische patiëntendossiers (EPD): hoe deze systemen tijd en geld besparen
De ROI van elektronische patiëntendossiers (EPD): hoe deze systemen tijd en geld besparen
Ontdek hoe elektronische patiëntendossiers (EPD)-systemen de gezondheidszorg transformeren met een aanzienlijk rendement op uw investering door de efficiëntie te verbeteren, de kosten te verlagen en de patiëntenzorg te verbeteren.
Cloudgebaseerde voorraadbeheersystemen versus on-premise: welke is geschikt voor uw bedrijf?
Cloudgebaseerde voorraadbeheersystemen versus on-premise: welke is geschikt voor uw bedrijf?
Ontdek de voor- en nadelen van cloudgebaseerde en on-premise voorraadbeheersystemen om te bepalen welke het beste past bij de specifieke behoeften van uw bedrijf.
Ga gratis aan de slag
Geïnspireerd om dit zelf te proberen?

De beste manier om de kracht van AppMaster te begrijpen, is door het zelf te zien. Maak binnen enkele minuten uw eigen aanvraag met een gratis abonnement

Breng uw ideeën tot leven