Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Cronologia dell'intelligenza artificiale AI - Aggiornamento 2022

Cronologia dell'intelligenza artificiale AI - Aggiornamento 2022

Approfondiamo questo tema dall'antichità fino al 2022.

L'antichità

L'intelligenza artificiale (IA) è iniziata con miti, leggende e storie di esseri artificiali dotati di intelletto o consapevolezza creati da maestri artigiani. I primi filosofi greci cercarono di rappresentare il processo di pensiero umano come una manipolazione di simboli simile a una macchina per formare teorie.

Narrativa successiva

Le idee sugli uomini artificiali e sulle macchine pensanti sono nate nella narrativa, come Frankenstein di Mary Shelley o R.U.R. (Rossum's Universal Robots) di Karel Čapek, e nella speculazione, come "Darwin tra le macchine" di Samuel Butler, e in eventi reali, come "Il giocatore di scacchi di Maelzel" di Edgar Allan Poe.

Gli automi

Artigiani di ogni civiltà, tra cui Yan Shi, Eroe di Alessandria, Al-Jazari, Pierre Jaquet-Droz e Wolfgang von Kempelen, hanno ideato automi umanoidi realistici. Le antiche statue sacre egizie e greche furono i primi automi conosciuti. I fedeli credevano che gli artigiani avessero dotato queste figure di una vera e propria mente. Nel Medioevo si diceva che questi leggendari automi rispondessero alle domande che venivano loro rivolte.

Ragionamento formale

L'intelligenza artificiale si basa sull'idea che il pensiero umano possa essere meccanizzato. Sono stati condotti molti studi sul "ragionamento formale" o "meccanico". I filosofi cinesi, indiani e greci hanno inventato metodologie di deduzione formale nel primo millennio a.C.. Le svilupparono filosofi come Aristotele (che scrisse un'analisi rigorosa del sillogismo), Euclide (i cui Elementi erano un modello di ragionamento formale), al-Khwārizmī (che creò l'algebra e a cui si attribuisce il nome di "algoritmo") e pensatori scolastici europei come Guglielmo di Ockham.

Il filosofo spagnolo Raimondo Lullo (1232-1315) creò diverse macchine logiche per creare conoscenza attraverso procedure logiche; si riferiva ai suoi dispositivi come a esseri meccanici in grado di combinare fatti fondamentali e indiscutibili utilizzando semplici operazioni logiche per produrre tutta la conoscenza possibile. Gottfried Leibniz riprese le idee di Lullo.

Nel XVI secolo Leibniz, Thomas Hobbes e René Descartes studiarono la prospettiva che tutto il pensiero razionale potesse essere ridotto all'algebra o alla geometria. La ragione, secondo Hobbes, "non è altro che un calcolo". Leibniz immaginava un linguaggio globale del ragionamento (la sua characteristica universalis) che avrebbe ridotto il dibattito al calcolo in modo che "non ci sarebbe più bisogno di disputare tra due filosofi che tra due contabili. Sarebbe infatti sufficiente che prendessero le loro matite. Questi pensatori articolarono per primi l'ipotesi del sistema di simboli fisici, che sarebbe poi diventata la convinzione centrale dello studio dell'intelligenza artificiale.

Nel XX secolo, la logica-matematica sviluppò la svolta cruciale che fece sembrare pratica l'intelligenza artificiale. Questi lavori gettarono le basi per Le leggi del pensiero di Boole e la Begriffsschrift di Frege. Nel 1913, Russell e Whitehead pubblicarono i Principia Mathematica, uno studio formale dei fondamenti della matematica, basato sul sistema di Frege.

La risposta che ottennero fu inaspettata sotto due aspetti. Innanzitutto, dimostrarono che esistevano dei limiti a ciò che la logica matematica poteva realizzare. Tuttavia, secondo e più significativo (per l'IA), la loro ricerca indicava che qualsiasi inferenza matematica poteva essere meccanizzata entro questi parametri.

Il test di Turing

Il test di Turing è un obiettivo a lungo termine per la ricerca sull'IA: saremo mai in grado di creare un computer in grado di impersonare un essere umano in modo tale che un giudice sospettoso non possa distinguerlo? Il test ha seguito un percorso simile a quello di gran parte della ricerca sull'IA fin dai suoi esordi. Inizialmente, sembrava essere difficile ma fattibile (una volta raggiunta la tecnologia hardware).

Nonostante decenni di studi e significativi miglioramenti tecnologici, il test di Turing continua a rappresentare un obiettivo per i ricercatori di IA, rivelando al contempo quanto siamo lontani dal raggiungerlo.

Nel 1950, il matematico e informatico inglese Alan Turing pubblicò un articolo intitolato "Computing Machinery and Intelligence", che diede il via al campo che sarebbe diventato noto come intelligenza artificiale. Questo avvenne anni prima che John McCarthy coniasse il termine Intelligenza Artificiale. L'articolo iniziava con una semplice domanda: "Le macchine possono pensare?". In seguito, Turing propose un metodo per determinare se le macchine possono pensare, che divenne noto come test di Turing. Il "gioco dell'imitazione" fu sviluppato come un semplice test da utilizzare per determinare se le macchine pensano. L'ipotesi che un computer programmato per sembrare esattamente come un umano intellettuale abbia davvero dimostrato che i computer possono pensare.

Try AppMaster no-code today!
Platform can build any web, mobile or backend application 10x faster and 3x cheaper
Start Free

Sebbene si continui a discutere se le macchine possano pensare e testare il cyberspazio, è chiaro che Alan Turing e il criterio da lui proposto hanno fornito una visione potente e istruttiva per il campo dell'IA. Questo documento, scritto dallo stesso Alan Turing, ha fornito il suo contributo fondamentale alla ricerca sull'IA e ha aperto la strada alla moderna informatica. Il test di Turing è ampiamente considerato una pietra miliare nel campo dell'intelligenza artificiale e può essere considerato un obiettivo per molti anni a venire, oltre che una pietra miliare nel tracciare i progressi dell'intero campo dell'IA.

Cibernetica e prime reti neurali

L'invenzione del computer ha ispirato le prime ricerche sulle macchine intelligenti. Alla fine degli anni Trenta, negli anni Quaranta e all'inizio degli anni Cinquanta è emersa una confluenza di idee che ha ispirato i lavori precedenti delle neuroscienze. I lavori di Norbert Wiener e Claude Shannon si concentrarono sul controllo e sulla stabilità delle reti elettriche. La teoria dell'informazione di Claude Shannon descriveva i segnali digitali (segnali tutto-o-nulla). La nozione teorica di calcolo di Alan Turing ha dimostrato che qualsiasi tipo di calcolo può essere rappresentato digitalmente. Lo stretto legame tra queste idee suggerì la possibilità di costruire un cervello elettronico.

Robot come le tartarughe di W. Grey Walter e la Bestia di Johns Hopkins sono esempi di lavoro in questo campo. Queste macchine erano guidate dall'elettronica analogica e dall'istinto piuttosto che da computer, elettronica digitale o ragionamento simbolico; erano interamente controllate da circuiti analogici.

Nel 1943, Walter Pitts e Warren McCulloch studiarono reti di neuroni artificiali idealizzati e dimostrarono come potessero eseguire operazioni logiche di base. Furono i primi a descrivere ciò che i ricercatori successivi avrebbero definito rete neurale. Un giovane Marvin Minsky, allora 24enne, fu ispirato da Pitts e McCulloch. Nel 1951, insieme a Dean Edmonds, creò la prima macchina a rete neurale, la SNARC. Per i successivi 50 anni, Minsky sarebbe stato uno dei più importanti leader e innovatori dell'IA.

IA dei giochi

Nel 1951, Christopher Strachey e Dietrich Prinz crearono programmi di dama per la macchina Ferranti Mark 1 dell'Università di Manchester. Il programma di dama di Arthur Samuel, creato tra la metà degli anni '50 e l'inizio degli anni '60, raggiunse un livello di abilità amatoriale. L'uso dell'IA nei giochi sarebbe rimasto nella storia come metro di misura per i progressi dell'IA.

Dartmouth Workshop 1956: la nascita dell'IA

Nel 1956, la conferenza di Dartmouth fu ospitata da Marvin Minsky, John McCarthy e due scienziati senior dell'IBM: Claude Shannon e Nathan Rochester. La proposta recitava: "Si può costruire una macchina in grado di duplicare qualsiasi aspetto dell'intelligenza umana". Tra i partecipanti c'erano Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell e Herbert A. Simon, tutti personaggi che avrebbero dato vita a importanti progetti di intelligenza artificiale nei primi decenni di studio. Alla conferenza, Newell e Simon presentarono il "Logic Theorist", mentre McCarthy esortò i partecipanti ad accettare "Artificial Intelligence" come nome del loro campo. La conferenza di Dartmouth del 1956 è stata l'evento che ha dato all'IA il suo nome, il suo scopo e il suo primo successo, nonché i suoi protagonisti e i momenti salienti.

IA simbolica 1956-1974

Per la maggior parte delle persone, gli anni successivi al Dartmouth Workshop furono semplicemente "stupefacenti": i computer risolvevano problemi di algebra, dimostravano teoremi geometrici e imparavano a parlare inglese. Alla fine degli anni Sessanta, pochi avrebbero pensato che un comportamento così "intelligente" da parte delle macchine fosse concepibile. In privato e sulla stampa, gli accademici esprimevano grande ottimismo sul fatto che una macchina completamente intelligente sarebbe stata sviluppata in meno di 20 anni. Il nuovo campo attirava finanziamenti significativi da parte di agenzie governative come la DARPA.

Try AppMaster no-code today!
Platform can build any web, mobile or backend application 10x faster and 3x cheaper
Start Free

Il primo inverno dell'IA 1974-1980

Negli anni Settanta, l'IA dovette affrontare critiche e battute d'arresto finanziarie. I ricercatori di IA non si rendevano conto delle difficoltà che stavano affrontando. Le loro enormi aspettative erano state innalzate ben oltre il ragionevole e, quando i benefici promessi non si manifestarono, i finanziamenti governativi per l'IA svanirono. Allo stesso tempo, per dieci anni dopo la devastante critica di Marvin Minsky ai percettori, il campo del connessionismo (o reti neurali) rimase inattivo. Nonostante la visione negativa che l'opinione pubblica aveva dell'IA alla fine degli anni Settanta, vennero esplorate nuove idee nella programmazione logica, nel ragionamento di senso compiuto e in una serie di altri campi.

Boom 1980-1987

Fin dai primi giorni dell'IA, la conoscenza è stata una delle principali preoccupazioni. Negli anni '80 i sistemi esperti, una forma di programma di IA, furono adottati dalle aziende di tutto il mondo e la conoscenza divenne il fulcro della ricerca sull'IA. Negli anni '90, il governo giapponese ha investito pesantemente nell'IA con la sua iniziativa sui computer di quinta generazione. La rinascita del connessionismo nelle opere di John Hopfield e David Rumelhart all'inizio degli anni '80 fu un altro momento incoraggiante. Ancora una volta, l'IA aveva avuto successo.

Il secondo inverno dell'IA 1987-1993

Negli anni '80, l'attenzione del mondo imprenditoriale per l'IA seguì il classico schema di una bolla economica. Il crollo fu causato dall'incapacità dei fornitori commerciali di produrre una serie di soluzioni praticabili. Centinaia di aziende fallirono e molti investitori si rifiutarono di investire in esse. Molti ritenevano che la tecnologia non fosse praticabile, eppure la ricerca continuava a progredire. Numerosi esperti, come Rodney Brooks e Hans Moravec, si sono espressi a favore di un tipo di IA radicalmente nuovo.

IA 1993-2011

Il campo dell'intelligenza artificiale, che ha più di mezzo secolo, ha raggiunto alcuni dei suoi obiettivi fondamentali. Attualmente viene utilizzata efficacemente in tutto il settore tecnologico, anche se in modo un po' silenzioso. Alcuni di questi risultati sono stati ottenuti grazie al miglioramento delle capacità di calcolo, mentre altri sono stati raggiunti concentrandosi su questioni specifiche e isolate e sforzandosi di raggiungere i più alti livelli di responsabilità scientifica. Tuttavia, la reputazione dell'IA nel mondo degli affari non era delle migliori. All'interno del settore, c'era un accordo limitato sui motivi per cui l'IA non era stata in grado di mantenere la promessa di un'intelligenza di livello umano negli anni Sessanta. L'IA era suddivisa in una serie di discipline distinte, ognuna delle quali si concentrava su un problema o un metodo diverso, pur dando l'illusione di lavorare per lo stesso obiettivo.

La "vittoria dei neat"

I ricercatori di intelligenza artificiale cominciarono a creare e a utilizzare approcci matematici sofisticati a un ritmo superiore rispetto al passato. Molti dei problemi che l'intelligenza artificiale doveva affrontare erano già stati affrontati da accademici in campi come la matematica, l'ingegneria elettrica, l'economia e la ricerca operativa. Il linguaggio matematico condiviso ha permesso una maggiore collaborazione tra campi diversi e il raggiungimento di risultati misurabili e verificabili; l'IA è diventata una disciplina "scientifica" più seria, secondo Russell e Norvig (2003).

La teoria delle probabilità e delle decisioni è stata incorporata nell'IA a partire dall'influente lavoro di Judea Pearl del 1988, che ha introdotto la teoria delle probabilità e delle decisioni nel campo. Reti bayesiane, modelli di Markov nascosti, teoria dell'informazione, modellazione stocastica e ottimizzazione classica sono solo alcune delle nuove tecniche utilizzate. Sono state inoltre sviluppate rappresentazioni matematiche per paradigmi di "intelligenza computazionale" come le reti neurali e gli algoritmi evolutivi.

Try AppMaster no-code today!
Platform can build any web, mobile or backend application 10x faster and 3x cheaper
Start Free

Previsioni (o "Dov'è HAL 9000?")

Nel 1968, Arthur C. Clarke e Stanley Kubrick predissero che entro il 2001 una macchina avrebbe avuto un'intelligenza paragonabile o superiore a quella umana. HAL 9000, il personaggio dell'IA da loro progettato, si basava sull'idea di molti esperti di IA che un tale dispositivo sarebbe stato sviluppato entro il 2001.

Nel 2016, il mercato dei prodotti, dell'hardware e del software legati all'IA ha superato gli 8 miliardi di dollari e l'interesse per l'IA ha raggiunto la "mania". Le applicazioni dei big data hanno iniziato a estendersi oltre il campo della statistica. Ad esempio, i big data sono stati utilizzati per addestrare modelli in ecologia e per una serie di applicazioni economiche. I progressi nell'apprendimento profondo (in particolare le reti neurali convoluzionali profonde e le reti neurali ricorrenti) hanno alimentato i progressi e la ricerca nell'elaborazione di immagini e video, nell'analisi del testo e persino nel riconoscimento vocale.

Grandi dati

Big Data è un termine usato per descrivere enormi quantità di dati numerici che vanno oltre le capacità dei tipici software applicativi. Per gestire questo livello di processo decisionale, di approfondimento e di ottimizzazione dei processi, è necessaria una serie di modelli di elaborazione completamente nuovi. Nell'era dei Big Data, Victor Meyer Schonberg e Kenneth Cooke definiscono i Big Data come "tutti i dati vengono utilizzati per l'analisi invece che per la valutazione casuale (indagine a campione)".

Le cinque caratteristiche importanti dei big data sono le seguenti: Volume, Velocità, Varietà, Valore e Veracità (proposta da IBM). Il significato della tecnologia dei big data non è quello di dominare enormi informazioni, ma di concentrarsi sulle parti importanti. In altre parole, se i big data sono paragonati all'economia, la chiave della redditività in questo settore è migliorare la "capacità di processo" dei dati e trasformarli in "valore aggiunto".

Intelligenza artificiale generale

La capacità di risolvere qualsiasi problema, piuttosto che solo uno specifico, è nota come intelligenza generale. L'intelligenza artificiale generale (o "AGI") si riferisce al software che può applicare l'intelletto a una varietà di problemi nello stesso modo in cui può farlo l'uomo.

All'inizio degli anni 2000, i ricercatori di IA hanno sostenuto che lo sviluppo dell'IA aveva in gran parte abbandonato l'obiettivo originario del campo di creare un'intelligenza artificiale generale. Lo studio dell'intelligenza artificiale generale è stato istituito come sottodisciplina separata e nel 2010 sono state organizzate conferenze accademiche, laboratori e corsi universitari dedicati alla ricerca sull'intelligenza artificiale generale, oltre a consorzi privati e nuove aziende.

L'intelligenza artificiale generale è nota anche come "IA forte", "IA completa" o un tipo di intelletto sintetico piuttosto che "IA debole" o "IA ristretta".

L'IA nel 2022

L'intelligenza artificiale (AI) è diventata una realtà aziendale e organizzativa per numerosi settori. Anche se i vantaggi dell'IA non sono sempre immediatamente evidenti, ha dimostrato di essere in grado di migliorare l'efficienza dei processi, di ridurre gli errori e la manodopera e di estrarre informazioni dai big data.

Si parla sempre più spesso di quale sarà la prossima grande novità nel mondo delle tendenze basate sull'IA. Qui viene presentata una raccolta delle più interessanti tendenze dell'IA da prevedere per il 2022:

  • Implementazione dell'IA guidata dal ROI;
  • Analisi video;
  • Il modello di business "As a Service";
  • Miglioramento della cybersicurezza;
  • L'IA nel Metaverso;
  • Un tessuto di dati;
  • AI e ML con l'Internet delle cose (IoT);
  • L'IA alla guida dell'iper-automazione.

Conclusioni

L'intelligenza artificiale ha un enorme impatto sul futuro di ogni settore della scienza, dell'economia, della produzione e di ogni persona. L'intelligenza artificiale ha contribuito allo sviluppo di tecnologie innovative come i big data, la robotica e l'Internet delle cose fin dall'inizio e continuerà a svilupparsi.

Post correlati

Come le piattaforme di telemedicina possono aumentare i ricavi della tua pratica
Come le piattaforme di telemedicina possono aumentare i ricavi della tua pratica
Scopri come le piattaforme di telemedicina possono aumentare i ricavi del tuo studio offrendo un migliore accesso ai pazienti, riducendo i costi operativi e migliorando l'assistenza.
Il ruolo di un LMS nell'istruzione online: trasformare l'e-learning
Il ruolo di un LMS nell'istruzione online: trasformare l'e-learning
Scopri come i sistemi di gestione dell'apprendimento (LMS) stanno trasformando l'istruzione online migliorando l'accessibilità, il coinvolgimento e l'efficacia pedagogica.
Caratteristiche principali da ricercare quando si sceglie una piattaforma di telemedicina
Caratteristiche principali da ricercare quando si sceglie una piattaforma di telemedicina
Scopri le funzionalità critiche delle piattaforme di telemedicina, dalla sicurezza all'integrazione, per garantire un'erogazione di assistenza sanitaria a distanza fluida ed efficiente.
Inizia gratis
Ispirato a provarlo tu stesso?

Il modo migliore per comprendere il potere di AppMaster è vederlo di persona. Crea la tua applicazione in pochi minuti con l'abbonamento gratuito

Dai vita alle tue idee