Plongeons-nous dans ce sujet depuis les temps anciens jusqu'en 2022.

Antiquité

L'intelligence artificielle (IA) a commencé avec des mythes, des légendes et des histoires sur des êtres artificiels dotés d'intellect ou de conscience créés par des maîtres artisans. Les premiers philosophes grecs ont tenté de décrire le processus de pensée humaine comme une manipulation de symboles semblable à une machine pour former des théories.

Fiction ultérieure

Des idées sur les hommes artificiels et les machines pensantes ont été créées dans la fiction, comme Frankenstein de Mary Shelley ou RUR (Rossum's Universal Robots) de Karel Čapek, et la spéculation, comme "Darwin parmi les machines" de Samuel Butler, et dans des événements du monde réel, y compris Edgar "Le joueur d'échecs de Maelzel" d'Allan Poe.

Automates

Des artisans de toutes les civilisations, dont Yan Shi, héros d'Alexandrie, Al-Jazari, Pierre Jaquet-Droz et Wolfgang von Kempelen, ont conçu des automates humanoïdes réalistes. Les anciennes statues sacrées égyptiennes et grecques ont été les premiers automates connus. Les fidèles croyaient que les artisans avaient doté ces personnages d'esprits réels. À l'époque médiévale, ces automates légendaires répondaient aux requêtes qui leur étaient adressées.

Raisonnement formel

L'intelligence artificielle est basée sur l'idée que la pensée humaine peut être mécanisée. Il y a eu beaucoup d'études sur le « raisonnement » formel – ou « mécanique ». Les philosophes chinois, indiens et grecs ont inventé les méthodologies formelles de déduction du premier millénaire avant notre ère. Ils ont été développés par des philosophes tels qu'Aristote (qui a écrit une analyse rigoureuse du syllogisme), Euclide (dont les Éléments étaient un modèle de raisonnement formel), al-Khwārizmī (qui a créé l'algèbre et est crédité d'avoir donné son nom à "algorithme" ), et des penseurs scolastiques européens tels que Guillaume d'Ockham.

Le philosophe espagnol Ramon Llull (1232-1315) a créé plusieurs machines logiques pour créer des connaissances via des procédures logiques ; il a qualifié ses appareils d'êtres mécaniques capables de combiner des faits fondamentaux et indiscutables à l'aide d'opérations logiques simples la production de toutes les connaissances possibles. Gottfried Leibniz a relancé les idées de Llull.

Leibniz, Thomas Hobbes et René Descartes ont étudié la perspective au XVIe siècle que toute pensée rationnelle pourrait être réduite à l'algèbre ou à la géométrie. La raison, selon Hobbes, n'est "rien d'autre qu'un calcul". Leibniz a imaginé un langage global du raisonnement (sa featurea universalis) qui réduirait le débat au calcul pour qu'"il n'y ait pas plus besoin de dispute entre deux philosophes qu'entre deux comptables. Car il leur suffirait de prendre leurs crayons". Les penseurs ont d'abord formulé l'hypothèse du système de symboles physiques, qui deviendrait finalement la croyance centrale de l'étude de l'IA.

Au 20ème siècle, la logique logico-mathématique a développé la percée cruciale qui a rendu l'intelligence artificielle pratique. Ces travaux ont jeté les bases des lois de la pensée de Boole et du Begriffsschrift de Frege. En 1913, Russell et Whitehead ont publié les Principia Mathematica, une étude formelle des fondements des mathématiques, basée sur le système de Frege.

La réponse qu'ils ont obtenue était inattendue à deux égards. Pour commencer, ils ont prouvé qu'il y avait des limites à ce que la logique mathématique pouvait accomplir. Cependant, deuxièmement et plus important (pour l'IA), leurs recherches ont indiqué que toute inférence mathématique pourrait être mécanisée dans ces paramètres.

Le test de Turing

Le test de Turing est un objectif à long terme pour la recherche sur l'IA - serons-nous jamais capables de créer un ordinateur qui peut suffisamment se faire passer pour un humain pour qu'un juge suspect ne puisse pas faire la différence ? Il a suivi un chemin similaire à une grande partie de la recherche sur l'IA depuis sa création. Au départ, cela semblait difficile mais faisable (une fois la technologie matérielle atteinte).

Malgré des décennies d'études et d'importantes améliorations technologiques, le test de Turing continue de servir d'objectif aux chercheurs en IA tout en révélant à quel point nous sommes loin de l'atteindre.

En 1950, le mathématicien et informaticien anglais Alan Turing a publié un article intitulé "Computing Machinery and Intelligence", qui a lancé le domaine qui allait devenir l'intelligence artificielle. C'était des années avant que John McCarthy n'invente le terme intelligence artificielle. L'article commençait par une simple question : « Les machines peuvent-elles penser ? Après cela, Turing a proposé une méthode pour déterminer si les machines peuvent penser, connue sous le nom de test de Turing. Le "jeu d'imitation" a été développé comme un test simple qui pourrait être utilisé pour déterminer si les machines pensaient. En supposant qu'un ordinateur programmé pour ressembler exactement à un humain intellectuel a vraiment démontré que les ordinateurs peuvent penser.

Bien que les gens continuent de se demander si les machines peuvent penser et tester le cyberespace, il est clair qu'Alan Turing et son critère proposé ont fourni une vision puissante et instructive pour le domaine de l'IA. Cet article, écrit par Alan Turing lui-même, a fourni ses contributions fondamentales à la recherche sur l'IA et a ouvert la voie à l'informatique moderne. Le test de Turing est largement considéré comme un point de repère dans le domaine de l'intelligence artificielle et peut être considéré comme un objectif pour de nombreuses années à venir tout en étant également une étape importante dans le suivi des progrès de l'ensemble du domaine de l'IA.

Cybernétique et premiers réseaux de neurones

L'invention de l'ordinateur a inspiré les premières recherches sur les machines intelligentes. Une confluence d'idées a émergé à la fin des années 1930, 1940 et au début des années 1950, inspirant des travaux antérieurs en neurosciences. Les travaux de Norbert Wiener et Claude Shannon ont porté sur le contrôle et la stabilité des réseaux électriques. La théorie de l'information de Claude Shannon décrit les signaux numériques (signaux tout ou rien). La notion théorique d'Alan Turing sur l'informatique a prouvé que n'importe quel type de calcul peut être représenté numériquement. Le lien étroit entre ces idées suggérait qu'un cerveau électronique pourrait être construit.

Des robots comme les tortues de W. Gray Walter, ainsi que la bête de Johns Hopkins, sont des exemples de travail dans ce domaine. Ces machines étaient pilotées par l'électronique analogique et l'instinct plutôt que par les ordinateurs, l'électronique numérique ou le raisonnement symbolique ; ils étaient entièrement contrôlés par des circuits analogiques.

En 1943, Walter Pitts et Warren McCulloch ont étudié des réseaux de neurones artificiels idéalisés et ont démontré comment ils pouvaient effectuer des opérations logiques de base. Ils ont été les premiers à décrire ce que les chercheurs appelleront plus tard un réseau de neurones. Un jeune Marvin Minsky, alors étudiant diplômé de 24 ans, a été inspiré par Pitts et McCulloch. En 1951 (avec Dean Edmonds), il crée la première machine à réseau de neurones, le SNARC. Au cours des 50 prochaines années, Minsky serait l'un des leaders et des innovateurs les plus importants de l'IA.

IA du jeu

En 1951, Christopher Strachey et Dietrich Prinz ont créé des programmes de dames pour la machine Ferranti Mark 1 à l'Université de Manchester. Le programme de dames d'Arthur Samuel, créé au milieu des années 50 et au début des années 60, a finalement atteint le niveau amateur. L'utilisation de l'IA dans les jeux perdurera tout au long de l'histoire en tant que mesure de l'avancement de l'IA.

Dartmouth Workshop 1956 : la naissance de l'IA

En 1956, la conférence de Dartmouth a été organisée par Marvin Minsky, John McCarthy et deux scientifiques principaux d'IBM : Claude Shannon et Nathan Rochester. "Une machine peut être construite pour dupliquer n'importe quel aspect de l'intelligence humaine", indique la proposition. Les participants comprenaient Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell et Herbert A. Simon, qui ont tous continué à créer d'importants projets d'IA au cours des premières décennies d'études. Lors de la conférence, Newell et Simon ont dévoilé le "théoricien de la logique" tandis que McCarthy a exhorté les participants à accepter "l'intelligence artificielle" comme nom de leur domaine. La conférence de Dartmouth de 1956 a été l'événement qui a donné à l'IA son nom, son objectif et son premier succès, ainsi que ses acteurs clés et ses moments déterminants.

IA symbolique 1956–1974

Pour la plupart des gens, les années qui ont suivi l'atelier de Dartmouth étaient tout simplement « stupéfiantes » : les ordinateurs résolvaient des problèmes d'algèbre, prouvaient des théorèmes géométriques et apprenaient à parler anglais. À la fin des années 1960, peu de gens auraient pensé qu'un tel comportement "intelligent" des machines était concevable. En privé et sur papier, les universitaires ont exprimé leur grand optimisme quant à la mise au point d'une machine pleinement intelligente en moins de 20 ans. Le nouveau domaine a attiré un financement important d'agences gouvernementales comme la DARPA.

Le premier hiver AI 1974-1980

Dans les années 1970, l'IA a fait face à des critiques et à des revers financiers. Les difficultés auxquelles les chercheurs en IA étaient confrontés n'étaient pas reconnues par eux. Leurs énormes attentes avaient été élevées bien au-delà de ce qui était raisonnable, et lorsque les avantages promis ne se sont pas concrétisés, le financement gouvernemental pour l'IA a disparu. Dans le même temps, pendant dix ans après la critique dévastatrice des perceptrons par Marvin Minsky, le domaine du connexionnisme (ou réseaux de neurones) est resté en sommeil. Malgré la vision négative du public sur l'IA à la fin des années 1970, de nouvelles idées ont été explorées dans la programmation logique, le raisonnement de bon sens et une variété d'autres domaines.

Boum 1980–1987

Dès les premiers jours de l'IA, la connaissance était une préoccupation majeure. Les systèmes experts, une forme de programme d'IA, ont été adoptés par des entreprises du monde entier dans les années 1980 et la connaissance est devenue le centre de la recherche principale sur l'IA. Dans les années 1990, le gouvernement japonais a fortement investi dans l'IA avec son initiative informatique de cinquième génération. La résurgence du connexionnisme dans les œuvres de John Hopfield et David Rumelhart au début des années 1980 a été un autre moment encourageant. Encore une fois, l'IA avait réussi.

Le deuxième hiver AI 1987–1993

Dans les années 1980, l'attention du monde des affaires à l'IA a suivi le schéma classique d'une bulle économique. Le crash a été causé par l'incapacité des fournisseurs commerciaux à produire une variété de solutions viables. Des centaines d'entreprises ont fait faillite et de nombreux investisseurs ont refusé d'y investir. Beaucoup pensaient que la technologie n'était pas viable, mais la recherche continuait de progresser. De nombreux experts, tels que Rodney Brooks et Hans Moravec, ont plaidé pour un type d'IA radicalement nouveau.

IA 1993–2011

Le domaine de l'intelligence artificielle, qui a plus d'un demi-siècle, a atteint certains de ses objectifs les plus élémentaires. Il est actuellement utilisé efficacement dans tout le secteur de la technologie, bien qu'un peu discrètement. Certaines d'entre elles résultaient de l'amélioration des capacités informatiques, tandis que d'autres résultaient de la concentration sur des problèmes spécifiques isolés et de la volonté d'atteindre les plus hauts niveaux de responsabilité scientifique. Et pourtant, la réputation de l'IA dans le monde des affaires était moins que stellaire. Dans le domaine, il y avait peu d'accord sur les raisons pour lesquelles l'IA n'avait pas pu tenir sa promesse d'intelligence au niveau humain dans les années 1960. L'IA a été scindée en un certain nombre de disciplines distinctes, chacune se concentrant sur un problème ou une méthode différente, tout en donnant néanmoins l'illusion qu'elles travaillaient vers le même objectif.

La "victoire des nets"

Les chercheurs en intelligence artificielle ont commencé à créer et à utiliser des approches mathématiques sophistiquées à un rythme plus rapide qu'auparavant. De nombreux problèmes auxquels l'IA devait s'attaquer étaient déjà abordés par des universitaires dans des domaines tels que les mathématiques, l'électrotechnique, l'économie et la recherche opérationnelle. Le langage mathématique partagé a permis une plus grande collaboration entre divers domaines et l'obtention de résultats mesurables et vérifiables ; L'IA était désormais devenue une discipline "scientifique" plus sérieuse, selon Russell & Norvig (2003).

La théorie des probabilités et de la décision a été intégrée à l'IA depuis que les travaux influents de Judea Pearl en 1988 ont introduit la théorie des probabilités et de la décision dans le domaine. Les réseaux bayésiens, les modèles de Markov cachés, la théorie de l'information, la modélisation stochastique et l'optimisation classique ne sont que quelques-unes des nombreuses nouvelles techniques employées. Des représentations mathématiques ont également été développées pour des paradigmes « d'intelligence computationnelle » comme les réseaux de neurones et les algorithmes évolutionnaires.

Prédictions (ou "Où est HAL 9000 ?")

En 1968, Arthur C. Clarke et Stanley Kubrick ont prédit qu'en 2001, une machine aurait un intellect comparable ou supérieur aux êtres humains. HAL 9000, le personnage d'IA qu'ils ont conçu, était basé sur la notion de nombreux experts en IA qu'un tel appareil serait développé d'ici 2001.

En 2016, le marché des biens, du matériel et des logiciels liés à l'IA avait atteint plus de 8 milliards de dollars, l'intérêt pour l'IA atteignant la « manie ». Les applications des mégadonnées ont commencé à s'étendre au-delà du domaine des statistiques. Par exemple, les mégadonnées ont été utilisées pour former des modèles en écologie et pour une variété d'applications économiques. Les progrès de l'apprentissage en profondeur (en particulier les réseaux de neurones à convolution profonde et les réseaux de neurones récurrents) ont alimenté les progrès et la recherche dans le traitement d'images et de vidéos, l'analyse de texte et même la reconnaissance de la parole.

Big Data

Le Big Data est un terme utilisé pour décrire d'énormes quantités de données numériques qui dépassent les capacités des logiciels d'application typiques. Cela nécessite un ensemble entièrement nouveau de modèles de traitement pour gérer ce niveau de prise de décision, d'informations et d'optimisation des processus. À l'ère du Big Data, Victor Meyer Schonberg et Kenneth Cooke définissent le Big Data comme "toutes les données sont utilisées pour l'analyse au lieu d'une évaluation aléatoire (enquête par sondage).

Voici cinq caractéristiques importantes du Big Data : volume, vélocité, variété, valeur et véracité (proposées par IBM). L'importance de la technologie Big Data n'est pas de maîtriser d'énormes informations de données, mais de se concentrer sur les éléments importants. En d'autres termes, si le big data est assimilé à l'économie, la clé de la rentabilité dans ce secteur est d'améliorer la "capacité de traitement" des données et de les transformer en "valeur ajoutée".

Intelligence artificielle générale

La capacité à résoudre n'importe quel problème, plutôt qu'un problème spécifique, est connue sous le nom d'intelligence générale. L'intelligence générale artificielle (ou "IAG") fait référence à un logiciel qui peut appliquer l'intellect à une variété de problèmes de la même manière que les humains le peuvent.

Les chercheurs en IA ont fait valoir au début des années 2000 que le développement de l'IA avait largement abandonné l'objectif initial du domaine de créer une intelligence générale artificielle. L'étude AGI a été établie en tant que sous-discipline distincte et il y avait des conférences universitaires, des laboratoires et des cours universitaires dédiés à la recherche AGI, ainsi que des consortiums privés et de nouvelles entreprises, en 2010.

L'intelligence artificielle générale est également appelée « IA forte », « IA complète » ou une sorte d'intellect synthétique plutôt que « IA faible » ou « IA étroite ».

L'IA en 2022

L'intelligence artificielle (IA) est devenue une réalité commerciale et organisationnelle pour de nombreux secteurs. Même si les avantages de l'IA ne sont pas toujours évidents, elle s'est révélée capable d'améliorer l'efficacité des processus, de réduire les erreurs et la main-d'œuvre et d'extraire des informations du Big Data.

Les gens parlent de ce que sera la prochaine grande chose dans le monde en ce qui concerne les tendances alimentées par l'IA. Une collection des tendances de l'IA les plus intrigantes à anticiper en 2022 est présentée ici :

  • Mise en œuvre de l'IA axée sur le retour sur investissement ;
  • Analyse vidéo ;
  • Le modèle commercial « en tant que service » ;
  • Amélioration de la cybersécurité ;
  • IA dans Metaverse ;
  • Une fabrique de données ;
  • IA et ML avec l'Internet des objets (IoT) ;
  • L'IA à la pointe de l'hyper-automatisation.

Conclusion

L'intelligence artificielle a un impact énorme sur l'avenir de tous les secteurs de la science, de l'économie, de la production et de chaque personne. L'intelligence artificielle a contribué au développement de technologies innovantes telles que les mégadonnées, la robotique et l'Internet des objets depuis le tout début, et elle continuera à se développer.