Lassen Sie uns in dieses Thema von der Antike bis 2022 eintauchen.

Antike

Künstliche Intelligenz (KI) begann mit Mythen, Legenden und Geschichten über künstliche Wesen, die mit Intellekt oder Bewusstsein ausgestattet sind und von Handwerksmeistern geschaffen wurden. Die frühen griechischen Philosophen versuchten, den menschlichen Denkprozess als eine maschinenähnliche Manipulation von Symbolen zur Bildung von Theorien darzustellen.

Spätere Fiktion

Ideen über künstliche Menschen und Denkmaschinen wurden in Fiktionen wie Mary Shelleys Frankenstein oder Karel Čapeks RUR (Rossums Universal Robots) und Spekulationen wie Samuel Butlers „Darwin Among the Machines“ und in realen Ereignissen wie Edgar entwickelt Allan Poes „Maelzels Schachspieler“.

Automaten

Handwerker aus allen Zivilisationen, darunter Yan Shi, Held von Alexandria, Al-Jazari, Pierre Jaquet-Droz und Wolfgang von Kempelen, haben realistische humanoide Automaten entwickelt. Die altägyptischen und griechischen heiligen Statuen waren die ersten bekannten Automaten. Die Gläubigen glaubten, Handwerker hätten diese Figuren mit echtem Verstand ausgestattet. Im Mittelalter sollen diese legendären Automaten auf an sie gerichtete Anfragen geantwortet haben.

Formale Begründung

Künstliche Intelligenz basiert auf der Idee, dass menschliches Denken mechanisiert werden kann. Es wurde viel über formales – oder „mechanisches“ – „Denken“ geforscht. Die chinesischen, indischen und griechischen Philosophen erfanden formale Deduktionsmethoden des ersten Jahrtausends v. Sie wurden von Philosophen wie Aristoteles (der eine rigorose Analyse des Syllogismus schrieb), Euklid (dessen Elemente ein Modell des formalen Denkens waren), al-Khwārizmī (der die Algebra erschuf und dem "Algorithmus" seinen Namen gegeben hat) entwickelt. ) und europäische scholastische Denker wie Wilhelm von Ockham.

Der spanische Philosoph Ramon Llull (1232–1315) schuf mehrere logische Maschinen, um Wissen über logische Verfahren zu erzeugen; Er bezeichnete seine Geräte als mechanische Wesen, die grundlegende und unbestreitbare Tatsachen mithilfe einfacher logischer Operationen zur Erzeugung aller möglichen Erkenntnisse kombinieren konnten. Gottfried Leibniz hat Llulls Ideen wiederbelebt.

Leibniz, Thomas Hobbes und René Descartes untersuchten im 16. Jahrhundert die Aussicht, dass alles rationale Denken auf Algebra oder Geometrie reduziert werden könnte. Der Grund, so Hobbes, sei „nichts als eine Abrechnung“. Leibniz stellte sich eine globale Argumentationssprache (seine characteristica universalis) vor, die die Debatte aufs Rechnen reduzieren würde, so dass „des Streites zwischen zwei Philosophen nicht mehr nötig wäre als zwischen zwei Buchhaltern. Denn es würde ihnen genügen, ihre Bleistifte zu nehmen. Diese Denker artikulierten zuerst die Hypothese des physischen Symbolsystems, die schließlich zur zentralen Überzeugung der KI-Studie werden sollte.

Im 20. Jahrhundert gelang der logisch-mathematischen Logik der entscheidende Durchbruch, der künstliche Intelligenz praktisch erscheinen ließ. Solche Arbeiten legten den Grundstein für Booles The Laws of Thought und Freges Begriffsschrift. 1913 veröffentlichten Russell und Whitehead die Principia Mathematica, eine formelle Studie über die Grundlagen der Mathematik, die auf Freges System aufbaut.

Die Antwort, die sie erhielten, war in zweierlei Hinsicht unerwartet. Zunächst bewiesen sie, dass der mathematischen Logik Grenzen gesetzt waren. Zweitens und bedeutsamer (für die KI) deutete ihre Forschung jedoch darauf hin, dass jede mathematische Schlussfolgerung innerhalb dieser Parameter mechanisiert werden könnte.

Der Turing-Test

Der Turing-Test ist ein langfristiges Ziel der KI-Forschung – werden wir jemals in der Lage sein, einen Computer zu entwickeln, der sich ausreichend als Mensch ausgeben kann, sodass ein misstrauischer Richter den Unterschied nicht erkennen könnte? Sie ist seit ihren Anfängen einem ähnlichen Weg wie ein Großteil der KI-Forschung gefolgt. Anfangs schien es schwierig, aber machbar zu sein (sobald die Hardware-Technologie erreicht war).

Trotz jahrzehntelanger Studien und erheblicher technologischer Verbesserungen dient der Turing-Test weiterhin als Ziel für KI-Forscher und zeigt gleichzeitig, wie weit wir davon entfernt sind.

1950 veröffentlichte der englische Mathematiker und Informatiker Alan Turing eine Abhandlung mit dem Titel „Computing Machinery and Intelligence“, die den Beginn des Bereichs darstellte, der als künstliche Intelligenz bekannt werden sollte. Das war Jahre, bevor John McCarthy den Begriff künstliche Intelligenz prägte. Der Artikel begann mit einer einfachen Frage: „Können Maschinen denken?“ Danach schlug Turing eine Methode vor, um festzustellen, ob Maschinen denken können, die als Turing-Test bekannt wurde. Das „Imitation Game“ wurde als einfacher Test entwickelt, mit dem sich feststellen lässt, ob Maschinen denken. Angenommen, ein Computer, der so programmiert ist, dass er genau wie ein intellektueller Mensch aussieht, hat wirklich bewiesen, dass Computer denken können.

Obwohl die Leute weiterhin darüber streiten, ob Maschinen den Cyberspace denken und testen können, ist klar, dass Alan Turing und sein vorgeschlagenes Kriterium eine starke und lehrreiche Vision für das Gebiet der KI geliefert haben. Dieses von Alan Turing selbst verfasste Papier lieferte seine wegweisenden Beiträge zur KI-Forschung und ebnete den Weg für die moderne Informatik. Der Turing-Test gilt weithin als Meilenstein im Bereich der künstlichen Intelligenz und kann als Ziel für viele Jahre angesehen werden, während er gleichzeitig ein Meilenstein bei der Verfolgung des Fortschritts des gesamten KI-Bereichs ist.

Kybernetik und frühe neuronale Netze

Die Erfindung des Computers inspirierte frühe Untersuchungen intelligenter Maschinen. In den späten 1930er, 1940er und frühen 1950er Jahren entstand ein Zusammenfluss von Ideen, der frühere Arbeiten in den Neurowissenschaften inspirierte. Die Arbeiten von Norbert Wiener und Claude Shannon konzentrierten sich auf die Kontrolle und Stabilität elektrischer Netze. Die Informationstheorie von Claude Shannon beschrieb digitale Signale (Alles-oder-Nichts-Signale). Alan Turings theoretischer Begriff des Rechnens bewies, dass jede Art von Berechnung digital dargestellt werden kann. Die enge Verbindung zwischen diesen Ideen deutete darauf hin, dass ein elektronisches Gehirn gebaut werden könnte.

Roboter wie die Schildkröten von W. Grey Walter sowie das Johns Hopkins Beast sind Beispiele für Arbeiten in diesem Bereich. Diese Maschinen wurden eher von analoger Elektronik und Instinkt angetrieben als von Computern, digitaler Elektronik oder symbolischem Denken; Sie wurden vollständig von analogen Schaltkreisen gesteuert.

1943 untersuchten Walter Pitts und Warren McCulloch Netzwerke idealisierter künstlicher Neuronen und demonstrierten, wie sie grundlegende logische Operationen ausführen könnten. Sie waren die ersten, die beschrieben, was spätere Forscher ein neuronales Netzwerk nennen würden. Ein junger Marvin Minsky, damals ein 24-jähriger Doktorand, wurde von Pitts und McCulloch inspiriert. 1951 schuf er (zusammen mit Dean Edmonds) die erste neuronale Netzwerkmaschine, den SNARC. Für die nächsten 50 Jahre würde Minsky einer der wichtigsten Führer und Innovatoren der KI sein.

Spiel KI

1951 erstellten Christopher Strachey und Dietrich Prinz Dameprogramme für die Ferranti Mark 1-Maschine an der Universität von Manchester. Arthur Samuels Checker-Programm, das Mitte der 50er und Anfang der 60er Jahre entwickelt wurde, erreichte schließlich Amateurniveau. Der Einsatz von KI in Spielen würde sich im Laufe der Geschichte als Maßstab für den Fortschritt in der KI behaupten.

Dartmouth Workshop 1956: die Geburt der KI

1956 wurde die Dartmouth-Konferenz von Marvin Minsky, John McCarthy und zwei leitenden IBM-Wissenschaftlern ausgerichtet: Claude Shannon und Nathan Rochester. „Eine Maschine kann gebaut werden, um jeden Aspekt der menschlichen Intelligenz zu duplizieren“, heißt es in dem Vorschlag. Zu den Teilnehmern gehörten Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell und Herbert A. Simon, die alle in den ersten Jahrzehnten des Studiums bedeutende KI-Projekte ins Leben riefen. Auf der Konferenz stellten Newell und Simon den „Logic Theorist“ vor, während McCarthy die Teilnehmer aufforderte, „Künstliche Intelligenz“ als Namen ihres Fachgebiets zu akzeptieren. Die Dartmouth-Konferenz von 1956 war das Ereignis, das der KI ihren Namen, Zweck und ersten Erfolg sowie ihre Hauptakteure und entscheidenden Momente verlieh.

Symbolische KI 1956–1974

Für die meisten Menschen waren die Jahre nach dem Dartmouth-Workshop einfach „erstaunlich“: Computer lösten algebraische Wortaufgaben, bewiesen geometrische Theoreme und lernten, Englisch zu sprechen. Ende der 1960er-Jahre hätte kaum jemand gedacht, dass ein solches „intelligentes“ Verhalten von Maschinen denkbar wäre. Privat und in gedruckter Form äußerten sich Akademiker sehr optimistisch, dass eine voll intelligente Maschine in weniger als 20 Jahren entwickelt werden würde. Das neue Feld zog erhebliche Mittel von Regierungsbehörden wie DARPA an.

Der erste KI-Winter 1974–1980

In den 1970er Jahren sah sich KI Kritik und finanziellen Rückschlägen gegenüber. Die Schwierigkeiten, mit denen KI-Forscher konfrontiert waren, wurden von ihnen nicht erkannt. Ihre enormen Erwartungen waren weit über das Vernünftige hinaus geweckt worden, und als die versprochenen Vorteile ausblieben, verschwanden die staatlichen Mittel für KI. Gleichzeitig lag zehn Jahre lang nach Marvin Minskys vernichtender Kritik an Perzeptrons das Gebiet des Konnektionismus (oder neuronaler Netze) im Dornröschenschlaf. Trotz der negativen Sichtweise der Öffentlichkeit auf KI in den späten 1970er Jahren wurden neue Ideen in der logischen Programmierung, dem gesunden Menschenverstand und einer Vielzahl anderer Bereiche erforscht.

Boom 1980–1987

Seit den Anfängen der KI war Wissen ein wichtiges Anliegen. Expertensysteme, eine Form von KI-Programmen, wurden in den 1980er Jahren von Unternehmen auf der ganzen Welt eingeführt, und Wissen wurde zum Mittelpunkt der Mainline-KI-Forschung. In den 1990er Jahren investierte die japanische Regierung mit ihrer Computerinitiative der fünften Generation stark in KI. Das Wiederaufleben des Konnektionismus in den Werken von John Hopfield und David Rumelhart in den frühen 1980er Jahren war ein weiterer ermutigender Moment. KI war es wieder einmal gelungen.

Der zweite KI-Winter 1987–1993

In den 1980er Jahren folgte die Aufmerksamkeit der Geschäftswelt für KI dem klassischen Muster einer Wirtschaftsblase. Der Absturz wurde dadurch verursacht, dass kommerzielle Anbieter nicht in der Lage waren, eine Vielzahl von praktikablen Lösungen zu produzieren. Hunderte von Unternehmen scheiterten und viele Investoren weigerten sich, in sie zu investieren. Viele glaubten, dass die Technologie nicht lebensfähig sei, doch die Forschung schritt weiter voran. Zahlreiche Experten wie Rodney Brooks und Hans Moravec plädierten für eine radikal neue Art von KI.

AI 1993–2011

Das Gebiet der künstlichen Intelligenz, das mehr als ein halbes Jahrhundert alt ist, hat einige seiner grundlegendsten Ziele erreicht. Es wird derzeit im gesamten Technologiesektor effektiv eingesetzt, wenn auch etwas leise. Einiges davon war das Ergebnis verbesserter Rechenkapazitäten, während einiges durch die Konzentration auf bestimmte isolierte Probleme und das Streben nach größtmöglicher wissenschaftlicher Rechenschaftspflicht zustande kam. Und doch war der Ruf von KI in der Geschäftswelt alles andere als hervorragend. Innerhalb des Fachgebiets herrschte nur begrenzte Einigkeit darüber, warum die KI in den 1960er Jahren ihr Versprechen von Intelligenz auf menschlicher Ebene nicht erfüllen konnte. KI wurde in eine Reihe unterschiedlicher Disziplinen zersplittert, die sich jeweils auf ein anderes Thema oder eine andere Methode konzentrierten, während sie dennoch die Illusion erweckten, dass sie auf dasselbe Ziel hinarbeiteten.

Der "Sieg der Ordensfrauen"

Forscher der künstlichen Intelligenz begannen, ausgeklügelte mathematische Ansätze zu entwickeln und zu nutzen, und zwar in einem größeren Tempo als je zuvor. Viele der Probleme, die KI lösen musste, wurden bereits von Wissenschaftlern in Bereichen wie Mathematik, Elektrotechnik, Wirtschaftswissenschaften und Operations Research angegangen. Die gemeinsame mathematische Sprache ermöglichte eine stärkere Zusammenarbeit zwischen verschiedenen Bereichen und die Erzielung messbarer und überprüfbarer Ergebnisse; Laut Russell & Norvig (2003) ist die KI nun zu einer ernsthafteren „wissenschaftlichen“ Disziplin geworden.

Wahrscheinlichkeits- und Entscheidungstheorie wurden in die KI integriert, seit Judea Pearls einflussreiche Arbeit von 1988 die Wahrscheinlichkeits- und Entscheidungstheorie in das Feld einführte. Bayes'sche Netze, Hidden-Markov-Modelle, Informationstheorie, stochastische Modellierung und klassische Optimierung sind nur einige der vielen neuen angewandten Techniken. Mathematische Darstellungen wurden auch für Paradigmen der "computational Intelligence" wie neuronale Netze und evolutionäre Algorithmen entwickelt.

Vorhersagen (oder "Wo ist HAL 9000?")

1968 prognostizierten Arthur C. Clarke und Stanley Kubrick, dass eine Maschine bis 2001 einen Intellekt haben würde, der mit dem Menschen vergleichbar ist oder diesen übertrifft. HAL 9000, der von ihnen entworfene KI-Charakter, basierte auf der Vorstellung vieler führender KI-Experten, dass ein solches Gerät bis 2001 entwickelt werden würde.

Bis 2016 hatte der Markt für KI-bezogene Waren, Hardware und Software mehr als 8 Milliarden US-Dollar erreicht, wobei das Interesse an KI den „Wahnsinn“ erreichte. Die Anwendungen von Big Data erstrecken sich mittlerweile über den Bereich der Statistik hinaus. Beispielsweise wurde Big Data zum Trainieren von Modellen in der Ökologie und für eine Vielzahl von ökonomischen Anwendungen verwendet. Fortschritte im Deep Learning (insbesondere Deep Convolutional Neural Networks und Recurrent Neural Networks) haben den Fortschritt und die Forschung in den Bereichen Bild- und Videoverarbeitung, Textanalyse und sogar Spracherkennung vorangetrieben.

Große Daten

Big Data ist ein Begriff, der verwendet wird, um enorme Mengen numerischer Daten zu beschreiben, die die Möglichkeiten typischer Anwendungssoftware übersteigen. Es erfordert eine völlig neue Reihe von Verarbeitungsmodellen, um diese Ebene der Entscheidungsfindung, Einsicht und Prozessoptimierung zu bewältigen. Im Big-Data-Zeitalter definieren Victor Meyer Schonberg und Kenneth Cooke Big Data als „alle Daten werden zur Analyse statt zur zufälligen Auswertung (Stichprobenerhebung) verwendet.

Im Folgenden sind fünf wichtige Merkmale von Big Data aufgeführt: Volume, Velocity, Variety, Value und Veracity (vorgeschlagen von IBM). Die Bedeutung der Big-Data-Technologie besteht nicht darin, riesige Dateninformationen zu beherrschen, sondern sich auf die wichtigen Bits zu konzentrieren. Anders ausgedrückt: Wenn Big Data mit der Wirtschaft verglichen wird, liegt der Schlüssel zur Rentabilität in diesem Sektor darin, die „Prozessfähigkeit“ der Daten zu verbessern und sie in „Mehrwert“ umzuwandeln.

Künstliche allgemeine Intelligenz

Die Fähigkeit, jedes Problem zu lösen, und nicht nur ein bestimmtes, wird als allgemeine Intelligenz bezeichnet. Künstliche allgemeine Intelligenz (oder „AGI“) bezieht sich auf Software, die Intellekt auf eine Vielzahl von Problemen auf die gleiche Weise anwenden kann wie Menschen.

KI-Forscher argumentierten in den frühen 2000er Jahren, dass die KI-Entwicklung das ursprüngliche Ziel des Feldes, künstliche allgemeine Intelligenz zu schaffen, weitgehend aufgegeben habe. Das AGI-Studium wurde als separate Unterdisziplin eingerichtet, und bis 2010 gab es akademische Konferenzen, Labors und Universitätskurse, die sich der AGI-Forschung widmeten, sowie private Konsortien und neue Firmen.

Künstliche allgemeine Intelligenz wird auch als „starke KI“, „vollständige KI“ oder eine synthetische Art von Intellekt und nicht als „schwache KI“ oder „enge KI“ bezeichnet.

KI im Jahr 2022

Künstliche Intelligenz (KI) ist für zahlreiche Branchen zu einer geschäftlichen und organisatorischen Realität geworden. Auch wenn die Vorteile der KI nicht immer offensichtlich sind, hat sie sich als fähig erwiesen, die Prozesseffizienz zu verbessern, Fehler und Arbeitsaufwand zu reduzieren und Erkenntnisse aus Big Data zu extrahieren.

Die Leute sprechen darüber, was das nächste große Ding in der Welt sein wird, wenn es um KI-gestützte Trends geht. Eine Sammlung der faszinierendsten KI-Trends, die 2022 zu erwarten sind, finden Sie hier:

  • ROI-gesteuerte KI-Implementierung;
  • Videoanalyse;
  • Das „As a Service“-Geschäftsmodell;
  • Verbesserte Cybersicherheit;
  • KI in Metaverse;
  • Eine Datenstruktur;
  • KI und ML mit dem Internet der Dinge (IoT);
  • KI führende Hyperautomatisierung.

Fazit

Künstliche Intelligenz hat einen enormen Einfluss auf die Zukunft aller Bereiche der Wissenschaft, Wirtschaft, Produktion und jedes Menschen. Künstliche Intelligenz hat von Anfang an zur Entwicklung innovativer Technologien wie Big Data, Robotik und Internet der Dinge beigetragen und wird sich weiter entwickeln.