Zanurzmy się w tym temacie od czasów starożytnych do 2022 roku.
Starożytność
Sztuczna inteligencja (AI) rozpoczęła się od mitów, legend i opowieści o sztucznych istotach obdarzonych intelektem lub świadomością, stworzonych przez mistrzów sztuki. Wcześni greccy filozofowie próbowali przedstawić ludzki proces myślenia jako przypominającą maszynę manipulację symbolami w celu tworzenia teorii.
Późniejsza fikcja
Idee dotyczące sztucznych ludzi i myślących maszyn powstawały w fikcji, takiej jak "Frankenstein" Mary Shelley czy "R.U.R." (Rossum's Universal Robots) Karela Čapka, oraz w spekulacjach, takich jak "Darwin wśród maszyn" Samuela Butlera, a także w rzeczywistych zdarzeniach, w tym w "Szachiście Maelzela" Edgara Allana Poe.
Automaty
Artyści z każdej cywilizacji, w tym Yan Shi, Bohater Aleksandrii, Al-Jazari, Pierre Jaquet-Droz i Wolfgang von Kempelen, stworzyli realistyczne humanoidalne automaty. Starożytne egipskie i greckie święte posągi były pierwszymi znanymi automatami. Wierni wierzyli, że rzemieślnicy obdarzyli te figury rzeczywistymi umysłami/ W epoce średniowiecza o tych legendarnych automatach mówiono, że odpowiadają na kierowane do nich zapytania.
Rozumowanie formalne
Sztuczna inteligencja opiera się na idei, że myśl ludzka może być zmechanizowana. Przeprowadzono wiele badań nad formalnym - lub "mechanicznym" - rozumowaniem. Chińscy, indyjscy i greccy filozofowie wynaleźli metodologie formalnej dedukcji w pierwszym tysiącleciu przed naszą erą. Zostały one rozwinięte przez takich filozofów jak Arystoteles (który napisał rygorystyczną analizę sylogizmu), Euklides (którego Elementy były modelem formalnego rozumowania), al-Khwārizmī (który stworzył algebrę i przypisuje mu się nadanie nazwy "algorytm"), oraz europejskich myślicieli scholastycznych, takich jak Wilhelm z Ockham.
Hiszpański filozof Ramon Llull (1232-1315) stworzył kilka maszyn logicznych do tworzenia wiedzy za pomocą procedur logicznych; określił swoje urządzenia jako istoty mechaniczne, które mogły łączyć podstawowe i niepodważalne fakty za pomocą prostych operacji logicznych produkcję wszelkiej możliwej wiedzy. Gottfried Leibniz ożywił idee Llulla.
Leibniz, Thomas Hobbes i René Descartes badali w XVI wieku perspektywę, że cała racjonalna myśl może zostać zredukowana do algebry lub geometrii. Przyczyna, według Hobbesa, jest "niczym innym jak liczeniem". Leibniz wyobraził sobie globalny język rozumowania (jego characteristica universalis), który zredukowałby debatę do kalkulacji, tak że "między dwoma filozofami nie byłoby więcej potrzeby dysputy niż między dwoma księgowymi. Wystarczyłoby bowiem, aby wzięli oni swoje ołówki. Myśliciele ci po raz pierwszy wyartykułowali hipotezę fizycznego systemu symboli, która ostatecznie stała się centralnym przekonaniem badań nad AI.
W XX wieku logicy-matematycy dokonali kluczowego przełomu, który sprawił, że sztuczna inteligencja wydała się praktyczna. Takie prace położyły podwaliny pod The Laws of Thought Boole'a i Begriffsschrift Fregego. W 1913 roku Russell i Whitehead opublikowali Principia Mathematica, formalne studium podstaw matematyki, bazujące na systemie Fregego.
Odpowiedź, jaką uzyskali, była nieoczekiwana pod dwoma względami. Po pierwsze, udowodnili, że istnieją granice tego, co może osiągnąć logika matematyczna. Jednakże, po drugie i bardziej istotne (dla AI), ich badania wskazały, że każde wnioskowanie matematyczne może być zmechanizowane w ramach tych parametrów.
Test Turinga
Test Turinga jest długoterminowym celem badań nad AI - czy kiedykolwiek będziemy w stanie stworzyć komputer, który będzie w stanie na tyle podszyć się pod człowieka, że podejrzliwy sędzia nie będzie w stanie tego rozróżnić? Podążał on podobną ścieżką jak wiele badań nad AI od momentu jej powstania. Początkowo wydawało się to trudne, ale wykonalne (po osiągnięciu technologii sprzętowej).
Pomimo dziesięcioleci badań i znaczących ulepszeń technologicznych, test Turinga nadal służy jako cel dla badaczy AI, jednocześnie ujawniając, jak daleko jesteśmy od jego osiągnięcia.
W 1950 roku angielski matematyk i informatyk Alan Turing opublikował pracę zatytułowaną "Computing Machinery and Intelligence", która zapoczątkowała dziedzinę, która stała się znana jako sztuczna inteligencja. Było to na wiele lat przed tym, jak John McCarthy ukuł termin sztuczna inteligencja. Artykuł rozpoczął się od prostego pytania: "Czy maszyny mogą myśleć?". Po tym Turing zaproponował metodę określenia, czy maszyny mogą myśleć, która stała się znana jako test Turinga. "Gra w naśladowanie" została opracowana jako prosty test, który mógłby być użyty do określenia, czy maszyny myślą. Przyjęcie, że komputer zaprogramowany tak, by wydawał się dokładnie taki, jak intelektualny człowiek, rzeczywiście wykazało, że komputery mogą myśleć.
Choć ludzie nadal spierają się o to, czy maszyny mogą myśleć i testować cyberprzestrzeń, jasne jest, że Alan Turing i zaproponowane przez niego kryterium dostarczyły potężnej i pouczającej wizji dla dziedziny AI. Ten artykuł, napisany przez samego Alana Turinga, stanowił jego seminalny wkład w badania nad AI i utorował drogę współczesnej informatyce. Test Turinga jest powszechnie uważany za kamień milowy w dziedzinie sztucznej inteligencji i może być traktowany jako cel na wiele lat, będąc jednocześnie kamieniem milowym w śledzeniu postępów całej dziedziny AI.
Cybernetyka i wczesne sieci neuronowe
Wynalezienie komputera zainspirowało wczesne badania nad inteligentnymi maszynami. Konfluencja pomysłów pojawiła się w późnych latach trzydziestych, czterdziestych i wczesnych pięćdziesiątych, inspirując wcześniejsze prace z dziedziny neuronauki. Prace Norberta Wienera i Claude'a Shannona koncentrowały się na kontroli i stabilności sieci elektrycznych. Teoria informacji Claude'a Shannona opisywała sygnały cyfrowe (sygnały typu "wszystko albo nic"). Teoretyczne pojęcie informatyki Alana Turinga udowodniło, że każdy rodzaj obliczeń może być reprezentowany cyfrowo. Ścisły związek między tymi ideami sugerował, że może zostać zbudowany elektroniczny mózg.
Roboty, takie jak żółwie W. Grey Waltera, a także Bestia Johnsa Hopkinsa, są przykładami prac w tej dziedzinie. Maszyny te były napędzane przez analogową elektronikę i instynkt, a nie komputery, elektronikę cyfrową czy rozumowanie symboliczne; były całkowicie kontrolowane przez układy analogowe.
W 1943 roku Walter Pitts i Warren McCulloch zbadali sieci wyidealizowanych sztucznych neuronów i pokazali, jak mogą one wykonywać podstawowe operacje logiczne. Jako pierwsi opisali to, co późniejsi badacze określili mianem sieci neuronowej. Młody Marvin Minsky, wówczas 24-letni student, został zainspirowany przez Pittsa i McCullocha. W 1951 roku (wraz z Deanem Edmondsem) stworzył pierwszą maszynę do tworzenia sieci neuronowych - SNARC. Przez następne 50 lat Minsky będzie jednym z najważniejszych liderów i innowatorów AI.
Sztuczna inteligencja w grach
W 1951 roku Christopher Strachey i Dietrich Prinz stworzyli programy do gry w warcaby na maszynie Ferranti Mark 1 na Uniwersytecie w Manchesterze. Program warcabowy Arthura Samuela, który powstał w połowie lat 50. i na początku 60. osiągnął w końcu umiejętności na poziomie amatorskim. Wykorzystanie SI w grach przetrwa w historii jako metryka postępu SI.
Dartmouth Workshop 1956: narodziny AI
W 1956 roku gospodarzami konferencji w Dartmouth byli Marvin Minsky, John McCarthy oraz dwaj starsi naukowcy z IBM: Claude Shannon i Nathan Rochester. "Można zbudować maszynę, która zduplikuje każdy aspekt ludzkiej inteligencji" - czytamy w propozycji. Wśród uczestników znaleźli się Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell i Herbert A. Simon - wszyscy oni mieli stworzyć znaczące projekty dotyczące SI w pierwszych dekadach badań. Na konferencji Newell i Simon zaprezentowali "Logic Theorist", a McCarthy namawiał uczestników do zaakceptowania "sztucznej inteligencji" jako nazwy dziedziny. Konferencja w Dartmouth w 1956 r. była wydarzeniem, które nadało AI nazwę, cel i pierwszy sukces, a także jej kluczowych graczy i decydujące momenty.
Symboliczna AI 1956-1974
Dla większości ludzi lata następujące po warsztatach w Dartmouth były po prostu "zdumiewające": komputery rozwiązywały zadania algebry, udowadniały twierdzenia geometryczne i uczyły się mówić po angielsku. Pod koniec lat 60. mało kto pomyślałby, że takie "inteligentne" zachowanie maszyn jest do pomyślenia. W rozmowach prywatnych i w prasie naukowcy wyrażali wielki optymizm, że w ciągu mniej niż 20 lat powstanie w pełni rozumna maszyna. Nowa dziedzina przyciągnęła znaczne fundusze z agencji rządowych, takich jak DARPA.
Pierwsza zima AI 1974-1980
W latach 70. AI spotkała się z krytyką i niepowodzeniami finansowymi. Trudności, z jakimi borykali się badacze AI, nie były przez nich dostrzegane. Ich ogromne oczekiwania zostały rozbudzone daleko poza to, co było rozsądne, a kiedy obiecane korzyści nie pojawiły się, rządowe finansowanie AI zniknęło. W tym samym czasie, przez dziesięć lat po druzgocącej krytyce perceptronów przez Marvina Minsky'ego, dziedzina koneksjonizmu (lub sieci neuronowych) leżała uśpiona. Pomimo negatywnego spojrzenia opinii publicznej na AI w późnych latach 70-tych, nowe idee były eksplorowane w programowaniu logicznym, rozumowaniu zdroworozsądkowym i wielu innych dziedzinach.
Boom 1980-1987
Od pierwszych dni AI, wiedza była głównym problemem. Systemy eksperckie, forma programu AI, zostały przyjęte przez firmy na całym świecie w latach 80. i wiedza stała się głównym przedmiotem badań AI. W latach 90. rząd japoński intensywnie inwestował w AI w ramach inicjatywy dotyczącej komputerów piątej generacji. Odrodzenie koneksjonizmu w pracach Johna Hopfielda i Davida Rumelharta na początku lat 80. było kolejnym zachęcającym momentem. Po raz kolejny AI odniosła sukces.
Druga zima AI 1987-1993
W latach 80. uwaga świata biznesu poświęcona AI podążała za klasycznym wzorcem bańki gospodarczej. Krach został spowodowany tym, że dostawcy komercyjni nie byli w stanie wyprodukować wielu możliwych do zastosowania rozwiązań. Setki firm upadły, a wielu inwestorów odmówiło inwestowania w nie. Wielu uważało, że technologia nie jest opłacalna, a jednak badania wciąż posuwały się do przodu. Liczni eksperci, tacy jak Rodney Brooks i Hans Moravec, opowiadali się za radykalnie nowym rodzajem AI.
AI 1993-2011
Licząca ponad pół wieku dziedzina sztucznej inteligencji osiągnęła niektóre ze swoich najbardziej podstawowych celów. Obecnie jest ona efektywnie wykorzystywana w całym sektorze technologicznym, choć nieco po cichu. Część z nich jest wynikiem zwiększenia możliwości obliczeniowych, a część powstała dzięki skupieniu się na konkretnych, wyizolowanych zagadnieniach i dążeniu do osiągnięcia najwyższych poziomów odpowiedzialności naukowej. A jednak reputacja AI w świecie biznesu nie była najlepsza. W obrębie tej dziedziny panowała ograniczona zgodność co do tego, dlaczego AI nie była w stanie spełnić swojej obietnicy inteligencji na poziomie człowieka z lat 60. AI była podzielona na wiele odrębnych dyscyplin, z których każda skupiała się na innym zagadnieniu lub metodzie, ale mimo to dawała złudzenie, że pracuje nad tym samym celem.
"Zwycięstwo neatów"
Badacze sztucznej inteligencji zaczęli tworzyć i wykorzystywać zaawansowane podejścia matematyczne w tempie większym niż kiedykolwiek wcześniej. Wiele problemów, które musiała rozwiązać sztuczna inteligencja, było już wcześniej rozwiązywanych przez naukowców z takich dziedzin jak matematyka, elektrotechnika, ekonomia i badania operacyjne. Wspólny język matematyczny umożliwił szerszą współpracę między różnymi dziedzinami oraz osiągnięcie wymiernych i sprawdzalnych wyników; AI stała się teraz poważniejszą dyscypliną "naukową", jak twierdzą Russell i Norvig (2003).
Prawdopodobieństwo i teoria decyzji zostały włączone do AI od czasu, gdy wpływowa praca Judei Pearla z 1988 roku wprowadziła do tej dziedziny prawdopodobieństwo i teorię decyzji. Sieci bayesowskie, ukryte modele Markowa, teoria informacji, modelowanie stochastyczne i klasyczna optymalizacja to tylko kilka z wielu zastosowanych nowych technik. Opracowano również reprezentacje matematyczne dla paradygmatów "inteligencji obliczeniowej", takich jak sieci neuronowe i algorytmy ewolucyjne.
Przewidywania (lub "Gdzie jest HAL 9000?")
W 1968 roku Arthur C. Clarke i Stanley Kubrick przewidzieli, że do 2001 roku maszyna będzie miała intelekt porównywalny lub przewyższający człowieka. HAL 9000, zaprojektowana przez nich postać AI, opierała się na przekonaniu wielu czołowych ekspertów AI, że takie urządzenie powstanie do 2001 roku.
Do 2016 roku rynek towarów, sprzętu i oprogramowania związanego z AI osiągnął ponad 8 miliardów dolarów, a zainteresowanie AI osiągnęło "manię". Zastosowania big data zaczęły wykraczać poza dziedzinę statystyki. Na przykład, big data została wykorzystana do szkolenia modeli w ekologii i do różnych zastosowań ekonomicznych. Postępy w głębokim uczeniu (w szczególności głębokie konwencjonalne sieci neuronowe i rekurencyjne sieci neuronowe) napędzają postęp i badania w zakresie przetwarzania obrazów i wideo, analizy tekstu, a nawet rozpoznawania mowy.
Big Data
Big data to termin używany do opisania ogromnych ilości danych numerycznych, które wykraczają poza możliwości typowego oprogramowania użytkowego. Wymagają one zupełnie nowego zestawu modeli przetwarzania, aby obsłużyć ten poziom podejmowania decyzji, wglądu i optymalizacji procesów. W Erze Big Data Victor Meyer Schonberg i Kenneth Cooke definiują big data jako "wszystkie dane są wykorzystywane do analizy, zamiast losowej oceny (badanie próbek)".
Poniżej przedstawiono pięć ważnych cech big data: Volume, Velocity, Variety, Value i Veracity (zaproponowane przez IBM). Znaczenie technologii big data nie polega na opanowaniu ogromnych informacji o danych, ale na skupieniu się na ważnych bitach. Mówiąc inaczej, jeśli big data przyrównać do gospodarki, to kluczem do rentowności w tym sektorze jest poprawa "Zdolności przetwarzania" danych i przekształcenie ich w "Wartość dodaną".
Sztuczna inteligencja ogólna
Zdolność do rozwiązania każdego problemu, a nie tylko konkretnego, jest znana jako inteligencja ogólna. Sztuczna inteligencja ogólna (lub "AGI") odnosi się do oprogramowania, które może zastosować intelekt do różnych problemów w taki sam sposób, w jaki może to zrobić człowiek.
Na początku XXI wieku badacze AI argumentowali, że rozwój AI w dużej mierze porzucił pierwotny cel tej dziedziny, jakim było stworzenie sztucznej inteligencji ogólnej. Badanie AGI zostało ustanowione jako oddzielna subdyscyplina i do 2010 roku istniały konferencje akademickie, laboratoria i kursy uniwersyteckie poświęcone badaniom AGI, a także prywatne konsorcja i nowe firmy.
Sztuczna inteligencja ogólna jest również znana jako "silna AI", "pełna AI" lub syntetyczny rodzaj intelektu, a nie "słaba AI" lub "wąska AI".
AI w 2022 r.
Sztuczna inteligencja (AI) stała się rzeczywistością biznesową i organizacyjną dla wielu sektorów. Nawet jeśli korzyści płynące z AI nie zawsze są łatwo dostrzegalne, okazało się, że jest ona w stanie poprawić wydajność procesów, zmniejszyć liczbę błędów i nakład pracy oraz wydobyć wnioski z dużych danych.
Ludzie mówią o tym, co będzie kolejną wielką rzeczą na świecie, jeśli chodzi o trendy napędzane przez AI. Przedstawiono tu zbiór najbardziej intrygujących trendów AI, które należy przewidzieć w 2022 roku:
- ROI Driven AI wdrożenia;
- Analityka wideo;
- Model biznesowy "As a Service";
- Ulepszone cyberbezpieczeństwo;
- AI w Metaverse;
- Tkanina danych;
- AI i ML z internetem rzeczy (IoT);
- AI prowadząca hiperautomatyzację.
Podsumowanie
Sztuczna inteligencja ma ogromny wpływ na przyszłość każdego sektora nauki, gospodarki, produkcji i każdego człowieka. Sztuczna inteligencja od samego początku przyczyniła się do rozwoju innowacyjnych technologii, takich jak big data, robotyka czy Internet Rzeczy, i nadal będzie się rozwijać.