Mari kita selami topik ini dari zaman kuno hingga 2022.

Jaman dahulu

Kecerdasan buatan (AI) dimulai dengan mitos, legenda, dan cerita tentang makhluk buatan yang diberkahi dengan kecerdasan atau kesadaran yang diciptakan oleh pengrajin ahli. Filsuf Yunani awal mencoba menggambarkan proses berpikir manusia sebagai manipulasi simbol seperti mesin untuk membentuk teori.

Fiksi kemudian

Gagasan tentang manusia buatan dan mesin berpikir diciptakan dalam fiksi, seperti Frankenstein karya Mary Shelley atau RUR (Rossum Universal Robots) karya Karel apek, dan spekulasi, seperti "Darwin between the Machines" karya Samuel Butler, dan dalam kejadian di dunia nyata, termasuk Edgar "Pemain Catur Maelzel" Allan Poe.

Automata

Pengrajin dari setiap peradaban, termasuk Yan Shi, Pahlawan Alexandria, Al-Jazari, Pierre Jaquet-Droz, dan Wolfgang von Kempelen, telah merancang automata humanoid yang realistis. Patung suci Mesir dan Yunani kuno adalah automata pertama yang diketahui. Orang beriman percaya bahwa pengrajin telah menganugerahi tokoh-tokoh ini dengan pikiran yang sebenarnya / Selama abad pertengahan, robot legendaris ini dikatakan untuk menanggapi pertanyaan yang ditujukan kepada mereka.

Penalaran formal

Kecerdasan buatan didasarkan pada gagasan bahwa pemikiran manusia dapat dimekanisasi. Ada banyak penelitian tentang formal — atau "mekanis"—"penalaran". Para filsuf Cina, India, dan Yunani menemukan metodologi deduksi formal pada milenium pertama SM. Mereka dikembangkan oleh para filsuf seperti Aristoteles (yang menulis analisis silogisme yang ketat), Euclid (yang Elemen-elemennya adalah model penalaran formal), al-Khwārizm (yang menciptakan aljabar dan dikreditkan dengan memberikan namanya pada "algoritma" ), dan para pemikir skolastik Eropa seperti William dari Ockham.

Filsuf Spanyol Ramon Llull (1232-1315) menciptakan beberapa mesin logis untuk menciptakan pengetahuan melalui prosedur logis; dia menyebut perangkatnya sebagai makhluk mekanis yang dapat menggabungkan fakta mendasar dan tak terbantahkan menggunakan operasi logis sederhana untuk menghasilkan semua pengetahuan yang mungkin. Gottfried Leibniz menghidupkan kembali ide-ide Llull.

Leibniz, Thomas Hobbes, dan René Descartes menyelidiki prospek pada abad ke-16 bahwa semua pemikiran rasional dapat direduksi menjadi aljabar atau geometri. Alasannya, menurut Hobbes, "tidak lain adalah perhitungan". Leibniz membayangkan bahasa penalaran global (ciri khasnya universalis) yang akan mengurangi perdebatan menjadi perhitungan sehingga "tidak akan ada lagi perselisihan antara dua filsuf daripada antara dua akuntan. Karena itu akan cukup bagi mereka untuk mengambil pensil mereka. Ini pemikir pertama kali mengartikulasikan hipotesis sistem simbol fisik, yang pada akhirnya akan menjadi keyakinan utama studi AI.

Pada abad ke-20, logika matematis logis mengembangkan terobosan penting yang membuat kecerdasan buatan tampak praktis. Karya-karya tersebut meletakkan dasar bagi The Laws of Thought karya Boole dan Begriffsschrift karya Frege. Pada tahun 1913, Russell dan Whitehead menerbitkan Principia Mathematica, sebuah studi formal tentang dasar-dasar matematika, yang dibangun di atas sistem Frege.

Tanggapan yang mereka dapatkan tidak terduga dalam dua hal. Untuk memulainya, mereka membuktikan bahwa ada batasan untuk apa yang dapat dicapai oleh logika matematika. Namun, yang kedua dan lebih signifikan (untuk AI), penelitian mereka menunjukkan bahwa kesimpulan matematis apa pun dapat dimekanisasi dalam parameter ini.

Tes Turing

Tes Turing adalah tujuan jangka panjang untuk penelitian AI – akankah kita dapat membuat komputer yang cukup dapat menyamar sebagai manusia sehingga hakim yang curiga tidak dapat membedakannya? Ini telah mengikuti jalan yang mirip dengan banyak penelitian AI sejak awal. Awalnya, tampaknya sulit namun bisa dilakukan (setelah teknologi perangkat keras tercapai).

Terlepas dari studi selama beberapa dekade dan peningkatan teknologi yang signifikan, tes Turing terus berfungsi sebagai tujuan bagi para peneliti AI sambil juga mengungkapkan seberapa jauh kita dari mencapainya.

Pada tahun 1950, matematikawan dan ilmuwan komputer Inggris Alan Turing menerbitkan sebuah makalah berjudul "Mesin Komputer dan Kecerdasan," yang memulai bidang yang kemudian dikenal sebagai kecerdasan buatan. Ini bertahun-tahun sebelum John McCarthy menciptakan istilah Kecerdasan Buatan. Artikel itu dimulai dengan pertanyaan sederhana: “Bisakah mesin berpikir?” Setelah ini, Turing mengusulkan metode untuk menentukan apakah mesin dapat berpikir, yang kemudian dikenal sebagai tes Turing. "Game Imitasi" dikembangkan sebagai tes sederhana yang dapat digunakan untuk menentukan apakah mesin berpikir. Dengan asumsi bahwa komputer yang diprogram tampak persis seperti manusia intelektual benar-benar telah menunjukkan bahwa komputer dapat berpikir.

Meskipun orang terus berdebat tentang apakah mesin dapat berpikir dan menguji dunia maya, jelas bahwa Alan Turing dan kriteria yang diusulkannya memberikan visi yang kuat dan instruktif untuk bidang AI. Makalah ini, yang ditulis oleh Alan Turing sendiri, memberikan kontribusi penting untuk penelitian AI dan membuka jalan bagi ilmu komputer modern. Tes Turing secara luas dianggap sebagai tengara di bidang kecerdasan buatan dan dapat dianggap sebagai tujuan selama bertahun-tahun yang akan datang sementara juga menjadi tonggak dalam melacak kemajuan seluruh bidang AI.

Sibernetika dan jaringan saraf awal

Penemuan komputer mengilhami penyelidikan awal ke dalam mesin cerdas. Sebuah pertemuan ide muncul selama akhir 1930-an, 1940-an, dan awal 1950-an, menginspirasi karya sebelumnya dalam ilmu saraf. Karya Norbert Wiener dan Claude Shannon berfokus pada kontrol dan stabilitas jaringan listrik. Teori informasi oleh Claude Shannon menggambarkan sinyal digital (sinyal semua atau tidak sama sekali). Gagasan teoritis Alan Turing tentang komputasi membuktikan bahwa segala jenis perhitungan dapat direpresentasikan secara digital. Hubungan erat antara ide-ide ini menunjukkan bahwa otak elektronik mungkin dibangun.

Robot seperti kura-kura W. Gray Walter, serta Johns Hopkins Beast, adalah contoh pekerjaan di bidang ini. Mesin-mesin ini didorong oleh elektronik analog dan naluri daripada komputer, elektronik digital, atau penalaran simbolis; mereka sepenuhnya dikendalikan oleh sirkuit analog.

Pada tahun 1943, Walter Pitts dan Warren McCulloch menyelidiki jaringan neuron buatan yang diidealkan dan menunjukkan bagaimana mereka dapat melakukan operasi logika dasar. Mereka adalah orang pertama yang mendeskripsikan apa yang kemudian disebut oleh para peneliti sebagai jaringan saraf. Marvin Minsky muda, saat itu seorang mahasiswa pascasarjana berusia 24 tahun, terinspirasi oleh Pitts dan McCulloch. Pada tahun 1951 (bersama Dean Edmonds), ia menciptakan mesin jaringan saraf pertama, SNARC. Selama 50 tahun ke depan, Minsky akan menjadi salah satu pemimpin dan inovator AI yang paling penting.

Permainan AI

Pada tahun 1951, Christopher Strachey dan Dietrich Prinz membuat program checker untuk mesin Ferranti Mark 1 di University of Manchester. Program checker Arthur Samuel, yang dibuat pada pertengahan 50-an dan awal 60-an, akhirnya mencapai keterampilan tingkat amatir. Penggunaan AI dalam game akan bertahan sepanjang sejarah sebagai metrik untuk kemajuan AI.

Lokakarya Dartmouth 1956: kelahiran AI

Pada tahun 1956, Konferensi Dartmouth diselenggarakan oleh Marvin Minsky, John McCarthy, dan dua ilmuwan senior IBM: Claude Shannon dan Nathan Rochester. "Sebuah mesin dapat dibangun untuk menduplikasi aspek kecerdasan manusia," demikian bunyi proposal tersebut. Para peserta termasuk Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell, dan Herbert A. Simon—semuanya akan terus membuat proyek AI yang signifikan selama dekade awal studi. Pada konferensi tersebut, Newell dan Simon memperkenalkan "Teori Logika" sementara McCarthy mendesak para peserta untuk menerima "Kecerdasan Buatan" sebagai nama bidang mereka. Konferensi Dartmouth 1956 adalah acara yang memberi AI nama, tujuan, dan kesuksesan pertamanya, serta pemain kuncinya dan momen yang menentukan.

AI simbolis 1956–1974

Bagi kebanyakan orang, tahun-tahun setelah Lokakarya Dartmouth benar-benar "mencengangkan": komputer memecahkan masalah kata aljabar, membuktikan teorema geometri, dan belajar berbicara bahasa Inggris. Pada akhir 1960-an, hanya sedikit yang mengira bahwa perilaku "cerdas" seperti itu oleh mesin dapat dibayangkan. Secara pribadi dan cetak, para akademisi menyatakan optimisme besar bahwa mesin yang sepenuhnya cerdas akan dikembangkan dalam waktu kurang dari 20 tahun. Bidang baru menarik dana yang signifikan dari lembaga pemerintah seperti DARPA.

Musim dingin AI pertama 1974–1980

Pada 1970-an, AI menghadapi kritik dan kemunduran finansial. Kesulitan yang dihadapi peneliti AI tidak mereka sadari. Harapan besar mereka telah dinaikkan jauh melampaui apa yang masuk akal, dan ketika manfaat yang dijanjikan gagal muncul, dana pemerintah untuk AI lenyap. Pada saat yang sama, selama sepuluh tahun setelah kritik keras Marvin Minsky terhadap perceptron, bidang koneksionisme (atau jaringan saraf) terbengkalai. Terlepas dari pandangan negatif publik tentang AI pada akhir 1970-an, ide-ide baru dieksplorasi dalam pemrograman logika, penalaran akal sehat, dan berbagai bidang lainnya.

Boom 1980–1987

Sejak awal AI, pengetahuan menjadi perhatian utama. Sistem pakar, suatu bentuk program AI, diadopsi oleh bisnis di seluruh dunia pada 1980-an dan pengetahuan menjadi fokus penelitian AI arus utama. Pada 1990-an, pemerintah Jepang banyak berinvestasi dalam AI dengan inisiatif komputer generasi kelimanya. Kebangkitan koneksionisme dalam karya-karya John Hopfield dan David Rumelhart pada awal 1980-an merupakan momen menggembirakan lainnya. Sekali lagi, AI berhasil.

Musim dingin AI kedua 1987-1993

Pada 1980-an, perhatian dunia bisnis terhadap AI mengikuti pola klasik gelembung ekonomi. Kecelakaan itu disebabkan oleh pemasok komersial yang tidak dapat menghasilkan berbagai solusi yang bisa diterapkan. Ratusan perusahaan gagal, dan banyak investor menolak untuk berinvestasi di dalamnya. Banyak yang percaya bahwa teknologi itu tidak layak, namun penelitian terus maju. Banyak ahli, seperti Rodney Brooks dan Hans Moravec, menganjurkan jenis AI baru yang radikal.

AI 1993–2011

Bidang Kecerdasan Buatan, yang telah berusia lebih dari setengah abad, telah mencapai beberapa tujuannya yang paling mendasar. Saat ini sedang digunakan secara efektif di seluruh sektor teknologi, meskipun agak diam-diam. Beberapa di antaranya adalah hasil dari peningkatan kemampuan komputasi, sementara beberapa muncul melalui fokus pada isu-isu khusus yang terisolasi dan berjuang untuk mencapai tingkat akuntabilitas ilmiah tertinggi. Namun, reputasi AI di dunia bisnis kurang dari bintang. Di lapangan, ada kesepakatan terbatas tentang mengapa AI tidak dapat memenuhi janjinya akan kecerdasan tingkat manusia di tahun 1960-an. AI dipecah menjadi beberapa disiplin ilmu yang berbeda, masing-masing berfokus pada masalah atau metode yang berbeda, sementara tetap memberikan ilusi bahwa mereka bekerja menuju tujuan yang sama.

"Kemenangan rapi"

Peneliti kecerdasan buatan mulai membuat dan memanfaatkan pendekatan matematika canggih pada tingkat yang lebih besar daripada yang pernah mereka miliki sebelumnya. Banyak masalah yang perlu ditangani oleh AI telah ditangani oleh para akademisi di bidang-bidang seperti matematika, teknik elektro, ekonomi, dan riset operasi. Bahasa matematika bersama memungkinkan lebih banyak kolaborasi antara berbagai bidang dan pencapaian hasil yang terukur dan dapat diverifikasi; AI kini telah menjadi disiplin "ilmiah" yang lebih serius, menurut Russell & Norvig (2003).

Probabilitas dan teori keputusan telah dimasukkan ke dalam AI sejak karya berpengaruh Judea Pearl tahun 1988 memperkenalkan probabilitas dan teori keputusan ke lapangan. Jaringan Bayesian, model Markov tersembunyi, teori informasi, pemodelan stokastik, dan optimisasi klasik hanyalah beberapa dari banyak teknik baru yang digunakan. Representasi matematika juga dikembangkan untuk paradigma "kecerdasan komputasional" seperti jaringan saraf dan algoritma evolusioner.

Prediksi (atau "Di mana HAL 9000?")

Pada tahun 1968, Arthur C. Clarke dan Stanley Kubrick meramalkan bahwa pada tahun 2001, sebuah mesin akan memiliki kecerdasan yang sebanding atau melebihi manusia. HAL 9000, karakter AI yang mereka rancang, didasarkan pada gagasan yang dipegang oleh banyak pakar AI terkemuka bahwa perangkat semacam itu akan dikembangkan pada tahun 2001.

Pada 2016, pasar untuk barang, perangkat keras, dan perangkat lunak terkait AI telah mencapai lebih dari $8 miliar, dengan minat terhadap AI mencapai "mania". Aplikasi data besar telah mulai melampaui bidang statistik. Misalnya, data besar digunakan untuk melatih model dalam ekologi dan untuk berbagai aplikasi ekonomi. Kemajuan dalam pembelajaran mendalam (terutama jaringan saraf konvolusi dalam dan jaringan saraf berulang) telah mendorong kemajuan dan penelitian dalam pemrosesan gambar dan video, analisis teks, dan bahkan pengenalan suara.

Data besar

Data besar adalah istilah yang digunakan untuk menggambarkan sejumlah besar data numerik yang berada di luar kemampuan perangkat lunak aplikasi biasa. Ini membutuhkan serangkaian model pemrosesan yang sama sekali baru untuk menangani tingkat pengambilan keputusan, wawasan, dan optimalisasi proses ini. Di Era Big Data, Victor Meyer Schonberg dan Kenneth Cooke mendefinisikan big data sebagai "semua data digunakan untuk analisis, bukan evaluasi acak (survei sampel).

Berikut ini adalah lima karakteristik penting dari big data: Volume, Velocity, Variety, Value, dan Veracity (diusulkan oleh IBM). Pentingnya teknologi big data bukan untuk menguasai informasi data yang besar, tetapi untuk fokus pada bagian-bagian penting. Dengan kata lain, jika big data diibaratkan sebagai ekonomi, kunci profitabilitas di sektor ini adalah meningkatkan "Kemampuan proses" data dan mengubahnya menjadi "Nilai tambah".

Kecerdasan umum buatan

Kemampuan untuk memecahkan masalah apa pun, bukan hanya masalah khusus, dikenal sebagai kecerdasan umum. Kecerdasan umum buatan (atau "AGI") mengacu pada perangkat lunak yang dapat menerapkan kecerdasan untuk berbagai masalah dengan cara yang sama seperti yang dapat dilakukan manusia.

Peneliti AI berpendapat pada awal 2000-an bahwa pengembangan AI sebagian besar telah meninggalkan tujuan awal bidang ini untuk menciptakan kecerdasan umum buatan. Studi AGI didirikan sebagai sub-disiplin yang terpisah dan ada konferensi akademik, laboratorium, dan kursus universitas yang didedikasikan untuk penelitian AGI, serta konsorsium swasta dan perusahaan baru, pada tahun 2010.

Kecerdasan umum buatan juga dikenal sebagai "AI kuat", "AI penuh", atau semacam kecerdasan sintetis daripada "AI lemah" atau "AI sempit".

AI pada tahun 2022

Kecerdasan buatan (AI) telah menjadi realitas bisnis dan organisasi untuk berbagai sektor. Bahkan jika manfaat AI tidak selalu terlihat, ia telah menunjukkan dirinya mampu meningkatkan efisiensi proses, mengurangi kesalahan dan tenaga kerja, dan mengekstraksi wawasan dari data besar.

Orang-orang membicarakan tentang apa yang akan menjadi hal besar berikutnya di dunia dalam hal tren yang didukung AI. Kumpulan tren AI yang paling menarik untuk diantisipasi pada tahun 2022 disajikan di sini:

  • Implementasi AI Didorong ROI;
  • Analisis video;
  • Model bisnis 'Sebagai Layanan';
  • Keamanan siber yang ditingkatkan;
  • AI di Metaverse;
  • Sebuah kain data;
  • AI dan ML dengan Internet of Things (IoT);
  • AI memimpin hiper-otomatisasi.

Kesimpulan

Kecerdasan buatan memiliki dampak besar pada masa depan setiap sektor sains, ekonomi, produksi, dan setiap orang. Kecerdasan buatan telah berkontribusi pada pengembangan teknologi inovatif seperti data besar, robotika, dan Internet of Things sejak awal, dan akan terus berkembang.