Chúng ta hãy đi sâu vào chủ đề này từ thời cổ đại cho đến năm 2022.
cổ xưa
Trí tuệ nhân tạo (AI) bắt đầu từ những câu chuyện thần thoại, truyền thuyết và những câu chuyện về những sinh vật nhân tạo được ban tặng cho trí tuệ hoặc nhận thức được tạo ra bởi các nghệ nhân bậc thầy. Các nhà triết học Hy Lạp đầu tiên đã cố gắng mô tả quá trình tư duy của con người như một thao tác giống như máy móc đối với các biểu tượng để hình thành lý thuyết.
Hư cấu sau này
Những ý tưởng về người nhân tạo và máy tư duy được tạo ra trong tiểu thuyết, chẳng hạn như Frankenstein của Mary Shelley hoặc RUR của Karel Čapek (Rô-bốt đa năng của Rossum), và suy đoán, chẳng hạn như "Darwin giữa những cỗ máy" của Samuel Butler và trong các lần xuất hiện trong thế giới thực, bao gồm cả Edgar Allan Poe's "Maelzel's Chess Player".
Automata
Các nghệ nhân từ mọi nền văn minh, bao gồm Yan Shi, Anh hùng của Alexandria, Al-Jazari, Pierre Jaquet-Droz và Wolfgang von Kempelen, đã tạo ra các ô tô tự động hình người thực tế. Những bức tượng thiêng liêng của người Ai Cập và Hy Lạp cổ đại là những tượng tự động đầu tiên được biết đến. Các tín hữu tin rằng các nghệ nhân đã ban tặng những con số này bằng trí óc thực tế / Trong thời trung cổ, những chiếc ô tô tự động huyền thoại này được cho là sẽ trả lời các câu hỏi được gửi đến họ.
Lý luận chính thức
Trí tuệ nhân tạo dựa trên ý tưởng rằng suy nghĩ của con người có thể được cơ giới hóa. Đã có nhiều nghiên cứu về lý luận chính thức - hay "máy móc" - "." Các nhà triết học Trung Quốc, Ấn Độ và Hy Lạp đã phát minh ra các phương pháp suy luận chính thức của thiên niên kỷ đầu tiên trước Công nguyên. Chúng được phát triển bởi các nhà triết học như Aristotle (người đã viết một bài phân tích chặt chẽ về thuyết âm tiết), Euclid (người có Elements là một mô hình của lý luận hình thức), al-Khwārizmī (người đã tạo ra đại số và được cho là đã đặt tên cho "thuật toán" ), và các nhà tư tưởng học thuật châu Âu như William of Ockham.
Nhà triết học Tây Ban Nha Ramon Llull (1232–1315) đã tạo ra một số máy logic để tạo ra kiến thức thông qua các thủ tục logic; ông gọi các thiết bị của mình là những thiết bị máy móc có thể kết hợp các dữ kiện cơ bản và không thể chối cãi bằng cách sử dụng các phép toán logic đơn giản để tạo ra tất cả các kiến thức có thể. Gottfried Leibniz đã làm sống lại những ý tưởng của Llull.
Leibniz, Thomas Hobbes, và René Descartes đã nghiên cứu viễn cảnh trong thế kỷ 16 rằng tất cả tư duy duy lý có thể bị thu gọn thành đại số hoặc hình học. Theo Hobbes, lý do là "không gì khác ngoài một sự tính toán." Leibniz đã tưởng tượng ra một ngôn ngữ lập luận toàn cầu (đặc trưng của ông là Universalis) có thể giảm cuộc tranh luận thành tính toán để "không cần tranh cãi giữa hai triết gia hơn là giữa hai kế toán viên. Vì chỉ cần họ cầm bút là đủ. các nhà tư tưởng đầu tiên nêu rõ giả thuyết về hệ thống ký hiệu vật lý, mà cuối cùng sẽ trở thành niềm tin trung tâm của nghiên cứu AI.
Trong thế kỷ 20, logic toán học-logic đã phát triển bước đột phá quan trọng khiến trí tuệ nhân tạo có vẻ thực tế. Những tác phẩm như vậy đã đặt nền móng cho Quy luật tư tưởng của Boole và Begriffsschrift của Frege. Năm 1913, Russell và Whitehead xuất bản Principia Mathematica, một nghiên cứu chính thức về nền tảng của toán học, dựa trên hệ thống của Frege.
Phản ứng mà họ nhận được là bất ngờ ở hai khía cạnh. Để bắt đầu, họ đã chứng minh rằng có những giới hạn đối với những gì logic toán học có thể đạt được. Tuy nhiên, thứ hai và quan trọng hơn (đối với AI), nghiên cứu của họ chỉ ra rằng bất kỳ suy luận toán học nào cũng có thể được cơ giới hóa trong các tham số này.
Kiểm tra Turing
Bài kiểm tra Turing là một mục tiêu dài hạn cho nghiên cứu AI - liệu chúng ta có thể tạo ra một chiếc máy tính đủ khả năng đóng giả con người mà một thẩm phán đáng ngờ không thể phân biệt được không? Nó đã đi theo con đường tương tự với phần lớn nghiên cứu về AI kể từ khi thành lập. Ban đầu, nó có vẻ khó nhưng có thể làm được (khi công nghệ phần cứng đã đạt đến).
Bất chấp nhiều thập kỷ nghiên cứu và những cải tiến công nghệ đáng kể, bài kiểm tra Turing vẫn tiếp tục là mục tiêu của các nhà nghiên cứu AI đồng thời tiết lộ chúng ta còn bao xa mới đạt được nó.
Năm 1950, nhà toán học và khoa học máy tính người Anh Alan Turing đã xuất bản một bài báo có tựa đề "Máy tính và trí thông minh", mở đầu cho lĩnh vực được gọi là trí tuệ nhân tạo. Đó là nhiều năm trước khi John McCarthy đặt ra thuật ngữ Trí tuệ nhân tạo. Bài báo bắt đầu bằng một câu hỏi đơn giản: "Máy móc có thể suy nghĩ không?" Sau đó, Turing đề xuất một phương pháp để xác định xem máy móc có thể suy nghĩ hay không, được gọi là phép thử Turing. “Trò chơi bắt chước” được phát triển như một bài kiểm tra đơn giản có thể được sử dụng để xác định xem máy móc có đang suy nghĩ hay không. Giả sử rằng một máy tính được lập trình để có vẻ giống hệt một con người trí tuệ thực sự đã chứng minh rằng máy tính có thể suy nghĩ.
Mặc dù mọi người vẫn tiếp tục tranh cãi về việc liệu máy móc có thể suy nghĩ và kiểm tra không gian mạng hay không, nhưng rõ ràng Alan Turing và tiêu chí đề xuất của ông đã cung cấp một tầm nhìn mạnh mẽ và mang tính hướng dẫn cho lĩnh vực AI. Bài báo này, do chính Alan Turing viết, đã cung cấp những đóng góp to lớn của ông trong việc nghiên cứu AI và mở đường cho khoa học máy tính hiện đại. Bài kiểm tra Turing được nhiều người coi là một bước ngoặt trong lĩnh vực trí tuệ nhân tạo và có thể được coi là mục tiêu trong nhiều năm tới đồng thời cũng là một cột mốc trong việc theo dõi sự tiến bộ của toàn bộ lĩnh vực AI.
Điều khiển học và mạng nơ-ron sơ khai
Việc phát minh ra máy tính đã truyền cảm hứng cho những nghiên cứu ban đầu về máy móc thông minh. Một loạt các ý tưởng đã xuất hiện vào cuối những năm 1930, 1940 và đầu những năm 1950, tạo cảm hứng cho những công việc trước đó trong khoa học thần kinh. Các công trình của Norbert Wiener và Claude Shannon tập trung vào sự kiểm soát và ổn định của mạng điện. Lý thuyết thông tin của Claude Shannon đã mô tả các tín hiệu kỹ thuật số (tất cả hoặc không có gì). Khái niệm lý thuyết về tính toán của Alan Turing đã chứng minh rằng bất kỳ loại phép tính nào cũng có thể được biểu diễn bằng kỹ thuật số. Mối liên hệ chặt chẽ giữa những ý tưởng này cho thấy rằng một bộ não điện tử có thể được tạo ra.
Các robot như rùa của W. Grey Walter, cũng như Quái vật Johns Hopkins, là những ví dụ về công việc trong lĩnh vực này. Những cỗ máy này được điều khiển bởi thiết bị điện tử tương tự và bản năng hơn là máy tính, điện tử kỹ thuật số, hay lý luận tượng trưng; chúng hoàn toàn được điều khiển bằng mạch tương tự.
Năm 1943, Walter Pitts và Warren McCulloch đã nghiên cứu mạng lưới nơ-ron nhân tạo được lý tưởng hóa và chứng minh cách chúng có thể thực hiện các phép toán logic cơ bản. Họ là những người đầu tiên mô tả những gì các nhà nghiên cứu sau này gọi là mạng nơ-ron. Một Marvin Minsky trẻ, khi đó là một sinh viên mới tốt nghiệp 24 tuổi, được truyền cảm hứng từ Pitts và McCulloch. Năm 1951 (với Dean Edmonds), ông đã tạo ra máy mạng thần kinh đầu tiên, SNARC. Trong 50 năm tới, Minsky sẽ là một trong những nhà lãnh đạo và nhà đổi mới quan trọng nhất của AI.
Game AI
Năm 1951, Christopher Strachey và Dietrich Prinz đã tạo ra các chương trình kiểm tra cho máy Ferranti Mark 1 tại Đại học Manchester. Chương trình kiểm tra của Arthur Samuel, được tạo ra vào giữa những năm 50 và đầu những năm 60, cuối cùng đã đạt đến trình độ nghiệp dư. Việc sử dụng AI trong các trò chơi sẽ tồn tại trong suốt lịch sử như một thước đo cho sự tiến bộ trong AI.
Xưởng Dartmouth 1956: sự ra đời của AI
Năm 1956, Hội nghị Dartmouth được tổ chức bởi Marvin Minsky, John McCarthy, và hai nhà khoa học cấp cao của IBM: Claude Shannon và Nathan Rochester. "Một cỗ máy có thể được chế tạo để sao chép bất kỳ khía cạnh nào của trí thông minh con người", đề xuất viết. Những người tham gia bao gồm Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell và Herbert A. Simon — tất cả đều sẽ tiếp tục tạo ra các dự án AI quan trọng trong những thập kỷ đầu của nghiên cứu. Tại hội nghị, Newell và Simon đã công bố "Nhà lý thuyết logic" trong khi McCarthy kêu gọi những người tham dự chấp nhận "Trí tuệ nhân tạo" là tên lĩnh vực của họ. Hội nghị Dartmouth năm 1956 là sự kiện mang lại cho AI tên gọi, mục đích và thành công đầu tiên, cũng như những nhân tố quan trọng và những khoảnh khắc xác định của nó.
AI tượng trưng 1956–1974
Đối với hầu hết mọi người, những năm sau Hội thảo Dartmouth chỉ đơn giản là "đáng kinh ngạc": máy tính đang giải các bài toán đại số, chứng minh các định lý hình học và học nói tiếng Anh. Vào cuối những năm 1960, ít ai có thể nghĩ rằng hành vi "thông minh" như vậy của máy móc lại có thể hình dung được. Ở chế độ riêng tư và báo in, các nhà khoa học bày tỏ sự lạc quan lớn rằng một cỗ máy hoàn toàn khỏe mạnh sẽ được phát triển trong vòng chưa đầy 20 năm. Lĩnh vực mới này đã thu hút được nguồn tài trợ đáng kể từ các cơ quan chính phủ như DARPA.
AI đầu tiên vào mùa đông 1974-1980
Vào những năm 1970, AI phải đối mặt với những lời chỉ trích và thất bại về tài chính. Những khó khăn mà các nhà nghiên cứu AI đang gặp phải đã không được họ nhận ra. Những kỳ vọng khổng lồ của họ đã được nâng lên vượt xa những gì hợp lý và khi những lợi ích đã hứa không xuất hiện, nguồn tài trợ của chính phủ cho AI đã biến mất. Đồng thời, trong mười năm sau lời chỉ trích tàn khốc của Marvin Minsky về các perceptron, lĩnh vực liên kết (hay mạng nơ-ron) không hoạt động. Bất chấp quan điểm tiêu cực của công chúng về AI vào cuối những năm 1970, những ý tưởng mới đã được khám phá trong lập trình logic, lập luận thông thường và nhiều lĩnh vực khác.
Bùng nổ 1980–1987
Từ những ngày đầu của AI, kiến thức đã là mối quan tâm lớn. Hệ thống chuyên gia, một dạng chương trình AI, đã được các doanh nghiệp trên khắp thế giới áp dụng vào những năm 1980 và kiến thức trở thành trọng tâm của nghiên cứu AI chính. Trong những năm 1990, chính phủ Nhật Bản đã đầu tư rất nhiều vào AI với sáng kiến máy tính thế hệ thứ năm. Sự trỗi dậy của chủ nghĩa kết nối trong các tác phẩm của John Hopfield và David Rumelhart vào đầu những năm 1980 là một thời điểm đáng khích lệ khác. Một lần nữa, AI đã thành công.
AI thứ hai mùa đông 1987–1993
Vào những năm 1980, sự chú ý của thế giới kinh doanh đối với AI theo mô hình kinh tế cổ điển của bong bóng. Sự cố xảy ra là do các nhà cung cấp thương mại không thể tạo ra nhiều giải pháp khả thi. Hàng trăm công ty đã thất bại, và nhiều nhà đầu tư từ chối đầu tư vào chúng. Nhiều người tin rằng công nghệ này không khả thi, nhưng nghiên cứu vẫn tiếp tục phát triển. Nhiều chuyên gia, chẳng hạn như Rodney Brooks và Hans Moravec, đã ủng hộ cho một loại AI hoàn toàn mới.
AI 1993–2011
Lĩnh vực Trí tuệ nhân tạo, đã có tuổi đời hơn nửa thế kỷ, đã đạt được một số mục tiêu cơ bản nhất của nó. Nó hiện đang được sử dụng hiệu quả trong toàn bộ lĩnh vực công nghệ, mặc dù hơi lặng lẽ. Một số là kết quả của khả năng tính toán được cải thiện, trong khi một số đến từ việc tập trung vào các vấn đề riêng biệt cụ thể và cố gắng đạt được mức trách nhiệm khoa học cao nhất. Tuy nhiên, danh tiếng của AI trong thế giới kinh doanh còn ít hơn xuất sắc. Trong lĩnh vực này, có một số thỏa thuận hạn chế về lý do tại sao AI không thể thực hiện lời hứa về trí thông minh cấp độ con người vào những năm 1960. AI được chia thành một số lĩnh vực riêng biệt, mỗi lĩnh vực tập trung vào một vấn đề hoặc phương pháp khác nhau, trong khi vẫn tạo ra ảo tưởng rằng chúng đang làm việc hướng tới cùng một mục tiêu.
"Chiến thắng của những chiếc cổ"
Các nhà nghiên cứu trí tuệ nhân tạo bắt đầu tạo ra và sử dụng các phương pháp toán học phức tạp với tốc độ lớn hơn trước đây. Nhiều vấn đề mà AI cần giải quyết đã được các học giả trong các lĩnh vực như toán học, kỹ thuật điện, kinh tế và nghiên cứu hoạt động giải quyết. Ngôn ngữ toán học dùng chung cho phép cộng tác nhiều hơn giữa các lĩnh vực đa dạng và đạt được các kết quả có thể đo lường và kiểm chứng được; Theo Russell & Norvig (2003), AI giờ đây đã trở thành một bộ môn khoa học nghiêm túc hơn.
Lý thuyết xác suất và quyết định đã được tích hợp vào AI kể từ khi công trình có ảnh hưởng của Judea Pearl năm 1988 giới thiệu lý thuyết xác suất và quyết định vào lĩnh vực này. Mạng Bayes, mô hình Markov ẩn, lý thuyết thông tin, mô hình ngẫu nhiên và tối ưu hóa cổ điển chỉ là một vài trong số rất nhiều kỹ thuật mới được sử dụng. Các biểu diễn toán học cũng được phát triển cho các mô hình "trí thông minh tính toán" như mạng nơ-ron và các thuật toán tiến hóa.
Dự đoán (hoặc "HAL 9000 ở đâu?")
Năm 1968, Arthur C. Clarke và Stanley Kubrick dự đoán rằng vào năm 2001, một cỗ máy sẽ có trí tuệ tương đương hoặc vượt qua con người. HAL 9000, nhân vật AI mà họ thiết kế, dựa trên quan điểm của nhiều chuyên gia AI hàng đầu rằng một thiết bị như vậy sẽ được phát triển vào năm 2001.
Đến năm 2016, thị trường hàng hóa, phần cứng và phần mềm liên quan đến AI đã đạt hơn 8 tỷ đô la, với sự quan tâm đến AI lên đến mức "hưng cảm". Các ứng dụng của dữ liệu lớn đã bắt đầu mở rộng ra ngoài lĩnh vực thống kê. Ví dụ, dữ liệu lớn được sử dụng để đào tạo các mô hình trong sinh thái học và cho nhiều ứng dụng kinh tế khác nhau. Những tiến bộ trong học tập sâu (đặc biệt là mạng nơ-ron phức hợp sâu và mạng nơ-ron lặp lại) đã thúc đẩy sự tiến bộ và nghiên cứu trong xử lý hình ảnh và video, phân tích văn bản và thậm chí cả nhận dạng giọng nói.
Dữ liệu lớn
Dữ liệu lớn là một thuật ngữ được sử dụng để mô tả số lượng lớn dữ liệu số vượt quá khả năng của phần mềm ứng dụng điển hình. Nó yêu cầu một tập hợp các mô hình xử lý hoàn toàn mới để xử lý mức độ ra quyết định, thông tin chi tiết và tối ưu hóa quy trình này. Trong Kỷ nguyên dữ liệu lớn, Victor Meyer Schonberg và Kenneth Cooke định nghĩa dữ liệu lớn là “tất cả dữ liệu được sử dụng để phân tích thay vì đánh giá ngẫu nhiên (khảo sát mẫu).
Sau đây là năm đặc điểm quan trọng của dữ liệu lớn: Khối lượng, Vận tốc, Sự đa dạng, Giá trị và Tính xác thực (do IBM đề xuất). Tầm quan trọng của công nghệ dữ liệu lớn không phải là nắm vững thông tin dữ liệu khổng lồ, mà là tập trung vào các bit quan trọng. Nói cách khác, nếu dữ liệu lớn được ví như nền kinh tế, thì chìa khóa tạo ra lợi nhuận trong lĩnh vực này là cải thiện "Khả năng xử lý" của dữ liệu và biến nó thành "Giá trị gia tăng".
Trí tuệ nhân tạo chung
Khả năng giải quyết bất kỳ vấn đề nào, thay vì chỉ một vấn đề cụ thể, được gọi là trí thông minh chung. Trí tuệ nhân tạo tổng quát (hay "AGI") đề cập đến phần mềm có thể áp dụng trí tuệ vào nhiều vấn đề giống như cách mà con người có thể làm được.
Các nhà nghiên cứu AI lập luận vào đầu những năm 2000 rằng sự phát triển của AI phần lớn đã từ bỏ mục tiêu ban đầu của lĩnh vực này là tạo ra trí thông minh nhân tạo nói chung. Nghiên cứu AGI được thành lập như một chuyên ngành phụ riêng biệt và có các hội nghị học thuật, phòng thí nghiệm và các khóa học đại học dành riêng cho nghiên cứu AGI, cũng như hiệp hội tư nhân và các công ty mới, vào năm 2010.
Trí tuệ nhân tạo nói chung còn được gọi là "AI mạnh", "AI đầy đủ" hoặc một loại trí tuệ tổng hợp chứ không phải "AI yếu" hoặc "AI hẹp".
AI vào năm 2022
Trí tuệ nhân tạo (AI) đã trở thành một thực tế kinh doanh và tổ chức cho nhiều lĩnh vực. Ngay cả khi lợi ích của AI không phải lúc nào cũng rõ ràng, nó đã cho thấy bản thân nó có khả năng cải thiện hiệu quả quy trình, giảm lỗi và lao động cũng như trích xuất thông tin chi tiết từ dữ liệu lớn.
Mọi người đang nói về điều lớn lao tiếp theo sẽ xảy ra trên thế giới khi nói đến các xu hướng được hỗ trợ bởi AI. Bộ sưu tập các xu hướng AI hấp dẫn nhất có thể dự đoán vào năm 2022 được trình bày tại đây:
- Triển khai AI theo hướng ROI;
- Phân tích video;
- Mô hình kinh doanh 'Như một Dịch vụ';
- Cải thiện an ninh mạng;
- AI trong Metaverse;
- Một kết cấu dữ liệu;
- AI và ML với Internet of Things (IoT);
- Siêu tự động hóa hàng đầu của AI.
Sự kết luận
Trí tuệ nhân tạo có tác động to lớn đến tương lai của mọi ngành khoa học, kinh tế, sản xuất và mọi người. Trí tuệ nhân tạo đã góp phần vào sự phát triển của các công nghệ sáng tạo như dữ liệu lớn, người máy và Internet vạn vật ngay từ đầu, và nó sẽ tiếp tục phát triển.