고대부터 2022년까지 이 주제에 대해 알아보겠습니다.

유물

인공 지능(AI)은 장인이 만들어낸 지성과 의식을 지닌 인공 존재에 대한 신화, 전설, 이야기에서 시작되었습니다. 초기 그리스 철학자들은 인간의 사고 과정을 이론을 형성하기 위해 상징을 기계처럼 조작하는 것으로 묘사하려고 시도했습니다.

후기 소설

인공 인간과 사고 기계에 대한 아이디어는 Mary Shelley의 Frankenstein 또는 Karel Čapek의 RUR(Rossum의 Universal Robots)과 같은 허구에서, 그리고 Samuel Butler의 "Darwin between Machines"와 같은 추측과 Edgar를 비롯한 실제 세계에서 만들어졌습니다. Allan Poe의 "Maelzel's Chess Player".

오토마타

알렉산드리아의 영웅 Yan Shi, Al-Jazari, Pierre Jaquet-Droz, Wolfgang von Kempelen을 비롯한 모든 문명의 장인들은 사실적인 휴머노이드 오토마타를 고안했습니다. 고대 이집트와 그리스의 신성한 동상은 최초의 알려진 자동 장치였습니다. 신실한 사람들은 장인들이 이 인물들에게 실제 정신을 부여했다고 믿었습니다/ 중세 시대에 이 전설적인 자동 기계는 그들에게 받은 질문에 응답했다고 합니다.

형식적 추론

인공 지능은 인간의 생각이 기계화될 수 있다는 아이디어에 기반을 두고 있습니다. 형식적 — 또는 "기계적" — "추론"에 대한 많은 연구가 있었습니다. 중국, 인도, 그리스 철학자들은 기원전 1000년에 공식 연역법을 발명했습니다. 그것들은 아리스토텔레스(삼단논법에 대한 엄격한 분석을 저술한 사람), 유클리드(그의 요소는 형식적 추론의 모델), 알-콰리즈미(대수학을 창안했으며 "알고리즘"에 그의 이름을 부여한 것으로 알려진)와 같은 철학자들에 의해 개발되었습니다. ), 그리고 오컴의 윌리엄(William of Ockham)과 같은 유럽의 스콜라 사상가들.

스페인 철학자 Ramon Llull(1232–1315)은 논리적 절차를 통해 지식을 생성하기 위해 여러 논리적 기계를 만들었습니다. 그는 그의 장치를 모든 가능한 지식의 생산을 단순한 논리 연산을 사용하여 근본적이고 논쟁의 여지가 없는 사실을 결합할 수 있는 기계적 존재로 언급했습니다. Gottfried Leibniz는 Llull의 아이디어를 되살렸습니다.

라이프니츠(Leibniz), 토마스 홉스(Thomas Hobbes), 르네 데카르트(René Descartes)는 16세기에 모든 이성적 사고가 대수나 기하학으로 환원될 수 있다는 전망을 조사했습니다. 홉스에 따르면 그 이유는 "계산에 불과합니다." 라이프니츠는 논쟁을 계산으로 줄여 "두 명의 회계사 사이보다 두 철학자 사이에 논쟁이 더 이상 필요하지 않을 것입니다. 왜냐하면 그들이 연필을 가져오면 충분할 것이기 때문입니다. 사상가들은 먼저 물리적 기호 시스템 가설을 명확히 했으며, 이는 결국 AI 연구의 중심 신념이 될 것입니다.

20세기에 논리-수학 논리는 인공 지능을 실용적으로 보이게 한 결정적인 돌파구를 개발했습니다. 이러한 작업은 Boole의 생각의 법칙과 Frege의 Begriffsschrift의 기초를 마련했습니다. 1913년 Russell과 Whitehead는 Frege의 시스템을 기반으로 하는 수학의 기초에 대한 공식 연구인 Principia Mathematica를 출판했습니다.

그들이 받은 반응은 두 가지 면에서 의외였습니다. 우선, 그들은 수학적 논리가 달성할 수 있는 것에는 한계가 있음을 증명했습니다. 그러나 두 번째이자 더 중요한(AI의 경우) 그들의 연구는 이러한 매개변수 내에서 모든 수학적 추론이 기계화될 수 있음을 나타냅니다.

튜링 테스트

튜링 테스트는 AI 연구의 장기적인 목표입니다. 의심스러운 판사도 구별할 수 없을 정도로 인간을 가장할 수 있는 컴퓨터를 만들 수 있을까요? 초기부터 많은 AI 연구와 유사한 경로를 따랐습니다. 처음에는 어렵지만 실행 가능한 것처럼 보였습니다(하드웨어 기술에 도달하면).

수십 년에 걸친 연구와 상당한 기술 개선에도 불구하고 Turing 테스트는 AI 연구원의 목표로 계속 사용되는 동시에 우리가 달성하기까지 얼마나 멀리 떨어져 있는지 보여줍니다.

1950년 영국의 수학자이자 컴퓨터 과학자인 Alan Turing은 "Computing Machinery and Intelligence"라는 제목의 논문을 발표하여 인공 지능으로 알려지게 될 분야를 시작했습니다. 이것은 John McCarthy가 인공 지능이라는 용어를 만들기 몇 년 전입니다. 이 기사는 "기계가 생각할 수 있습니까?"라는 간단한 질문으로 시작했습니다. 이후 튜링은 기계가 생각할 수 있는지 여부를 결정하는 방법을 제안했는데, 이는 튜링 테스트로 알려지게 되었습니다. "이미테이션 게임"은 기계가 생각하는지 여부를 판단하는 데 사용할 수 있는 간단한 테스트로 개발되었습니다. 지적 인간과 똑같이 보이도록 프로그래밍된 컴퓨터가 진정으로 컴퓨터가 생각할 수 있다는 것을 입증했다고 가정합니다.

사람들은 기계가 사이버 공간을 생각하고 테스트할 수 있는지에 대해 계속 논쟁하고 있지만 Alan Turing과 그가 제안한 기준이 AI 분야에 강력하고 유익한 비전을 제공했다는 것은 분명합니다. Alan Turing이 직접 작성한 이 논문은 AI 연구에 대한 중대한 공헌을 했으며 현대 컴퓨터 과학의 토대를 마련했습니다. 튜링 테스트는 인공지능 분야의 랜드마크로 널리 인정받고 있으며, 향후 수년간의 목표로 여겨짐과 동시에 전체 AI 분야의 진행 상황을 추적하는 이정표가 될 수 있습니다.

사이버네틱스와 초기 신경망

컴퓨터의 발명은 지능형 기계에 대한 초기 연구에 영감을 주었습니다. 1930년대 후반, 1940년대, 1950년대 초반에 아이디어의 합류점이 나타나 초기 신경과학 연구에 영감을 주었습니다. Norbert Wiener와 Claude Shannon의 작업은 전기 네트워크의 제어와 안정성에 중점을 두었습니다. Claude Shannon의 정보 이론은 디지털 신호(전부 또는 전무 신호)를 설명했습니다. Alan Turing의 이론적인 컴퓨팅 개념은 모든 종류의 계산이 디지털 방식으로 표현될 수 있음을 증명했습니다. 이러한 아이디어 사이의 긴밀한 연결은 전자 두뇌가 구축될 수 있음을 시사했습니다.

W. Gray Walter의 거북이와 Johns Hopkins Beast와 같은 로봇이 이 분야의 작업 예입니다. 이 기계는 컴퓨터, 디지털 전자 장치 또는 상징적 추론보다는 아날로그 전자 장치와 본능에 의해 구동되었습니다. 그것들은 완전히 아날로그 회로에 의해 제어되었습니다.

1943년 Walter Pitts와 Warren McCulloch는 이상적인 인공 뉴런의 네트워크를 조사하고 기본 논리 연산을 수행하는 방법을 보여주었습니다. 그들은 나중에 연구원들이 신경망이라고 부르는 것을 처음으로 설명했습니다. 당시 24세의 대학원생이었던 젊은 Marvin Minsky는 Pitts와 McCulloch에게서 영감을 받았습니다. 1951년(Dean Edmonds와 함께) 그는 최초의 신경망 기계인 SNARC를 만들었습니다. 향후 50년 동안 민스키는 AI의 가장 중요한 리더이자 혁신가 중 한 명이 될 것입니다.

게임 AI

1951년 Christopher Strachey와 Dietrich Prinz는 맨체스터 대학에서 Ferranti Mark 1 기계를 위한 체커 프로그램을 만들었습니다. 50년대 중반과 60년대 초반에 만들어진 아서 사무엘의 체커 프로그램은 결국 아마추어 수준에 이르렀다. 게임에서 AI를 사용하는 것은 AI 발전의 척도로 역사를 통틀어 지속됩니다.

Dartmouth Workshop 1956: AI의 탄생

1956년 Dartmouth Conference는 Marvin Minsky, John McCarthy 및 두 명의 IBM 수석 과학자인 Claude Shannon과 Nathan Rochester가 주최했습니다. 제안서는 "인간 지능의 모든 측면을 복제하도록 기계를 만들 수 있다"고 밝혔다. 참가자에는 Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell 및 Herbert A. Simon이 포함되었으며 이들은 모두 연구 초기 수십 년 동안 중요한 AI 프로젝트를 만들었습니다. 컨퍼런스에서 Newell과 Simon은 "Logic Theorist"를 발표했고 McCarthy는 참석자들에게 "인공 지능"을 자신의 분야 이름으로 받아들일 것을 촉구했습니다. 1956년 Dartmouth 컨퍼런스는 AI의 이름, 목적, 첫 번째 성공뿐만 아니라 핵심 선수와 결정적인 순간을 제공한 이벤트였습니다.

심볼릭 AI 1956–1974

대부분의 사람들에게 Dartmouth Workshop 이후 몇 년은 단순히 "놀라운" 시간이었습니다. 컴퓨터는 대수학 단어 문제를 풀고 기하 정리를 증명하며 영어로 말하는 법을 배웠습니다. 1960년대 후반에는 기계에 의한 그러한 "지능적인" 행동을 생각할 수 있다고 생각한 사람은 거의 없었습니다. 사설 및 출판물에서 학자들은 완전한 지적 기계가 20년 이내에 개발될 것이라는 큰 낙관론을 표명했습니다. 새로운 분야는 DARPA와 같은 정부 기관으로부터 상당한 자금을 유치했습니다.

첫 번째 AI 겨울 1974–1980

1970년대에 AI는 비판과 재정적 어려움에 직면했습니다. AI 연구자들이 직면한 어려움은 그들에 의해 인식되지 않았다. 그들의 엄청난 기대는 합리적인 것 이상으로 높아졌고 약속된 혜택이 나타나지 않자 AI에 대한 정부 자금은 사라졌습니다. 동시에, 퍼셉트론에 대한 마빈 민스키의 엄청난 비판 이후 10년 동안 연결주의(또는 신경망) 분야는 휴면 상태에 있었습니다. 1970년대 후반 AI에 대한 대중의 부정적인 견해에도 불구하고 논리 프로그래밍, 상식 추론 및 기타 다양한 분야에서 새로운 아이디어가 탐구되었습니다.

붐 1980–1987

AI 초창기부터 지식은 주요 관심사였습니다. AI 프로그램의 한 형태인 전문가 시스템은 1980년대에 전 세계 기업에 채택되었으며 지식은 주요 AI 연구의 초점이 되었습니다. 1990년대에 일본 정부는 5세대 컴퓨터 이니셔티브를 통해 AI에 막대한 투자를 했습니다. 1980년대 초 John Hopfield와 David Rumelhart의 작품에서 연결주의의 부활은 또 다른 고무적인 순간이었습니다. 이번에도 AI는 성공했다.

두 번째 AI 겨울 1987–1993

1980년대에 AI에 대한 비즈니스 세계의 관심은 경제 거품의 고전적인 패턴을 따랐습니다. 충돌은 상업적 공급업체가 실행 가능한 다양한 솔루션을 생산할 수 없기 때문에 발생했습니다. 수백 개의 회사가 실패했고 많은 투자자들이 투자를 거부했습니다. 많은 사람들이 이 기술이 실행 가능하지 않다고 믿었지만 연구는 계속 발전했습니다. 로드니 브룩스(Rodney Brooks)와 한스 모라벡(Hans Moravec)과 같은 수많은 전문가들은 근본적으로 새로운 종류의 AI를 옹호했습니다.

AI 1993–2011

반세기 이상 된 인공 지능 분야는 가장 기본적인 목표 중 일부에 도달했습니다. 현재는 다소 조용하지만 기술 부문 전반에 걸쳐 효과적으로 활용되고 있습니다. 그 중 일부는 향상된 컴퓨팅 기능의 결과였으며 일부는 특정 고립된 문제에 초점을 맞추고 최고 수준의 과학적 책임을 달성하기 위해 노력한 결과였습니다. 그러나 비즈니스 세계에서 AI의 평판은 그다지 좋지 않았습니다. 현장에서는 1960년대에 AI가 인간 수준의 지능에 대한 약속을 이행할 수 없었던 이유에 대해 제한적인 동의가 있었습니다. AI는 각기 다른 문제나 방법에 초점을 맞추면서도 동일한 목표를 향해 일하고 있다는 환상을 주는 여러 별개의 분야로 쪼개졌습니다.

"청소년의 승리"

인공 지능 연구원들은 이전보다 더 빠른 속도로 정교한 수학적 접근 방식을 만들고 활용하기 시작했습니다. AI가 해결해야 하는 많은 문제는 이미 수학, 전기 공학, 경제 및 운영 연구와 같은 분야의 학자들에 의해 해결되고 있었습니다. 공유된 수학적 언어는 다양한 분야 간의 더 많은 협력과 측정 가능하고 검증 가능한 결과의 달성을 허용했습니다. Russell & Norvig(2003)에 따르면 AI는 이제 보다 심각한 "과학적" 분야가 되었습니다.

확률 및 결정 이론은 Judea Pearl의 영향력 있는 1988년 작업이 현장에 확률 및 결정 이론을 도입한 이후 AI에 통합되었습니다. 베이지안 네트워크, 은닉 마르코프 모델, 정보 이론, 확률적 모델링 및 고전적 최적화는 사용된 많은 새로운 기술 중 일부일 뿐입니다. 수학적 표현은 또한 신경망 및 진화 알고리즘과 같은 "계산 지능" 패러다임을 위해 개발되었습니다.

예측(또는 "HAL 9000은 어디에 있습니까?")

1968년 Arthur C. Clarke와 Stanley Kubrick은 2001년까지 기계가 인간과 비슷하거나 능가하는 지능을 갖게 될 것이라고 예측했습니다. 그들이 디자인한 AI 캐릭터인 HAL 9000은 그러한 장치가 2001년까지 개발될 것이라는 많은 최고의 AI 전문가들의 생각을 기반으로 했습니다.

2016년까지 AI 관련 상품, 하드웨어 및 소프트웨어 시장은 80억 달러 이상에 이르렀으며 AI에 대한 관심은 "광"에 이르렀습니다. 빅데이터의 응용은 통계 분야를 넘어 확장되기 시작했습니다. 예를 들어, 빅 데이터는 생태학 및 다양한 경제 응용 분야에서 모델을 훈련하는 데 사용되었습니다. 딥 러닝(특히 딥 컨볼루션 신경망 및 순환 신경망)의 발전은 이미지 및 비디오 처리, 텍스트 분석, 음성 인식 분야의 발전과 연구를 촉진했습니다.

빅 데이터

빅 데이터는 일반적인 응용 소프트웨어의 기능을 넘어서는 엄청난 양의 수치 데이터를 설명하는 데 사용되는 용어입니다. 이러한 수준의 의사 결정, 통찰력 및 프로세스 최적화를 처리하려면 완전히 새로운 일련의 처리 모델이 필요합니다. 빅데이터 시대에 빅데이터는 빅데이터를 "무작위 평가(샘플 조사)가 아닌 모든 데이터가 분석에 활용된다.

빅 데이터의 5가지 중요한 특성은 볼륨(Volume), 속도(Velocity), 다양성(Variety), 가치(Value), 진실성(Veracity)입니다(IBM 제안). 빅 데이터 기술의 중요성은 방대한 데이터 정보를 마스터하는 것이 아니라 중요한 부분에 집중하는 것입니다. 다시 말해서 빅데이터를 경제에 비유한다면 이 부문의 수익성 관건은 데이터의 '처리능력'을 높여 '부가가치'로 만드는 것이다.

인공 일반 지능

특정 문제가 아닌 모든 문제를 해결할 수 있는 능력을 일반 지능이라고 합니다. 인공 일반 지능(또는 "AGI")은 인간과 동일한 방식으로 지능을 다양한 문제에 적용할 수 있는 소프트웨어를 말합니다.

AI 연구자들은 2000년대 초 AI 개발이 인공 일반 지능을 만드는 분야의 원래 목표를 크게 포기했다고 주장했습니다. AGI 연구는 별도의 하위 학문으로 설립되었으며 2010년까지 AGI 연구를 전담하는 학술회의, 연구실 및 대학 과정과 민간 컨소시엄 및 신규 기업이 있었습니다.

인공 일반 지능은 "약한 AI" 또는 "협소한 AI"가 아닌 "강한 AI", "완전한 AI" 또는 일종의 합성 지능으로도 알려져 있습니다.

2022년 AI

인공 지능(AI)은 수많은 부문에서 비즈니스 및 조직의 현실이 되었습니다. AI의 이점이 항상 명확하지 않더라도 프로세스 효율성을 개선하고 오류와 노동력을 줄이며 빅 데이터에서 통찰력을 추출할 수 있는 것으로 나타났습니다.

사람들은 AI 기반 트렌드와 관련하여 세계에서 다음으로 큰 일이 무엇인지에 대해 이야기하고 있습니다. 2022년에 예상되는 가장 흥미로운 AI 트렌드 모음은 다음과 같습니다.

  • ROI 기반 AI 구현;
  • 비디오 분석;
  • '서비스형' 비즈니스 모델
  • 향상된 사이버 보안;
  • 메타버스의 AI;
  • 데이터 패브릭;
  • 사물 인터넷(IoT)을 통한 AI 및 ML;
  • AI를 선도하는 초자동화.

결론

인공 지능은 과학, 경제, 생산 및 모든 사람의 모든 분야의 미래에 막대한 영향을 미칩니다. 인공지능은 태초부터 빅데이터, 로봇공학, 사물인터넷 등 혁신적인 기술의 발전에 기여했으며 앞으로도 계속 발전할 것입니다.