Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Cronología de la inteligencia artificial AI - Actualización 2022

Cronología de la inteligencia artificial AI - Actualización 2022

Profundicemos en este tema desde la antigüedad hasta 2022.

Antigüedad

La inteligencia artificial (IA) comenzó con mitos, leyendas e historias sobre seres artificiales dotados de intelecto o conciencia creados por maestros artesanos. Los primeros filósofos griegos intentaron describir el proceso de pensamiento humano como una manipulación mecánica de símbolos para formar teorías.

Ficción posterior

Las ideas sobre hombres artificiales y máquinas pensantes se crearon en la ficción, como Frankenstein de Mary Shelley o RUR (Robots universales de Rossum) de Karel Čapek, y en la especulación, como "Darwin entre las máquinas" de Samuel Butler, y en sucesos del mundo real, incluido Edgar "El jugador de ajedrez de Maelzel" de Allan Poe.

autómatas

Artesanos de todas las civilizaciones, incluidos Yan Shi, Hero of Alexandria, Al-Jazari, Pierre Jaquet-Droz y Wolfgang von Kempelen, han ideado autómatas humanoides realistas. Las antiguas estatuas sagradas egipcias y griegas fueron los primeros autómatas conocidos. Los fieles creían que los artesanos habían dotado a estas figuras de mentes reales/ Durante la época medieval, se decía que estos autómatas legendarios respondían a las consultas que se les dirigían.

Razonamiento formal

La inteligencia artificial se basa en la idea de que el pensamiento humano puede ser mecanizado. Ha habido mucho estudio sobre el "razonamiento" formal, o "mecánico". Los filósofos chinos, indios y griegos inventaron metodologías de deducción formal del primer milenio a. Fueron desarrollados por filósofos como Aristóteles (quien escribió un análisis riguroso del silogismo), Euclides (cuyos Elementos eran un modelo de razonamiento formal), al-Khwārizmī (quien creó el álgebra y se le atribuye haber dado su nombre al "algoritmo" ), y pensadores escolásticos europeos como Guillermo de Ockham.

El filósofo español Ramón Llull (1232-1315) creó varias máquinas lógicas para crear conocimiento a través de procedimientos lógicos; se refirió a sus dispositivos como seres mecánicos que podían combinar hechos fundamentales e indiscutibles usando operaciones lógicas simples la producción de todo el conocimiento posible. Gottfried Leibniz revive las ideas de Llull.

Leibniz, Thomas Hobbes y René Descartes investigaron la perspectiva en el siglo XVI de que todo pensamiento racional podría reducirse al álgebra o la geometría. La razón, según Hobbes, es "nada más que un ajuste de cuentas". Leibniz imaginó un lenguaje global del razonamiento (su charactera universalis) que reduciría el debate al cálculo de modo que "no habría más necesidad de disputa entre dos filósofos que entre dos contables. Para ellos bastaría con tomar sus lápices. Estos Los pensadores primero articularon la hipótesis del sistema de símbolos físicos, que eventualmente se convertiría en la creencia central del estudio de la IA.

En el siglo XX, la lógica lógico-matemática desarrolló el avance crucial que hizo que la inteligencia artificial pareciera práctica. Tales obras sentaron las bases para Las leyes del pensamiento de Boole y Begriffsschrift de Frege. En 1913, Russell y Whitehead publicaron Principia Mathematica, un estudio formal de los fundamentos de las matemáticas, basado en el sistema de Frege.

La respuesta que obtuvieron fue inesperada en dos aspectos. Para empezar, demostraron que había límites a lo que podía lograr la lógica matemática. Sin embargo, en segundo lugar y más significativo (para la IA), su investigación indicó que cualquier inferencia matemática podría mecanizarse dentro de estos parámetros.

La prueba de Turing

La prueba de Turing es un objetivo a largo plazo para la investigación de la IA: ¿seremos capaces alguna vez de crear una computadora que pueda suplantar a un ser humano lo suficiente como para que un juez sospechoso no pueda notar la diferencia? Ha seguido un camino similar a gran parte de la investigación de IA desde su inicio. Inicialmente, parecía ser difícil pero factible (una vez que se alcanzó la tecnología de hardware).

A pesar de décadas de estudio y mejoras tecnológicas significativas, la prueba de Turing continúa sirviendo como un objetivo para los investigadores de IA y al mismo tiempo revela cuán lejos estamos de lograrlo.

En 1950, el matemático e informático inglés Alan Turing publicó un artículo titulado "Maquinaria informática e inteligencia", que dio inicio al campo que se conocería como inteligencia artificial. Esto fue años antes de que John McCarthy acuñara el término Inteligencia Artificial. El artículo comenzaba con una simple pregunta: “¿Pueden pensar las máquinas?” Después de esto, Turing propuso un método para determinar si las máquinas pueden pensar, que se conoció como la prueba de Turing. El "Juego de imitación" se desarrolló como una prueba simple que podría usarse para determinar si las máquinas estaban pensando. Suponiendo que una computadora programada para parecerse exactamente a un ser humano intelectual realmente ha demostrado que las computadoras pueden pensar.

Try AppMaster no-code today!
Platform can build any web, mobile or backend application 10x faster and 3x cheaper
Start Free

Aunque la gente continúa discutiendo si las máquinas pueden pensar y probar el ciberespacio, está claro que Alan Turing y su criterio propuesto brindaron una visión poderosa e instructiva para el campo de la IA. Este artículo, escrito por el propio Alan Turing, proporcionó sus contribuciones fundamentales a la investigación de la IA y allanó el camino para la informática moderna. La prueba de Turing es ampliamente considerada como un hito en el campo de la inteligencia artificial y puede considerarse como un objetivo durante muchos años, además de ser un hito en el seguimiento del progreso de todo el campo de la IA.

Cibernética y primeras redes neuronales

La invención de la computadora inspiró las primeras investigaciones sobre máquinas inteligentes. Surgió una confluencia de ideas a fines de la década de 1930, 1940 y principios de la de 1950, que inspiraron trabajos anteriores en neurociencia. Los trabajos de Norbert Wiener y Claude Shannon se centraron en el control y la estabilidad de las redes eléctricas. La teoría de la información de Claude Shannon describió las señales digitales (señales de todo o nada). La noción teórica de computación de Alan Turing demostró que cualquier tipo de cálculo puede representarse digitalmente. El estrecho vínculo entre estas ideas sugirió que se podría construir un cerebro electrónico.

Robots como las tortugas de W. Gray Walter, así como la Bestia de Johns Hopkins, son ejemplos de trabajo en esta área. Estas máquinas estaban impulsadas por la electrónica analógica y el instinto en lugar de computadoras, electrónica digital o razonamiento simbólico; estaban completamente controlados por circuitos analógicos.

En 1943, Walter Pitts y Warren McCulloch investigaron redes de neuronas artificiales idealizadas y demostraron cómo podrían realizar operaciones lógicas básicas. Fueron los primeros en describir lo que los investigadores posteriores denominarían red neuronal. Un joven Marvin Minsky, entonces estudiante de posgrado de 24 años, se inspiró en Pitts y McCulloch. En 1951 (con Dean Edmonds), creó la primera máquina de red neuronal, la SNARC. Durante los próximos 50 años, Minsky sería uno de los líderes e innovadores más importantes de AI.

IA del juego

En 1951, Christopher Strachey y Dietrich Prinz crearon programas de damas para la máquina Ferranti Mark 1 en la Universidad de Manchester. El programa de corrector de Arthur Samuel, que se creó a mediados de los años 50 y principios de los 60, finalmente alcanzó el nivel de habilidad de los aficionados. El uso de la IA en los juegos perdurará a lo largo de la historia como una métrica para el avance de la IA.

Taller de Dartmouth 1956: el nacimiento de la IA

En 1956, la Conferencia de Dartmouth fue organizada por Marvin Minsky, John McCarthy y dos científicos senior de IBM: Claude Shannon y Nathan Rochester. "Se puede construir una máquina para duplicar cualquier aspecto de la inteligencia humana", decía la propuesta. Los participantes incluyeron a Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell y Herbert A. Simon, todos los cuales crearían importantes proyectos de IA durante las primeras décadas de estudio. En la conferencia, Newell y Simon dieron a conocer el "Teórico Lógico", mientras que McCarthy instó a los asistentes a aceptar "Inteligencia Artificial" como el nombre de su campo. La conferencia de Dartmouth de 1956 fue el evento que le dio a la IA su nombre, propósito y primer éxito, así como sus actores clave y momentos decisivos.

IA simbólica 1956-1974

Para la mayoría de las personas, los años que siguieron al Taller de Dartmouth fueron simplemente "asombrosos": las computadoras resolvían problemas de álgebra, demostraban teoremas geométricos y aprendían a hablar inglés. A fines de la década de 1960, pocos habrían pensado que tal comportamiento "inteligente" de las máquinas era concebible. En privado y en forma impresa, los académicos expresaron un gran optimismo de que se desarrollaría una máquina completamente inteligente en menos de 20 años. El nuevo campo atrajo importantes fondos de agencias gubernamentales como DARPA.

Try AppMaster no-code today!
Platform can build any web, mobile or backend application 10x faster and 3x cheaper
Start Free

El primer invierno de IA 1974-1980

En la década de 1970, AI enfrentó críticas y reveses financieros. No reconocieron las dificultades a las que se enfrentaban los investigadores de IA. Sus enormes expectativas se habían elevado mucho más allá de lo razonable, y cuando los beneficios prometidos no aparecieron, la financiación del gobierno para la IA se desvaneció. Al mismo tiempo, durante diez años después de la devastadora crítica de Marvin Minsky a los perceptrones, el campo del conexionismo (o redes neuronales) permaneció inactivo. A pesar de la opinión negativa del público sobre la IA a fines de la década de 1970, se exploraron nuevas ideas en la programación lógica, el razonamiento de sentido común y una variedad de otros campos.

Auge 1980-1987

Desde los primeros días de la IA, el conocimiento fue una preocupación importante. Los sistemas expertos, una forma de programa de IA, fueron adoptados por empresas de todo el mundo en la década de 1980 y el conocimiento se convirtió en el foco de la investigación principal de IA. En la década de 1990, el gobierno japonés invirtió mucho en IA con su iniciativa de computadoras de quinta generación. El resurgimiento del conexionismo en las obras de John Hopfield y David Rumelhart a principios de la década de 1980 fue otro momento alentador. Una vez más, AI había tenido éxito.

El segundo invierno de IA 1987–1993

En la década de 1980, la atención del mundo empresarial hacia la IA siguió el patrón clásico de una burbuja económica. El colapso fue causado por proveedores comerciales que no pudieron producir una variedad de soluciones viables. Cientos de empresas quebraron y muchos inversores se negaron a invertir en ellas. Muchos creían que la tecnología no era viable, pero la investigación siguió avanzando. Numerosos expertos, como Rodney Brooks y Hans Moravec, abogaron por un tipo de IA radicalmente nuevo.

IA 1993–2011

El campo de la Inteligencia Artificial, que cuenta con más de medio siglo de antigüedad, ha alcanzado algunos de sus objetivos más básicos. Actualmente se está utilizando de manera efectiva en todo el sector de la tecnología, aunque de manera algo silenciosa. Parte de esto fue el resultado de una capacidad informática mejorada, mientras que otra parte se produjo al centrarse en problemas aislados específicos y esforzarse por alcanzar los niveles más altos de responsabilidad científica. Y, sin embargo, la reputación de AI en el mundo de los negocios fue menos que estelar. Dentro del campo, hubo un acuerdo limitado sobre por qué AI no había podido cumplir su promesa de inteligencia a nivel humano en la década de 1960. La IA se dividió en una serie de disciplinas distintas, cada una de las cuales se centraba en un problema o método diferente y, sin embargo, daba la ilusión de que estaban trabajando para lograr el mismo objetivo.

La "victoria de los limpios"

Los investigadores de inteligencia artificial comenzaron a crear y utilizar enfoques matemáticos sofisticados a un ritmo mayor que nunca. Muchos de los problemas que la IA necesitaba abordar ya estaban siendo abordados por académicos en campos como las matemáticas, la ingeniería eléctrica, la economía y la investigación de operaciones. El lenguaje matemático compartido permitió una mayor colaboración entre diversos campos y el logro de resultados medibles y verificables; La IA ahora se había convertido en una disciplina "científica" más seria, según Russell & Norvig (2003).

La teoría de la probabilidad y la decisión se han incorporado a la IA desde que el influyente trabajo de Judea Pearl de 1988 introdujo la teoría de la probabilidad y la decisión en el campo. Las redes bayesianas, los modelos ocultos de Markov, la teoría de la información, el modelado estocástico y la optimización clásica son solo algunas de las muchas técnicas nuevas empleadas. También se desarrollaron representaciones matemáticas para paradigmas de "inteligencia computacional" como redes neuronales y algoritmos evolutivos.

Try AppMaster no-code today!
Platform can build any web, mobile or backend application 10x faster and 3x cheaper
Start Free

Predicciones (o "¿Dónde está HAL 9000?")

En 1968, Arthur C. Clarke y Stanley Kubrick predijeron que para el año 2001, una máquina tendría un intelecto comparable o superior al de los seres humanos. HAL 9000, el personaje de IA que diseñaron, se basó en la idea de muchos de los principales expertos en IA de que dicho dispositivo se desarrollaría en 2001.

Para 2016, el mercado de bienes, hardware y software relacionados con la IA había alcanzado más de $ 8 mil millones, y el interés en la IA alcanzó la "manía". Las aplicaciones de Big Data han comenzado a extenderse más allá del campo de las estadísticas. Por ejemplo, se utilizó big data para entrenar modelos en ecología y para una variedad de aplicaciones económicas. Los avances en el aprendizaje profundo (en particular, las redes neuronales convolucionales profundas y las redes neuronales recurrentes) han impulsado el progreso y la investigación en el procesamiento de imágenes y videos, el análisis de texto e incluso el reconocimiento de voz.

Grandes datos

Big data es un término utilizado para describir enormes cantidades de datos numéricos que están más allá de las capacidades del software de aplicaciones típicas. Requiere un conjunto completamente nuevo de modelos de procesamiento para manejar este nivel de toma de decisiones, conocimiento y optimización de procesos. En la era de los grandes datos, Victor Meyer Schonberg y Kenneth Cooke definen los grandes datos como "todos los datos se utilizan para el análisis en lugar de una evaluación aleatoria (encuesta de muestra).

Las siguientes son cinco características importantes de big data: Volumen, Velocidad, Variedad, Valor y Veracidad (propuesto por IBM). La importancia de la tecnología de big data no es dominar una gran cantidad de información de datos, sino centrarse en las partes importantes. Dicho de otro modo, si se asimila el big data a la economía, la clave de la rentabilidad en este sector es mejorar la “Capacidad de proceso” de los datos y convertirlos en “Valor añadido”.

inteligencia general artificial

La capacidad de resolver cualquier problema, en lugar de solo uno específico, se conoce como inteligencia general. La inteligencia general artificial (o "AGI") se refiere al software que puede aplicar el intelecto a una variedad de problemas de la misma manera que los humanos.

Los investigadores de IA argumentaron a principios de la década de 2000 que el desarrollo de IA había abandonado en gran medida el objetivo original del campo de crear inteligencia general artificial. El estudio AGI se estableció como una subdisciplina separada y hubo conferencias académicas, laboratorios y cursos universitarios dedicados a la investigación AGI, así como consorcios privados y nuevas empresas, para 2010.

La inteligencia artificial general también se conoce como "IA fuerte", "IA completa" o un tipo de intelecto sintético en lugar de "IA débil" o "IA estrecha".

IA en 2022

La inteligencia artificial (IA) se ha convertido en una realidad empresarial y organizativa para numerosos sectores. Incluso si los beneficios de la IA no siempre son evidentes, ha demostrado ser capaz de mejorar la eficiencia de los procesos, disminuir los errores y la mano de obra, y extraer información de los grandes datos.

La gente está hablando de cuál será la próxima gran cosa en el mundo en lo que respecta a las tendencias impulsadas por IA. Aquí se presenta una colección de las tendencias de IA más intrigantes para anticipar en 2022:

  • Implementación de IA impulsada por el ROI;
  • análisis de vídeo;
  • El modelo de negocio 'Como Servicio';
  • Ciberseguridad mejorada;
  • IA en Metaverso;
  • Un tejido de datos;
  • IA y ML con Internet de las Cosas (IoT);
  • IA líder en hiperautomatización.

Conclusión

La inteligencia artificial tiene un gran impacto en el futuro de todos los sectores de la ciencia, la economía, la producción y cada persona. La inteligencia artificial ha contribuido al desarrollo de tecnologías innovadoras como big data, robótica e Internet de las cosas desde el principio y seguirá desarrollándose.

Entradas relacionadas

Sistema de gestión de aprendizaje (LMS) vs. Sistema de gestión de contenido (CMS): diferencias clave
Sistema de gestión de aprendizaje (LMS) vs. Sistema de gestión de contenido (CMS): diferencias clave
Descubra las distinciones críticas entre los sistemas de gestión de aprendizaje y los sistemas de gestión de contenido para mejorar las prácticas educativas y agilizar la entrega de contenido.
El retorno de la inversión de los registros médicos electrónicos (EHR): cómo estos sistemas ahorran tiempo y dinero
El retorno de la inversión de los registros médicos electrónicos (EHR): cómo estos sistemas ahorran tiempo y dinero
Descubra cómo los sistemas de registros médicos electrónicos (EHR) transforman la atención médica con un importante retorno de la inversión al mejorar la eficiencia, reducir los costos y mejorar la atención al paciente.
Sistemas de gestión de inventario basados en la nube frente a sistemas locales: ¿cuál es el adecuado para su empresa?
Sistemas de gestión de inventario basados en la nube frente a sistemas locales: ¿cuál es el adecuado para su empresa?
Explore los beneficios y desventajas de los sistemas de gestión de inventario locales y basados en la nube para determinar cuál es el mejor para las necesidades específicas de su empresa.
EMPIEZA GRATIS
¿Inspirado para probar esto usted mismo?

La mejor manera de comprender el poder de AppMaster es verlo por sí mismo. Haz tu propia aplicación en minutos con suscripción gratuita

Da vida a tus ideas