Grow with AppMaster Grow with AppMaster.
Become our partner arrow ico

Cronograma da Inteligência Artificial AI — Atualização de 2022

Cronograma da Inteligência Artificial AI — Atualização de 2022

Vamos mergulhar neste tópico desde os tempos antigos até 2022.

Antiguidade

A inteligência artificial (IA) começou com mitos, lendas e histórias sobre seres artificiais dotados de intelecto ou consciência criados por mestres artesãos. Os primeiros filósofos gregos tentaram descrever o processo de pensamento humano como uma manipulação mecânica de símbolos para formar teorias.

Ficção posterior

Idéias sobre homens artificiais e máquinas pensantes foram criadas na ficção, como Frankenstein de Mary Shelley ou RUR (Rossum's Universal Robots) de Karel Čapek, e especulações, como "Darwin entre as Máquinas" de Samuel Butler e em ocorrências do mundo real, incluindo Edgar O "Jogador de Xadrez de Maelzel" de Allan Poe.

Autômatos

Artesãos de todas as civilizações, incluindo Yan Shi, Herói de Alexandria, Al-Jazari, Pierre Jaquet-Droz e Wolfgang von Kempelen, criaram autômatos humanóides realistas. As antigas estátuas sagradas egípcias e gregas foram os primeiros autômatos conhecidos. Os fiéis acreditavam que os artesãos haviam dotado essas figuras de mentes reais. Durante a era medieval, dizia-se que esses autômatos lendários respondiam às perguntas dirigidas a eles.

Raciocínio formal

A inteligência artificial baseia-se na ideia de que o pensamento humano pode ser mecanizado. Tem havido muito estudo sobre o "raciocínio" formal — ou "mecânico". Os filósofos chineses, indianos e gregos inventaram metodologias formais de dedução do primeiro milênio aC. Eles foram desenvolvidos por filósofos como Aristóteles (que escreveu uma análise rigorosa do silogismo), Euclides (cujos Elementos era um modelo de raciocínio formal), al-Khwārizmī (que criou a álgebra e é creditado por dar seu nome ao "algoritmo" ), e pensadores escolásticos europeus como Guilherme de Ockham.

O filósofo espanhol Ramon Llull (1232-1315) criou várias máquinas lógicas para criar conhecimento por meio de procedimentos lógicos; ele se referiu a seus dispositivos como seres mecânicos que poderiam combinar fatos fundamentais e indiscutíveis usando operações lógicas simples a produção de todo o conhecimento possível. Gottfried Leibniz reviveu as ideias de Llull.

Leibniz, Thomas Hobbes e René Descartes investigaram a perspectiva, no século XVI, de que todo pensamento racional pudesse ser reduzido à álgebra ou geometria. A razão, de acordo com Hobbes, é "nada além de um acerto de contas". Leibniz imaginou uma linguagem global de raciocínio (sua característica universalis) que reduziria o debate ao cálculo, de modo que "não haveria mais necessidade de disputa entre dois filósofos do que entre dois contadores. os pensadores articularam pela primeira vez a hipótese do sistema de símbolos físicos, que acabaria se tornando a crença central do estudo da IA.

No século 20, a lógica lógico-matemática desenvolveu o avanço crucial que fez a inteligência artificial parecer prática. Tais trabalhos lançaram as bases para The Laws of Thought, de Boole, e Begriffsschrift, de Frege. Em 1913, Russell e Whitehead publicaram o Principia Mathematica, um estudo formal dos fundamentos da matemática, baseado no sistema de Frege.

A resposta que obtiveram foi inesperada em dois aspectos. Para começar, eles provaram que havia limites para o que a lógica matemática poderia realizar. No entanto, segundo e mais significativo (para IA), sua pesquisa indicou que qualquer inferência matemática pode ser mecanizada dentro desses parâmetros.

O Teste de Turing

O teste de Turing é um objetivo de longo prazo para a pesquisa de IA – algum dia seremos capazes de criar um computador que possa se passar por um humano o suficiente para que um juiz suspeito não possa dizer a diferença? Ele seguiu um caminho semelhante a grande parte da pesquisa de IA desde o seu início. Inicialmente, parecia ser difícil, mas factível (uma vez que a tecnologia de hardware chegou).

Apesar de décadas de estudo e melhorias tecnológicas significativas, o teste de Turing continua a servir como um objetivo para pesquisadores de IA, ao mesmo tempo em que revela o quão longe estamos de alcançá-lo.

Em 1950, o matemático e cientista da computação inglês Alan Turing publicou um artigo intitulado "Computing Machinery and Intelligence", que deu início ao campo que se tornaria conhecido como inteligência artificial. Isso foi anos antes de John McCarthy cunhar o termo Inteligência Artificial. O artigo começou com uma pergunta simples: “As máquinas podem pensar?” Depois disso, Turing propôs um método para determinar se as máquinas podem pensar, que ficou conhecido como teste de Turing. O “Jogo da Imitação” foi desenvolvido como um teste simples que poderia ser usado para determinar se as máquinas estavam pensando. Assumir que um computador programado para se parecer exatamente com um humano intelectual realmente demonstrou que os computadores podem pensar.

Try AppMaster no-code today!
Platform can build any web, mobile or backend application 10x faster and 3x cheaper
Start Free

Embora as pessoas continuem a discutir se as máquinas podem pensar e testar o ciberespaço, está claro que Alan Turing e seu critério proposto forneceram uma visão poderosa e instrutiva para o campo da IA. Este artigo, escrito pelo próprio Alan Turing, forneceu suas contribuições seminais para a pesquisa em IA e abriu o caminho para a ciência da computação moderna. O teste de Turing é amplamente considerado um marco no campo da inteligência artificial e pode ser considerado uma meta por muitos anos, além de ser um marco no acompanhamento do progresso de todo o campo da IA.

Cibernética e as primeiras redes neurais

A invenção do computador inspirou as primeiras investigações sobre máquinas inteligentes. Uma confluência de ideias surgiu durante o final dos anos 1930, 1940 e início dos anos 1950, inspirando trabalhos anteriores em neurociência. Os trabalhos de Norbert Wiener e Claude Shannon focaram no controle e estabilidade das redes elétricas. A teoria da informação de Claude Shannon descreveu os sinais digitais (sinais de tudo ou nada). A noção teórica de computação de Alan Turing provou que qualquer tipo de cálculo pode ser representado digitalmente. A estreita ligação entre essas ideias sugeria que um cérebro eletrônico poderia ser construído.

Robôs como as tartarugas de W. Gray Walter, assim como o Johns Hopkins Beast, são exemplos de trabalho nessa área. Essas máquinas eram movidas por eletrônica analógica e instinto, em vez de computadores, eletrônica digital ou raciocínio simbólico; eles eram inteiramente controlados por circuitos analógicos.

Em 1943, Walter Pitts e Warren McCulloch investigaram redes de neurônios artificiais idealizados e demonstraram como eles podem realizar operações lógicas básicas. Eles foram os primeiros a descrever o que pesquisadores posteriores chamariam de rede neural. Um jovem Marvin Minsky, então estudante de pós-graduação de 24 anos, foi inspirado por Pitts e McCulloch. Em 1951 (com Dean Edmonds), ele criou a primeira máquina de rede neural, o SNARC. Nos próximos 50 anos, Minsky seria um dos líderes e inovadores mais importantes da IA.

IA do jogo

Em 1951, Christopher Strachey e Dietrich Prinz criaram programas de damas para a máquina Ferranti Mark 1 na Universidade de Manchester. O programa de damas de Arthur Samuel, que foi criado em meados dos anos 50 e início dos anos 60, acabou atingindo a habilidade de nível amador. O uso da IA em jogos perduraria ao longo da história como uma métrica para o avanço da IA.

Dartmouth Workshop 1956: o nascimento da IA

Em 1956, a Conferência de Dartmouth foi organizada por Marvin Minsky, John McCarthy e dois cientistas seniores da IBM: Claude Shannon e Nathan Rochester. "Uma máquina pode ser construída para duplicar qualquer aspecto da inteligência humana", dizia a proposta. Os participantes incluíam Ray Solomonoff, Oliver Selfridge, Trenchard More, Arthur Samuel, Allen Newell e Herbert A. Simon – todos os quais iriam criar projetos significativos de IA durante as primeiras décadas de estudo. Na conferência, Newell e Simon revelaram o "Teórico da Lógica", enquanto McCarthy instou os participantes a aceitarem "Inteligência Artificial" como o nome de seu campo. A conferência de Dartmouth de 1956 foi o evento que deu à IA seu nome, propósito e primeiro sucesso, bem como seus principais atores e momentos decisivos.

Try AppMaster no-code today!
Platform can build any web, mobile or backend application 10x faster and 3x cheaper
Start Free

IA Simbólica 1956–1974

Para a maioria das pessoas, os anos que se seguiram ao Workshop de Dartmouth foram simplesmente "surpreendentes": os computadores estavam resolvendo problemas de álgebra, provando teoremas geométricos e aprendendo a falar inglês. No final da década de 1960, poucos teriam pensado que tal comportamento "inteligente" das máquinas fosse concebível. Em particular e na imprensa, acadêmicos expressaram grande otimismo de que uma máquina totalmente sapiente seria desenvolvida em menos de 20 anos. O novo campo atraiu financiamento significativo de agências governamentais como a DARPA.

O primeiro inverno AI 1974-1980

Na década de 1970, a IA enfrentou críticas e contratempos financeiros. As dificuldades que os pesquisadores de IA estavam enfrentando não foram reconhecidas por eles. Suas enormes expectativas foram levantadas muito além do que era razoável e, quando os benefícios prometidos não apareceram, o financiamento do governo para a IA desapareceu. Ao mesmo tempo, por dez anos após a crítica devastadora de Marvin Minsky aos perceptrons, o campo do conexionismo (ou redes neurais) permaneceu adormecido. Apesar da visão negativa do público sobre a IA no final da década de 1970, novas ideias foram exploradas em programação lógica, raciocínio de senso comum e uma variedade de outros campos.

Boom 1980–1987

Desde os primórdios da IA, o conhecimento era uma grande preocupação. Os sistemas especialistas, uma forma de programa de IA, foram adotados por empresas de todo o mundo na década de 1980 e o conhecimento tornou-se o foco da pesquisa de IA principal. Na década de 1990, o governo japonês investiu pesadamente em IA com sua iniciativa de computador de quinta geração. O ressurgimento do conexionismo nas obras de John Hopfield e David Rumelhart no início dos anos 1980 foi outro momento encorajador. Mais uma vez, a IA teve sucesso.

O segundo inverno AI 1987-1993

Na década de 1980, a atenção do mundo empresarial à IA seguiu o padrão clássico de uma bolha econômica. O acidente foi causado por fornecedores comerciais incapazes de produzir uma variedade de soluções viáveis. Centenas de empresas faliram e muitos investidores se recusaram a investir nelas. Muitos acreditavam que a tecnologia não era viável, mas a pesquisa continuou avançando. Vários especialistas, como Rodney Brooks e Hans Moravec, defenderam um tipo radicalmente novo de IA.

IA 1993–2011

O campo da Inteligência Artificial, com mais de meio século, atingiu alguns dos seus objetivos mais básicos. Atualmente, está sendo utilizado de forma eficaz em todo o setor de tecnologia, embora um pouco silenciosamente. Parte disso foi resultado de uma capacidade computacional aprimorada, enquanto outras surgiram do foco em questões isoladas específicas e do esforço para alcançar os mais altos níveis de responsabilidade científica. E, no entanto, a reputação da IA no mundo dos negócios era menos que estelar. Dentro do campo, havia um acordo limitado sobre por que a IA não conseguiu cumprir sua promessa de inteligência em nível humano na década de 1960. A IA foi dividida em várias disciplinas distintas, cada uma com foco em um problema ou método diferente, embora dando a ilusão de que estavam trabalhando para o mesmo objetivo.

A "vitória dos puros"

Pesquisadores de inteligência artificial começaram a criar e utilizar abordagens matemáticas sofisticadas a uma taxa maior do que nunca. Muitos dos problemas que a IA precisava resolver já estavam sendo abordados por acadêmicos em áreas como matemática, engenharia elétrica, economia e pesquisa operacional. A linguagem matemática compartilhada permitiu maior colaboração entre diversos campos e a obtenção de resultados mensuráveis e verificáveis; A IA agora se tornou uma disciplina "científica" mais séria, de acordo com Russell & Norvig (2003).

A teoria da probabilidade e da decisão foi incorporada à IA desde que o influente trabalho de Judea Pearl em 1988 introduziu a teoria da probabilidade e da decisão no campo. Redes Bayesianas, modelos ocultos de Markov, teoria da informação, modelagem estocástica e otimização clássica são apenas algumas das muitas novas técnicas empregadas. Representações matemáticas também foram desenvolvidas para paradigmas de "inteligência computacional" como redes neurais e algoritmos evolutivos.

Try AppMaster no-code today!
Platform can build any web, mobile or backend application 10x faster and 3x cheaper
Start Free

Previsões (ou "Onde está HAL 9000?")

Em 1968, Arthur C. Clarke e Stanley Kubrick previram que, em 2001, uma máquina teria um intelecto comparável ou superior ao dos seres humanos. HAL 9000, o personagem de IA que eles projetaram, foi baseado na noção de muitos especialistas em IA de que tal dispositivo seria desenvolvido até 2001.

Em 2016, o mercado de bens, hardware e software relacionados à IA atingiu mais de US$ 8 bilhões, com o interesse em IA atingindo a "mania". As aplicações de big data começaram a se estender além do campo da estatística. Por exemplo, big data foi usado para treinar modelos em ecologia e para uma variedade de aplicações econômicas. Os avanços no aprendizado profundo (particularmente redes neurais convolucionais profundas e redes neurais recorrentes) impulsionaram o progresso e a pesquisa em processamento de imagem e vídeo, análise de texto e até reconhecimento de fala.

Big Data

Big data é um termo usado para descrever enormes quantidades de dados numéricos que estão além das capacidades dos softwares de aplicativos típicos. Requer um conjunto inteiramente novo de modelos de processamento para lidar com esse nível de tomada de decisão, percepção e otimização de processos. Na Era do Big Data, Victor Meyer Schonberg e Kenneth Cooke definem big data como "todos os dados são utilizados para análise em vez de avaliação aleatória (pesquisa de amostra).

A seguir estão cinco características importantes de big data: Volume, Velocidade, Variedade, Valor e Veracidade (proposta pela IBM). A importância da tecnologia de big data não é dominar informações de dados enormes, mas focar nos bits importantes. Dito de outra forma, se big data é comparado à economia, a chave para a lucratividade neste setor é melhorar a "capacidade de processo" dos dados e transformá-los em "valor agregado".

Inteligência geral artificial

A capacidade de resolver qualquer problema, em vez de apenas um específico, é conhecido como inteligência geral. A inteligência geral artificial (ou "AGI") refere-se ao software que pode aplicar o intelecto a uma variedade de problemas da mesma maneira que os humanos.

Pesquisadores de IA argumentaram no início dos anos 2000 que o desenvolvimento da IA havia abandonado em grande parte o objetivo original do campo de criar inteligência geral artificial. O estudo AGI foi estabelecido como uma subdisciplina separada e houve conferências acadêmicas, laboratórios e cursos universitários dedicados à pesquisa AGI, bem como consórcios privados e novas empresas, até 2010.

A inteligência geral artificial também é conhecida como "IA forte", "IA completa" ou um tipo sintético de intelecto, em vez de "IA fraca" ou "IA estreita".

IA em 2022

A inteligência artificial (IA) tornou-se uma realidade empresarial e organizacional para diversos setores. Mesmo que os benefícios da IA nem sempre sejam aparentes, ela se mostrou capaz de melhorar a eficiência do processo, diminuir erros e mão de obra e extrair insights de big data.

As pessoas estão falando sobre qual será a próxima grande novidade no mundo quando se trata de tendências baseadas em IA. Uma coleção das tendências de IA mais intrigantes para antecipar em 2022 é apresentada aqui:

  • Implementação de IA orientada por ROI;
  • Análise de vídeo;
  • O modelo de negócio 'As a Service';
  • Melhor segurança cibernética;
  • IA no Metaverso;
  • Uma malha de dados;
  • AI e ML com a Internet das Coisas (IoT);
  • IA líder em hiperautomação.

Conclusão

A inteligência artificial tem um enorme impacto no futuro de todos os setores da ciência, economia, produção e de todas as pessoas. A inteligência artificial contribuiu para o desenvolvimento de tecnologias inovadoras, como big data, robótica e Internet das Coisas desde o início, e continuará a se desenvolver.

Posts relacionados

O papel de um LMS na educação online: transformando o e-learning
O papel de um LMS na educação online: transformando o e-learning
Explore como os Sistemas de Gestão de Aprendizagem (LMS) estão transformando a educação online ao melhorar a acessibilidade, o engajamento e a eficácia pedagógica.
Principais recursos a serem observados ao escolher uma plataforma de telemedicina
Principais recursos a serem observados ao escolher uma plataforma de telemedicina
Descubra recursos essenciais em plataformas de telemedicina, desde a segurança até a integração, garantindo uma prestação de cuidados de saúde remotos eficiente e sem interrupções.
Os 10 principais benefícios da implementação de registros eletrônicos de saúde (EHR) para clínicas e hospitais
Os 10 principais benefícios da implementação de registros eletrônicos de saúde (EHR) para clínicas e hospitais
Descubra os dez principais benefícios da introdução de Prontuários Eletrônicos de Saúde (PES) em clínicas e hospitais, desde a melhoria do atendimento ao paciente até o aumento da segurança dos dados.
Comece gratuitamente
Inspirado para tentar isso sozinho?

A melhor maneira de entender o poder do AppMaster é ver por si mesmo. Faça seu próprio aplicativo em minutos com assinatura gratuita

Dê vida às suas ideias