-
Ao propor as Três Leis da Robótica, o escritor de ficção científica Isaac Asimov estabelece princípios de convívio entre humanos e máquinas inteligentes. 1. “Um robô não pode ferir um humano ou permitir que um humano sofra algum mal”; 2. “Os robôs devem obedecer às ordens dos humanos, exceto nos casos em que tais ordens entrem em conflito com a primeira lei”; e 3. “Um robô deve proteger sua própria existência, desde que não entre em conflito com as leis anteriores”;
-
Em 1943, Warren McCulloch e Walter Pitts apresentam um artigo que fala pela primeira vez de redes neurais, estruturas de raciocínio artificiais em forma de modelo matemático que imitam o nosso sistema nervoso.
-
A pesquisa de Turing começa com o questionamento: “'As máquinas podem pensar?" Essa questão teórica deu origem ao "Jogo da Imitação", um exercício para testar a capacidade de uma máquina ter conhecimento equivalente ao do humano. A pesquisa forneceu uma referência simples para identificar inteligência em uma máquina: ajudou a dar forma a uma filosofia de IA.
-
Em 1951, nasceu o SNARC, uma calculadora de operações matemáticas simulando sinapses, que são as ligações entre neurônios. O responsável foi Marvin Minsky, aluno da dupla daquele primeiro artigo sobre redes neurais.
-
Em 1952, Arthur Samuel criou um jogo de damas no IBM 701 que consegue melhorar por conta própria e vira um desafio a altura de jogadores amadores.
-
Em 1955, não havia um conceito unificador para envolver vários tipos de inteligência de máquina. Até que John McCarthy, professor de matemática do Dartmouth College, cunhou o termo "inteligência artificial". McCarthy organizou uma conferência de IA no ano seguinte. Pesquisadores discutiram sobre as várias áreas com potencial para o estudo de IA. O consenso nas discussões foi que a IA tinha um grande potencial para beneficiar os humanos.
-
A estrutura básica de uma rede neural é chamada de "perceptron". As redes neurais de hoje, rodando em computadores poderosos, conectam bilhões dessas estruturas. Mas os perceptrons existiam muito antes dos computadores. No fim da década de 1950, um psicólogo chamado Frank Rosenblatt construiu um modelo eletromecânico chamado Mark I Perceptron, que hoje fica no museu Smithsonian.
-
Em 59, vemos pela primeira vez o termo machine learning, descrevendo um sistema que dá aos computadores a habilidade de aprender alguma função sem serem programados diretamente pra isso. Basicamente, significa alimentar um algoritmo com dados, para que a máquina aprenda a executar uma tarefa automaticamente.
-
Em 64, teve o primeiro chatbot do mundo, ELIZA, que conversava de forma automática imitando uma psicanalista, usando respostas baseadas em palavras-chave e estrutura sintática. E em 69 é demonstrado o Shakey, primeiro robô que unia mobilidade, fala e certa autonomia de ação. Ele era lento e cheio de falhas, mas funcionava.
-
Durante grande parte da década de 1960, agências governamentais investiram dinheiro em pesquisas. O cenário mudou no início dos anos 70. Relatórios para o governo dos EUA, em 1966 e o Relatório Lighthill, para o governo do Reino Unido, em 1973, apresentaram conclusões pessimistas sobre o potencial da inteligência artificial. Como resultado, o governo dos EUA e o governo britânico cortaram o financiamento entre os anos 70 e 80.
-
O mercado de sistemas dedicados entrou em colapso em 1987, com os principais fornecedores de máquinas saindo do mercado. Mais uma vez, o termo "inteligência artificial" tornou-se quase um tabu na comunidade de pesquisa. Para evitar ser visto como sonhadores perdulários pedindo financiamento, os pesquisadores começaram a usar nomes diferentes para trabalhos relacionados à IA — como "informática", "aprendizado de máquina" e "análise". Este segundo "abandono" durou até os anos 2000.
-
O Deep Blue tinha bastante poder computacional e utilizou uma abordagem de "força bruta", avaliando 200 milhões de movimentos por segundo. Os humanos têm a capacidade de examinar apenas cerca de 50 movimentos. O efeito do Deep Blue era semelhante à IA, mas o computador não estava pensando na estratégia e no aprendizado enquanto jogava, como os sistemas posteriores. Os investidores ficaram impressionados: a vitória da Deep Blue elevou a cotação das ações da IBM.
-
Essa é uma área que deve levar alguns anos pra se desenvolver plenamente, mas já acompanhamos no presente alguns resultados. A DARPA mantém desde 2004 uma competição anual chamada Grand Challenge que premia e impulsiona projetos de carros autônomos, e de lá já saíram várias ideias e evoluções.
-
Outro bom exemplo veio em 2005, com a Boston Dynamics. Ela apresentou uma revolução na IA com aplicações em várias indústrias com o robô BigDog, capaz de se movimentar por terrenos de difícil acesso para humanos. Formas de cachorro e até humanoides estão cada vez melhores em mobilidade e inteligência.
-
Por três dias, uma rede neural com 16.000 processadores analisou 10 milhões de capturas de tela do YouTube. Em seguida, mostrou três imagens borradas, representando os padrões visuais que estavam nas imagens de teste: um rosto humano, um corpo humano e um gato. Essa pesquisa foi um grande avanço e marcou o início do projeto Google Brain.
-
A IBM voltou a ganhar as manchetes com o Watson, um supercomputador e plataforma de inteligência artificial. Pra mostrar todo o seu potencial, ele venceu os melhores jogadores no game show televisivo de adivinhação Jeopardy. A partir daí, ele começou a ser aplicado em vários campos, como saúde, direito, reconhecimento de imagem e muito mais.
-
A partir de 2008, o processamento de linguagem natural voltou com tudo. A Google lançou o recurso de reconhecimento de voz no iPhone pra pesquisas, e isso mostrou a integração da IA com todo o ecossistema da empresa. Em 2011, a própria Apple lançou uma assistente virtual, a Siri, que responde perguntas, pesquisa por você e até conta piadas.
-
Conhecida como a Universidade do Vale do Silício, a Udacity surge neste ecossistema inovador dos Estados Unidos em 2011, após o experimento do professor da Universidade de Stanford Sebastian Thrun ao lado de Peter Norvig, em que eles ofereciam um curso online e gratuito sobre “Introdução à Inteligência Artificial”. Daí, surgiu a Udacity.
-
Geoffrey Hinton, professor da Universidade de Toronto, e dois alunos, criaram a AlexNet, um modelo de rede neural para competir em um concurso de reconhecimento de imagem chamado ImageNet. Os participantes deveriam usar seus sistemas para processar milhões de imagens de teste e identificá-las com a maior precisão possível. AlexNet venceu o concurso com uma taxa de erro inferior à metade da do vice-campeão.
-
Em 2016, os cientistas do DeepMind, agora no Google, trocaram o Atari pelo jogo de tabuleiro Go. Eles desenvolveram um modelo de rede neural chamado AlphaGo, para jogar e aprender com a brincadeira. O software jogou contra outras versões do AlphaGo, aprendendo com as estratégias de ganhar e perder. Funcionou. O AlphaGo derrotou o maior jogador de Go do mundo, Lee Sedol, quatro jogos a um.