• Nenhum resultado encontrado

3.1 Inteligência artificial

3.1.1 Histórico

Segundo BITTENCOURT (2001), o que hoje chama-se Inteligência Artificial (IA) é um ramo da ciência da computação ao mesmo tempo recente (oficialmente a IA nasceu em 1956) e muito antigo, pois a IA foi construída a partir de idéias filosóficas, científicas e tecnológicas herdadas de outras ciências, algumas tão antigas quanto a lógica, com seus 23 séculos.

O interesse do homem em criar dispositivos que tenham um comportamento inteligente vem desde os tempos remotos (ALMEIDA, 1999). Para citar alguns exemplos, tem-se o distribuidor de água em Delfos, na Grécia antiga, e o relógio da catedral de Estrasburgo, que controlava um mecanismo responsável pelo movimento de todas as suas peças: ponteiros, galo cuco, bonecos representando as estações etc.

Atualmente, é atribuído a Wilhem Schickard (1592-1635), professor de matemática e astronomia na Universidade de Heidelberg o mérito de ter projetado e implementado a primeira calculadora mecânica, em 1623, que realizava instantaneamente adições e quase instantaneamente multiplicações e divisões (BARRETO, 2001).

Em 1642, Blaise Pascal (1623-1662), matemático e co-inventor da Teoria das Probabilidades, inventou uma máquina de fazer cálculos aritméticos, batizada de Pascaline, a qual realizava instantaneamente adições e subtrações, e também era capaz de converter várias moedas, com suas subdivisões (BARRETO, 2001).

A Figura 2 mostra a Máquina Pascaline, esta foi a primeira máquina que causou reflexões sobre a inteligência das máquinas, e é considerada a primeira referência à origem da IA.

FIGURA 1 - Máquina Pascaline

(Fonte: BARRETO, 2001).

Outra máquina também importante, e construída no mesmo século, foi a de Gottfried Wilhelm Leibniz (1646 - 1716), no ano de 1673, a qual tinha a capacidade de efetuar instantaneamente as quatro operações básicas. Após isto, muitas outras máquinas foram construídas tendo como base o mesmo conceito, inclusive uma calculadora com uma portabilidade maior que ao longo de 60 anos vendeu mais de 1500 unidades, construída pelo francês Charles Xavier Thomas, que foi a primeira calculadora comercial (BITTENCOURT, 2001).

Porém, uma característica comum a todas estas máquinas é que nenhuma era capaz de seguir a rotina de um programa, sendo totalmente controladas pelo operador.

A primeira referência a uma máquina que pudesse ser programada e inteligente no sentido atual é uma alusão feita por Lady Lovelace e à Máquina Analítica, de Charles Babbage, em 1843. Lady Lovelace e pode ser considerada a primeira programadora da história. Sua alusão refere-se à máquina como sendo capaz de compor peças musicais de qualquer complexidade. Charles Babbage utilizou-se do conceito dos autômatos, bonecos animados pelos quais era apaixonado, e dos teares de bordado, cujas ações eram comandadas por uma seqüência de cartões perfurados, para construir essa máquina. O curioso disso é que muitas pessoas atribuem a invenção dos cartões perfurados a Holleritt, que popularizou-os com o uso no recenseamento dos EUA, em 1900, quase 100 anos após sua invenção (ALMEIDA, 1999).

Leonardo Torres e Quevedo, nascido na Espanha em 1852, também contribuiu para o desenvolvimento da IA. Ele construiu máquinas chamadas de autômatos, cuja função era jogar o final de um jogo de xadrez, do rei contra rainha e rei. Porém, o próprio Torres não atribuía inteligência à sua máquina, porque tudo dependia de regras escolhidas pelo construtor. A verdade é que sua máquina usava técnicas de resolução de problemas que são utilizadas atualmente em muitas realizações de IA (RUSSEL e NORV IG, 2004).

Segundo BARRETO (2001), “é possível dividir a fase da história da IA em períodos”. O primeiro período foi este, conhecido como a Época Pré-histórica, e foi limitado pela complexidade de construção dos dispositivos estudados e também pelo forte apelo ao sobrenatural. Este período vai até 1875, quando o italiano Camilo Golgi descobre o neurônio. O segundo período, denominado Época Antiga, compreende o período de 1875 a 1943. A primeira referência a esta fase é a invenção da palavra Robô, em 1917, pelo tcheco Karel Capck. Em tcheco a palavra Robot significa trabalhador, e sua tradução para o inglês, em 1923, manteve a palavra original (ALMEIDA, 1999).

Em 1943, McCulloch e Pitts elaboram um modelo baseado na idéia de que um neurônio possuía dois estados: excitado e não excitado. Este modelo tentava reproduzir o funcionamento dos neurônios. Também é de autoria de McCulloch e Pitts o artigo A Logical Calculus of the Ideas Immanent In Nervous Activity, considerado uma das bases das Redes Neurais Artificiais (RNA) (ALMEIDA, 1999).

É neste período que o cérebro foi considerado o órgão responsável pela inteligência, e foi marcada pela realização dos trabalhos com enfoque na inteligência humana e na simulação do cérebro em sistemas computacionais. Houve avanços na psicologia e na neurofisiologia, e o nascimento da Psicanálise (ALMEIDA, 1999).

De 1943 a 1956 arrasta-se o terceiro período: a Época Romântica. É desta época o Teste de Turing, criado por Alan Turing. O teste consistia de um interrogador, um homem e uma mulher. O interrogador não enxerga os outros dois, e um deles era substituído por um computador. Se o interrogador não distingui-se quem era humano e quem era máquina, o computador era considerado inteligente. Este critério é

largamente aceito com o teste de inteligência, apesar de restringir a inteligência humana e usar frases mal definidas (BITTENCOURT, 2001).

Como se pode perceber com o Teste de Turing, este período foi uma extensão bem próxima do anterior, e os modelos e mecanismos criados tentavam imitar o funcionamento de uma rede de neurônios e o comportamento inteligente. Este período termina em um importante encontro no Darthmouth College, em 1956, no qual o termo IA surge. Logo após este encontro, surge o primeiro artigo sobre RNA – o Automata Studies (ALMEIDA, 1999). Deste encontro também nasceram dois paradigmas da IA: o Paradigma Simbólico e o Paradigma Conexionista (BARRETO, 2001).

Após este encontro, o entusiasmo gerado foi muito grande, e diversas pesquisas começam a ser iniciadas. Aqui, BARRETO (2001) define o quarto período, a Época Barroca, ocorrido entre 1956 e 1969. As várias aplicações desenvolvidas visavam expandir a IA usando tanto o paradigma simbólico quanto o conexionista e nebuloso.

Apesar do avanço da IA como um todo, a abordagem simbólica é que mais se destaca e a conexionista, na qual está incluído o estudo das Redes Neurais (RN), vê seu progresso caminhar lentamente. Os problemas apresentavam-se mais complexos que o esperado. O governo do EUA decide então cortar o investimento em pesquisas nesta área, e muitos outros países adotam esta posição. Em 1969, para finalizar esta fase, é lançado o livro Perceptrons, de Minsky e Papert (1969), o qual apresentava uma série de conjecturas sobre as RN.

O livro Perceptrons foi o ponto chave para separar as pesquisas entre as abordagens simbólica e conexionista. Entre as conjecturas apresentadas estava o problema de que o Perceptron (criado por Frank Rosenblat, um pesquisador pioneiro de RN) não podia resolver problemas complexos. Como Rosenblat havia morrido um pouco antes em um acidente automobilístico, ele não pode defender seu modelo Perceptron. Isso condenou o estudo sobre redes neurais durante vários anos, e esse período que vai de 1969 a 1981, onde BARRETO (2001) ainda define como o quinto período, conhecido como Época das Trevas. Nesta época o computador passou a ser

encarado como um produto comercial, de forma que não havia grande interesse pela IA. Os estudos nesta área voltaram–se para a aplicação de SE, e vários SE foram construídos.

Um fato importante deste período foi o desenvolvimento da linguagem Prolog, no ano de 1972, por Alan Colmerauer (ALMEIDA, 1999).

Com os estudos concentrados nos SE, e com o crescente uso do computador como instrumento comercial, vários SE comerciais foram desenvolvidos. Em outubro de 1981, o Japão anuncia a liberação de verbas para o projeto de computadores de quinta geração. Prolog é a linguagem escolhida para o projeto e se populariza no mundo inteiro. A Época das Trevas chega ao fim, e o espaço que compreende os anos de 1981 a 1987 é considerado o sexto período, chamado de Renascimento. A IA ganha nova vida e as pesquisas em RNA são retomadas. Em 1986, o problema proposto pelo livro Perceptron é resolvido pelo algoritmo apresentado no trabalho de McClelland e Rumelhart, intitulado de Parallel Distributed Processing. O reconhecimento óptico de caracteres (OCR), baseado em RNA, neste mesmo ano, é uma empresa de 100 milhões de dólares (ALMEIDA, 1999).

Em 1965, L. A. Zadeh introduziu os conjuntos nebulosos, reativando o interesse em estruturas matemáticas multivariadas. Em 1973, o próprio Zadeh propunha a lógica nebulosa como um novo enfoque para análise de sistemas complexos e processo de decisão. Aplicações específicas sobre o uso da lógica nebulosa em controle surgem em trabalhos de E. H. Mamdani, em 1974. A partir de meados dos anos 80, o emprego de controladores nebulosos adquiriu aceitação industrial, particularmente no Japão, com aplicações abrangendo desde máquinas fotográficas até processos industriais. Em 1986, M. Togai e W. Watanabe apresentavam um chip VLSI implementando uma máquina de inferência nebulosa. Hoje em dia, a produção em massa desse tipo de chip tornou corriqueiro o uso de lógica nebulosa até em eletrodomésticos (NASCIMENTO e YONEYAMA, 2000).

O sétimo e último período, a Época Contemporânea (1987-atual), vem sendo marcado pelo aumento de pesquisas e da larga aplicação de sistemas de IA. As RNAs ganharam âmbito comercial e são aplicados em sistemas como: verificadores

ortográficos e gramáticos, consultas em banco de dados, reconhecimento de padrões etc. Os SE começam a ser desenvolvidos utilizando a técnica da abordagem híbrida, baseada em RN e sistemas nebulosos (ALMEIDA, 1999).

Documentos relacionados