O que é inteligência artificial?

Autora: Angela Daniele Gongora

 

Ao abordar o conceito de inteligência, veremos que é um conceito relativo à construção de estruturas cognitivas do ser humano, responsáveis pela formação da razão, característica peculiar frente aos demais animais. Como o ser humano é o único animal racional, diz-se que ele é o único ser inteligente. Há estudos que atribuem o conceito de inteligência a outros animais e vegetais. Mas, obviamente, não é um conceito comparável ao da inteligência humana. É, isso sim, um conceito relativo à análise em questão: esta inteligência irracional seria a capacidade de adaptação de um ser vivo às circunstâncias de seu meio. Desta forma, poderemos utilizar este conceito para a máquina, definindo, então, uma inteligência de máquina.

Esta inteligência seria a sua capacidade genética de instrumento de solução de problemas. Por capacidade genética entenda-se todo o conhecimento embutido em nível de hardware, o que permite um determinado conjunto de estados possíveis de funcionamento através de programas. A inteligência de máquina seria, então, um tipo de inteligência construída pelo homem, portanto, uma inteligência artificial.

Mas o conceito de Inteligência Artificial (IA) abraça mais do que a inteligência de máquina. Pretende-se, com ela, capacitar o computador de um comportamento inteligente. Por comportamento inteligente devemos entender atividades que somente um ser humano seria capaz de efetuar. Dentro destas atividades podem ser citadas aquelas que envolvem tarefas de raciocínio (planejamento e estratégia) e percepção (reconhecimento de imagens, sons, etc.), entre outras.

Para ter-se uma idéia de onde surgiram os conceitos relativos à IA, deve-se investigar um pouco de sua história. Isto é o que se verá a seguir.

Histórico da Inteligência Artificial

A Inteligência Artificial (IA) não é recente. Sua história se inicia nos idos dos anos 40, onde havia alguma pesquisa em torno de seqüências de estratégia e análise do funcionamento do cérebro com objetivos de formalização de seu comportamento. Estes dois ramos de pesquisa eram dissociados entre si, sem nenhuma preocupação com a construção de uma Inteligência Artificial. Buscava-se, apenas, novas alternativas de utilização do computador, ainda em projeto.

Mas, com o passar dos anos, foram sendo distinguidas duas linhas de pesquisa: uma biológica, calcada em torno do funcionamento do cérebro e dos neurônios; e outra, fruto do estudo da cognição, do raciocínio.

Anos 40

Segunda Guerra Mundial. Há a necessidade do avanço tecnológico para fornecer mais instrumentos para o combate bélico. O dinheiro de pesquisas científicas está à disposição dos cientistas que se preocupem em desenvolver mecanismos para a morte em massa, de modo a fazer com que a guerra seja ganha pelo poder tecnológico. A maior arma idealizada na época (que matava mais gente em menos tempo) era a bomba atômica, mas para seu desenvolvimento seria necessária uma quantidade gigantesca de cálculos, os quais deveriam ser precisos. Neste contexto, e para que fosse possível o cálculo da bomba atômica, foi desenvolvido o computador. Como diz seu nome, uma máquina de fazer cômputos (cálculos).

Mas não somente para cálculos, o computador foi utilizado também em outros recursos voltados à morte: o planejamento de ações estratégicas de exércitos. Simulações do avanço de tropas era possível informando-se as variáveis envolvidas na ação, permitindo, assim, a elaboração automática de diversas hipóteses de estratégias. Tal como um jogo de guerra, combinações eram simuladas. Foi então o início dos jogos por computador, utilizados também para situações mais reais além de jogos de dama e xadrez. Por outro lado, havia outro ramo de pesquisas interessado na realização da representação das células nervosas do ser humano no computador, uma vez que o cérebro é formado de neurônios e é ele que realiza o processamento das informações do corpo.

Esta linha de pesquisas motivou o desenvolvimento de uma formalização matemática para o neurônio, estabelecendo o neurônio formal. Esta formalização permitiu a realização de diversas concepções matemáticas sobre a forma de aprendizado dos neurônios, ou seja, como os neurônios armazenam informações.

Anos 50

Nessa década iniciou-se o estudo, na linha de pesquisa psicológica, da utilização da lógica de estratégia para finalidades matemáticas, como a prova de teoremas. Iniciou-se, também, a modelagem através de regras de produção, regras estas baseadas na lógica de predicados. A introdução da programação através de comandos de lógica de predicados proporcionou um grande avanço para a programação de sistemas que utilizassem esquemas de raciocínio. Daí foi possível o aperfeiçoamento do que já existia: jogos, aplicações matemáticas e simuladores.

Mas, passando à história da linha biológica, essa década foi de grande sucesso dada a implementação do primeiro simulador de redes neurais artificiais e do primeiro neurocomputador. A partir do modelo matemático de MacCulloc e Pitts (1943) e da teoria de aprendizado de Donald Hebb (1949), foi possível nessa década a união desses conhecimentos no modelo de rede neural artificial chamado Perceptron.

Anos 60

Na linha biológica, prosseguiram os desenvolvimentos de conceitos relativos às redes neurais artificiais com o aprimoramento do modelo Perceptron e o surgimento de uma variante, o Adaline. Ambos utilizavam as mesmas idéias de rede, porém a lógica de aprendizado os diferenciava.

Para a linha psicológica essa década foi a descoberta da Inteligência Artificial. Utopicamente, os pesquisadores desta linha acreditavam ser possível realizar tarefas humanas, tais como o pensamento e a compreensão da linguagem, através do computador. Realmente acreditava-se ser possível a reprodução pura e simplesmente do raciocínio humano no computador. Neste sentido, foi tentada a interpretação da linguagem no computador, tal como compreendida pelo ser humano. No ímpeto da racionalização imposta pelo desenvolvimento de suas pesquisas, acreditaram que apenas através do raciocínio seria possível a interpretação da linguagem. Obviamente a linguagem humana não é fruto apenas da razão, mas de todo o aparato sensorial e lógico do ser humano. Por outro lado, em 1969, Marvin Minsky e Sigmour Papert publicaram um livro denominado Perceptrons, o qual se destinava a ridicularizar as pesquisas em torno das redes neurais artificiais. Os autores sustentavam a hipótese que os modelos apresentados não tinham sustentação matemática para terem credibilidade. Tiveram êxito na sua empreitada, levando ao ostracismo os pesquisadores da linha biológica.

Anos 70

Para a linha biológica, essa foi uma década negra. Apesar disso, houve pesquisadores que, por outros caminhos, chegaram a novas concepções de redes neurais artificiais. Estas concepções analisavam o aprendizado de informações como sendo fruto de uma união das potencialidades de redes de neurônios interagindo entre si. Nasciam as redes neurais representadas na forma de mapas cerebrais, onde não havia o aprendizado de um neurônio, mas de toda uma rede, através do compartilhamento de recursos. Já na linha psicológica, estudos mais aprofundados demonstraram o óbvio: que não seria possível a representação numa máquina dos estados mentais humanos responsáveis pelo pensamento. A saída para esta linha de desenvolvimento era dada por uma empresa: a Rand Corporation. Foi de sua equipe de pesquisa que partiram os sistemas especialistas, os quais foram responsáveis pela ampliação da Inteligência Artificial Tradicional.

Anos 80

As redes neurais artificiais tiveram seu reconhecimento recuperado através do físico John Hopfield, que em 1982 provou ser possível a simulação de um sistema físico através de um modelo matemático baseado na teoria das redes neurais.

Assim, em 1986, uma equipe de especialistas das mais diversas áreas reuniram-se para validar as pesquisas em torno das redes neurais, possibilitando a volta da pesquisa nesta linha. Uma das formas de recuperação do prestígio das redes neurais foi a proposta de um modelo, chamado Backpropagation, que ampliava o potencial do Perceptron de modo a permitir a superação das limitações do modelo primitivo. Enquanto isso, na IA Tradicional, ampliavam-se as técnicas e aplicações dos sistemas especialistas. Além disso, houve o interesse de trabalho conjunto com outras áreas, tais como interfaces inteligentes, sistemas de apoio à decisão, controle de robôs, etc.

Anos 90

Nessa década, as redes neurais tiveram uma explosão exponencial de aplicações e desenvolvimento de modelos. São centenas de propostas de novos ou aperfeiçoamento de modelos a cada ano, tal o interesse pela área. A partir daí, consolidam-se as redes neurais como parte integrante do estudo da Inteligência Artificial propriamente dita. Reconhece-se, também, que os paradigmas biológico e psicológico são complementares e necessários para sistemas mais evoluídos. Desta forma, começam nesta década a serem construídos os chamados Sistemas Híbridos.

Estes sistemas são a união das concepções das duas linhas de pesquisa, permitindo a construção de grandes sistemas que pretendem abranger uma forma mais completa de representação do comportamento humano. Ideal este da própria Inteligência Artificial.

Saber Especializado

Quais as tarefas que são mais fáceis de serem programadas no computador? Quais são mais complexas? O que é mais simples de formalizar: um jogo ou a visão? A linguagem ou um diagnóstico médico? Para responder a estas perguntas, deve-se investigar os processos subliminares às tarefas realizadas pelo corpo, realizar uma formalização destes processos e implementá-los no computador.

A análise a partir das tarefas que nos parecem mais simples, como enxergar, falar, ouvir, pegar objetos, reconhecer pessoas e outras resultantes da percepção, motricidade e memória. As tarefas que envolvem percepção, por exemplo, são fruto de todo o sistema nervoso atuando como receptor de sinais do meio ambiente. É uma trama complexa de sensores (células nervosas em contato com o ambiente) e memória (reações aos impulsos nervosos que estão armazenados no cérebro). Infelizmente não há um completo domínio de como é feita a recepção e processamento destes sinais. Obviamente, há estudos isolados de mecanismos de visão, voz, olfato etc., porém dependem ainda de muita pesquisa para se chegar a uma formalização consistente destes processos.

Outras tarefas que estão sujeitas a muita pesquisa são as da movimentação. Os maiores problemas para a formalização da motricidade humana são os de aproximação de deslocamento de um membro ou do próprio corpo, e de equilíbrio do corpo. A aproximação de um membro de um objeto exige inúmeros cálculos de física para o deslocamento, além de necessitar de outros cálculos que permitam o ajuste preciso a uma determinada direção. Já o equilíbrio de um corpo durante o deslocamento também exige inúmeros cálculos instantâneos para o controle dos membros envolvidos na movimentação. O reconhecimento de características de uma pessoa, tão facilmente realizada por nós, exige um grande pré-processamento de dados para a depuração das informações mais relevantes, que levem a uma efetiva memorização destas características. É claro que, para memorizar, é necessária a recepção de sinais do meio, através dos canais da percepção. Torna-se necessário, então, vencer a etapa da percepção para chegarmos à classificação efetiva de características das pessoas, permitindo o reconhecimento posterior. Neste caso, além da percepção, são necessários estudos que identifiquem os mecanismos da memória, sejam eles de aprendizado ou de reconhecimento. Há muitos estudos realizados que buscam formalizar os processos mentais, porém são ainda incipientes se comparados ao potencial do ser humano. Sendo assim, não é possível uma implementação computacional robusta, capaz de imitar satisfatoriamente a memória humana.

Em contraposição com o senso comum há o saber especializado, o qual possui objetivos e aplicações bem específicos, dentro de um universo delimitado. Tarefas como armar uma estratégia num jogo, realizar cálculos matemáticos ou até mesmo solucionar um problema em nossa profissão são para nós de resolução nem sempre simples, o que nos exige um esforço de raciocínio. Paradoxalmente, estas tarefas são mais facilmente implementáveis em computador, uma vez que possuem uma área bem definida de aplicação, possuindo, então um contexto de conceitos e regras a serem aplicados para a resolução de um problema específico.

Há um conjunto de tarefas que exige análises de possibilidades para chegar-se a uma solução. Este tipo de tarefas são chamadas de formais por terem uma aplicabilidade apenas em áreas fora do mundo real, tais como jogos e problemas matemáticos. No caso de jogos, torna-se necessária a organização das ações e reações dos jogadores, todas elas previsíveis e portanto manipuláveis dentro de regras claras. Nos problemas matemáticos, é semelhante, havendo regras para a construção de formas geométricas, encadeamento de expressões de lógica e derivação no cálculo integral, entre outras aplicações. Estas são, portanto, aplicações situadas dentro de contextos abstratos com variáveis previsíveis.

Quando queremos realizar aplicações mais práticas, estamos trabalhando com tarefas especialistas, que são aquelas aplicadas em alguma profissão, resultado da síntese do conhecimento de especialistas no assunto. Daí surge o termo sistemas especialistas , os quais contêm regras que condensam a forma de solução de problemas de um profissional de determinada atividade. Neste sentido, a aplicação dos sistemas especialistas dá-se em diversas áreas, como a Engenharia, a Medicina e a Economia. Na Engenharia pode-se considerar o auxílio do computador em tarefas de projeto, permitindo a aceleração do desenvolvimento e otimização dos recursos envolvidos. Além do projeto, utilizam-se ainda sistemas especialistas para a detecção e correção de erros e verificação de qualidade em empreendimentos de Engenharia. No caso da Economia, há sistemas para a análise financeira, tal como o comportamento de bolsa de valores. Este tipo de sistema especialista armazena dados históricos e, a partir de variações passadas, promove-se um prognóstico com as reações possíveis em um determinado momento.

Na Medicina, sistemas especialistas são utilizados para realização de diagnóstico em determinada especialidade dentro da Medicina. Estes sistemas são compostos de um banco de conhecimento sobre sintomas e tratamentos possíveis. Desta forma, há regras que definem, para dado conjunto de sintomas, tratamentos possíveis para a moléstia detectada. Obviamente que estes sistemas são usados como apoio à tomada de decisão, não sendo tidos como determinantes no caso de diagnósticos definitivos.

Há ainda muitos tipos de sistemas especialistas utilizados nas mais diversas atividades. Mas, basicamente, eles são compostos de bancos de conhecimento e máquinas de inferência responsáveis que contêm as regras, permitindo a recombinação do conhecimento armazenado. As tarefas especialistas são distintas das formais pela sua característica de ser atrelada ao conhecimento prático de um ser humano e ter sua aplicação determinada por regras baseadas no comportamento humano. São, portanto, mais complexas que as tarefas formais, envolvendo uma maior gama de implementações computacionais necessárias.