15 de abril de 2009

HISTÓRIA DA ROBÓTICA

O conceito de robot data dos inícios da história, quando os mitos faziam referência a mecanismos que ganhavam vida.

Começando na civilização grega, os primeiros modelos de robot que encontramos eram figuras com aparência humana e/ou animal, que usavam sistemas de pesos e bombas pneumáticas.

As civilizações daquele tempo não tinham nenhuma necessidade prática ou económica, nem nenhum sistema complexo de produtividade que exigisse a existência deste tipo de aparelhos.

Cientistas árabes acrescentaram um importante e novo conceito à ideia tradicional de robots, concentrando as suas pesquisas no objectivo de atribuir funções aos robots que fossem ao encontro das necessidades humanas. A fusão da ideia de robots e a sua possível utilização prática marcou o início de uma nova era.

Leonardo DaVinci abriu caminho a uma maior aproximação ao complexo mundo dos robots. DaVinci desenvolveu uma extensiva investigação no domínio da anatomia humana que permitiu o alargamento de conhecimentos para a criação de articulações mecânicas. Como resultado deste estudo desenvolvido, surgiram diversos exemplares de bonecos que moviam as mãos, os olhos e as pernas, e que conseguiam realizar acções simples como escrever ou tocar alguns instrumentos.

Nikola Tesla, cientista na área da robótica, emigrou da Croácia para a América em 1800 e a propósito do grande desenvolvimento dos robots e das grandes expectativas criadas em redor destes, afirmou: "I treated the whole field broadly, not limiting myself to mechanics controlled from a distance, but to machines possessed of their own intelligence. Since that time had advanced greatly in the evolution of the invention and think that the time is not distant when I shall show an automation which left to itself, will act as though possessed of reason and without any willful control from the outside." A palavra robot foi introduzida pelo dramaturgo Karel Capek. Esta palavra surgiu numa das suas mais prestigiadas peças, R.U.R, e os robots que nela intervieram não eram mecanizados.

O termo robótica refere-se ao estudo e à utilização de robots, e foi pela primeira vez enunciado pelo cientista e escritor Isaac Asimov, em 1942, numa pequena história intitulada "Runaround". Asimov também publicou uma compilação de pequenas histórias, em 1950, intitulada "I Robot". Este autor propôs a existência de três leis aplicáveis à robótica, às quais acrescentou, mais tarde, a lei zero. As leis propostas são, actualmente, entendidas numa perspectiva puramente ficcional, pois no tempo em que foram escritas não se imaginava o desenvolvimento vertiginoso que iria ocorrer nesta área. Os robots, tal como os conhecemos hoje, não procuram ser verdadeiras imitações humanas, nem pretendem ser outras formas de vida.

O desenvolvimento inicial dos robots baseou-se no esforço de automatizar as operações industriais. Este esforço começou no século XVIII, na indústria têxtil, com o aparecimento dos primeiros teares mecânicos. Com o contínuo progresso da revolução industrial, as fábricas procuraram equipar-se com máquinas capazes de realizar e reproduzir, automaticamente, determinadas tarefas. No entanto, a criação de verdadeiros robots não foi possível até à invenção do computador em 1940, e dos sucessivos aperfeiçoamentos das partes que o constituem, nomeadamente, em relação à dimensão.

O primeiro robot industrial foi o Unimates, desenvolvido por George Devol e Joe Engleberger, no final da década de 50, início da década de 60. As primeiras patentes de máquinas transportadoras pertenceram a Devol, máquinas essas que eram robots primitivos que removiam objectos de um local para outro. Engleberger, por sua vez, pela construção do primeiro robot comercial foi apelidado de "pai da robótica". Outro dos primeiros computadores foi o modelo experimental chamado Shakey, desenhado para pesquisas em Standford, no final da década de 60.

Actualmente, robots como o Shakey continuam a ser utilizados, particularmente com intuitos de pesquisa, mas, no futuro, estes computadores podem vir a ser utilizados como veículos de reconversão ambiental

11 de abril de 2009

Ligações Extenas xD

oi gente,

como esse blog é sobre o estudo de Inteligencia Artificial realmente vale a pena dar uma olhada no trabalho de nomes como Marvin Minsky e John McCarthy que são pioneiros na área.

É possivel encontrar alguns dos principais artigos do senhor Minsky neste endereço bem como algumas das publicações do senhor John McCarthy nesta pagina.

^^

6 de abril de 2009

Reconhecimento de voz

E ae galera, vamos falar aqui um pouquinho sobre reconhecimento de voz, uma das áreas que utilizam IA. 

Achei um link interessante, de introdução sobre o assunto.


Em breve posto alguns artigos que foram postados la no Aigaion.

CYA!

Aigaion

E ae pessoal, segue o endereço do nosso Aigaion, é um repositório bibliográfico baseado na web, ou seja acessível a todo mundo. para acessa-lo, entre no endereço:

http://www.aigaion.chronosti.com

Login: visitante
senha: 123456

Cya!

2 de abril de 2009

Redes Neurais

Pessoal encontrei um site muito bom que faz uma abordagem geral sobre redes neurais e peguei uma parte que faz uma analogia sobre redes neurais natural e artificial, o artigo completo pode ser vizualizado aqui

Introdução às Redes Neurais

O cérebro humano é considerado o mais fascinante processador baseado em carbono existente, sendo composto por aproximadamente 10 bilhões neurônios. Todas as funções e movimentos do organismo estão relacionados ao funcionamento destas pequenas células. Os neurônios estão conectados uns aos outros através de sinapses, e juntos formam uma grande rede, chamada REDE NEURAL. As sinapses transmitem estímulos através de diferentes concentrações de Na+ (Sódio) e K+ (Potássio), e o resultado disto pode ser estendido por todo o corpo humano. Esta grande rede proporciona uma fabulosa capacidade de processamento e armazenamento de informação.

O sistema nervoso é formado por um conjunto extremamente complexo de neurônios. Nos neurônios a comunicação é realizada através de impulsos, quando um impulso é recebido, o neurônio o processa, e passado um limite de ação, dispara um segundo impulso que produz uma substância neurotransmissora o qual flui do corpo celular para o axônio (que por sua vez pode ou não estar conectado a um dendrito de outra célula). O neurônio que transmite o pulso pode controlar a freqüência de pulsos aumentando ou diminuindo a polaridade na membrana pós sináptica. Eles tem um papel essencial na determinação do funcionamento, comportamento e do raciocínio do ser humano. Ao contrário das redes neurais artificiais, redes neurais naturais não transmitem sinais negativos, sua ativação é medida pela freqüência com que emite pulsos, freqüência esta de pulsos contínuos e positivos. As redes naturais não são uniformes como as redes artificiais, e apresentam uniformidade apenas em alguns pontos do organismo. Seus pulsos não são síncronos ou assíncronos, devido ao fato de não serem contínuos, o que a difere de redes artificiais.

Os principais componentes dos neurônios são:

* Os dentritos, que tem por função, receber os estímulos transmitidos pelos outros neurônios;
* O corpo de neurônio, também chamado de somma, que é responsável por coletar e combinar informações vindas de outros neurônios;
* E finalmente o axônio, que é constituído de uma fibra tubular que pode alcançar até alguns metros, e é responsável por transmitir os estímulos para outras células.



fig01-Esquema dos constituíntes da célula neural

As redes neurais artificiais consistem em um método de solucionar problemas de inteligência artificial, construíndo um sistema que tenha circuitos que simulem o cérebro humano, inclusive seu comportamento, ou seja, aprendendo, errando e fazendo descobertas. São mais que isso, são técnicas computacionais que apresentam um modelo inspirado na estrutura neural de organismos inteligentes e que adquirem conhecimento através da experiência. Uma grande rede neural artificial pode ter centenas ou milhares de unidades de processamento, enquanto que o cérebro de um mamífero pode ter muitos bilhões de neurônios.

Apesar da complexidade da redes neurais não permitir uma única definição, as linhas seguintes seguem como uma tentativa das inúmeras definições ou interpretações do que seja realmente uma rede neural.

Um grafo direcionado é um objeto geométrico que consiste de um conjunto de pontos, chamados nós, ao longo de um conjunto de segmentos de linhas direcionadas entre eles. Uma rede neural é uma estrutura de processamento de informação distribuída paralelamente na forma de um grafo direcionado, com algumas restrições e definições próprias.

Os nós deste grafo são chamados elementos de processamento. Suas arestas são conexões, que funcionam como caminhos de condução instantânea de sinais em uma única direção, de forma que seus elementos de processamento podem receber qualquer número de conexões de entrada. Estas estruturas podem possuir memória local, e também possuir qualquer número de conexões de saída desde que os sinais nestas conexões sejam os mesmos. Portanto, estes elementos tem na verdade uma única conexão de saída, que pode dividir-se em cópias para formar múltiplas conexões, sendo que todos carregam o mesmo sinal.

Então, a única entrada permitida para a função de transferência (que cada elemento de processamento possui) são os valores armazenados na memória local do elemento de processamento e os valores atuais dos sinais de entrada nas conexões recebidas pelo elemento de processamento. Os únicos valores de saída permitidos a partir da função de transferência são valores armazenados na memória local do elemento de processamento, e o sinal de saída do mesmo.

A funcão de transferência pode operar continuamente ou episodicamente. Sendo que no segundo caso, deve existir uma entrada chamada "activate" que causa o ativamento da função de transferência com o sinal de entrada corrente e com valores da memória local, e produzir um sinal de saída atualizado (ocasionalmente alterando valores da memória). E no primeiro caso, os elementos estão sempre ativados, e a entrada "activate" chega através de uma conexão de um elemento de processamento agendado que também é parte da rede.

Sinais de entrada para uma rede neural a partir de fora da rede chegam através de conexões que se originam do mundo externo, saídas da rede para o mundo externo são conexões que deixam a rede.

De forma geral, a operação de uma célula da rede se resume em:

  • Sinais são apresentados à entrada;
  • Cada sinal é multiplicado por um peso que indica sua influência na saída da unidade;
  • É feita a soma ponderada dos sinais que produz um nível de atividade;
  • Se este nível excede um limite (threshold) a unidade produz uma saída;

1. O Neurônio Artificial e a Rede Neural
Assim como o sistema nervoso é composto por bilhões de células nervosas, a rede neural artificial também seria formada por unidades que nada mais são que pequenos módulos que simulam o funcionamento de um neurônio. Estes módulos devem funcionar de acordo com os elementos em que foram inspirados, recebendo e retransmitindo informações.

2.O Neurônio Artificial

O fisiologista Warrem MacCulloch interpretou o funcionamento do neurônio biológico como sendo um circuito de entradas binárias combinadas por uma soma ponderada (com pesos) produzindo uma entrada efetiva:

fig06-Modelo de McCulloch e Pitts

No modelo geral de neurônio (fig06) as entradas WiUi são combinadas usando uma função F, para produzir um estado de ativação do neurônio (correspondente à freqüência de descarga do neurônio biológico).As entradas chegam através dos dentritos e tem um peso atribuído pela sinapse.

fig07-Esquema de um neurônio artificial

A funcão básica de um neurônio é somar as entradas e retornar uma saída, caso esse valor seja maior que o valor de soma (threshold).

3. A Rede Neural Artificial (Multilayer Perceptron)

A rede neural artificial é um sistema de neurônios ligados por conexões sinápticas e dividido em neurônios de entrada, que recebem estímulos do meio externo, neurônios internos ou hidden (ocultos) e neurônios de saída, que se comunicam com o exterior. A forma de arranjar perceptrons em camadas é denominado Multilayer Perceptron. O multilayer perceptron foi concebido para resolver problemas mais complexos, os quais não poderiam ser resolvidos pelo modelo de neurônio básico. Um único perceptron ou uma combinação das saídas de alguns perceptrons poderia realizar uma operação XOR, porém, seria incapaz de aprendê-la. Para isto são necessárias mais conexões, os quais só existem em uma rede de perceptrons dispostos em camadas. Os neurônios internos são de suma importância na rede neural pois provou-se que sem estes torna-se impossível a resolução de problemas linearmente não separáveis. Em outras palavras pode-se dizer que uma rede é composta por várias unidades de processamento, cujo funcionamento é bastante simples. Essas unidades, geralmente são conectadas por canais de comunicação que estão associados a determinado peso. As unidades fazem operações apenas sobre seus dados locais, que são entradas recebidas pelas suas conexões. O comportamento inteligente de uma Rede Neural Artificial vem das interações entre as unidades de processamento da rede.

A maioria dos modelos de redes neurais possui alguma regra de treinamento, onde os pesos de suas conexões são ajustados de acordo com os padrões apresentados. Em outras palavras, elas aprendem através de exemplos. Arquiteturas neurais são tipicamente organizadas em camadas, com unidades que podem estar conectadas às unidades da camada posterior.

A rede neural passa por um processo de treinamento a partir dos casos reais conhecidos, adquirindo, a partir daí, a sistemática necessária para executar adequadamente o processo desejado dos dados fornecidos. Sendo assim, a rede neural é capaz de extrair regras básicas a partir de dados reais, diferindo da computação programada, onde é necessário um conjunto de regras rígidas pré-fixadas e algoritmos.

fig08-Organização em camadas.

Usualmente as camadas são classificadas em três grupos:

  • Camada de Entrada: onde os padrões são apresentados à rede;
  • Camadas Intermediárias ou Ocultas: onde é feita a maior parte do processamento, através das conexões ponderadas; podem ser consideradas como extratoras de características;
  • Camada de Saída: onde o resultado final é concluído e apresentado.

    Redes neurais são também classificadas de acordo com a arquitetura em que foram implementadas, topologia, características de seus nós, regras de treinamento, e tipos de modelos
    .

31 de março de 2009

Breve História da IA

Segue o artigo "Breve História da Inteligência Artificial" - Guilherme Bittencourt

Vamos discutir sobre o artigo nos comentários!

Introdução

As correntes de pensamento que se cristalizaram em torno da IA já estavam em gestação desde os anos 30 . No entanto, oficialmente, a IA nasceu em 1956 com uma conferência de verão em Dartmouth College, NH, USA. Na proposta dessa conferência, escrita por John McCarthy (Dartmouth), Marvin Minsky (Hardward), Nathaniel Rochester (IBM) e Claude Shannon (Bell Laboratories) e submetida à fundação Rockfeller, consta a intenção dos autores de realizar ``um estudo durante dois meses, por dez homens, sobre o tópico inteligência artificial''. Ao que tudo indica, esta parece ser a primeira menção oficial à expressão ``Inteligência Artificial'' . Desde seus primórdios, a IA gerou polêmica, a começar pelo seu próprio nome, considerado presunçoso por alguns, até a definição de seus objetivos e metodologias. O desconhecimento dos princípios que fundamentam a inteligência, por um lado, e dos limites práticos da capacidade de processamento dos computadores, por outro, levou periodicamente a promessas exageradas e às correspondentes decepções.

Dada a impossibilidade de uma definição formal precisa para IA, visto que para tanto seria necessário definir, primeiramente, a própria inteligência, foram propostas algumas definições operacionais: ``uma máquina é inteligente se ela é capaz de solucionar uma classe de problemas que requerem inteligência para serem solucionados por seres humanos'' ; ``Inteligência Artificial é a parte da ciência da computação que compreende o projeto de sistemas computacionais que exibam características associadas, quando presentes no comportamento humano, à inteligência''; ou ainda ``Inteligência Artificial é o estudo das faculdades mentais através do uso de modelos computacionais'' . Outros se recusam a propor uma definição para o termo e preferem estabelecer os objetivos da IA: ``tornar os computadores mais úteis e compreender os princípios que tornam a inteligência possível'' .


História

Existem duas linhas principais de pesquisa para a construção de sistemas inteligentes: a linha conexionista e a linha simbólica . A linha conexionista visa à modelagem da inteligência humana através da simulação dos componentes do cérebro, isto é, de seus neurônios, e de suas interligações. Esta proposta foi formalizada inicialmente em 1943, quando o neuropsicólogo McCulloch e o lógico Pitts propuseram um primeiro modelo matemático para um neurônio. Um primeiro modelo de rede neuronal , isto é, um conjunto de neurônios interligados, foi proposto por Rosenblatt. Este modelo, chamado Perceptron , teve suas limitações demonstradas por Minsky e Papert em livro onde as propriedades matemáticas de redes artificiais de neurônios são analisadas. Durante um longo período essa linha de pesquisa não foi muito ativa, mas o advento dos microprocessadores, pequenos e baratos, tornou praticável a implementação de máquinas de conexão compostas de milhares de microprocessadores, o que, aliado à solução de alguns problemas teóricos importantes, deu um novo impulso às pesquisas na área. O modelo conexionista deu origem à área de redes neuronais artificiais.

A linha simbólica segue a tradição lógica e teve em McCarthy e Newell seus principais defensores. Os princípios dessa linha de pesquisa são apresentados no artigo Physical symbol systems de Newell . O sucesso dos sistemas especialistas (SE) (do inglês, ``expert system''), a partir da década de setenta, estabeleceu a manipulação simbólica de um grande número de fatos especializados sobre um domínio restrito como o paradigma corrente para a construção de sistemas inteligentes do tipo simbólico. Para facilitar a apresentação, vamos dividir a história da IA simbólica em ``épocas'', conforme proposto em relatórios internos do MIT (Massachusetts Institute of Technology):

Clássica (1956-1970)

  • Objetivo: simular a inteligência humana
  • Métodos: solucionadores gerais de problemas e lógica
  • Motivo do fracasso: subestimação da complexidade computacional dos problemas

Romântica (1970-1980)

  • Objetivo: simular a inteligência humana em situações pré-determinadas.
  • Métodos: formalismos de representação de conhecimento adaptados ao tipo de problema, mecanismos de ligação procedural visando maior eficiência computacional.
  • Motivo do fracasso: subestimação da quantidade de conhecimento necessária para tratar mesmo o mais banal problema de senso comum.

Moderna (1980-1990)

  • Objetivo: simular o comportamento de um especialista humano ao resolver problemas em um domínio específico.
  • Métodos: Sistemas de regras, representação da incerteza, conexionismo.
  • Motivo do fracasso: subestimação da complexidade do problema de aquisição de conhecimento.

Clássica

Inicialmente, a pesquisa em manipulação de símbolos se concentrou no desenvolvimento de formalismos gerais capazes de resolver qualquer tipo de problemas. O sistema GPS, General Problem Solver, projetado por Ernst e Newell, é um exemplo deste tipo de pesquisa. Estes esforços iniciais ajudaram a estabelecer os fundamentos teóricos dos sistemas de símbolos e forneceram à área da IA uma série de técnicas de programação voltadas à manipulação simbólica, por exemplo, as técnicas de busca heurística. Os sistemas gerais desenvolvidos nesta época obtiveram resultados interessantes, por vezes até impressionantes, mas apenas em domínios simplificados, onde o objetivo era principalmente a demonstração da técnica utilizada, e não a solução de um problema real. O problema com os sistemas gerais é que a sua extensão a domínios de problemas reais se mostrou inviável. Isto se deveu a duas razões, uma relacionada com características teóricas dos métodos utilizados, e outra associada à natureza do conhecimento do mundo real.

A razão teórica é conseqüência do uso, nos sistemas gerais, de modelos baseados em lógica de primeira ordem como formalismo básico. A utilização desses modelos leva à chamada explosão combinatória : a memória e o tempo necessários para resolver um determinado problema cresce exponencialmente com o tamanho do problema. Este problema, descrito por Cook em seu artigo The complexity of theorem proving procedures , é inerente aos métodos baseados em lógica, independentemente das técnicas de programação utilizadas. A segunda razão está associada ao fato de que, freqüentemente, o conhecimento disponível sobre o mundo real é incompleto e parcialmente incoerente, e que por vezes a única forma de solução conhecida para determinados problemas reais consiste em uma série de regras práticas não fundamentadas por nenhum tipo de teoria geral do domínio que pudesse ser usada para orientar a solução.

Esta situação levou a dois tipos diferentes de solução: (i) uso de métodos formais de inferência mais fracos do que a lógica de primeira ordem que garantissem uma certa eficiência aos programas, por exemplo, lógicas multivalores, e linguagens terminológicas . (ii) Desenvolveram-se métodos heurísticos e lógicas não convencionais para permitir a representação de crenças, incoerências e incompletudes, por exemplo, lógica modal , lógica de exceções .


Romântica

Durante a década de setenta, a IA estava praticamente restrita ao ambiente acadêmico. Os objetivos da pesquisa eram, principalmente, a construção de teorias e o desenvolvimento de programas que verificassem estas teorias para alguns poucos exemplos. É interessante notar que o fato de que não havia interesse em construir programas de IA ``de verdade'', isto é, com aplicações práticas, não se deve a uma eventual incompetência em programação dos pesquisadores em IA. Pelo contrário, foi a inspiração desses ``hackers'' que levou a conceitos hoje integrados à ciência da computação, como: tempo compartilhado, processamento simbólico de listas, ambientes de desenvolvimento de ``software'', orientação objeto, etc., além da mudança da relação usuário-computador ao eliminar a intermediação de um operador e colocar cada usuário diante de sua estação de trabalho.

Uma mudança importante ocorreu ao longo da década de setenta em relação aos critérios acadêmicos de julgamento de trabalhos em IA: houve uma crescente exigência de formalização matemática. Se no início dos anos setenta, um programa, mesmo tratando de alguns poucos exemplos de um problema até então não tratado, já era considerado IA, isto não acontecia mais em 1980. O programa em si passou a ser a parte menos importante; a análise formal da metodologia, incluindo decidibilidade, completude e complexidade, além de uma semântica bem fundada, passou a ser o ponto fundamental [Hay77], [McD78]. A década de setenta marcou também a passagem da IA para a ``vida adulta'': com o aparecimento dos primeiros SE's, a tecnologia de IA passou a permitir o desenvolvimento de sistemas com desempenho intelectual equivalente ao de um ser humano adulto, abrindo perspectivas de aplicações comerciais e industriais.


Moderna

A tecnologia de SE disseminou-se rapidamente e foi responsável por mais um dos episódios ligados a promessas não cumpridas pela IA: o sucesso dos primeiros SE's chamou a atenção dos empresários, que partiram em busca de um produto comercializável que utilizasse esta tecnologia. No entanto, um SE não era um produto: um produto, na visão dos empresários, não deveria ser um sistema específico para um dado problema, mas algo que fosse implementado uma única vez e vendido em 100.000 unidades, por exemplo, uma ferramenta para a construção de sistemas especialistas (ASE) . Com isso foram colocadas no mercado uma grande quantidade de ASE's que prometiam solucionar o problema de construção de SE's. A conseqüência foi uma grande insatisfação por parte dos usuários, pois, apesar de uma ferramenta de programação adequada ajudar muito a construir um sistema complexo, saber o que programar continua sendo o ponto mais importante.

Se os ASE's deveriam ser vendidos como produtos de IA, então em algum lugar deveria haver IA, e o lugar escolhido foi o motor de inferência , que passou a ser considerado como sinônimo de IA. Isto levou à ilusão de que para construir um SE bastaria comprar um ASE, enquanto que a verdade é que a IA em um SE está basicamente na forma como é representado o conhecimento sobre o domínio, isto é, onde a IA sempre esteve: na tentativa de entender o comportamento inteligente a ser modelado, no caso o comportamento do especialista ao resolver um problema. Uma outra conseqüência desta visão distorcida dos ASE's foi a pouca ênfase dada inicialmente à aquisição de conhecimento , certamente a parte mais difícil do desenvolvimento de um SE. Se exageros existiram na publicidade dos ASE's, por certo houve também trabalhos descrevendo com fidelidade o potencial e as limitações da nova tecnologia .

Atualmente, os ASE's são considerados como parte de uma tecnologia de desenvolvimento de ``software'' estabelecida, sendo objeto de diversas conferências internacionais e submetida a avaliações rigorosas de desempenho. Entre os diversos benefícios associados ao desenvolvimento de SE's podem-se citar: distribuição de conhecimento especializado, memória institucional, flexibilidade no fornecimento de serviços (consultas médicas, jurídicas, técnicas, etc.), facilidade na operação de equipamentos, maior confiabilidade de operação, possibilidade de tratar situações a partir de conhecimentos incompletos ou incertos, treinamento, entre outros. Atualmente, existem milhares de SE's em operação nos mais variados domínios, e a influência da IA em outros campos da computação, como engenharia de ``software'', bancos de dados e processamento de imagens vem crescendo constantemente.

As principais áreas de pesquisa em IA simbólica são atualmente: sistemas especialistas, aprendizagem, representação de conhecimento, aquisição de conhecimento, tratamento de informação imperfeita, visão computacional, robótica, controle inteligente, inteligência artificial distribuída, modelagem cognitiva, arquiteturas para sistemas inteligentes, linguagem natural e interfaces inteligentes. Além das linhas conexionista e simbólica, observa-se hoje o crescimento de uma nova linha de pesquisa em IA, baseada na observação de mecanismos evolutivos encontrados na natureza, tais como a auto-organização e o comportamento adaptativo. Nesta linha, os modelos mais conhecidos são os algoritmos genéticos e os autômatos celulares.

A gradativa mudança de metas da IA, desde o sonho de construir uma inteligência artificial de caráter geral comparável à do ser humano até os bem mais modestos objetivos atuais de tornar os computadores mais úteis através de ferramentas que auxiliam as atividades intelectuais de seres humanos, coloca a IA na perspectiva de uma atividade que praticamente caracteriza a espécie humana: a capacidade de utilizar representações externas, seja na forma de linguagem, seja através de outros meios . Deste ponto de vista, a computação em geral e a IA em particular são o ponto culminante de um longo processo de criação de representações de conhecimento, iniciado com as primeiras pinturas rupestres. Esta nova perspectiva coloca os programas de IA como produtos intelectuais no mesmo nível dos demais, ressaltando questões cuja importância é central para os interesses atuais da IA, por exemplo, como expressar as características individuais e sociais da inteligência utilizando computadores de maneira a permitir uma maior produtividade, e como as propriedades das representações utilizadas auxiliam e moldam o desenvolvimento de produtos intelectuais?





Estudando IA

Senhoras e senhores!

o 5º período do curso de Sistemas de Informação orgulhosamente apresenta o blog Estudando AI.

O Blog foi criado para reunir material sobre a área de IA. Publicaremos histórico da área, de seus pesquisadores, bibliografia(artigos, livros, revistas) além de material sobre as sub-áreas.

A equipe de pesquisa é formada por:

As postagens serão separadas entre as seguintes categorias:


  • Histórico

  • Nomes Importantes

  • Bibliografia

  • Sub-Áreas
    • Visão computacional
    • Sistemas especialistas
    • Raciocínio Baseado em Casos
    • Programação genética
    • Representação de conhecimento
    • Aprendizagem de máquina
    • Rede neural
    • Processamento de linguagem natural
    • Robótica
    • Planejamento Automatizado
    • Vida artificial
    • Inteligencia Artificial Distribuída
    • reconhecimento de voz

Em breve postaremos um histórico da Inteligencia Artificial com destaque em seus principais pesquisadores. Aguardem!