dezembro 09, 2003

Uma breve História da Computação (parte IV)

Enquanto a abordagem matemática-operacional da computação se desenvolvia a partir do esforço de Turing (com o sobressalto evidente da 2ª guerra mundial que transferiu a sua imensa inteligência para o sucesso da desencriptação da máquina Nazi Enigma), a neurocomputação dava os seus primeiros passos. Pode indicar-se, com relativa segurança, que o trio mais influente do início da neurocomputação foi constituído pelos artigos seminais escritos por Warren McCulloch e Walter Pitts em 1943, o livro de Donald Hebb em 1949 e o artigo de Frank Rosenblatt em 1958.

No conjunto destes artigos foi mostrado que um paradigma computacional baseado e inspirado na actividade do cérebro humano tinha poder computacional não trivial e que poderia ser estudado matematicamente (McCulloch e Pitts demonstraram que até redes neuronais simples eram capazes de computar funções lógicas e aritméticas). Mostrou-se também que o condicionamento clássico observado nos animais era uma propriedade de neurónios individuais (Hebb apresentou uma lei de aprendizagem específica para as ligações sinápticas entre neurónios). Finalmente, com a apresentação do perceptrão e do neurocomputador MARK I nos fins da década de 50, Rosenblatt mostrou que a aprendizagem automática e o reconhecimento de padrões eram exequíveis neste contexto computacional.

Na década de 60, a investigação expandiu-se tanto na análise matemática como na simulação computacional de redes neuronais artificiais. Block, colega de Rosenblatt, demonstrou que o perceptrão constituído por um único neurónio era capaz de classificar problemas de um determinado contexto, se essa classificação fosse matematicamente possível. Em 1960, Bernard Widrow e Marcian Hoff, apresentaram um novo algoritmo adaptativo capaz de aprender mais depressa e acuradamente que o perceptrão. A regra apresentada era simples e elegante, e ela ou uma das suas variações, ainda são usadas em alguns sistemas actuais. Eles assumiram que o algoritmo era capaz de avaliar o erro entre a saída desejada e aquela que de facto era calculada pela rede num dado instante. Com esse dado, a rede adaptar-se-ia para minimizar o erro e aproximar-se da classificação óptima para o problema. Este algoritmo de correcção ficou conhecido por LMS, e foi aplicado pelos autores no conhecido modelo ADALINE. [cont.]

Sem comentários: