Mensagem do Grupo de Discussão Ciência Cognitiva
Participe deste grupo através da página http://br.groups.yahoo.com/group/cienciacognitiva
Ciência Cognitiva - http://sites.uol.com.br/luzardo
From: André Luzardo <luzardo@uol.com.br>
>Ciência Cognitiva - http://sites.uol.com.br/luzardo
>
>Caro Sergio,
>
>Na sua mensagem anterior vc diz:
>
>> Você tocou em um ponto que é bastante importante. Deixa eu ver se
>> entendi corretamente: o que a gente ganha desenhando modelos em níveis
>> distintos de explicação? Por que não ficar apenas com o nível da
>> neurociência para explicar tudo? Simplesmente porque não dá. Nós
>> (nosso cérebro) não tem capacidade de "pensar" em coisas muito
>> complexas. Temos que dividir as coisas em modelos simples, algumas
>> vezes redundantes, outras conflitantes.
>>
>> Fazemos isso porque o processo da ciência envolve frequentemente a
>> construção de modelos da realidade. Nunca poderemos ter certeza de
>> que esses modelos representam 100% a realidade, só sabemos que eles
>> são nossos melhores "palpites" para explicá-la.
>
>O que eu quis dizer que não concordo, é com os níveis DIFERENTES de divisão
>da mente. É óbvio que dividir um campo para melhor estudá-lo é uma coisa
>importante, mas o que vc sugeriu é dividir a mente em vários CAMPOS. Como se
>no nível mais baixo funcionasse a neuroquímica, no nível intermediário
>funcionasse as computações=pensamento e no nível final o comportamento. Isso
>parece interessante a primeira vista, mas veja os problemas que eu penso que
>esta visão acarreta. Em primeiro lugar, o simples fato de admitir
>computações na nossa mente nos leva aos problemas NP, além de não explicar a
>intecionalidade e outras coisas. Em segundo lugar, se vc assume que o nível
>1 influencia o nível 2 porém o nível 2 não está totalmente condicionado ao
>nível 1, e o mesmo acontecendo com o nível 3, vc precisaria dar certas
>explicações: de onde, então, proviriam certas atividades do nível 2, o mesmo
>para o nível 3? Quer dizer que existem computações que não tem correlato
>fisiológico? E que existem comportamentos que não tem nem correlato
>fisiológico, nem computacional? Você acredita em Deus?!?
>
Não é preciso acreditar em Deus ou em alma, etc., para postular essas
divisões. Só fazemos isso para poder raciocinar sobre entidades abstratas
que criamos. Agora veja bem: essas entidades abstratas podem ser reduzidas
a elementos físicos (bioquímicos). De vez em quando fazemos isso para
obter uma melhoria em nosso modelo. Mas o psicólogo cognitivo não precisa
pensar sempre nessa redução, ele pode muito bem passar boa parte do
tempo pensando apenas nesses modelos abstratos.
Só para exemplificar, tem aquela experiência cognitiva tradicional. Pegue
uma criança de 3 anos e mostre a ela uma lata de biscoitos. Retire os
biscoitos e coloque dentro da lata um punhado de terra. Feche a lata.
Agora chame uma outra pessoa (que estava fora da sala) e pergunte à
criança o que ela acha *que essa pessoa* pensa que tem dentro da lata.
A criança vai responder, erradamente, "terra".
Agora faça o mesmo processo com uma criança de 5 anos. A resposta será
"biscoitos". A criança maior consegue elaborar uma "teoria da mente"
correspondente à crença (belief) da outra pessoa. É uma "second order
belief", uma crença sobre crença (é crença porque a pessoa que está
lá fora poderia ter sido informada da troca). Isso mostra que beliefs
são capacidades cognitivas que evoluem conforme a criança se
desenvolve.
O importante dessa estória é o nosso modelo de belief que associamos
à criança e a sua evolução com a idade. Pense por um instante o que
ocorre em termos *reducionistas*: tanto na primeira criança quanto na
segunda, o que temos lá embaixo são apenas padrões de ativação
eletroquímica nas sinapses. Não é possível fazermos nada de útil com
o conhecimento da exata diferença desses padrões: é muita informação,
não somos capazes de refletir baseados no mundo de informação que esses
padrões contém.
No entanto, usando um simples modelo de crença conseguimos *manipular*
essa situação e postular modelos de funcionamento da *mente*, essa
coisa imaterial que, entretanto, poderia ser reduzida a interações
fisicoquímicas elementares. A mente, então, é uma "simplificação"
que fazemos da atividade bioquímica que ocorre nos neurônios e que
muitas vezes introduz entidades abstratas que não podem ser facilmente
reduzidas a um *padrão* de atividade elementar.
>>[snip]
>> O spooler de impressão (programa e arquivos de spool) é uma "coisa"
>> que só existe em nível abstrato, ele não "existe" individualizado
>> em nível de cargas elétricas nos chips de memória do micro. Ele
>> é uma criação, um modelo que inventamos para poder raciocinar
>> simplificadamente. É com esse modelo que um especialista em redes
>> locais pode diagnosticar um problema de impressão na rede. Sem
>> esse modelo, não haveria como "pensar" sobre isso.
>>
>
>Então realmente vc diz que existem computações (nesse caso somente nos
>computadores) que não possuem correlato algum em nível elétrico na memória??
>Como assim? Até onde eu sei, qualquer coisa, virtualmente qualquer coisa que
>for digitada, ou que entrar no computador é gravada na memória, seja RAM ou
>Hard Disk. Além disso, mesmo o spooler da impressão (que se eu não me engano
>é a memória que guarda os arquivos que serão mandados pra impressora, não?)
>é uma memória, e como toda memória está representada fisicamente em algum
>lugar no computador! Para que a nossa discussão continue é necessário que vc
>primeiro justifique estas afirmações, se é que eu estou correto.
André, eu não falei que o spooler não existe fisicamente, eu falei que
ele não "existe" (barbaridade...), ou seja, nós não somos capazes de
olhar para as cargas elétricas dentro de um chip de memória e
*discernir* quais fazem parte e quais não fazem parte do spooler. Não
temos "capacidade" mental para pensar sobre spoolers olhando para
as cargas elétricas na RAM que o compõe. Então, nós achamos um nome
(spooler), associamos esse nome a uma série de outras características
(também abstratas!) a ele (arquivo PRN, prioridade, formato postscript,
etc) e *lidamos* com isso como se ele fosse uma entidade individualizável.
Mas ele, na realidade, não é: ele é um conjunto de elétrons em movimento
dentro dos chips do computador, indistinguível, por exemplo, de uma
planilha eletrônica (também cargas elétricas). Pior: muitas vezes ele
não pode ser reduzido nem a um grupo específico de elétrons, mas sim a
um grupo qualquer em uma posição (muitas vezes relocável, indeterminada)
em uma determinada circunstância temporal dentro do computador. É muito
vago, e desafia nossa idéia de "existência". Agora transporte essa
situação para neurônio/mente.
>
>> Acredito que a mente (aprendizado de linguagem, percepção visual,
>> discriminação auditória, consciência, etc, etc) é um desses
>> modelos (cheio de detalhes abstratos) que temos que criar, se
>> quisermos "pensar" sobre o cérebro. Se ficarmos só nos
>> neurotransmissores e íons de potássio e sódio, não dá para
>> refletirmos sobre, por exemplo, reconhecimento de objetos.
>>
>
>Acho que aqui é interessante distinguirmos entre a descrição psicológica de
>uma função mental, e a descrição fisiológica da mesma. Na memória por
>exemplo, sabe-se que ela é a responsável por nos lembrar de eventos
>importantes da vida, que ela se subdivide em curta e longa duração e que ela
>associa fatos com nossas emoções. Bom, essa é a descrição psicológica. No
>entanto podemos descrevê-la fisiológicamente, dizendo que se trata de uma
>LTP (potencial de longa duração) nos neurônios, que ela é guardada em
>diferentes áreas cerebrais (passando do hipocampo para a amídala e etc.) e
>muito mais. E o reconhecimento de objetos? Podemos tratá-lo exatamente da
>mesma forma, dizendo que reconhecemos padrões com base na sua forma e não
>nas partes, que os associamos com certas ocasiões e os evocamos para criar
>conceitos. Agora basta vc se perguntar o que o cérebro faz. Quando olhamos
>uma figura nosso cérebro decompõe a imagem e a processa em diferentes áreas,
>etc. As duas explicações são necessárias, no entanto a primeira é a causa da
>segunda. Na verdade pode ser até mais que a causa; pode SER a mente.
>Agora é claro que para a ciência da computação atual, a segunda descrição é
>a única útil, pois o que devemos saber é como as atividades mentais se dão
>para podermos escrever algoritmos mais eficientes.
Ótimo parágrafo. É próximo do que eu também acho. A inteligência artificial
deve-se preocupar com a feitura de mentes artificiais, pois certamente
(se usarmos computadores von Neumann) o substrato físico será *profundamente*
diferente do nosso biológico. Mas isto não significa que devamos
desprezar a neurociência. Devemos usá-la para *refinar* nossos modelos
de "mente" de forma a podermos implementar táticas *funcionalmente
similares* em computadores. É esse o objetivo da AI (em minha opinião):
entender a inteligência como processos funcionais, independente da
"plataforma".
>>[snip]
>> Em minha opinião, nada disso é fundamentalmente importante. O que é
>> *realmente* importante é entender que tipo de processamento de
>> informação é feito pelo cérebro. É isso que devemos *duplicar*
>> em computadores (não importando qual o algoritmo ou método) para
>> conseguir *inteligência*. Como exemplo, existem as idéias de que
>> o cérebro atua, em certo nível, como um "compressor" de dados.
>> Em certa monta, essa visão lembra muito as origens informacionais
>> da vida celular, algo que ainda está dando panos para manga.
>>
>> Até mais,
>> Sergio Navega.
>>
>
>Aqui vc responde minhas dúvidas: seu interesse é robótica e não a mente
>humana. É claro que para vc o que importa é entender o tipo de processamento
>de informação que o cérebro faz para poder duplicar isso em máquinas. No
>entanto, isso não significa que sabido isso vc entendeu a mente. E é
>justamente esse o ponto contraditório da maior parte dos cientistas
>cognitivos atuais.
>
Várias vezes meu ponto de vista dá margem a pensar que eu sou um
roboticista. Mas na verdade, não sou, porque eu admito a existência de
um conceito de "inteligência" que transcende o nosso "mundo
material".
Acho que um computador que recebesse apenas texto poderia ser
"inteligente" (mas não comparável à inteligência humana).
Acho que uma máquina de lavar roupas poderia ser inteligente, se
soubesse fazer algumas coisas com suas "entradas sensoriais", que
seriam insuficientes para dar uma visão de nosso mundo, mas *são*
suficientes para permitir uma atitude inteligente em um "mundo"
diferente do nosso. Há algum tempo debati esse assunto com
Matt Ginsberg, onde ele coloca uma visão mais "tradicional" da
AI. O texto pode ser visto em:
http://www.intelliwise.com/reports/nsg0002.htm
Lá desenvolvo o exemplo de como deveria ser uma lavadora inteligente.
Até mais,
Sergio Navega.
Ciência Cognitiva - http://sites.uol.com.br/luzardo
From: André Luzardo <luzardo@uol.com.br>
>Ciência Cognitiva - http://sites.uol.com.br/luzardo
>
>Cara Lista, Caro Sérgio,
>
>Depois de ter lido suas mensagens com Matt Ginsberg, na sua página, consegui
>entender melhor os seus pontos de vista com relação aos fenomenos mentais.
>No entanto, acredito que sua posição se aplica perfeitamente à AI e não à
>psicologia humana de forma geral. Vou-lhe mostrar:
>
>Você escreveu:
>
>> Não é preciso acreditar em Deus ou em alma, etc., para postular essas
>> divisões. Só fazemos isso para poder raciocinar sobre entidades abstratas
>> que criamos. Agora veja bem: essas entidades abstratas podem ser reduzidas
>> a elementos físicos (bioquímicos). De vez em quando fazemos isso para
>> obter uma melhoria em nosso modelo. Mas o psicólogo cognitivo não precisa
>> pensar sempre nessa redução, ele pode muito bem passar boa parte do
>> tempo pensando apenas nesses modelos abstratos.
>
>Concordo com vc quando refere-se que as entidades abstratas (modelos
>computacionais) podem ser reduzidas a elementos físicos, no entanto vejo um
>problema quando vc diz que o psicólogo cognitivo não precisa pensar sempre
>nessa redução. Será que já chegamos (na psicologia) ao ponto de uma ciência
>estritamente formal que tem bem definido o objeto de seu estudo? Digo isso
>pois se soubéssemos exatamente com o que estamos lidando, ficaria muito mais
>fácil trabalhar apenas em níveis mais altos, já que já sabemos as
>capacidades e limitações da nossa estrutura. Admitir que um psicólogo pode
>simplesmente agora cuidar das computações é também admitir que já conhecemos
>todo o nosso hardware e isso ainda é uma tarefa gigantesca e que ao meu ver
>ainda estamos um pouco longe.
>
André, vou tentar explicar um pouco o que entendo por esse tipo de
análise. Primeiro, o que isso *não é*: falar de psicologia pode nos
envolver em coisas como Jung, Análise Transacional, Freud, etc, etc.
Não ponho minha mão no fogo por nenhuma dessas vertentes.
O que falo é mais do lado da Ciência Cognitiva tradicional, com
modelos e proposições que podem ser *cientificamente* investigados.
Com isso, quero dizer modelos que disponham de evidências mensuráveis
e que possam ser falsificáveis. Um exemplo mostra melhor isso.
Veja o livro abaixo:
Cognitive Models of Memory
Martin A. Conway (editor), MIT Press (1997)
O livro traz diversos artigos sobre modelos cognitivos. Um deles é:
Models of verbal short-term memory (Susan Gathercole)
Aqui é desenhado modelos de memória de curto prazo (STM), loops
entre a área fonológica e áreas de trabalho (working memory),
a similaridade fonológica, a lexicalidade (menor tempo de recall de
palavras reais do que palavras inventadas), o modelo Trace-Decay,
etc. Todos são modelos que não tem um correspondente neural
direto e específico. São níveis de análise diferentes. No entanto,
os modelos propostos são científicos e falsificáveis e extremamente
úteis para entender o que está acontecendo em nossa mente durante
operações verbais. Usando esses modelos, conseguimos "pensar" sobre
nossa mente.
>> O importante dessa estória é o nosso modelo de belief que associamos
>> à criança e a sua evolução com a idade. Pense por um instante o que
>> ocorre em termos *reducionistas*: tanto na primeira criança quanto na
>> segunda, o que temos lá embaixo são apenas padrões de ativação
>> eletroquímica nas sinapses. Não é possível fazermos nada de útil com
>> o conhecimento da exata diferença desses padrões: é muita informação,
>> não somos capazes de refletir baseados no mundo de informação que esses
>> padrões contém.
>>
>> No entanto, usando um simples modelo de crença conseguimos *manipular*
>> essa situação e postular modelos de funcionamento da *mente*, essa
>> coisa imaterial que, entretanto, poderia ser reduzida a interações
>> fisicoquímicas elementares. A mente, então, é uma "simplificação"
>> que fazemos da atividade bioquímica que ocorre nos neurônios e que
>> muitas vezes introduz entidades abstratas que não podem ser facilmente
>> reduzidas a um *padrão* de atividade elementar.
>
>Tudo isso é perfeito, mas como eu disse antes, se realmente conhecessemos a
>nossa atividade bioquímica!
Mesmo conhecendo tudo o que ocorre em nível bioquímico, ainda assim
precisariamos de modelos de memória episódica, longo prazo, curto prazo,
etc. Você pode estudar a psicologia do indivíduo, mas quando for tratar
de massas de pessoas, é preciso desenvolver novos modelos, para
cuidar de ocorrências emergentes (coisas complexas que acontecem
devido à interrelação de partes simples).
>
>>A inteligência artificial
>> deve-se preocupar com a feitura de mentes artificiais, pois certamente
>> (se usarmos computadores von Neumann) o substrato físico será
>> *profundamente*
>> diferente do nosso biológico. Mas isto não significa que devamos
>> desprezar a neurociência. Devemos usá-la para *refinar* nossos modelos
>> de "mente" de forma a podermos implementar táticas *funcionalmente
>> similares* em computadores. É esse o objetivo da AI (em minha opinião):
>> entender a inteligência como processos funcionais, independente da
>> "plataforma".
>
>Essa é a posição funcionalista de entendimento da mente, no entanto devo
>frisar que ela aparentemente beneficia muito mais a AI do que a inteligência
>humana. A posição exposta acima é praticamente idêntica a minha no que se
>trata de sistemas artificiais, porém um pouco distante do que considero como
>mente humana. Ainda dentro do seu ponto de vista sobre a AI, questiono o
>quão "inspirador" um modelo funcional da mente humana poderia ser para um
>programa de computador inteligente.
Tento encarar os dois como exemplos do mesmo tipo de organismo: um
organismo em que inteligência é uma propriedade para faze-lo desempenhar
de forma interessante no mundo em que "vive". Penso então em definir
quais são as propriedades informacionais mais básicas que esses
organismos dispõe.
>Sei que a única coisa que ainda
>conhecemos como inteligente é o homem, mas será que não poderíamos nos
>concentrar na inteligência em "si"? Por exemplo, a lógica é o método
mais
>perfeito de raciocínio desenvolvido até hoje, mas inúmeras pesquisas de
>psicólogos já demosntraram que o ser humano não raciocina exatamente da
>maneira da lógica. Contudo a lógica é o que há de melhor quando se trata de
>raciocínio! Se o seu objetivo é criar sistemas que apenas devem raciocinar
>sobre as coisas vc usaria então a lógica ou o modelo mental do raciocínio?
Este é outro ponto que dá para conversar o resto do ano: será lógica
realmente o modelo ideal para resumir nossa idéia de inteligência?
Proponho que esse ideal é inalcançável. A lógica só tem aplicações
em "mundos especiais". Um exemplo de um desses mundos é a matemática:
parta de um conjunto de axiomas e você terá diversão eterna pela
frente. Outro desses mundos é a filosofia tradicional, onde novamente
"inventa-se" alguns postulados ou premissas e prossegue-se elaborando
teorias e thought-experiments. Mas se o mundo de que falamos é o
mundo natural, então a lógica não serve para iniciarmos. É necessário
algo diferente, e aqui não vejo outra saída se não usar métodos
"fracos", como os indutivos. Sei que posso ser crucificado pelos
fãs de David Hume, mas tenho argumentos para defender isso.
>
>> Acho que uma máquina de lavar roupas poderia ser inteligente, se
>> soubesse fazer algumas coisas com suas "entradas sensoriais", que
>> seriam insuficientes para dar uma visão de nosso mundo, mas *são*
>> suficientes para permitir uma atitude inteligente em um "mundo"
>> diferente do nosso. Há algum tempo debati esse assunto com
>> Matt Ginsberg, onde ele coloca uma visão mais "tradicional" da
>> AI. O texto pode ser visto em:
>>
>> http://www.intelliwise.com/reports/nsg0002.htm
>>
>> Lá desenvolvo o exemplo de como deveria ser uma lavadora inteligente.
>
>É exatamente isso que eu queria dizer. A inteligência da maquina de lavar é
>diferente tanto na base material quanto na funcional. Se vc se prendesse ao
>modelo humano de como lavar roupa por exemplo, vc não conseguiria bolar
>tantas coisas quanto se vc pensasse apenas no conceito de "lavar a roupa".
>
Aquela máquina de lavar só consegue "enxergar" o mundo através de um
conjunto de sensores muito limitado. Assim, fica difícil compará-la
com o tipo de inteligência humana. Mas se você pega um bebê e olha
para ele como uma inteligência alimentada por fluxos sensórios,
então dá para fazer alguns paralelos (guardadas as devidas proporções).
Ambos tem como atividades básicas o "entendimento" do mundo à sua
volta, e o recurso mais usado é a tentativa e erro (as mães dos
bebês que o digam!).
>Portanto o que quero dizer é que hoje a ciência cognitiva mistura dois
>objetos que deveriam estar separados: a mente humana e a das máquinas. Na
>primeira área, o enfoque deveria sobrecair na neurologia para definir afinal
>em que tipo de hardware nossa inteligência está operando. E isso por que vc
>não conseguiria pensar em memória nas máquinas sem pensar também em um
>sistema FÍSICO de armazenamento, seja ele qual for. Se tivéssemos sitemas
>diferentes de hardware (algo com os computadores quanticos) conseguiríamos
>fazer coisas que hoje não sonhamos em termos de software. O mesmo deve
>ocorrer com a mente humana. Assim poderemos entender o raciocínio humano,
>que está longe de ser o melhor em termos ideais, bem como toda a nossa gama
>de comportamentos incluindo aí até mesmo as emoções, coisa que os
>computadores não precisam.
>Já os computadores podem se concentrar nas operações que o levariam a
>exercer o MELHOR raciocínio, desenvolvendo para isso softwares e hardwares
>que melhor se encaixem nesses objetivos. O caminho pode, portanto, ser
>completamente diferente. Os computadores evoluindo de um lado, e a
>compreensão da mente de outro.
>
Na verdade, as máquinas de hoje são essencialmente representantes de
"mentes" diferentes, absolutamente lógicas e sem "criatividade". Mas,
em princípio, isto é um defeito dos programas que colocamos nelas, não
de seu substrato físico. Uma rede neural do tipo SRN (simple recurrent
network), que roda em qualquer PC, pode duplicar o comportamento
fonológico e morfológico de uma criança ao aprender sílabas e palavras,
mesmo quando isso é implementado em uma máquina que só manipula "zero
e um". O que está nos separando de máquinas inteligentes é o
conhecimento das noções indispensáveis para o que se poderia chamar
de inteligência natural: extrair conhecimento de um mundo incerto e
vago, porém cheio de regularidades.
Até mais,
Sergio Navega.
Seminários Digitais Intelliwise |
Seminários Sobre
Inteligência, Criatividade, Ciência Cognitiva |
Comentários? snavega@attglobal.net