Pular para a barra de ferramentas
 

INTRODUÇÃO À FILOSOFIA DA MENTE III

Por João de Fernandes Teixeira

Algumas décadas atrás, o matemático inglês Alan Turing formulou a seguinte pergunta: Pode uma máquina pensar? Nessa época o computador digital acabava de ser inventado e vivia-se na Europa uma fase de grande otimismo em relação ao que os computadores poderiam fazer. Nascia a Inteligência Artificial, uma disciplina nova que tinha por objetivo o estudo e a construção de máquinas pensantes. Dizia-se que em poucos anos seria possível construir uma máquina que pensa. Isto fez com que os filósofos voltassem a se debruçar sobre algumas questões centrais da Filosofia da Mente: o que é pensamento? Será ele exclusividade dos seres humanos e de alguns animais? O que impede de atribuir a um computador a capacidade de pensar? Caso um computador chegue a pensar, poderá ele adquirir consciência do que está pensando e com isto igualar-se a um ser humano?

Essas questões na verdade não são novas. No século XVII Descartes já se preocupava com esses problemas. Os cientistas da época já falavam da construção de autômatos e se questionavam sobre o que poderia impedir alguém de um dia construir uma máquina pensante. Descartes tinha uma série de restrições a esse projeto. Ele dizia que, por mais que os autômatos fossem aperfeiçoados, eles nunca poderiam ter uma vida mental igual à dos seres humanos.

Descartes era um dualista. Ele acreditava que o pensamento era uma propriedade da alma imaterial, do espírito, e sobre este tema ele tinha escrito uma longa demonstração que começava na dúvida radical e terminava na sua famosa frase “Penso, logo existo”. Supor que uma máquina poderia pensar seria o mesmo que abandonar o dualismo. Afinal de contas, isso é o mesmo que supor que algum tipo de arranjo de elementos materiais pode produzir pensamento sem precisar supor a existência de uma substância mental ou espiritual. Mas era precisamente neste ponto que Descartes identificava uma diferença fundamental e intransponível entra autômatos e seres humanos: mesmo que se construísse um autômato extremamente aperfeiçoado ou uma réplica perfeita que fizesse tudo que nós podemos fazer, a essas criaturas estaria sempre faltando a substância espiritual.

No século XX esta discussão é retomada por Alan Turing. Ela adquire grande importância neste contexto, uma vez que as ideias matemáticas e filosóficas de Turing ainda hoje são o ponto de partida para pesquisas que se desenvolvem na Ciência da Computação e na Inteligência Artificial. Turing acreditava que não havia razão para colocar limites aos progressos que possam ser alcançados nessas áreas. Ele afirmava,

contra Descartes, que se para pensar é preciso ter um espírito ou uma alma, e se só Deus pode dar essa alma, não há nenhuma razão que o impeça de fornecer uma alma para um computador. Afinal de contas, Deus é onipotente e dá almas para quem Ele desejar.

Turing dizia que a questão “Pode uma máquina pensar?” só poderia ser respondida no dia em que chegássemos a uma definição precisa dos conceitos de “pensamento” e de “máquina”. Esse dia ainda está longe de chegar e, nesse caso, o que faremos até lá?

Se para estabelecermos “o que pensa” e “o que não pensa” devemos nos basear em juízos de senso comum, poderíamos encomendar uma pesquisa de opinião para o Instituto Datafolha. A atribuição de pensamento a organismos ou máquinas seria apenas uma questão social e estatística. Se a maioria das pessoas achar que máquinas pensam, só nos resta aceitar essa opinião, pelo menos provisoriamente. Outra alternativa, proposta por Turing, é substituir essa questão por aquilo que ele chamou de “Jogo da Imitação” e que mais tarde passou a ser conhecido como “Teste de Turing”.

O Teste de Turing baseia-se na seguinte ideia: se uma máquina apresentar um comportamento exatamente igual ao de um ser humano, não há por que não atribuir a ela pensamentos e estados mentais. O Jogo da Imitação, que foi a primeira versão do Teste de Turing, requer a participação de três pessoas: um homem (A), uma mulher (B) e um interrogador (C), o qual poderá ser de qualquer um dos sexos. O interrogador permanece num quarto fechado, separado dos outros dois. O objetivo do jogo, para o interrogador, é determinar qual é o homem e qual é a mulher. O interrogador não pode ver “A” ou “B” nem tampouco ouvir suas vozes, caso contrário o jogo terminaria imediatamente. Ele pode se comunicar com “A” e com “B” por meio de uma tela e um teclado de microcomputador. “C”, o interrogador, deve fazer uma série de perguntas para “A” e para “B” com o objetivo de determinar seu sexo. “A” e “B” tentarão sistematicamente ludibriar o interrogador.

As perguntas que “C” faz para “A” e para “B” podem ser do seguinte tipo:

C-Qual é o comprimento do seu cabelo?

A ou B-Meu cabelo é curto, os fios mais longos não passam de vinte centímetros.

Um homem normalmente tem cabelos curtos, mas uma mulher também pode usá-los. As respostas de “A” e de “B” serão sempre esquivas. Se ocorre uma situação na qual, por exemplo, “A” seja obrigado a mentir para evitar que o jogo acabe, “B” pode interferir para tumultuar a atividade. “B” poderia dizer, por exemplo: “Não dê atenção ao que ele está dizendo, ele quer ludibriá-lo”.

Suponhamos agora que em vez de colocarmos um ser humano no lugar de “A” ou de “B” coloquemos uma máquina. Se no final do jogo “C” não descobrir que estava

dialogando com uma máquina e não com um ser humano, podemos afirmar que essa máquina passou no Teste de Turing, ou seja, o comportamento da máquina tornou-se indistinguível do de um ser humano. Seria legítimo atribuir a essa máquina pensamentos e estados mentais, pois, se assumimos que seres humanos pensam, que outro critério haveria para atribuir pensamentos a algo, além da verificação de que imita perfeitamente o comportamento humano?

O Teste de Turing levanta a seguinte questão: por caso as máquinas não poderiam realizar algo que deveria ser descrito como pensamento, mas que é muito diferente do que um homem faz? Isto significaria dizer que não só o pensamento não é exclusividade dos seres humanos como também que um sistema artificial, construído com material muito diferente daquele que compõe os seres vivos, seria capaz de pensar, desde que tal sistema possa executar as mesmas tarefas que um ser humano.

Foi este o grande projeto teórico da Inteligência Artificial: construir máquinas e programas computacionais que pudessem imitar as atividades mentais humanas. Na década de 1960 e no início da década de 1970 espalha-se uma grande euforia pela Europa e pelos Estados Unidos com a exibição de máquinas que podem demonstrar teoremas automaticamente, realizar cálculos altamente complexos ou jogar xadrez muito melhor do que alguns campeões mundiais. Desse grande entusiasmo com as realizações da Inteligência Artificial surge uma nova teoria da mente, batizada com o nome de funcionalismo.

O funcionalismo pretendia se uma teoria completa e abrangente, que explicasse não só das atividades mentais humanas como também as desenvolvidas por sistemas artificiais. Os funcionalistas sustentavam que o mental é o resultado da capacidade de um organismo ou sistema realizar certas funções. Nosso cérebro é um sistema que pode realizar algumas atividades que produzem aquilo que chamamos de mente, mas um outro sistema, como por exemplo um computador, construído com materiais inteiramente distintos, como silício e cobre, será capaz de produzir atividade mental se ele puder desempenhar as mesmas funções realizadas pelo cérebro humano. Pensar é desempenhar um conjunto de funções que frequentemente levam à produção daquilo que chamamos de comportamento inteligente. Vemos por aí o quanto os funcionalistas estavam influenciados pela concepção de pensamento defendida por Turing!

Mas será correta essa maneira de caracterizar a natureza do pensamento? Até que ponto podemos confiar no Teste de Turing como critério para decidir entre o que pensa e o que não pensa?

A aplicação do Teste de Turing pode ser bastante sugestiva. Basta lembrarmos, por exemplo, de uma das cenas principais do filme de Ridley Scott, Blade Runner: o caçador de androides. Nessa cena, o funcionário de uma fábrica especializada na construção de robôs aplica uma longa bateria de questões a um indivíduo para descobrir se ele é um androide ou um ser humano. O objetivo do questionário é bastante preciso; trata-se de saber se esse indivíduo será capaz de responder as questões satisfatoriamente, ou seja, respondê-las da mesma maneira que um ser humano o faria. Se isso acontecer, então saberemos que ele é autêntico ser humano. Todos os seres humanos passariam, em princípio, no Teste de Turing. Se esse indivíduo fosse um androide tão perfeito que pudesse responder com sucesso a todas as perguntas, então ele seria indistinguível de um ser humano. Mas haverá um limite para o número de questões que podem ser formuladas no Teste de Turing ou no Jogo da Imitação? Quando devemos parar? E se o número de questões se tornar infinito, não seria o mesmo que dizer que o teste é inconclusivo?

Mas seria essa a única objeção que poderíamos fazer ao teste inventado por Turing e sua concepção da natureza do pensamento? Suponhamos que você tenha um vizinho que toque piano esplendidamente. Um dia você passa pela sua rua e ouve sons de um piano, magnificamente executados. Você quer entrar para cumprimentá-lo, bate na porta e aí verifica que não havia ninguém tocando piano, era um aparelho de CD ligado. Contudo, a imitação era perfeita, produziu-se um comportamento indistinguível daquele de um ser humano que sabe tocar piano. As principais condições requeridas pelo Jogo da imitação foram respeitadas: por exemplo, eu passava pela rua e, portanto, não podia ver se quem tocava era um ser humano ou uma máquina. Ora, se Turing estiver certo, seria legítimo atribuir pensamento ao aparelho de CD. Mas terá isto sentido?

Esta estranha conclusão deve-se ao fato de que a comparação entre o homem e máquina estabelecida pelo Teste de Turing recai sobre atividade específicas. Comparam-se apenas alguns segmentos isolados de comportamento humano com aquilo que algumas máquinas ou programas computacionais podem fazer. Se admitirmos esse pressuposto sem crítica, teremos de atribuir pensamento a calculadoras de bolso ou a outros computadores que executam tarefas específicas, como, por exemplo, processar a folha de pagamento do INSS do Brasil inteiro. Certamente a máquina pode executar tal processo com muito mais perfeição e rapidez do que nós, e, nesse caso, teríamos de atribuir a ela uma capacidade de pensamento e raciocínio muito maior do que aquela de qualquer ser humano.

Ora, esse paradoxo surge da identificação de pensamento com a realização de tarefas consideradas de modo isolado. Mesmo quando se aplica o Teste de Turing ao

androide de Blade Runner ocorre a escolha de capacidades específicas como a memória e a expressão linguística. Seria preciso comparar as atividades do ser humano como um todo com aquilo que uma máquina pode fazer. Se seguirmos essa linha de raciocínio, veremos que o que caracteriza um ser pensante não é a capacidade de realizar esta ou aquela tarefa, mais precisamente a possibilidade de variar seus comportamentos. Mas aqui também podemos nos deparar com conclusões tão singulares como: se uma máquina puder variar seu comportamento e fazer tudo aquilo que um ser humano faz, por que continuar a considerá-la uma máquina? E, nesse caso, que sentido teria continuar a indagar se uma máquina pode pensar? Por outro lado, se admitirmos que o que caracteriza o pensamento não é a realização de tarefas específicas, então deveremos concluir, com base no exemplo anterior, que para calcular toda a folha de pagamento do INSS não é preciso pensar.

Esses paradoxos mostram como é difícil traçar uma linha nítida que separe aquilo que se deve ser considerado pensante e aqueles artefatos e criaturas aos quais não seria legítimo atribuir pensamentos. A natureza daquilo que chamamos de pensamento ainda permanece misteriosa, e a invenção do Teste de Turing não parece ter contribuído muito para desvendar esse enigma. Suponha que um dia você abra o jornal e leia a seguinte manchete: “ROBÔ JAPONÊS MATA OPERÁRIO NUMA FÁBRICA”. Terá esta notícia algum nexo? Certamente não.

Uma parte do robô pode ter escapado ao controle e causado a morte do operário. Mas isso é muito diferente da informação de que o robô matou o operário. O robô pode mover os seus braços mecânicos e executar movimentos que sejam fatais para alguém que esteja por perto, mas isto não significa matar alguém. Somos nós que interpretamos os movimentos do robô como se eles fossem comportamento humano e, ao fazê-lo, inconscientemente atribuímos pensamentos e intenções à máquina. Uma ação envolve algo mais do que a simples observação de suas características externas e, quando as descrevemos, implicitamente atribuímos diferentes tipos de estados mentais que a produziram. É isto que distingue um crime de um acidente; podemos especificar esses tipos de comportamento pela própria descrição que deles fazemos, embora do ponto de vista de quem aplica o Teste de Turing não haja nenhuma distinção. Turing possivelmente diria que isto pouco importa, pois, tanto criminoso como aquele que se envolve em um acidente, são criaturas que pensam. Mas se tudo depende de descrições e se o ponto de partida do teste é a atribuição de pensamento a sistemas ou criaturas – uma atribuição que é feita por aquele que aplica o teste – não estaremos diante de um imenso círculo vicioso onde se pressupõe o pensamento para depois tentar identificar o que pensa e o que não

pensa? Nesse caso não teremos feito nenhum progresso na tentativa de explicar a natureza do pensamento.

Esse enigma torna-se ainda mais complicado se associamos ao pensamento a noção de consciência. Descrevemos um comportamento consciente como aquele no qual sabemos o que estamos fazendo. Existirá pensamento sem consciência? Os psicanalistas sempre se esforçaram em nos convencer de que é possível dissociar essas duas noções, mas mesmo eles reconhecem que boa parte de nossos pensamentos é consciente. Se essa última afirmação é verdadeira, então fica ainda mais difícil imaginar como uma máquina que pensa poderia adquirir consciência de seus pensamentos.

Alguns filósofos da mente diriam que sem consciência não há sequer ação, quanto mais pensamento. Uma máquina de calcular não faz somas, ela apenas imprime sinais no seu visor de cristal ou sua fita de papel. Para que ela fizesse uma soma, ou seja, estivesse de fato executando uma ação, a máquina precisaria saber, passo a passo, aquilo que está executando. Isto não seria possível se ela não fosse consciente.

Mas será que aqui também podemos traçar uma linha divisória nítida que separe criaturas conscientes e inconscientes? Há muitas ações que executamos de maneira inconsciente e nem por isso deixamos de nos considerar criaturas conscientes. O que dizer de ações que são executadas durante ataques de sonambulismo ou durante sessões de hipnotismo? Não serão esses estados semelhantes àqueles de um ator que, quando recita seu script, deixou de ser uma criatura consciente enquanto vivia exclusivamente uma personagem? E, nesse caso, será que podemos dizer que o sonâmbulo, o hipnotizado e o ator deixaram de ser criaturas conscientes? Da mesma maneira, como poderíamos saber se uma máquina subitamente adquiriu consciência de seus pensamentos e tornou-se uma criatura consciente, como ocorre com o computador HAL do filme 2001- Uma odisseia no espaço?

Essas dificuldades parecem apontar para a dimensão dos problemas com os quais estamos lidando aqui: pouco sabemos sobre a natureza do pensamento e muito menos acerca do que é consciência. Estes são dois imensos problemas com os quais a Filosofia da Mente tem de se confrontar e sobre os quais ainda não foi capaz de produzir teorias conclusivas. Mas se não sabemos o que é pensamento nem tampouco o que é consciência isto não significa que tentar abordar tais problemas mediante a investigação em Inteligência Artificial seja uma tarefa fadada ao fracasso. É muito difícil profetizar negativamente sobre aquilo que a ciência e a tecnologia poderão vir a descobrir algum dia. Só para se ter uma ideia, basta lembrar que, no início do século XX, velhas senhoras que brandiam seus guarda-chuvas e até mesmo um respeitável filósofo austríaco –

Ludwig Wittgenstein – diziam com todas as letras que o homem jamais poderia chegar à Lua.

JOÃO DE FERNANDES TEIXEIRA é formado em filosofia pela USP. Viveu e estudou na França, na Inglaterra e nos Estados Unidos. Lecionou na UNESP, na UFSCar e na PUC-SP. Publicou vários livros. Colunista da revista Filosofia Ciência & Vida.

Redes sociais:

https://www.instagram.com/joaodefernandes/

https://www.facebook.com/joao.d.teixeira.5

Facebook Comments

Sistema J1

Deixe uma resposta

Next Post

ENTREVISTA ESPECIAL COM A PSICÓLOGA TAÍZA QUEIROZ

seg jun 22 , 2020
ENTREVISTA ESPECIAL COM A PSICÓLOGA TAÍZA QUEIROZ   SJ1) Por que você escolheu ser psicóloga? Taíza Queiroz:Eu lembro que desde muito pequena, eu ficava fascinada escutando histórias das pessoas em encontros familiares. Outra memória que tenho é que, por volta dos meus 15 anos, eu pensava e falava que queria […]