Esta é a pergunta que divide claramente os cientistas e
pensadores que sobre ela se debruçaram. O debate resultante é admiravelmente
caracterizado pelas palavras de John Haugeland:
«Os cínicos acham toda essa ideia um disparate completo –
não apenas falsa, mas ridícula – como o de imaginar que o nosso carro nos odeia
verdadeiramente, ou defender que uma bala assassina deve ser presa”.
Os entusiastas (“…) estão igualmente confiantes que é apenas
uma questão de tempo; os computadores com mentes, dizem eles, são tão
inevitáveis como as viagens interplanetárias, ou a televisão de bolso com
comunicação bidirecional.»
A minha primeira reação na tentativa de responder a uma
pergunta deste gênero seria (naturalmente) procurar entre as leis da física,
por alguma razão que mostre a impossibilidade da IA. No entanto, as leis
fundamentais que descrevem os fenômenos cognitivos estão ainda envoltas em
mistério. A transmissão de informação nas sinapses poderá ser descrita com
física clássica, mas o aparecimento do pensamento e consciência são algo mais.
Nos últimos anos, vários investigadores têm considerado seriamente a relação
destes fenómenos com a mecânica quântica e um estado chamado concentrado de
Bose-Einstein (em que as partículas estão num estado de alinhamento máximo
vibrando em uníssono). O estudo deste fenómeno não será feito aqui por uma
questão de espaço, pelo que dei primazia aos argumentos lógicos para esta
discussão. Contudo, importa referir que esta informação serve de base a alguns
cépticos que afirmam que ser impossível o homem reproduzir tais fenómenos.
Prosseguindo, vejamos outras ideias essenciais de ambas às
partes. O lado entusiasta baseia-se fortemente na metáfora com a qual já
estamos familiarizados de que o nosso cérebro funciona como um computador, em
que o suporte físico representa o hardware e a consciência emergente, o
software. Assim, se conseguir produzir um sistema eletrônico suficientemente
complexo ele irá adquirir capacidade de pensar e aprender. Esta é pelo menos a
posição de Ivan Moravec no seu livro “Mind Children” (1988).
Do lado oposto, de que o famoso físico Roger Penrose é
representante, acredita-se que as máquinas são fisicamente incapazes de um
pensamento humano e que jamais se poderá reproduzir em sistemas eletrônicos a
complexidade do cérebro.
Dois dos argumentos mais elaborados, e que se tornaram
famosos nesta polemica são o teste de Turing e o teste da Sala Chinesa.
O teste de Turing foi imaginado pelo matemático britânico
Alan Turing, grande visionário na investigação em IA, e é, segundo este, um
critério necessário para a inteligência automática. Coloque-se um humano e uma
máquina em duas caixas fechadas. Podemos fazer perguntas a cada uma das caixas.
Se não formos capazes de detectar diferença entre as respostas do humano e da
máquina, a máquina será considerada inteligente. Até agora, não existe nenhum
programa capaz de enganar uma pessoa que esteja especificamente a tentar
determinar qual é a caixa que contém o humano e qual é a que contém a máquina.
Este teste está intimamente relacionado com o tópico que já tinha sido referido
de avaliar a inteligência através do comportamento, que recordo ser uma ideia
que eu defendi por nos permitir chegar mais longe nesta análise.

Esta é um argumento forte e bastante difícil de rebater a
não ser pelo fato que a mesma ordem de ideias nos leva a duvidar da compreensão
de qualquer pessoa relativamente a um assunto como já referi anteriormente. Por
esta razão, abandonarei a perspectiva, mas não por não reconhecer o seu mérito.
Um dos meus argumentos preferidos contra ela toma forma na
chamada “compreensão da equação de segundo grau” e é apresentado pelo
matemático Stan Franklin. Diz ele, Arnie é um programa de computador para
resolução de equações de segundo grau, na forma: ax2 + bx + c = 0 .
Quando lhe são fornecidos os coeficientes, a,b,c ele devolve a solução sem ter
qualquer noção de álgebra. Na opinião do autor, o simples fato de ele produzir
soluções corretas implica alguma compreensão, ainda que reduzida. Também a
compreensão deveria ser vista como uma grandeza contínua. Continuemos a
elaboração: Bobby, no quinto ano de escolaridade, memorizou alguns fatos
aritméticos e manipulações algébricas e consegue resolver equações de segundo
grau. O seu professor sustenta que ele o faz por repetição mecânica. Embora
isto possa ser verdade, mesmo assim ele percebe mais do que Arnie, visto que
compreende alguma coisa dos números e da fórmula que está a usar. Charlie, por
seu turno, não só consegue resolver uma equação de segundo grau como deriva a
sua fórmula. Doris, contudo, está um passo a frente de Charlie porque consegue
derivar a fórmula e também percebe alguma coisa sobre números complexos.
Elaine, cuja mãe é matemática, olha de soslaio para Doris porque ela não
conhece o teorema fundamental da álgebra. A mãe de Elaine, obviamente, encara
tudo isto a partir de um lugar privilegiado da teoria dos corpos e compreende
as equações de segundo grau a um nível muito mais profundo que a sua filha.
Assim, haverá vários graus de compreensão e a produção de respostas corretas
merece algum crédito.
Ora, esta exposição tem sido conduzida de forma a
privilegiar a posição de que a compreensão deve ser avaliada pelos resultados
obtidos. Isto se deve à minha crença de que a verdadeira inteligência, tal como
foi definida atrás, implica que os resultados corretos possam ser produzidos
mesmo em situações desconhecidas, ou seja, que haja uma aprendizagem e
aplicação de conhecimentos. Isto implica certo grau de compreensão, o que me
leva a acreditar que apenas uma ilusão dessa capacidade falharia este teste.
Acrescento ainda que considero a imaginação uma característica muito importante
na adaptação a situações novas. Com base nisto, vejo--me na obrigação de
alterar um pouco a pergunta inicial. Serão os sistemas artificiais realmente
capazes de aprender e revelar imaginação genuína?
A sabedoria convencional sustém que os computadores são
inflexíveis e inimaginativos, preocupados com uma obediência cega a regras, e
tão incapazes na tomada de iniciativa própria como um comboio numa linha
férrea. Mas os investigadores da inteligência artificial têm uma opinião
diferente. Douglas Hofstadter, trabalhando em IA na Universidade do Indiana,
observa: «… o condimento estranho do trabalho sobre a IA é que as pessoas
tentam congregar longos conjuntos de regras num formalismo rigoroso que ensina
as máquinas inflexíveis a serem flexíveis.»
Mas será que podemos realmente
programar todas as regras que fazem um computador desenvolver imaginação e
saber agir em diferentes situações, demonstrando senso-
-comum? Estas são aprendizagens que os humanos acumulam ao
longo da sua vida, continuamente, como podemos reduzi-las a um conjunto finito
de regras?
Estas questões deram origem a um segundo debate da
inteligência artificial que opõe duas facções dos entusiastas sobre a maneira
como ela deve ser atingida. Por motivos de espaço não irei detalhar essa
discussão aqui, mas referir-me a ela em traços gerais como resposta à pergunta
anterior.
A primeira abordagem é a abordagem top-down, também
designada a escola formalista da inteligência artificial. Os investigadores
desta linha procuram programar todas as regras de reconhecimento de padrões e
senso-comum num CD. Acreditam que, ao inserir este CD num computador, ele irá
adquirir autoconsciência (ou pelo menos uma ilusão tão boa que não permita de
maneira nenhuma a distingues da verdadeira que observamos nos humanos). Apesar
dos sucessos iniciais, esta abordagem depara-se com grandes dificuldades devido
à quantidade de regras que seria necessário programar (se é que elas formam
mesmo um conjunto finito). Para superar estas dificuldades, surgiu a abordagem
bottom-up. Esta consiste numa tentativa de simular o processo de aprendizagem
pela utilização de redes neuronais baseadas no funcionamento do cérebro. Esta
abordagem também começou por dar bons resultados ao produzir robôs com comportamento
equiparado ao de insetos, mas esbarra com fortes contrariedades ao deparar-se
com a complexidade das redes neuronais de mamíferos superiores.
Em minha opinião, pela primeira definição de inteligência
que foi feita, o caminho deve passar por esta segunda abordagem ou, pelo menos
por uma combinação das duas, uma vez que a capacidade de aprender me parece uma
peça chave que não pode ser deixada de fora.
Qualquer uma destas formas de buscar a inteligência
artificial necessita de sistemas computacionais com potências muito
provavelmente superiores às que são observadas hoje em dia. Desta forma, a
caminhada estará dependente de outros grandes avanços tecnológicos na potência
dos computadores que não são aqui detalhados por não ser o tema desta
exposição.
Fonte:
Viu algum erro ou gostaria de adicionar uma sugestão para atualizarmos este blog? Colabore com o autor clicando aqui!