• Nenhum resultado encontrado

1.1 CONCEITO FILOSÓFICO DE INTELIGÊNCIA ARTIFICIAL

1.1.7 A possibilidade da inteligência artificial forte

Os argumentos de Searle foram tão desconcertantes que implicaram sucessivas respostas e tentativas de superação da Tese da Sala Chinesa. Diversas sugestões foram apresentadas, para superar a objeção à IA Forte. Não é nossa pretensão esgotar todas as possibilidades, mas tão somente listar algumas das principais respostas aos limites propostos pela tese de Searle.

A primeira resposta poderia ser no sentido de que, no experimento da Sala Chinesa, erraria ao afirmar que o indivíduo que coleta o cartão (input) e entrega o símbolo correspondente na saída (output) seria a “mente computacional”. Na verdade esse indivíduo seria apenas uma parte da mente, e a sala inteira seria um sistema computacional79. Não importa

se o indivíduo, na condição implementador das entradas e saídas de caracteres, entenda o seu significado, o que importa é a compreensão do sistema.

Mesmo que o sistema fosse considerado uma mente computacional, ainda faltaria a causalidade necessária para o surgimento da IA forte80. Não haveria conexão adequada entre a

76 SEARLE, J. R. The rediscovery of the mind. Cambridge: MIT, 1995, p. 51. 77 SEARLE, J. R. The Rediscovery of the Mind. Cambridge: MIT, 1995, p. 51. 78 SEARLE, 1995, p. 51.

79 São defensores dessa tese: Jack Copeland, Daniel Dennett, Douglas Hofstadter, Jerry Fodor, John Haugeland,

Ray Kurzweil e Ned Block. Veja-se COLE, David. The Chinese Room Argument. In: ZALTA, Edward N. (ed.). The Stanford Encyclopedia of Philosophy. Spring 2020 Edition. Disponível em: https://plato.stanford.edu/archives/spr2020/entries/chinese-room/. Acesso em: 31 jul. 2020 às 00:04.

80 HARNAD, S. Minds, machines, and searle: what’s right and wrong about the Chinese room argument. Preston

mente e o cérebro. Para Hanard a ideia de mecanismo é central na relação mente-programa. É um sistema físico operando conforme leis causais (físicas). Um aeroplano seria um mecanismo. Faltaria uma conexão causal apropriada entre o sistema computacional e ambiente81.

A objeção da Sala Chinesa como sistema é insuficiente para superar as principais teses de Searle e não toca nos temas mais importantes: causalidade e intencionalidade. Novas abordagens seriam testadas.

A teoria computacional da mente defendeu que a mente é um programa (software), no sentido de que pensar é uma forma de manipulação simbólica no nosso cérebro. Se um sistema adequado for programado, com um software certo, então poderíamos dizer que ele pensa. O software apropriado poderia dar ao sistema adequado uma mente ou intencionalidade.

A ideia de que nossa mente é apenas um programa que roda no cérebro apresenta-se deveras reducionista. Claramente ela é muito mais sofisticada do que uma calculadora de símbolos lógicos. A mudança de perspectiva se situa em uma nuance da Tese da Sala Chinesa, em que se afirma que os meros símbolos abstratos não possuem poderes causais (causal powers). A causalidade estaria no cérebro.

E se o programa, no entanto, estivesse em um sistema adequado, tal como o cérebro? Não teríamos aqui uma resposta à objeção de Searle? Poder-se-ia afirmar que tal sistema adequado não existe ainda, mas essa formulação não afastaria a possibilidade virtual de criação de tal máquina. Não haveria um problema de impossibilidade lógica, tal qual na separação entre mente e cérebro na tese dualista cartesiana.

Poder-se-ia objetar ainda que faltaria a essa máquina a experiência que é constitutiva da intencionalidade e da consciência. O “sistema computacional humano” não é meramente um processo interno, mas envolve uma interação com o meio ambiente82. E se dotássemos esse

sistema adequando mecanismos de interação com o meio ambiente83, tal como provemos

humanos de novas formas de ouvir, ver mais longe, andar mais rápido ou mesmo andar, por meio de próteses?

A tese de um autômato (robot) com sensores para interagir com o meio ambiente, tal como ver, ouvir e mesmo sentir, superaria o obstáculo da conexão entre mente e ambiente, por

81 HARNAD, S. Minds, machines and Searle. Journal of Experimental & Theoretical Artificial Intelligence, v. 1,

n. 1, p. 5-25, 1989.

82 THOMPSON, E. Mind in life: biology, phenomenology, and the sciences of mind. Cambridge and London:

Harvard University Press, 2007, p. 8.

meio de experiências sensoriais únicas por parte do autômato84. A resposta propõe uma

mudança de uma tese computacional da mente para uma tese robótica da mente. A inteligência artificial deixaria de ser um programa instalado no cérebro e passaria a ser entendida como um sistema incorporado no cérebro (embodied AI). Haveria a passagem do funcionalismo simbólico para o funcionalismo robótico, ou seja, da ideia de que as funções mentais são funções simbólicas para a ideia de que existem funções simbólicas assentadas em funções não simbólicas (sensoras, motoras, associativas, entre outras primárias)85.

Outra condição seria necessária, pois não basta ter o sistema incorporado. A intencionalidade decorre da experiência, portanto, o autômato deveria estar imerso no seu ambiente ou, melhor dizendo, situado86. Deveria possuir as conexões corretas com o ambiente,

de modo a produzir as corretas atitudes proposicionais em relação ao mundo.

Após sucessivas investidas, as objeções contra a Tese da Sala Chinesa parecem ter tomado corpo e vislumbrado a possibilidade de que talvez as máquinas pudessem pensar e, incrivelmente, adquirir consciência. Assim, adota-se a distinção realizada por Searle em IA forte e fraca. Sendo que o conceito de IA a ser utilizado será o de que máquinas podem hipoteticamente possuir, dada a superação de limites tecnológicos, intencionalidade e consciência artificial similar à humana.

O presente trabalho, portanto, partirá assim da assunção da impossibilidade de se descartar a possibilidade de surgimento de um sistema artificial fundado em IA forte, bem como da probabilidade não desprezível de seu surgimento no futuro. Partindo desse pressuposto, pergunta-se: poderiam tais máquinas darem origem a proposições morais artificiais? Poderiam surgir agentes morais artificiais? Para responder a esses questionamentos primeiro iremos tratar da relação entre teorias morais e inteligência artificial.