1.1 CONCEITO FILOSÓFICO DE INTELIGÊNCIA ARTIFICIAL
1.1.7 A possibilidade da inteligência artificial forte
Os argumentos de Searle foram tão desconcertantes que implicaram sucessivas respostas e tentativas de superação da Tese da Sala Chinesa. Diversas sugestões foram apresentadas, para superar a objeção à IA Forte. Não é nossa pretensão esgotar todas as possibilidades, mas tão somente listar algumas das principais respostas aos limites propostos pela tese de Searle.
A primeira resposta poderia ser no sentido de que, no experimento da Sala Chinesa, erraria ao afirmar que o indivíduo que coleta o cartão (input) e entrega o símbolo correspondente na saída (output) seria a “mente computacional”. Na verdade esse indivíduo seria apenas uma parte da mente, e a sala inteira seria um sistema computacional79. Não importa
se o indivíduo, na condição implementador das entradas e saídas de caracteres, entenda o seu significado, o que importa é a compreensão do sistema.
Mesmo que o sistema fosse considerado uma mente computacional, ainda faltaria a causalidade necessária para o surgimento da IA forte80. Não haveria conexão adequada entre a
76 SEARLE, J. R. The rediscovery of the mind. Cambridge: MIT, 1995, p. 51. 77 SEARLE, J. R. The Rediscovery of the Mind. Cambridge: MIT, 1995, p. 51. 78 SEARLE, 1995, p. 51.
79 São defensores dessa tese: Jack Copeland, Daniel Dennett, Douglas Hofstadter, Jerry Fodor, John Haugeland,
Ray Kurzweil e Ned Block. Veja-se COLE, David. The Chinese Room Argument. In: ZALTA, Edward N. (ed.). The Stanford Encyclopedia of Philosophy. Spring 2020 Edition. Disponível em: https://plato.stanford.edu/archives/spr2020/entries/chinese-room/. Acesso em: 31 jul. 2020 às 00:04.
80 HARNAD, S. Minds, machines, and searle: what’s right and wrong about the Chinese room argument. Preston
mente e o cérebro. Para Hanard a ideia de mecanismo é central na relação mente-programa. É um sistema físico operando conforme leis causais (físicas). Um aeroplano seria um mecanismo. Faltaria uma conexão causal apropriada entre o sistema computacional e ambiente81.
A objeção da Sala Chinesa como sistema é insuficiente para superar as principais teses de Searle e não toca nos temas mais importantes: causalidade e intencionalidade. Novas abordagens seriam testadas.
A teoria computacional da mente defendeu que a mente é um programa (software), no sentido de que pensar é uma forma de manipulação simbólica no nosso cérebro. Se um sistema adequado for programado, com um software certo, então poderíamos dizer que ele pensa. O software apropriado poderia dar ao sistema adequado uma mente ou intencionalidade.
A ideia de que nossa mente é apenas um programa que roda no cérebro apresenta-se deveras reducionista. Claramente ela é muito mais sofisticada do que uma calculadora de símbolos lógicos. A mudança de perspectiva se situa em uma nuance da Tese da Sala Chinesa, em que se afirma que os meros símbolos abstratos não possuem poderes causais (causal powers). A causalidade estaria no cérebro.
E se o programa, no entanto, estivesse em um sistema adequado, tal como o cérebro? Não teríamos aqui uma resposta à objeção de Searle? Poder-se-ia afirmar que tal sistema adequado não existe ainda, mas essa formulação não afastaria a possibilidade virtual de criação de tal máquina. Não haveria um problema de impossibilidade lógica, tal qual na separação entre mente e cérebro na tese dualista cartesiana.
Poder-se-ia objetar ainda que faltaria a essa máquina a experiência que é constitutiva da intencionalidade e da consciência. O “sistema computacional humano” não é meramente um processo interno, mas envolve uma interação com o meio ambiente82. E se dotássemos esse
sistema adequando mecanismos de interação com o meio ambiente83, tal como provemos
humanos de novas formas de ouvir, ver mais longe, andar mais rápido ou mesmo andar, por meio de próteses?
A tese de um autômato (robot) com sensores para interagir com o meio ambiente, tal como ver, ouvir e mesmo sentir, superaria o obstáculo da conexão entre mente e ambiente, por
81 HARNAD, S. Minds, machines and Searle. Journal of Experimental & Theoretical Artificial Intelligence, v. 1,
n. 1, p. 5-25, 1989.
82 THOMPSON, E. Mind in life: biology, phenomenology, and the sciences of mind. Cambridge and London:
Harvard University Press, 2007, p. 8.
meio de experiências sensoriais únicas por parte do autômato84. A resposta propõe uma
mudança de uma tese computacional da mente para uma tese robótica da mente. A inteligência artificial deixaria de ser um programa instalado no cérebro e passaria a ser entendida como um sistema incorporado no cérebro (embodied AI). Haveria a passagem do funcionalismo simbólico para o funcionalismo robótico, ou seja, da ideia de que as funções mentais são funções simbólicas para a ideia de que existem funções simbólicas assentadas em funções não simbólicas (sensoras, motoras, associativas, entre outras primárias)85.
Outra condição seria necessária, pois não basta ter o sistema incorporado. A intencionalidade decorre da experiência, portanto, o autômato deveria estar imerso no seu ambiente ou, melhor dizendo, situado86. Deveria possuir as conexões corretas com o ambiente,
de modo a produzir as corretas atitudes proposicionais em relação ao mundo.
Após sucessivas investidas, as objeções contra a Tese da Sala Chinesa parecem ter tomado corpo e vislumbrado a possibilidade de que talvez as máquinas pudessem pensar e, incrivelmente, adquirir consciência. Assim, adota-se a distinção realizada por Searle em IA forte e fraca. Sendo que o conceito de IA a ser utilizado será o de que máquinas podem hipoteticamente possuir, dada a superação de limites tecnológicos, intencionalidade e consciência artificial similar à humana.
O presente trabalho, portanto, partirá assim da assunção da impossibilidade de se descartar a possibilidade de surgimento de um sistema artificial fundado em IA forte, bem como da probabilidade não desprezível de seu surgimento no futuro. Partindo desse pressuposto, pergunta-se: poderiam tais máquinas darem origem a proposições morais artificiais? Poderiam surgir agentes morais artificiais? Para responder a esses questionamentos primeiro iremos tratar da relação entre teorias morais e inteligência artificial.