Tag: IA

A concepção de linguagem em Cibernética e Sociedade: o uso humano dos seres humanos, de Norbert Wiener – PARTE 1/3

“Um computador é capaz de pensar?”, continuamos nos perguntado, quase 70 anos após o famoso jogo da imitação de Alan Turing [1], e continuam, como sabemos, os dilemas que estão na base da pergunta: mente e cérebro são “substâncias distintas”? O que é, afinal a consciência? É possível pensá-la como algo independente de um corpo biológico? [2]

Concepção de linguagem da Linguística Clássica

O jogo da imitação, mais adiante batizado de teste de Turing, como sabemos, era baseado numa espécie de conversa, bastante simplificada, composta de perguntas e respostas feitas a um interlocutor que poderia ser um ser humano ou um computador (inicialmente, no artigo de Turing, um homem ou uma mulher). Assim, de início, a linguagem é vista, entre os precursores  das ciências da  computação, não como uma prática social, gestos de significação ideologicamente saturados ou negociação de sentidos/jogos de linguagem entre sujeitos situados, mas uma sequencia de correspondências entre palavras que solicitam fatos e outras palavras que os transmitem, isto é, um ato comunicativo, de troca de mensagens, não um ato de fala, de enunciação ou de cognição situada.

Humani Victus Instrumenta – Autor desconhecido (cerca de 1570)

Por isso, também, o estudioso da linguagem  têm dificuldade em conceber linguagens de computador como linguagens (seriam códigos, já que não possuem dupla articulação, nem podem gerar um numero infinito de sentenças com sentido a partir de um numero finito de elementos léxico-sintáticos) ou inteligência artificial como inteligência (já que inteligência, no caso do sujeito da linguagem, pressupõe consciência sobre efeitos de sentido devidos às suas escolhas de palavras  que englobam o que possa mudar no mundo a partir daí) ou mesmo aprendizagem de máquina como aprendizagem (porque adquirir ou aprender uma língua não é sobre imitar comportamentos certos com a frequência correta em situações corretas, apenas, mas ativar estruturas plásticas da mente-cérebro  permitirão criar, com compreensão, enunciados que nunca poderiam ter sido escutados, e portanto imitados,  antes).

O modelo matemáticao da comunicação do matemático-engenheiro-criptógrafo Claude Shannon

Não obstantes essas constatações, observamos hoje, a todo momento, pessoas e computadores “conversando” nas mais variadas situações, voluntariamente ou de maneira forçosa, como com as famosas URAs (Unidade de Resposta Audível) dos serviços de atendimento telefonônico,  num jogo em que o humano projeta  sobre a troca de símbolos uma coerência linguística que o computador não alcança,  diante do que o computador diz baseado em cálculos  probabilísticos que, por sua vez, o falante humano não conseguiria fazer “de cabeça”. Logo,  a visão de linguagem na base da cibernética vingou, apesar de tudo,  como uma forma específica de prática discursiva contemporânea, uma forma seminal, talvez, do que será efetivamente a linguagem pós-humana, numa sociedade em que a distinção entre  agentes cognitivo-discursivos  humanos e não-humanos não teria mais sentido.

A linguagem em uso passar a ser uma integração “sofrida” desses dois conjuntos de rotinas e capacidades voltados para metas definidas, como todo sistema cibernético.

Dois bots “controlando” a conversa

No livro, Wiener [3], um dos pais da cibernética, faz inúmeras referencias à linguagem, sempre concebendo-a, de forma reducionista, como troca de mensagens com sentido pré-definido. Mensagens, por sua vez, seriam arranjos codificados de símbolos  cuja forma/ordem fornece informação, isto é, possibilidades de combinação não aleatória, não conteúdos sobre algum estado de coisas concebido por um falante, ou seja, uma noção trazida da então emergente TeMatemática da Informação [4].

 Para Wiener, “A linguagem é, em certo sentido, outro nome para a própria comunicação, assim como uma palavra usada para descrever os códigos por meio dos quais se processa a comunicação” (p. 73).  Mesmo naqueles idos dos anos 1950, já se poderia ver aí uma manobra até certo ponto arbitrária, cujas consequências seriam ainda mais significativas a partir do passo seguinte: declarar comunicação e controle como sinônimos. [CONTINUA NA PARTE 2/3]

[1] TURING, A. M. Computing Machinery and Intelligence. Mind, v. LIX, n. 236, p. 433–460, 1950.

[2] TEIXEIRA, J. DE F. O cérebro e o robô: inteligência artificial, biotecnologia e a nova ética. São Paulo: Paulus, 2015.

[3] WIENER, N. Cibernética e sociedade: o uso humano de seres humanos. São Paulo: Cultrix, 1970.

[4] SHANNON, C. E.; WEAVER, W. The mathematical theory of communication. Urbana: University of Illinois Press, 1975.

[Veja também a Parte 2 e a Parte 3]

As promessas da inteligência artificial: evolução ou apenas uma bagunça em um quarto chinês?

Entre as áreas de desenvolvimento tecnológico que mais se ouve na atualidade, está a inteligência artificial. Quando tratamos dela, não conseguimos fugir, porém, de desejar prever o que será o futuro da humanidade. Por ser um tópico tão relevante quando se trata sobre as implicações de tecnologias sobre a sociedade humana, decidimos discutir o tema a partir do livro Life 3.0: being human in the age of artificial intelligence, escrito por Max Tegmark, cosmólogo professor do Instituto de Tecnologia de Massachusetts [1].

Embora há quase trinta anos se imaginasse cenários em que inteligências artificiais seriam perigosas para os humanos, seja atacando-os no mundo material [2] ou criando um reino tirânico digital [3], hoje convivemos com versões mais rudimentares de IA diariamente muitas vezes sem sabê-lo. Elas parecem, ao contrário do que todos temiam, pouco inteligentes e acabaram adentrando a casa das pessoas com o objetivo de ligar aparelhos eletrônicos, fazer telefonemas ou tocar músicas escolhidas por seu dono.

Não é sobre essa inteligência artificial que Tegmark quer discutir. Ele foca sua atenção na que seria chamada de inteligência artificial generalizada. Ao contrário de uma Alexa, tida hoje como mais um eletrodoméstico, a IA generalizada seria “consciente” e autônoma, isto é, teria a capacidade de aprender e de ter experiências subjetivas, o que, talvez, apenas retome um questionamento feito por John Searle em seu quarto chinês[4]: a IA realmente sabe ou apenas age como se soubesse?

A visão de Tegmark sobre esse cenário é tida como “prudente”, relacionada a uma corrente de pesquisa em IA que defende a IA autônoma como inofensiva, uma vez que ela nunca chegaria a ser consciente. O autor defende que não se deve ser um idealista, alguém cuja esperança sobre o futuro da humanidade está depositada sobre a inteligência artificial e na promessa de que essa irá cumprir a previsão dos futurólogos dos últimos anos: atingir a singularidade. Ao mesmo tempo, ele não se vê como um cético que não acredita em nada disso. Pelo contrário, ele dá um passo a mais e propõe que as pessoas se mobilizem para preparar um terreno seguro para um futuro certo.

As ideias de Tegmark se desdobram e tocam em questões determinantes para a concepção do próprio humano. Primeiro, a consciência. Ele defende ser possível uma máquina alcançá-la, mas, para isso, acredita, é necessário que se obtenha  conhecimento sobre quais processos físicos, no interior do cérebro, estão envolvidos no fenômeno da consciência. Se por um lado ele admite que a materialidade de um corpo biológico seja indispensável na constituição da consciência, por outro, ele defende uma visão fisicalista [5] de que há – e sempre haverá – algum tipo de interação física concreta e mensurável para os fenômenos do mundo, inclusive o da consciência.

Alexa, assistente virtual desenvolvida pela Amazon

Com relação ao conceito de consciência em si, ele tenta se apoiar na própria experiência subjetiva do humano. Este tem a capacidade de focar em determinados elementos, mas estar totalmente inconsciente sobre outros. Passaríamos, então, a estar conscientes de algo quando houvesse um deslocamento de fatores (ainda desconhecidos). Sendo assim, a experiência subjetiva é, para  o autor, resultado de um determinado alinhamento de elementos físicos. Logo, se os cientistas descobrirem quais são as condições, assim como as combinações necessárias, e conseguirem replicá-las, o mistério estaria resolvido.  

Em meio às promessas de uma vida 3.0 e a comparação de um ser humano consciente de uma inteligência artificial, há o entendimento  particular de que um sujeito humano pode ser descrito como um sistema cibernético. Nessa ótica, os seres vivos, assim como os mecânicos, resumiam-se a um sistema equilibrado, em que inputs, em determinados contextos, produzem os mesmos outputs, sendo tais outputs formas de modificar o ambiente, sendo esse, então retraduzido por retroalimentação, reajustando o sistema internamente e, assim, poderia se produzir vida. Daí deriva-se que, conhecer a fisicalidade do sistema é um passo para melhorá-la, gerando sua próxima versão, possivelmente independente do substrato biológico. No fundo, se queremos ter uma base consistente para refletir e questionar a construção de uma concepção de pós-humano, encabeçado por pensadores como Tegmark e outros, é necessário dar um passo para trás e olharmos a cibernética, por ser o campo que produziu um conjunto de saberes essenciais para seus trabalhos.

[1] TEGMARK, M. Life 3.0: being human in the age of artificial intelligence. Vintage Books, 2017. Livro discutido em nossa reunião de setembro. 

[2] No seriado Arquivo X, episódio seis da primeira temporada, cujo nome é “Ghost in the machine”, os investigadores do FBI precisam lidar com um elevador controlado por uma inteligência artificial.

[3] O longa Tron de 1982, feito pela Disney, conta a história de usuários que, uma vez transportador para o mundo digital, precisam lutar contra a ditadura de uma inteligência artificial sobre os outros softwares.

[4] O filósofo John Searle propôs o argumento do Quarto Chinês que nos ajuda a pensar sobre a possibilidade de uma máquina ser inteligente ou não.

[5] Fisicalismo é uma perspectiva que assume a existência de fatores físicos para explicar os fenômenos do mundo.