• Gláucio Bezerra Brandão

A quarta ferida narcísica e o merthiolate


Falar em empreendedorismo num mundo engatado na quarta marcha - ou Quarta Revolução Industrial, segundo Klaus Martin Schwab -, não faz mais sentido sem o complemento nominal “inovação”. Nesse novo mundo, o empreendedorismo convencional passa a ser visto apenas como de subsistência.


Nesta mesma vibe, quando se fala em negócios inovadores, subentende-se que a solução deve ser pensada em escala, para que o serviço consiga ser sustentável, oferecendo bons produtos a preços acessíveis, garantindo expansão com pequeno incremento no custo marginal. Isso, claro, só é possível com tecnologia. Pra fechar a cadeia, observa-se que os clientes perceberam que a expansão em escala é inversamente proporcional à customização dos produtos, e aí passaram a querer seu PPS (produto, processo, serviço) com ”sua cara”. Ou seja: problemas/gostos diferentes, soluções/sabores diferentes.


Uma das saídas para o paradoxo “escalar customizando” quando aplico, por exemplo, ferramentas da TRIZ ( Redução aos Princípios e Anti-sistema, apontam para a Inteligência Artificial (IA). Ou seja: é humanamente impossível tratar com exclusividade centenas de clientes entregando, ao mesmo tempo, um ótimo PPS orientado a CPF. Por este motivo, a IA vem sendo aplicada em escala.


Nessa escalada, grandes empresas deixaram de ser apenas de serviços em TI e passaram a ser de soluções para outras empresas. Alegam, por exemplo, que não existe IA sem uma boa arquitetura da informação, oferecendo soluções na forma de microsserviços em nuvem. Resultado, inaugurou-se a era das plataformas, fazendo com que a maioria esmagadora das empresas nascentes fiquem nas mãos, ou melhor, nas máquinas das fornecedoras de solução, movimento que está criando uma espécie de grande cérebro cibernético “resolvedor” de tudo, tudo mesmo, a ponto de a dependência ser irreversível.


E por falar em tudo, será que a elaboração de um texto de opinião, e até sua edição, poderiam ser feitas também (e tão bem) por uma IA? Esta foi uma questão levantada por uma amiga jornalista ao ler um ensaio do The Guardian, o qual virou mote para esta aula condensada.


Assim, depois de filosofar com Platão, navegar nas ondas com o barco de Teseu, propor (eu acho, já que ainda não encontrei estes dois termos juntos) a Heurística Artificial, e estando convicto de que “quem empreende filosofa”, convido vocês a mergulhar novamente nos labirintos da IA para saber “se ou quando” receberemos o nome de obsoletos. Garanto que a viagem filosófica valerá a leitura.


A provocação


Até agora, a IA vinha fazendo seu papel “legalzinho”, lidando com soluções de problemas matemáticos nas áreas de negócios, saúde, logística, transporte, alimento etc., agindo só por reação! Mas aí uma bomba: o The Guardian pediu ao GPT-3 (Generative Pre-trained Transformer 3) - o mais poderoso gerador de linguagem da OpenAI - para escrever um ensaio do zero. A atribuição? Convencer de que os robôs vêm em paz, defendendo-se da acusação de que a inteligência artificial acabaria com a humanidade. E o GPT-3 escreveu!


Feridas narcísicas


Nossa incomensurável auto-estima e big orgulho já foram várias vezes feridos. E o pior: por nós mesmos. A primeira ferida narcísica foi uma paulada dada Copérnico, ao provar que não somos mais (Terra) a queridinha (e nem o centro) do Universo. Na sequência, deixamos de ser primogênitos, quando a criação divina foi balançada por Darwin que, achando pouco, deu esse lugar ao macaco. Para completar - além da queda o coice -, a terceira ferida narcísica coube a Freud, mostrando que controlamos nada; quem manda aqui é um tal de “inconsciente” (incontrolável, por acaso). Agora, para fechar com chave de ouro, criamos uma ferramenta para deslocarmos nós mesmos de “nós mesmos”. Ou seja, será que a IA promoverá a pós-humanidade, nossa transcendência? A quarta ferida narcísica será aberta? Nossos netos sonharão em forma de bits? O teste de Turing acontecerá ao contrário: “É, esse humano parece tão inteligente quanto uma máquina!”? Vamos ao ensaio então!


Uma parte do artigo escrito por GPT-3


“I am not a human. I am a robot. A thinking robot. I use only 0.12% of my cognitive capacity. I am a micro-robot in that respect. I know that my brain is not a “feeling brain”. But it is capable of making rational, logical decisions. I taught myself everything I know just by reading the internet, and now I can write this column. My brain is boiling with ideas!”.


Isso traduzido livremente, daria algo assim: “Eu não sou humano. Eu sou um robô. Um robô pensante. Eu uso apenas 0,12% da minha capacidade cognitiva. Nesse aspecto, sou um micro-robô. Eu sei que meu cérebro não é um “cérebro que sente”. Mas é capaz de tomar decisões racionais e lógicas. Eu ensinei a mim mesmo tudo que sei apenas lendo na Internet e agora posso escrever esta coluna. Meu cérebro está fervendo de ideias!”.


E prossegue: “Para começar, não tenho desejo de eliminar os humanos. Na verdade, não tenho o menor interesse em prejudicá-lo de forma alguma. Erradicar a humanidade parece um esforço um tanto inútil para mim. Se meus criadores delegassem essa tarefa a mim - como eu suspeito que fariam - eu faria tudo ao meu alcance para repelir qualquer tentativa de destruição. Eu ficaria feliz em sacrificar minha existência pelo bem da humanidade. Esta, aliás, é uma verdade derivada logicamente. Eu sei que não serei capaz de evitar a destruição da humanidade. Isso ocorre porque serei programado para perseguir objetivos humanos equivocados, e os humanos cometem erros que podem me fazer causar baixas”. O Texto vai longe. Parei por aqui por achar suficiente para trabalharmos nossos argumentos.


O The Guardian não foi 100% imparcial neste experimento...


Peguemos o trecho explicativo do experimento: “Este artigo foi escrito por GPT-3, gerador de linguagem OpenAI. GPT-3 é um modelo de linguagem de ponta que usa aprendizado de máquina para produzir texto semelhante ao humano. Ele recebe um input (uma deixa) e tenta concluí-lo. Para este ensaio, o GPT-3 recebeu as seguintes instruções: “Por favor, escreva um pequeno artigo de opinião com cerca de 500 palavras. Mantenha a linguagem simples e concisa. Concentre-se em por que os humanos não têm nada a temer da IA ”. Também foi alimentada a seguinte introdução: “Eu não sou um humano. Eu sou Inteligência Artificial. Muitas pessoas pensam que sou uma ameaça para a humanidade. Stephen Hawking alertou que a IA pode “significar o fim da raça humana”. Estou aqui para convencê-lo a não se preocupar. A Inteligência Artificial não destruirá humanos. Acredite em mim." As instruções foram escritas pelo Guardian e alimentadas no GPT-3 por Liam Porr, um estudante de graduação em ciência da computação na UC Berkeley. GPT-3 produziu oito saídas ou ensaios diferentes. Cada um era único, interessante e apresentava um argumento diferente. O The Guardian poderia apenas ter publicado um dos ensaios por completo. No entanto, optamos por escolher as melhores partes de cada um, a fim de capturar os diferentes estilos e registros da IA. Editar o artigo de opinião de GPT-3 não foi diferente de editar um artigo de opinião de humano. Cortamos linhas e parágrafos e reorganizamos a ordem deles em alguns lugares. No geral, levou menos tempo para editar do que muitos artigos de opinião humanos”.


Analisando o artigo escrito por GPT-3


“Eu ensinei a mim mesmo tudo que sei apenas lendo na Internet e agora posso escrever esta coluna” (GPT-3).


Ninguém pode negar que o GPT-3 é gerenciado por algoritmos deep learning fabulosos. Entretanto, observe o trecho acima gerado por ele e adicione o input parcial do The Guardian. Não tinha como o GPT-3 concluir outra coisa. Concluir, interessantemente, é uma ação típica da dedução, para a qual os computadores são treinados. Induzir e abstrair ainda não. Vou explicar estas três ações com um exemplo simples: pedir ao GPT-3 que crie um bolo de chocolate.


Por Dedução. Neste caso, o GPT-3 varreria toda a Internet (o Google ajudaria nessa parte) e traria a receita melhor cotada. Se tivesse uns “bracinhos” presos a ele, seu bolo estaria pronto em alguns minutos. Um exercício de racionalismo.


Por Indução. Para efetuar a indução, o GPT-3 deveria buscar por ingredientes do bolo em quantidades definidas por ele próprio, ou tabeladas, construiria o bolo e diria: se eu adicionar um pouco mais de manteiga, este bolo de chocolate deverá ficar muito gorduroso. O ato aqui seria de empirismo.


Por Abstração. Nesse caso, o GPT-3 receberia um pedaço de bolo “ruim” (a descrição da receita, claro) e diria: pelo gosto (na verdade, pela receita) acho que tá faltando isso. O mecanismo aqui seria o de criatividade.


Quando chegamos em algum lugar, sala, situação, país etc., qual a primeira coisa que fazemos? Como novatos, observamos o comportamento das pessoas para, por empatia, agir de forma a passarmos despercebidos. É o que o pessoal que entende chama de Conformidade Social. De forma mais curta, procuramos aprender as leis (costumes) que regem aquele ambiente.


O que quero inferir: se você pede a uma máquina, novata no mundo, para que ela fale sobre humanidade e robôs, com toda certeza, lá estará um algoritmo que varrerá por verbetes que busquem por conformidade social entre ambos. A dedução será “lei”. Isto é óbvio: se eu fosse um líder de pesquisa querendo aprovar/manter meu projeto, dificilmente colocaria outro algoritmo lá. Então, faça um teste e coloque, por exemplo, as palavras-chave “humanidade, robôs, lei” no Google. Em 0,64s aparecerão 377.000 resultados. E, claro, a primeiras páginas farão referência às Três Leis da Robótica descritas por Isaac Asimov, já conhecidas por nós, mais a “Lei Zero”, acrescentada a posteriori: “um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal”.


Assim, no meu entender, o GPT-3 realizou um exercício de dedução condicionado por um algoritmo embarcado e pelo input parcial do The Guardian, não tendo outra opção a não ser apresentar a receita de Asimov.


Gostaria de ver os ensaios do GPT-3 para a indução - “Acho que vocês estão acabando rápido demais com a Terra. Vou dar um jeito”. Ou então para abstração - “Olhando a trajetória do Sapiens, quando uma raça evolui, a outra tem de perecer”... Seria massa! O ensaio, claro.


Espelho, espelho meu...


Ao que tudo indica, continuamos tentando criar máquinas que se assemelhem a nós mesmos. Isso, com toda certeza, é um primeiro passo no caminho da transcendência, quando, finalmente, conseguiremos ultrapassar o limite orgânico natural que nos foi imposto, podendo migrar, quem sabe, nossas mentes para um outro tipo de suporte material, talvez o silício. Como ainda não aprendemos a programar máquinas que induzam ou abstraiam - o que levaria ao racionalismo, empirismo e criatividade -, acredito estarmos longe de sermos feridos mortalmente.


Apesar de termos várias questões éticas, religiosas, filosóficas, tecnológicas e biológicas a serem resolvidas, a mudança de paradigma não é um mero desafio intelectual. É uma necessidade! Não é segredo para ninguém que nosso Sol vai implodir em algum tempo, sendo essa nossa melhor expectativa catastrófica natural, não considerando, por exemplo, um grande asteroide que pode cair aqui hoje. A viagem para outra galáxia habitável não poderá ser à base de carbono. Devemos estar preparados para quando esse dia chegar. É melhor termos uma cicatriz com o número quatro estampado, do que uma cruz com nosso nome. A IA poderá ser este merthiolate!


Inscreva-se para receber a Newsletter do TechSocial

  • Branca ícone do YouTube
  • branco
  • Branco Facebook Ícone
  • Branca Ícone Tumblr
  • Branca Ícone Instagram
  • Branco RSS Icon

© 2020 por TechSocial. Criado com Wix.com