Imagem de Julius H. por Pixabay

Disclaimer: alguns dos exemplos são simplificados para caberem no texto sem o alongar. Para aprofundar, recomenda-se a leitura do livro Rebooting AI, de Gary Marcus e Ernest Davis

O imaginário contemporâneo está recheado de robôs derivados de fantasias como a obra de Asimov e a franquia Exterminador do Futuro. Porém, a realidade da robótica é frustrante  se comparar a realidade com o que essas obras aparentemente prometeram.

Há desenvolvimentos tecnológicos significativos como alguns drones que possuem Inteligência Artificial para facilitar o trabalho do operador.  São sistemas como detecção de obstáculos e opções para regressar a algum ponto específico caso perca o sinal do controle.

Porém, ainda que essas operações ajudem muito e já sejam significativos avanços tecnológicos, elas não necessariamente falam muito sobre a proximidade de um Sonny (filme Eu, Robô, de 2004) e da Skynet.

Mesmo se, hoje, criassem robôs (ou drones) com as três leis da Robótica de Asimov, isso não garantiria a segurança dos humanos, porque o desafio inicial é os robôs identificarem um ser humano. Ou seja, os robôs poderiam violar as leis da robótica simplesmente por não identificarem um humano vestido com alguma fantasia.

E isso fala muito sobre o quanto a mentalidade contemporânea, através do consumo de ficção e fantasia, distanciou-se da realidade.

As Leis da Robótica

Para aqueles que desconhecem, as Três Leis da Robótica propostas por Isaac Asimov na sua série sobre Robôs, elas seguem abaixo:

  • Primeira: Um robô não pode ferir um ser humano ou, por inação, permitir que um ser humano sofra algum mal.
  • Segunda: Um robô deve obedecer às ordens que lhe sejam dadas por seres humanos, exceto nos casos em que entrem em conflito com a Primeira Lei.
  • Terceira: Um robô deve proteger sua própria existência, desde que tal proteção não entre em conflito com a Primeira ou Segunda Leis.

Elas são apresentadas no primeiro livro, Eu, Robô, que consiste numa série de contos que discutem a aplicação dessas leis. A adaptação cinematográfica de 2004 é inspirada na obra, mas não em um conto específico.

Posteriormente, o autor acrescenta uma “Lei Zero”, acima de todas as outras, que prevê que um robô não pode causar mal à humanidade ou, por omissão, permitir que a humanidade sofra algum mal.

Na prática, não são leis, mas diretivas que, no contexto da obra, são programadas nos robôs conforme eles são criados. Além disso, elas pressupõem a existência de robôs tão inteligentes quanto seres humanos.

E aí que está o problema.

Um pouco sobre a percepção e inteligência humana

A diferença substancial entre a mente humana e as IAs é que a primeira apreende as coisas simultaneamente com as expressões e a segunda só apreende as expressões, os fenômenos sem compreender “coisas”. A IA, quando acerta, estima (com uma porcentagem) que um aglomerado de percepções de “marrom” e “verde” é uma árvore. Pinte a árvore de verde e a IA poderá perceber só “folhas”.

Além disso, um ser humano (não é momento de entrar na discussão sobre se existe alma ou não) é capaz de raciocínios rápidos e lentos. Porém, ao sair de casa e olhar para a rua, um ser humano não percebe “cores”. Percebe um mundo de coisas coloridas. IAs, em contrapartida, percebem padrões de cores dos quais tentam retirar as coisas.

Aqui aparece o primeiro problema. Quaisquer forças armadas das grandes nações são capazes de pensar em técnicas baratas para confundir muitos dos robôs que existem caso algum deles seja usado como arma contra a nação. Seriam técnicas de pintura incapazes de confundir muitos dos humanos (que identificam coisas com cores). Uma porta que tenha a mesma pintura que a parede da casa pode ser o suficiente para confundir mesmo IAs avançadas, basta conhecer o material em que ela foi treinada.

A IA não precisa cometer um grande erro, basta um pequeno

Se a percepção humana já é fundamentalmente diferente, a capacidade de resposta também.

Imagem de Julius H. por Pixabay

O que um humano faz quando anda pela rua 25 de março num dia típico? Ele vai procurando (e até brigando por) espaço. O que um robô faria? Provavelmente ficaria parado tentando encontrar um caminho vazio ou ignoraria as pessoas ao redor. Isso sem falar em problemas como atravessar a rua onde não há semáforos. Perceba-se que, ou o robô não se move, ou move-se e expõe os outros transeuntes a perigos.

Ao chegar em assuntos mais abstratos, tome-se o exemplo de uma família. Só pelo sobrenome e aparência, os humanos conseguem discernir irmãos e supor que os irmãos se conhecem e que convivem (ou conviveram, conforme a idade). IAs, em geral, precisam ter cada informação ensinada separadamente. Nalguns casos, pode-se imaginar até traços comportamentais a partir das características familiares.

É claro que os humanos podem inferir errado que duas pessoas são irmãos porque são parecidas. O exemplo mais fácil pode ser a percepção que se tem do Vale dos Sinos, no sul do Brasil, onde há muitas pessoas loiras e brancas de descendência alemã. Porém, alguém de fora consegue adaptar a percepção ao contexto e ser mais rígido na sua estimativa de familiaridade.

Essa capacidade cognitiva, dificilmente será alcançada pelo desenvolvimento atual de IAs porque falta a elas a capacidade de compreender o mundo como um todo. As IAs percebem elementos do mundo (cores, sons) e precisam deduzir quais coisas são. E qualquer pessoa consegue imaginar que é relativamente fácil enganar tais sensores assim como é relativamente fácil enganar os olhos de muitas pessoas com truques de mágica.

Quando as pessoas assistem ao filme IA (2001) ou 2001: Uma Odisseia no Espaço (1968), na verdade, estão vendo uma superestimação da capacidade cognitiva de robôs ou, num cenário otimista, o que alguns esperam algum dia alcançar.

A realidade, porém, é decepcionante e há um abismo entre muito do que se popularizou como “ficção científica” e a realidade, a ponto de parecer que os autores mais famosos são os que menos sabem do assunto.

E isso é preocupante na medida em que tomam-se as preocupações com o avanço da IA (e as legislações decorrentes, por exemplo), consideram mais a ficção do que a realidade das IAs.

O problema das caixas pretas

Qualquer um que tenha o mínimo de contato com programadores já ouvi piadas sobre eles não saberem como os códigos realmente funcionam. E isso é real em níveis preocupantes, como uma empresa decidir por não deletar linhas de código do motor de desenvolvimento de seu jogo com medo de perder algo.

A empresa não sabe o que faz cada coisa. Então, o melhor é deixar tudo como está, sem apagar e construir em cima. Até o momento em que fica impossível e precisa-se de uma nova ferramenta.

Verdade seja dita, muitas ferramentas contemporâneas facilitam muito o desenvolvimento de vários softwares (IAs são programas como outros), mas para aplicações significativamente limitadas ou que já foram testadas. Esse é um dos motivos da existência de tantos jogos “retrô”. Hoje, está mais fácil construí-los com a ajuda de IAs e outros modelos prontos.

Porém, se os programados já têm dificuldade para saber o que pode ou não ser retirado de código de um programa de 94, onde os códigos eram significativamente menores que hoje, o que esperar das soluções dos problemas de alucinação do ChatGPT?

Como relatou Gary Marcus, o hype já está desacelerando.

Para citar outro exemplo, em 2015 Elon Musk previu carros autônomos em 2 anos. Ainda não há confiança para deixar os carros totalmente sozinhos, ainda que se saiam bem em muitos cenários. Inclusive, passados os dois anos de 2015, um carro da Tesla se chocou com um avião estacionado ao dirigir sem motorista.

Imagem de Branimir Lambaša por Pixabay

Em resumo, o desafio fundamental para desenvolver uma IA capaz de inteligência autônoma é que ela precisa ter uma compreensão geral do mundo análoga à capacidade humana. E qualquer entusiasta de jogos digitais sabe que o lançamento de um jogo é marcado por uma série de atualizações e correções porque os jogadores testam coisas que os desenvolvedores nunca imaginariam que seria tentado.

O melhor jogo não está imune a ser um fracasso após o ingresso dos usuários provar que ele não é capaz de desafiá-los. É um problema de “inteligência coletiva” que supera a capacidade das melhores IAs. De modo análogo, as IAs contemporâneas ainda são incapazes de competir com a “cauda longa” de muitas pessoas fazendo coisas muito diferentes do esperado pelos desenvolvedores. Essas muitas pessoas, fazendo cada uma algo diferente, geram mais informações do que pode ser ensinado em laboratório para IAs.

E não há porque esperar que, melhorada uma IA com informações captadas por usuários dessa “cauda longa”, esses mesmos usuários não descubram mais problemas.

O resultado é que os seres humanos estão pensando mais em termos de correlação que em termos de causalidade. Ou seja, os seres humanos estão pensando mais como IAs do que elas pensando mais como humanos. E isso é o pior estrago que Asimov poderia ter feito.


Para saber mais sobre o Instituto Visconde de Cairu – https://ivcairu.org/quem-somos/

Se acredita na importância e quer incentivar o trabalho cultural, doe qualquer valor via PIX: contato@ivcairu.org ou usando Cartão de Crédito, Débito e QR Code (a partir de R$1).

By Henrique Inácio Weizenmann

Psicopedagogo, mestre em comunicação, estudante de cultura, imaginário e controle social.

Deixe um comentário

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

× Fale Conosco
Verified by MonsterInsights