Criticar o charlatanismo das IA’s Generativas não significa dizer que são totalmente inúteis
Também deve-se considerar que o título é uma generalização e, como tal, tende a algum exagero. Afinal, se os desenvolvedores podem usar exageros e generalizações para vender soluções de IA’s Generativas como mágicas. Também pode-se usar dessa mesma figura para a crítica. Todavia, com a diferença de tudo sinalizar maior precisão para o lado da crítica.
Experiência dos Usuários
Um recente estudo do portal Upwork mostrou que:
“Quase metade (47%) dos funcionários que usam IA dizem não ter ideia de como obter os ganhos de produtividade que seus empregadores esperam. Assim como 77% dizem que essas ferramentas na verdade diminuíram sua produtividade, além de aumentarem sua carga de trabalho.”
Ou seja, o uso de IAs não passou d’uma demanda dos chefes para os funcionários a partir dos dados de marketing das empresas que queriam vender as IA’s Generativas aos empregadores. Ninguém parou para criar um processo de trabalho que integrasse a IA ao fluxo e, de fato, pudesse aumentar a produtividade.
É o famoso “te vira”.
Upwork
Para quem não conhece, o site Upwork é uma plataforma onde freelancers negociam trabalho, sendo usado por empresas que querem contratá-los. Mas também, cmo muitos dos trabalhos são remotos, é uma forma de receber em moeda estrangeira. Para quem conhece da plataforma, também é possível perceber que há muitos entusiastas de IA Generativa. Conquanto usam dela tanto para contratar, como para serem contratados.
A posição contrária é o apocalipsismo tosco presente em falas do senhor Elon Musk ou nos filmes do Exterminador do Futuro. Mas voltando ao estudo, o mais interessante: o comentário realizado por Baldur Bjarnason, autor e programador:
É bastante incomum que um estudo como este sobre uma nova ferramenta de escritório, cerca de dois anos depois que essa ferramenta — ChatGPT — explodiu nos locais de trabalho das pessoas, retorne um sentimento negativo tão retumbante.
E, ainda que seja relativamente sabido que o custo para criar uma IA Generativa como o ChatGPT seja elevadíssimo. A explicação para o fracasso não é algo facilmente rastreável, pois está no charlatanismo. Ou seja, um charlatanismo caríssimo.
IA’s Generativas e Charlatanismo
Uma das técnicas básicas para a atuação d’um charlatão é reforçar as convicções da audiência. Para tanto, há ciência demográfica significativa. Assim como palcos de apresentações de mágica podem passar por uma série de mecanismos de controle para garantir que o truque tenha efeito.
Dificilmente alguém pagaria ingresso para um show de mágica se não estivesse disposto a ser enganado. Aliás, para aqueles que querem revelar os truques, chama-se a segurança e faz-se revista na entrada.
Com as IA’s Generativas (e quase todos os produtos do marketing contemporâneo), é similar. Pois muitas das pessoas dispostas a usar as IAs (no caso, as generativas) em fase de teste são mais dispostas a acreditar que trarão soluções (mágicas) para produtividade. A essas pessoas, dirige-se o marketing das empresas que criam as IA’s.
Dito de outra forma, os desenvolvedores querem que os chefes contratem as IAs Generativas para seus times usarem. Mas sob a promessa de que elevará a produtividade, reduzindo os gastos e aumentando os ganhos. Talvez, permitindo ainda algumas demissões). Porém, o problema ocorreno quanto a pessoa domina o assunto que a IA deve dominar.
Conhecimento Necessário
Sequer trata-se de conhecer sobre o funcionamento das IA’s Generativas. Mas trata-se de entender se 1) o resultado apresentado no marketing é satisfatório e 2) se ele é, ao menos, análogo com o produto que a empresa entrega. O marketing sempre usará os melhores cenários que dispõe, um cenário ótimo. Contudo, não significa que o seu uso pelos profissionais da empresa será positivamente impactado numa igual medida.
O problema pior é: se o uso pela empresa obtiver resultados muito aquém do esperado, ninguém saberá resolver. Sequer os desenvolvedores.
Sendo assim, o resultado atual é que as IA’s Generativas têm efeito de mentalista. Isto é, as pessoas dispostas a acreditar que funcionam estão mais dispostas a ver os resultados positivos dela. Mesmo em detrimento de qualquer prova em contrário. E as pessoas dispostas a avaliá-las e tomar um juízo depois, percebem que não entregam o prometido.
Não se trata das pessoas saberem identificar como e porquê os LLMs erraram, mas de perceberem algo como “um truque legal. Entretanto, só um truque para me enganar e ainda tem vários outros erros que não faço. E o resultado final é melhor se faço sozinho”.
IA’s Generativas não fazem Mágica
Alguém que aprenda um truque de mágica simples com carta consegue brincar com ele com os amigos por muitas ocasiões. Porém, se as pessoas cansarem do mesmo truque, ele perderá a audiência. O problema é que o charlatanismo com um baralho de cartas é barato. Ademais, os truques dos mágicos que recebem para enganar as pessoas raramente causam prejuízos a empresas.
No caso das IA’s generativas (e de muito do marketing contemporâneo), o custo é maior por dois motivos. Primeiro, fala-se do custo de aquisição do serviço e instalação. Em segundo lugar, há o custo de perda de rendimento. Os casos em que existe a adaptação são minoria, conforme o estudo destacado no início do texto.
Onde exatamente está o problema?
As IA’s atuais não lidam bem com pontos fora da curva. Porém, o marketing delas é feito a partir de cenários ótimos (para as IAs), com casos gerais e prometendo soluções tão boas em quaisquer situações análogas. Porém, as situações análogas precisam ter sido antecipadas pelos desenvolvedores e adicionadas no treinamento. Pois, caso contrário, a chance de funcionar é baixa. E se funcionar, ninguém saberá o motivo.
Ainda que a maioria das pessoas e empresas esteja dentro de uma mediana, quanto maior a amostragem, maior a chance de ocorrer um desvio. E, por mais mediana que alguma pessoa seja, (estatisticamente) contém algum desvio.
Por isso, na indústria de jogos digitais, há quem diga que nenhum teste sobrevive ao lançamento. Pois aumenta tanto a amostragem de jogadores, permitindo que mais encontrar mais erros num dia que durante um ano de testes.
Aí reside, inclusive, o segredo de jogos em acesso antecipado: lançar um MVP, mínimo produto viável, para mostrar aos jogadores a visão dos desenvolvedores para o título e o que prometem. Assim sendo, os jogadores pagam para financiar o projeto e para testá-lo, ajudando no desenvolvimento.
Visão e o Desenvolvimento de Jogos
Entenda-se “visão” como o “núcleo” e as promessas que os desenvolvedores pretendem adicionar se a visão der certo. Os jogadores adquirem uma amostra que, não raro, ateram significativamente (ainda que não substancialmente) com o avançar do desenvolvimento. Todavia, esse avanço está subordinado, também, ao retorno financeiro que o título recebe.
Neste cenário, parte significativa do marketing consiste em manter contato com os jogadores, respondendo às críticas e resolvendo os problemas.
Alguns dos jogos em acesso antecipado são desenvolvidos por estúdios incapazes de bancar o time de desenvolvimento de outra forma. E há aqueles que conseguem um sucesso mais significativo (com mais tempo de duração) que jogos milionários pagos por grandes empresas. Compare-se Valheim, desenvolvido por um estúdio de 5 pessoas, com Forspoken.
No fim, as IA’s Generativas são só mais um programa que não sobreviveu ao lançamento para o grande público. Mas com a diferença que essa brincadeira poderá custar muito mais caro que um mero jogo que não deu certo.
Trata-se de Malícia?
A melhor resposta é de Baldur Bjarnason:
“Dado que há bilhões de dólares em jogo na indústria de tecnologia, seria tentador assumir que a ilusão estatística de inteligência foi criada intencionalmente por pessoas na indústria de tecnologia. Pessoalmente acho extraordinariamente improvável”.
De maneira análoga:
“Uma resposta popular a várias teorias da conspiração do governo: instituições governamentais simplesmente não são boas em guardar segredos”.
O charlatão confia mais na estupidez alheia que na própria inteligência. Porém, há burrices desculpáveis porque o próprio charlatão é burro nesse sentido. Isot é, ele dirige sua fala às emoções, não à razão e, sabendo do efeito, sequer se ocupa de conhecer o que precisaria conhecer.
Quando Sam Altman, chefe da OpenIA, começou a buscar investidores para um projeto de US$7 trilhões, provavelmente não tinha consciência de que equivale a 7% do PIB mundial.