A IA do Google está espalhando muita desinformação sobre o caso de Sophie de Dundee. Porém, para os que têm o mínimo de conhecimento sobre IAs, isso não é novidade
Em 2016, a Microsoft teve que tirar do ar um chatbot depois que ele começou a publicar tweets racistas. Pois ele aprendeu com a comunidade o que falar e, claramente, acabou vítima de gente que o quis treinar para falar coisas desagradáveis. Mas também podem treiná-lo para desinformação. Esse tipo de treinamento que alguns fazem, ainda que facilmente identificado como uma “zueira”, é mal visto por muitos. Porém, é um fato que expõe a fragilidade que muitas das IAs possuem. Isto é, são facilmente influenciadas pelos algoritmos usados como base de informação.
Padrões de Pesquisa
Na prática, também significa que elas são facilmente influenciadas pelos padrões de pesquisa de outros usuários. Logo, explica a versão que a IA do Google deu sobre o caso da Sophie de Dundee. O Grok, de fato, tem um resultado melhor, destacando as várias versões e organizando melhor as informações.


Inclusive, o problema de conflito de versões é tão sério que há um site dedicado a fazer essa divisão para os usuários, o Ground News. De fato, trata-se de uma fonte muito útil para pesquisas.
Voltando às IAs, o viés que possuem para confirmar os pensamentos do usuário (viés de confirmação) é conhecido desde o lançamento. Parte da documentação que a Open AI deixava pública sobre o tema, removeram (ou ocultaramatravés de uma dificuldade maior de localização). Pois já falava sobre isso e os riscos que a tecnologia trazia.
No caso da IA do Google, é evidente que o algoritmo de busca pode influenciar. Mas acontece porque a IA resume as informações que ela “lê” dos sites. Por isso, menciona as fontes ao lado. O problema é que muitos usuários pararam de acessar os links e passaram a confiar só nos resumos da IA. E, se espalha desinformação, os usuários ficarão desinformados.
Sobre o caso Sophie de Dundee
O nome verdade da “Sophie de Dundee” é Lola. Além disso, a IA do Google afirma que invvestigações não confirmaram a versão das famílias e das meninas. Todavia, o agressor e sua irmão foram indiciados, a agressão à irmã de Lola confirmou-se por relatório médico, e os vídeos do caso ‘sumiram magicamente’. Não bstasse tudo isso, qualquer um que assista ao vídeo, consegue perceber as diferents ações e reações. Obviamente, Lola grita para o agressor se afastar e cessar o assédio, enquanto tenta afastar-se, sacanda a Machete e a Faca só como último recursom e só mostrando.
As afirmações da IA baseiam-se em matérias sensacionalistas de tablódes britânicos. Assim como numa entrevista com o agressor, que no Instagram de denomina “gangster cigano”, mas cuja imagem vendem como “homem de família”. O único fato: realmente não é um imigrante ilegal, mas legalizado. Nós, do VCAIRU, cobrimos o caso desde o começo, usando de fontes primárias e secundárias em inglês (leia tudo aqui).
Esquerda e Desinformação
O problema da desinformação é mais complexo do que muitos pensam. E a ideia de “fake news” atrapalha mais do que ajuda. Pois uma notícia falsa pode ser falsa porque
- 1) o fato não ocorreu;
- 2) narraram de maneira errada ou;
- 3) deram o contexto errado.
Porém, a desinformação pode ocorrer essencialmente dando informações corretas, mas com uma hierarquia errada. E o grande problema das IAs com desinformação é que elas podem enfatizar viés de alguém desinformado fornecendo fontes de notícias que confirmem o viés.
A tecnologia algorítmica para reforço não é novidade. Pois é a mesma usada em redes sociais e sites de venda. O objetivo é mostrar mais daquilo que o usuário já demonstrou gostar, para reter o usuário.
O sistema de tagueamento, quando bem programado, apresenta coisas novas dentro de uma margem específica. Conquanto produzem essa margem específica para reforçar o comportamento do usuário. Por exemplo, por isso deferiram o Chat GPT 5 em prol do 4. Porque ele era mais seco e menos conversacional, com o próprio Sam Altman endereçando a questão.
Perigos Reais
Contudo, na prática, o problema é bem mais grave. Porque tudo isso pode levar a IAs conversacionais a simularem namoradas que são “sonho de consumo”. Ou até os problemas noticiados com IA’s usadas para terapias.
Isso nada mais é que a consequência de tentar reduzir as questões da alma e do espírito à matéria. E, para os que quiserem entender como desenvolvu-se isso, consultem a obra de Skinner. Por exemplo, “The Behavior of Organisms: An Experimental Analysis, Beyond Freedom and Dignity” (42% off na Amazon) e “Science And Human Behavior“.
