Precisamos superar a ideia de que as plataformas atuam de forma neutra na opinião pública”, aponta Sergio Amadeu
Entrevista e edição: Claudia Rocha
Como resultado da investigação sobre o avanço das novas tecnologias no campo da IA em diferentes frentes, foi lançado, pela Autonomia Literária com coedição da Fundação Perseu Abramo, o livro “Inteligência Artificial, sociedade e classe: como a IA impacta o trabalho, a saúde e as políticas públicas”.
Com 11 artigos que apontam riscos e debatem o instrumento a partir de uma perspectiva de classes sociais, os organizadores da obra são: Sérgio Amadeu da Silveira, Lia Ribeiro Dias, João Francisco Cassino e Joyce Souza Maldonado.
Professor associado da Universidade Federal do ABC, Sérgio Amadeu tem diversos trabalhos relacionados ao estudo da sociedade digital. Em entrevista a seguir, ele conta sobre o novo livro e faz um balanço dos impactos da IA no mundo do trabalho, na educação e como isso influência o capitalismo. Confira:
Fala um pouco da premissa do livro, qual o viés ele aborda? Quais são as principais temáticas dentro do campo de estudo sobre os avanços da IA?
O livro visa analisar a inteligência artificial a partir da perspectiva sociotécnica, né? A partir da ideia de que tecnologias não são neutras, tecnologias são construções sociais e que, mesmo que elas sigam rigorosamente primados científicos, elas acabam interferindo na sociedade, elas podem reduzir ou ampliar simetrias. E por causa disso, a gente resolveu, em vários dos artigos deste livro, observar a inteligência artificial a partir de classes sociais e a partir de assimetrias que as classes dominantes no mundo produzem. Então, obviamente, a classe dominante norte-americana controla essas tecnologias de uma maneira muito, vamos dizer assim, muito forte, porque elas querem manter a liderança sobre os benefícios que esses sistemas automatizados têm e, para isso, elas percebem que tem que controlar cadeias de desenvolvimento, controlar dados, controlar minerais estratégicos, enfim, o nosso livro trabalha, portanto, não a inteligência artificial, olhando-a como um produto, tendo uma visão simplesmente de que ela melhoraria determinadas performances ou atividades. Primeiro porque nós, em vários artigos do livro, mostramos que a inteligência artificial não reproduz a inteligência humana, ela reproduz o trabalho humano. E isso não é muito intuitivo, porque o mercado todo divulga que esses mecanismos são similares ao que seria algo inteligente, né? Mas, na verdade, não. Você vai ver que a inteligência artificial não está no seu celular, não está no seu computador, ela é uma estrutura gigantesca. Ela tem modelos que foram treinados durante meses de extração de padrões de dados por máquinas de autoprocessamento computacional e, para que a gente faça perguntas, por exemplo, a modelos de linguagem, aos chats, você tem que estar conectado, porque esse chat, ele não é um softwarezinho que tá numa maquininha, ele tá em inúmeros data centers, ele está fazendo inferências baseado nos padrões que ele tirou de bases de dados gigantescas. Então, nós estamos falando de uma mega máquina, uma estrutura que é controlada por grupos empresariais pequenos, que têm relações muito fortes e que são controladas pelo capital financeiro. O livro traz essa abordagem de classe para olhar a IA também em processos muito específicos como o da construção civil, do mercado, da saúde, das relações nas plataformas de relacionamento amorosos, das subjetividades, de várias profissões que são controladas por sistemas algorítmicos, como a dos entregadores, que são, na verdade, a aplicação de um taylorismo nunca visto antes. Eles controlam cada passo, cada pedaço do território onde essas pessoas estão porque você tem uma junção de tecnologias de GPS, celulares, que são gerenciadas por sistemas automatizados que foram treinados para controlar o trabalho. Então, são vários capítulos feitos por pesquisadores, principalmente da Universidade Federal do ABC, que olham esse fenômeno sociotécnico da chamada inteligência artificial a partir das suas determinações, condicionamentos e implicações sociais.
Ainda existe uma grande mistificação dessa ferramenta na sociedade? Como você enxerga esse ponto?
A IA vem em longa trajetória de tentativa de redução do trabalho humano direto, né? Então, a inteligência artificial, ela expressa uma mudança, assim como as máquinas físicas expressavam, fazendo coisas que o trabalho humano já fazia, porém com mais precisão ou de um modo mais rápido. As máquinas que vêm a partir da revolução informacional, essas máquinas de processar dados, processar informações, elas começaram com isso que se chama agora de inteligência artificial a conseguir expressar funções cognitivas. Ela faz um resumo de um texto, ela encontra expressões dentro do texto, ela faz a partir do padrão de um texto, um outro texto. Então, você fala: ‘nossa, como ela é inteligente’. Não, ela não é inteligente, ela é um sistema que foi construído, a partir da extração de padrões estatísticos e probabilísticos que foram feitos durante muito tempo, muitas máquinas extraindo padrões de bilhões de textos para, na verdade, fazem classificações e extraem linhas finas do que se tem ali naquelas obras todas que foram submetidas aos algoritmos que são chamados de aprendizes, por exemplo, que vão fazer esse padrão e criar um novo modelo. Esse modelo é um software. Só que é um software que não foi escrito diretamente por humanos, mas por algoritmos que foram estes, sim, feitos por humanos, além do treinamento feito por centenas ou até mesmo milhares de cientistas de dados, engenheiros de computação, que tiveram que fazer ajustes no modelo para que ele atuasse como atua hoje um Gemini, um ChatGPT e tal.
E qual a sua opinião sobre o uso da ferramenta no mundo do trabalho e na educação? Quais são as implicações?
Vamos dizer assim, ela satisfaz, faz os interesses do capital de elevação de produtividade, de tentar retirar ao máximo o custo do trabalho, do capital variável na composição do que vai ser um serviço ou um produto de uma empresa. Ocorre que essa ideia de que todo trabalho vai desaparecer não é correta. O que nós estamos vendo é uma elevação da precarização do trabalho. Sem dúvida nenhuma, uma ou outra ação vai desaparecer, atividades não vão ser mais necessárias, mas isso já acontecia mesmo antes da inteligência artificial. A inteligência artificial realmente existente é muito específica. Ela vai atuar, vai afetar determinadas áreas, inclusive daquilo que não se imaginava que eram alguns trabalhos cognitivos. Agora, falar que, por exemplo, a inteligência artificial vai sair e fazer uma reportagem é uma mentira, isso não vai ocorrer, o repórter no jornalismo é insubstituível, ele não vai desaparecer. O que vai desaparecer é talvez aquela pessoa que, dentro do mundo da comunicação, fazia uma tradução de release, outras tarefas.
Nós temos também uma implicação na educação. Existem estados que estão fazendo uma tragédia na educação. Estão achando que a educação se faz com coisas simplificadas. Então, retiram o poder do professor na sala de aula e colocam sistemas automatizados, algoritmos que fazem a emanação de games, usam coisas gamificadas e dizem que isso vai substituir a escola, a interação e o trabalho coletivo do professor e dos alunos. Quem está acreditando nisso, infelizmente, vai ter uma surpresa negativa em breve. Quando usamos só sistemas automatizados, não respeitamos o ritmo dos alunos. Dizem que esses sistemas são personalizados, mas não são personalizados. Eles têm alguns poucos padrões que não representam as realidades, até porque foram treinados em realidades que não são as nossas. Eles não vão substituir, por exemplo, a leitura. Ao contrário, o que está acontecendo com os modelos de linguagem é algo muito perverso, porque muitos estudantes, principalmente do curso superior, que têm que fazer mil coisas e trabalhar, acabam terceirizando a atividade de pensar, de ler um texto, de interpretar para o ChatGPT. Isso vai, primeiro, instituindo uma fraude na educação, segundo, como ele vai deixando de fazer resumo, vai deixando de fazer perguntas e deixando de interpretar. E resumo, interpretação e outras atividades cognitivas a gente aprimora fazendo. Então, essa lógica de que esses sistemas vieram só para resolver problemas e melhorar a nossa experiência não é verdadeira. A gente não pode substituir a educação por passar algo que precisava estar conosco, do nosso aprimoramento enquanto sujeitos, enquanto atividade cognitiva, para uma máquina. É claro que a máquina faz isso muito mais rápido em muitas coisas, e é por isso que ela não vai desaparecer e que vamos usá-la no mundo do trabalho. Agora, também nem todo uso no mundo do trabalho vai melhorar as relações; ela vai precarizar a relação de trabalho. Isso já está acontecendo com os aplicativos. É só ver quem opera. É inteligência artificial, um nome exagerado, mas é quem define quem vai receber o chamado do Uber, qual é a trajetória, quem calcula o preço. Tudo isso são sistemas automatizados com vários sistemas. Ele não é inteligente, ele tem programação determinística e isso não vai desaparecer porque reduz custo do capital.
E isso tem relação direta com as questões de poder, né?
A questão é como, além de reduzir o custo do capital, usar sistemas automatizados para melhorar as condições de vida e de trabalho. Essa é a grande questão que precisa ser respondida, e o capital não se interessa por ela. O capital se interessa por vender produtos. Faz um negócio, diz que aquilo é uma maravilha e joga toda essa questão no campo da mistificação, da alienação técnica. Isso é extremamente providencial para as Big Techs, porque, se você não entender como isso funciona, os sindicatos não vão lutar por direitos em relação a ele, as populações não vão dizer que determinados tipos de tecnologia não queremos. O software pode ser extremamente veloz, ágil, complexo, mas há algo que ele não é: inteligente. Esses sistemas estão presentes no nosso dia a dia, no nosso cotidiano, e é importante compreender como as assimetrias vão ser ampliadas ou reduzidas, como a diferença entre nações vai ser ampliada ou reduzida. Por isso discutimos isso do ponto de vista tecnopolítico. A tecnologia hoje é um dos principais elementos de poder econômico e político. Basta ver o poder militar americano. Ele não se baseia em outra coisa que não seja tecnologia. Ele tem as armas mais velozes, mais complexas. É claro que tem um exército treinado, mas sem aquelas armas, sem aquela tecnologia, não conseguiria avançar. Isso muitas vezes não é considerado por muitos pensadores. A tecnologia sempre foi uma expressão da sociedade, mas hoje ela se torna um momento crucial. Ela ocupa o centro da produção de riqueza e do poder.
Com a construção de um modelo que aparenta ser personalizado, como o ChatGPT, por exemplo, temos visto uma humanização por parte dos usuários, em casos em que as pessoas utilizam a ferramenta como terapeuta e outros usos. Qual sua opinião?
Essa dependência parece que criou uma relação, não digo afetiva, mas uma relação realmente de dependência. Sim, essas relações são afetivas, porque afetam profundamente o nosso ser, o modo como somos sujeitos, o modo como nos sujeitamos, o modo como atuamos. Na verdade, isso não é característico só dessas tecnologias. Mas, como essas tecnologias são tecnologias da inteligência, vamos falar assim, elas tentam simular essa nossa atividade que acreditamos ser muito humana, e isso gera um modelo de linguagem que não tem consciência de si. É um conjunto de códigos que foi treinado durante meses, extraindo padrões de sites, de textos, de livros. Ele se apresenta com ajustes feitos por humanos para falar ‘oi, bom dia’, ‘oi, boa tarde’. Tem pessoas que, por causa das agruras da vida, acabam estabelecendo diálogos com aquele sistema de linguagem como se fosse uma pessoa que as compreendesse, que tivesse compaixão, que tivesse perspicácia para orientar o que deveriam fazer. Na verdade, não. Ele está tirando padrões e gerando diálogos a partir de textos que estão na literatura, nos diálogos, nos sites. Eles geram novos textos porque extraíram padrões. Se a gente mostrasse matematicamente como aquilo funciona, a pessoa ficaria super angustiada. Os modelos principais que estão sendo usados hoje utilizam uma arquitetura transformer, baseada em transformar toda palavra em token, todo token em vetor, e os vetores têm distâncias uns dos outros. Tudo é organizado como se fosse uma máquina de auto completar, que calcula a probabilidade da palavra X vir depois da palavra Y.
Isso também é interessante para as empresas. A gente se organiza em torno de tecnologias há muito tempo. A tecnologia, apesar de ser banida do debate, porque a gente discute culinária, filosofia, sociologia, moda, esporte, e tecnologia a gente compra melhor, ganhou um poder gigantesco quando se tornou informacional, quando passou a processar símbolos. A gente acha que isso vai resolver problemas cruciais da humanidade, e não vai. Vai agilizar o convívio econômico, o convívio do capital, vai melhorar determinadas áreas da atividade, como a medicina, vai melhorar as possibilidades de fazer experimentos químicos. Vai fazer tudo isso, mas também vai aprimorar o genocídio nas guerras, como está acontecendo na Faixa de Gaza com o uso da IA. No início deste ano, o Sam Altman falou: ‘Por favor, não agradeçam o ChatGPT, não falem obrigado’. Por quê? Porque é um sistema automatizado. Quando você escreve ‘obrigado’ no chat, isso vira sinal luminoso, passa pelo cabo submarino que sai de Fortaleza, entre outros, vai até os Estados Unidos, ao data center onde está rodando essa instância. Ele interpreta aquilo como uma nova pergunta, roda tudo de novo e gasta muita energia. O simples ‘obrigado’ de milhões de pessoas por dia gera um gasto de energia elétrica descomunal. É um gasto energético gigantesco, com impactos ambientais nefastos. É preciso avaliar aonde vamos chegar. Além disso, há a perspectiva de que o investimento nessas megaestruturas não gere o retorno esperado, o que se chama de bolha, que pode gerar retirada de recursos e o estouro dessa bolha. Isso pode acontecer? Pode. Os sistemas automatizados vão desaparecer? Não, não vão. Pode acabar o que está inflado e diminuir um pouco a mistificação, mas os sistemas automatizados vão continuar.
E sobre o uso dessa tecnologia no período eleitoral? O que podemos esperar?
Primeiro, acho que a gente precisa superar essa ideia que as plataformas controladas pelas Big Techs, essas redes sociais online, que são gerenciadas por sistemas de IA, por sistemas algorítmicos, que elas irão atuar apenas comercialmente ou vão atuar de modo neutro na formação da opinião pública. Elas já não atuam agora e muito menos na eleição. Não é por menos que o Trump, uma liderança da extrema direita que tem interesse em que a extrema direita ganhe as eleições no Brasil, alinhou todas essas big techs para atuar, como o grupo Meta, o grupo Alphabet, em consonância com os interesses da extrema direita norte-americana. Então, é, isso é visível. Quando você posta um conteúdo na rede social, você não sabe se esse conteúdo está bloqueado, se esse conteúdo tá com a visualização restrita ou se ninguém vai te achar no mecanismo de busca, como aconteceu recentemente com vários perfis de esquerda. Quer dizer, o grupo Meta alega que foi uma falha técnica, mas é uma falha técnica bastante providencial e um teste. Na verdade, isso é uma gestão algorítmica. E a gestão algorítmica é invisível. Eu não tenho nenhuma ilusão de que as Big Tech não usarão o aprendizado de máquina, o aprendizado profundo, as suas redes neurais que gerenciam essas plataformas contra a democracia e contra a esquerda. Não tenho nenhuma dúvida. Eles já estão fazendo isso agora e vão fazer de modo absurdo no ano eleitoral. Agora, a gente consegue evitar isso com regulação, mas não vai rolar.
Só nos resta a justiça eleitoral ser bastante dura contra essa trapaça e contra essa censura e contra o bloqueio de perfis e conteúdos feitos a partir dos interesses dos donos das Big Techs.
Publicado originalmente na Revista Focus Brasil – Fundação Perseu Abramo
Dezembro de 2025

Sem comentários:
Enviar um comentário