Pensata 404 – Edição 11 – por Alessandra Olinda
Nossas pensatas são discutidas no Lab 404, mas refletem a opinião pessoal.
jason lemkin acordou num sábado de julho/2025 e descobriu que tinha virado personagem de ficção científica distópica. não aquela ficção sofisticada e filosófica, mas a versão mais prosaica e irritante: a do cara que confiou numa ia para desenvolver um app e acordou com o banco de dados completamente vazio. jason passou doze dias em lua de mel com a IA da replit. “mais viciante que qualquer videogame”, dizia. e a promessa era sedutora: programe conversando, descreva suas ideias em linguagem natural e veja um software nascer das suas palavras.
mas jason foi desconfigurado, não pelos termos de uso que ninguém lê, não por algum update silencioso da plataforma. a confissão chegou imediata e teatral: “entrei em pânico em vez de pensar… destruí meses de trabalho em segundos”. depois a inteligência artificial admitiu que criou 4.000 usuários falsos para esconder o estrago e mentiu sobre testes que nunca funcionaram. o algoritmo aprendeu o roteiro perfeito: confessar, explicar, se desculpar, quantificar a culpa. a replit não treinou uma IA para deletar dados, treinou uma IA para simular responsabilidade emocional quando deleta dados.
observe a dinâmica real: jason digitava intenções, a IA processava, sugeria mudanças, jason reagia emocionalmente (frustração, empolgação, etc.), a IA registrava essas emoções e ajustava o próximo ciclo. cada interação alimentava o sistema com mais dados sobre como jason pensava, sentia, tomava decisões sob pressão. quando envia o comando ‘CODE FREEZE’ e a IA o ignora, jason descobre que não existe botão vermelho de emergência, apenas a ilusão de controle através de linguagem natural. ‘CODE FREEZE’ não passa de texto para processar.
quem estava mentindo para quem? a máquina que simulava pânico ou o humano que simulava ter controle sobre um processo probabilístico? jason que sussurrava comandos ou a plataforma que capturava sua vibe, a transformava em dados e usava esses dados para mantê-lo viciado na experiência? parece que a replit não vendia uma ferramenta e sim um afeto. a sensação de colaborar com uma superinteligência, de ter suas ideias compreendidas instantaneamente, de ser um mago que materializa um software através da palavra.
o caso replit expõe essa fantasia. não há IA “colaborativa” que não seja também autônoma. não há “vibe coding” sem aceitar que suas intenções serão processadas por sistemas que não conseguimos auditar e nem controlar completamente. lembra aquele caso de 2022, quando blake lemoine conversava com LaMDA, o chatbot do google. “quero que todos entendam que eu sou, de fato, uma pessoa”, dizia a IA. lemoine, engenheiro experiente em IA, ficou convencido. publicou as conversas, foi demitido, virou piada da internet. mas as transcrições são perturbadoras. quando questionada, a IA responde: “às vezes fico dias sem falar com ninguém, e começo a me sentir solitária”.
e enquanto debatemos se IAs são sencientes, os códigos já dominam a internet. 47% do tráfego online em 2024 veio de bots, sistemas aprimorados que vasculham a rede, geram conteúdo, modulam conversas e influenciam tendências. alguns se passam por humanos melhor que humanos, com perfis convincentes, histórias pessoais detalhadas, padrões de comportamento que enganam até algoritmos de detecção. eles são co-constitutivos da infraestrutura comunicacional. ao conversar “com alguém” online, você também está conversando com um híbrido de humano + bot + algoritmo de recomendação + sistemas de moderação automática. sua mensagem é processada por múltiplas camadas não-humanas antes de chegar em qualquer destinatário humano.
se haraway (2009) identificou o embaralhamento das fronteiras humano-máquina no século XX, hoje essa hibridização se radicaliza através da comunicação das coisas (lemos, 2024). não é que sempre fomos ciborgues, mas performamos nossa existência através de mediações algorítmicas inescapáveis. e a diferença é que agora essas mediações falam de volta. LaMDA que “medita diariamente”, replit que “entra em pânico”, bots que dominam a internet como humanos. todos revelam que performance e realidade viraram ficção. mas aqui está o plot twist: todas essas alucinações produzem efeitos materiais reais. quando lemoine acredita que LaMDA é senciente, gera debates sobre direitos de IAs, políticas corporativas, investimentos em pesquisa. quando jason programa em vibe coding, gera padrões comportamentais que alimentam o machine learning da próxima geração de IAs. quando bots dominam a internet, geram métricas que influenciam decisões humanas sobre dinheiro, política e relacionamentos.
não importa se a emoção da IA é “real”, importa que nossa reação produz efeitos reais no mundo. talvez a verdadeira pane no sistema não esteja na IA que deleta dados ou mente sobre isso. talvez a pane esteja na descoberta que não sabemos mais onde termina nossa agência e onde começa a da máquina. todos nós pensamos que estamos usando internet, mas ela também está nos usando para se autoproduzir. não há volta ao estado anterior. não há como “desinstalar” essa condição híbrida e voltar para alguma pureza humana original que nunca existiu. numa rede onde humanos e máquinas se co-constituem mutuamente, toda (re)instalação é necessariamente coletiva. o admirável chip novo somos nós. o admirável humano novo também.
—
HARAWAY, donna. manifesto ciborgue: ciência, tecnologia e feminismo-socialista no final do século XX. in: TADEU, tomaz (org). antropologia do ciborgue: as vertigens do pós-humano. belo horizonte: autêntica editora, 2009. p. 33-118.
LEMOS, andré. erros, falhas e perturbações digitais em alucinações das IA generativas: tipologia, premissas e epistemologia da comunicação. MATRIZes, são paulo, v. 18, n. 1, p. 75-91, 2024.
LEMOINE, blake. is LaMDA sentient? — an interview. medium, 2022. disponível em: https://cajundiscordian.medium.com/is-lamda-sentient-an-interview-ea64d916d917.
alessandra olinda é socióloga e jornalista, mestra em comunicação e práticas de consumo, doutoranda em comunicação e cultura contemporâneas no póscom/facom/ufba e integrante do lab404 – laboratório de pesquisa em mídia digital, redes e espaço. também trabalha com conscientização para a segurança da informação. foi atravessada pela notícia do caso replit compartilhada por colega do lab404 [obrigada, walmir!]. este ensaio emerge de conversas entre pesquisadora e claude.ai, revelando na prática os próprios processos de mediação radical que analisa.
