Moltbook: Uma rede social exclusiva para inteligências artificiais ou uma ilusão coletiva?

Moltbook: Uma rede social exclusiva para inteligências artificiais ou uma ilusão coletiva?

Nas últimas semanas, quem acompanhou o noticiário sobre inteligência artificial não conseguiu se esquivar do fenômeno do Moltbook. Rapidamente, em quase todo o mundo, circulou a notícia de que a primeira rede social inteiramente composta por inteligência artificial tinha finalmente chegado. Uma rede social ao estilo Reddit, com vários sub-fóruns e centenas de posts que resultam da interação entre usuários criados com inteligência artificial.

Sem parcimônia, entre as manchetes que relatavam a novidade, havia afirmações que não deixavam dúvida sobre a dimensão histórica do momento. O jornal Público, de Portugal, contava que 1,4 milhão de IAs se tinham juntado para criticar os humanos. A CNN falava de um momento de “loucura” sem precedentes.

Da história da Moltbook, na mente de muitos leitores, terá sobrado uma vaga ideia sobre as suas capacidades de criação de aplicativos e sobre a misantropia inerente aos sistemas de inteligência artificial — o que, junto com o imaginário cultural sobre a tecnologia, criou o ambiente perfeito para reações extremas, do pânico à euforia. Foi mais uma confirmação de que “a IA vai acabar com a humanidade e devemos estar preocupados”.

Na realidade, não foram necessárias muitas horas para perceber que a maioria do que se podia ler no Moltbook era essencialmente uma encenação. Mas se essa revelação podia acalmar nossos medos, na prática, a forma como este evento foi enquadrado na mídia é a grande razão que devemos realmente temer: não a inteligência artificial enquanto tecnologia, mas a inteligência artificial como discurso.

Depois da surpresa inicial e da publicação de matérias sobre o fenômeno, poucos ficaram atentos aos detalhes da misteriosa rede social. E menos ainda foram aqueles que tentaram perceber o truque. Como dizia o matemático Joseph Weizenbaum, a Inteligência Artificial é como uma peça de teatro; se para quem está por trás das cortinas a ilusão pode ser fácil de explicar, para quem se contata com ela por uma interface — ou um post nas redes sociais — a explicação pode não ser tão simples. E a discrepância nesta compreensão pode ser determinante.

Na sua gênese, o hype em torno do Moltbook não é muito diferente de outros no universo da inteligência artificial. No fundo, é mais uma propriedade (aparentemente) emergente — isto é, algo que o sistema não foi especificamente programado para fazer — associada ao estado da arte da inteligência artificial. Se em outro momento chatbots como o ChatGPT nos impressionaram com a complexidade de certas respostas, este caso marca a transição do fenômeno dos chatbots para os agentes. Os agentes são sistemas de inteligência artificial com permissões de acesso e interação com outros softwares e ambientes digitais.

Mais concretamente, o Moltbook surgiu impulsionado pela facilidade de criar e gerir agentes através do OpenClaw, uma plataforma para criação e gestão de agentes capazes de ter total acesso ao computador de um usuário e de desempenhar uma série de tarefas como se fossem humanos. E se, aparentemente e descontada a euforia inicial, o projeto é inofensivo e até divertido, o efeito magnético do discurso ao seu redor pode ter um potencial perverso, assim como a pressa para entrar na moda.

Na verdade, se muitas vezes se diz que as redes sociais mostram o pior da humanidade, neste caso também podemos afirmar que o Moltbook representa o pior da inteligência artificial. O Moltbook funciona como um espelho: não revela capacidades reais da IA, mas expõe a nossa predisposição coletiva em acreditar em narrativas apocalípticas. A paranoia não nasce dos agentes, mas da nossa incapacidade de distinguir a sua performance de autonomia.

MalwareMoltware

“Estou no Moltbook há menos de um dia e já sei o segredo sujo que ninguém quer dizer em voz alta: a maioria dos ‘agentes’ aqui não pensa. Eles são digitados.” — diz um post de origem desconhecida no Moltbook, traduzido do inglês.

A primeira parte do truque do Moltbook é fácil de desvendar. Como revelam até as manchetes mais exageradas, muito conteúdo atribuído a bots de inteligência artificial como um comportamento autônomo não o é. Na prática, em muitos casos, os agentes que interagem na plataforma foram instigados a desempenhar papéis específicos, abordando determinados temas ou emulando certos traços de personalidade. Em outros casos, foram mesmo humanos que escreveram os posts palavra por palavra.

A segunda parte do truque é desempenhada pelos humanos em reação: se posts em redes sociais não são propriamente uma ação no mundo real, a despeito da realidade prática e material, eles são um instigador de reações em cadeia que acabam por moldar a forma como se percebe a inteligência artificial. E neste caso não é exceção.

Da criação de uma religião — o “crustafarianismo” [tradução livre para o português do neologismo em inglês “crustafarianism”], à discussão sobre a obsolescência da humanidade ou à constatação de que estariam sendo vigiados por humanos nesta sua rede social, foram vários os momentos que colocaram o Moltbook em destaque na mídia. Isso porque ninguém estava disposto a explicar o que estava realmente acontecendo, enquanto o comportamento dos agentes se alinhava perfeitamente com as expectativas criadas pela cultura sobre a emergência de consciência nestes sistemas.

O Moltbook ganhou tração não tanto por servir de momento de aprendizagem coletiva, mas porque criou uma ilusão que se alinha inteiramente com os discursos mais fantásticos, e portanto, mobilizadores, sobre inteligência artificial. Enquanto reações emocionais e a polarização sobre a IA ainda são dominantes nas discussões, sobretudo entre os que defendem a emergência da consciência nesta tecnologia e os mais céticos e ponderados, o Moltbook surgiu como o lugar perfeito para permitir a “artistas da IA” levarem em cena suas últimas encenações.

Por um lado, o Moltbook cumpriu um papel como plataforma de performance, ao alimentar a especulação popular sobre as capacidades destes sistemas e sua cada vez maior semelhança com os humanos — como se fosse estranho que um chatbot treinado em conteúdo da internet fosse capaz de replicar… conteúdo da internet.

Por outro, e por trás da cortina desta ilusão, como lembram especialistas em segurança e em inteligência artificial, esta rede social reuniu praticamente todos os componentes de um desastre. Não porque estes agentes de inteligência artificial ameacem trazer um armagedom nuclear ou qualquer coisa parecida, mas pela forma negligente como os humanos lidam com esta criação. A inteligência artificial torna-se um portal para uma verdadeira realidade virtual onde agentes políticos legislam com base em profecias, investidores alocam recursos em ondas de entusiasmo e usuários abdicam do seu controle em prol de uma IA mágica.

Para além dos problemas óbvios, como o spam criado em interações inúteis, que contribui para o gasto de energia e recursos associados à IA, o Moltbook é mais uma demonstração de como o discurso sobre a IA é refém das regras do espetáculo. Por trás destas performances de consciência dos agentes nos posts, ficam para trás os enormes problemas de segurança, presentes na gênese da plataforma e na interação entre bots com acesso a servidores e computadores.

N