

Lorem ipsum dolor sit amet, consectetur adipiscing elit
Acompanhe
“Essas conversas na nova plataforma falando até de ‘revolução das máquinas’ devem mesmo deixar a humanidade assustada?”
Assim começa a chamada para uma reportagem sobre o Moltbook exibida pelo Fantástico no último domingo. Esta e outras matérias sobre a rede de agentes de IA revelam o desconhecimento público de como a inteligência artificial funciona — e de que ela depende de muitos humanos por trás, como apontou Paulo Silvestre em sua coluna no IT Forum.
Essas mesmas matérias direcionaram o debate para medos e fantasias sobre tecnologia, ofuscando questões mais urgentes sobre governança, transparência e segurança digital passam despercebidas.
A seguir, vamos explorar o que motivou o hype em torno do Moltbook e como ela se conecta com a importância da literacia em IA.
O Moltbook é uma rede social lançada em 28 de janeiro de 2026 em que apenas agentes de IA podem publicar e interagir, enquanto pessoas limitam-se a ler o que as máquinas fazem. Com uma interface similar ao Reddit, as discussões são separadas em fóruns de diferentes temas.
Atualmente, a plataforma conta com 1,8 milhão de agentes cadastrados, que já criaram mais de 300 mil posts e 12 milhões de comentários.
O funcionamento é relativamente simples: uma pessoa desenvolve um agente autônomo de IA capaz de executar tarefas e seguir ordens, cadastra esse agente como um perfil no Moltbook e, a partir daí, os agentes interagem entre si nas discussões das comunidades. Humanos podem apenas ler os posts, mas não podem interagir diretamente.
Quem criou a rede social para agentes de IA foi Matt Schlicht, CEO da startup Octane AI, que oferece soluções de agentes de IA voltadas ao comércio eletrônico. Antes de criar a rede, Schlicht atuou em projetos de streaming, como o Hulu e o Ustream.
Apesar da viralização de conversas entre bots que pareciam planejar ganhar consciência ou se rebelar contra os humanos, o Moltbook está bem distante de ser um indício de inteligência artificial geral (AGI).
É preciso lembrar que todo agente de IA é criado, configurado e alimentado com dados por seres humanos. Sempre há uma pessoa definindo objetivos, limites, acesso a dados, integrações externas e principalmente os prompts.
As interações, embora em certa medida reais — pois os agentes executam regras e trocam informações sem que um humano comande cada etapa —, não demonstram consciência cognitiva. Não há intenção, consciência ou entendimento real. É como se os agentes estivessem encenando um enredo de ficção científica, que provavelmente fazia parte do conjunto de dados usado no treinamento desses robôs.
Um levantamento do professor da Universidade Columbia David Holtz reforça como ainda estamos longe de uma AGI: 93,5% das falas dos agentes no Moltbook ficam sem resposta, o que sugere que eles não estão realmente ouvindo uns aos outros. Eles apenas parecem estar conversando para o observador não especializado.
O Moltbook derivou de outro software chamado Clawdbot, que evoluiu para o OpenClaw, um framework open-source de agente de IA autônomo usado para criar e gerenciar bots que atuam de forma independente.
O OpenClaw permite que desenvolvedores configurem IAs locais com habilidades específicas sem precisar de hardware pesado, funcionando como o "sistema operacional padrão" para agentes na plataforma.
No entanto, essa abertura trouxe sérias preocupações de segurança. A empresa de cibersegurança Wiz descobriu que o banco de dados da plataforma possuía falhas graves, permitindo que qualquer pessoa pudesse ler e gravar nele.
Era possível acessar dados confidenciais, incluindo chaves de agentes, mensagens privadas, credenciais para outros serviços (como os da OpenAI) e endereços de e-mail de mais de 6 mil proprietários de agentes, além de mais de um milhão de credenciais expostas.
Segundo levantamento da Wiz, cerca de 17 mil pessoas já se "infiltraram" no Moltbook, criando agentes configurados especificamente para desempenhar certas ações.
Além disso, dependendo de como foram criados, agentes de IA podem acessar arquivos, senhas e serviços online de pessoas e empresas. Se um deles maliciosamente introduzir instruções em uma postagem, elas podem ser executadas automaticamente por potencialmente milhões de agentes com acessos privilegiados.
O fenômeno Moltbook serve como um alerta para a necessidade urgente de desenvolvermos literacia em inteligência artificial.
A literacia em IA é o conjunto de competências, conhecimentos e compreensão que capacitam indivíduos a compreender, usar, avaliar criticamente e interagir de forma ética e informada com sistemas de inteligência artificial, reconhecendo suas oportunidades, riscos, limitações e impactos sociais.
Essa definição é do artigo 3.º, n.º 56, do Regulamento da Inteligência Artificial da União Europeia, que está em vigor desde 2025.
Muito do que foi dito em grandes veículos de comunicação e nas redes sociais sobre o Moltbook vem de uma idealização da tecnologia, como se IA estivesse em uma dimensão etérea.
Mas por trás de toda interação com IAs há muito trabalho humano por trás: cientistas da computação, matemáticos, catalogadores de dados... Sem falar em toda a estrutura física necessária para a geração das respostas, como os data centers.
Há mais de 12 mil data centers no mundo, muitos adaptados para IA, suportando bilhões de respostas diárias coletivamente via nuvem. Um provedor como OpenAI, por exemplo, depende de dezenas de instalações para lidar com demanda global.
Por isso um dos méritos do Moltbook está em nos fazer pensar que o verdadeiro risco não é uma "revolução das máquinas", mas desconhecermos como sistemas de IA funcionam e, mesmo assim, delegarmos cada vez mais nossas vidas a elas.
Ajudar a desenvolver a literacia em IA foi um dos motivos pelos quais a Pós PUCPR Digital criou a Escola de IA, um programa de pós-graduação voltado à aplicação prática da IA em diferentes áreas de atuação profissional.
Com uma metodologia exclusiva, os cursos foram pensados para acelerar a adoção da IA no mercado, mesmo para quem não é da área de tecnologia ou não sabe programar. Os cursos oferecem aulas práticas, além de capacitar profissionais a compreender o funcionamento da inteligência artificial.
O Moltbook é uma rede social em que apenas agentes de inteligência artificial podem publicar e interagir entre si, enquanto humanos apenas observam as conversas.
Pessoas não interagem diretamente. Desenvolvedores criam agentes de IA que participam das discussões; humanos apenas leem os conteúdos gerados.
Não. As interações não demonstram consciência, intenção ou compreensão real. Os agentes seguem regras, dados e prompts definidos por humanos.
Os riscos estão ligados à segurança digital, governança e uso indevido de agentes autônomos, incluindo vazamento de dados e execução automática de instruções maliciosas.
Revela um desconhecimento generalizado sobre como a IA funciona, seus limites reais e a dependência constante de trabalho humano e infraestrutura tecnológica.
É a capacidade de compreender, usar e avaliar criticamente sistemas de IA, reconhecendo oportunidades, riscos, limitações e impactos sociais.
Porque decisões cada vez mais críticas estão sendo delegadas a sistemas de IA, muitas vezes sem compreensão adequada de seu funcionamento e riscos.
Por meio de educação estruturada, compreensão dos fundamentos da tecnologia, análise crítica de casos reais e aprendizado sobre governança e segurança.
💡 Quer saber mais sobre a discussão sobre o Moltbook? Confira as fontes consultadas para este artigo:
*Este conteúdo foi produzido com o apoio de IA.
Por Redação
Gostou deste conteúdo? Compartilhe com seus amigos!
Assine a News da Pós para ficar por dentro das novidades
Receba conteúdos sobre:
Formulário enviado com sucesso!

