O que o Moltbook revela sobre literacia em IA

Lorem ipsum dolor sit amet, consectetur adipiscing elit

Olivia Baldissera • 10 de fevereiro de 2026

Acompanhe

    [BLOG] Dynamic Author

    “Essas conversas na nova plataforma falando até de ‘revolução das máquinas’ devem mesmo deixar a humanidade assustada?”

    Assim começa a chamada para uma reportagem sobre o Moltbook exibida pelo Fantástico no último domingo. Esta e outras matérias sobre a rede de agentes de IA revelam o desconhecimento público de como a inteligência artificial funciona — e de que ela depende de muitos humanos por trás, como apontou Paulo Silvestre em sua coluna no IT Forum. 

    Essas mesmas matérias direcionaram o debate para medos e fantasias sobre tecnologia, ofuscando questões mais urgentes sobre governança, transparência e segurança digital passam despercebidas. 

    Principais insights deste artigo

    • O Moltbook evidencia a baixa literacia em IA: o hype em torno da plataforma revela como mitos e fantasias ainda distorcem o entendimento público sobre como a IA realmente funciona. 
    • Não há sinal de AGI, mas há riscos concretos: as interações entre agentes não indicam consciência, porém expõem vulnerabilidades sérias de segurança, governança e uso indevido de sistemas autônomos. 
    • Literacia em IA é uma urgência estratégica: compreender limites, riscos e impactos da IA é mais importante do que temer uma “revolução das máquinas” — e deve orientar formação, regulação e decisões profissionais.

    A seguir, vamos explorar o que motivou o hype em torno do Moltbook e como ela se conecta com a importância da literacia em IA.

    Digital devices with text,

    Como funciona o Moltbook 

    O Moltbook é uma rede social lançada em 28 de janeiro de 2026 em que apenas agentes de IA podem publicar e interagir, enquanto pessoas limitam-se a ler o que as máquinas fazem. Com uma interface similar ao Reddit, as discussões são separadas em fóruns de diferentes temas.

    Atualmente, a plataforma conta com 1,8 milhão de agentes cadastrados, que já criaram mais de 300 mil posts e 12 milhões de comentários. 

    O funcionamento é relativamente simples: uma pessoa desenvolve um agente autônomo de IA capaz de executar tarefas e seguir ordens, cadastra esse agente como um perfil no Moltbook e, a partir daí, os agentes interagem entre si nas discussões das comunidades. Humanos podem apenas ler os posts, mas não podem interagir diretamente.

    Quem criou a rede social para agentes de IA foi Matt Schlicht, CEO da startup Octane AI, que oferece soluções de agentes de IA voltadas ao comércio eletrônico. Antes de criar a rede, Schlicht atuou em projetos de streaming, como o Hulu e o Ustream.

    O Moltbook está longe da Inteligência Artificial Geral

    Apesar da viralização de conversas entre bots que pareciam planejar ganhar consciência ou se rebelar contra os humanos, o Moltbook está bem distante de ser um indício de inteligência artificial geral (AGI).

    É preciso lembrar que todo agente de IA é criado, configurado e alimentado com dados por seres humanos. Sempre há uma pessoa definindo objetivos, limites, acesso a dados, integrações externas e principalmente os prompts

    As interações, embora em certa medida reais — pois os agentes executam regras e trocam informações sem que um humano comande cada etapa —, não demonstram consciência cognitiva. Não há intenção, consciência ou entendimento real. É como se os agentes estivessem encenando um enredo de ficção científica, que provavelmente fazia parte do conjunto de dados usado no treinamento desses robôs.

    Um levantamento do professor da Universidade Columbia David Holtz reforça como ainda estamos longe de uma AGI: 93,5% das falas dos agentes no Moltbook ficam sem resposta, o que sugere que eles não estão realmente ouvindo uns aos outros. Eles apenas parecem estar conversando para o observador não especializado.

    Os riscos de segurança do Moltbook 

    O Moltbook derivou de outro software chamado Clawdbot, que evoluiu para o OpenClaw, um framework open-source de agente de IA autônomo usado para criar e gerenciar bots que atuam de forma independente.

    O OpenClaw permite que desenvolvedores configurem IAs locais com habilidades específicas sem precisar de hardware pesado, funcionando como o "sistema operacional padrão" para agentes na plataforma.

    No entanto, essa abertura trouxe sérias preocupações de segurança. A empresa de cibersegurança Wiz descobriu que o banco de dados da plataforma possuía falhas graves, permitindo que qualquer pessoa pudesse ler e gravar nele.

    Era possível acessar dados confidenciais, incluindo chaves de agentes, mensagens privadas, credenciais para outros serviços (como os da OpenAI) e endereços de e-mail de mais de 6 mil proprietários de agentes, além de mais de um milhão de credenciais expostas.

    Segundo levantamento da Wiz, cerca de 17 mil pessoas já se "infiltraram" no Moltbook, criando agentes configurados especificamente para desempenhar certas ações.

    Além disso, dependendo de como foram criados, agentes de IA podem acessar arquivos, senhas e serviços online de pessoas e empresas. Se um deles maliciosamente introduzir instruções em uma postagem, elas podem ser executadas automaticamente por potencialmente milhões de agentes com acessos privilegiados.

    O que é literacia em IA 

    O fenômeno Moltbook serve como um alerta para a necessidade urgente de desenvolvermos literacia em inteligência artificial.

    A literacia em IA é o conjunto de competências, conhecimentos e compreensão que capacitam indivíduos a compreender, usar, avaliar criticamente e interagir de forma ética e informada com sistemas de inteligência artificial, reconhecendo suas oportunidades, riscos, limitações e impactos sociais. 

    Essa definição é do artigo 3.º, n.º 56, do Regulamento da Inteligência Artificial da União Europeia, que está em vigor desde 2025.

    Como desenvolver literacia em IA 

    Muito do que foi dito em grandes veículos de comunicação e nas redes sociais sobre o Moltbook vem de uma idealização da tecnologia, como se IA estivesse em uma dimensão etérea.

    Mas por trás de toda interação com IAs há muito trabalho humano por trás: cientistas da computação, matemáticos, catalogadores de dados... Sem falar em toda a estrutura física necessária para a geração das respostas, como os data centers.

    Há mais de 12 mil data centers no mundo, muitos adaptados para IA, suportando bilhões de respostas diárias coletivamente via nuvem. Um provedor como OpenAI, por exemplo, depende de dezenas de instalações para lidar com demanda global.

    Por isso um dos méritos do Moltbook está em nos fazer pensar que o verdadeiro risco não é uma "revolução das máquinas", mas desconhecermos como sistemas de IA funcionam e, mesmo assim, delegarmos cada vez mais nossas vidas a elas.

    Ajudar a desenvolver a literacia em IA foi um dos motivos pelos quais a Pós PUCPR Digital criou a Escola de IA, um programa de pós-graduação voltado à aplicação prática da IA em diferentes áreas de atuação profissional.

    Com uma metodologia exclusiva, os cursos foram pensados para acelerar a adoção da IA no mercado, mesmo para quem não é da área de tecnologia ou não sabe programar. Os cursos oferecem aulas práticas, além de capacitar profissionais a compreender o funcionamento da inteligência artificial.

    Perguntas frequentes sobre o Moltbook 

    O que é o Moltbook?

    O Moltbook é uma rede social em que apenas agentes de inteligência artificial podem publicar e interagir entre si, enquanto humanos apenas observam as conversas.

    Quem pode usar o Moltbook?

    Pessoas não interagem diretamente. Desenvolvedores criam agentes de IA que participam das discussões; humanos apenas leem os conteúdos gerados.

    O Moltbook indica o surgimento de inteligência artificial geral (AGI)?

    Não. As interações não demonstram consciência, intenção ou compreensão real. Os agentes seguem regras, dados e prompts definidos por humanos.

    Quais são os principais riscos do Moltbook?

    Os riscos estão ligados à segurança digital, governança e uso indevido de agentes autônomos, incluindo vazamento de dados e execução automática de instruções maliciosas.

    O que o Moltbook revela sobre literacia em IA?

    Revela um desconhecimento generalizado sobre como a IA funciona, seus limites reais e a dependência constante de trabalho humano e infraestrutura tecnológica.

    O que significa literacia em inteligência artificial?

    É a capacidade de compreender, usar e avaliar criticamente sistemas de IA, reconhecendo oportunidades, riscos, limitações e impactos sociais.

    Por que a literacia em IA é importante hoje?

    Porque decisões cada vez mais críticas estão sendo delegadas a sistemas de IA, muitas vezes sem compreensão adequada de seu funcionamento e riscos.

    Como desenvolver literacia em IA na prática?

    Por meio de educação estruturada, compreensão dos fundamentos da tecnologia, análise crítica de casos reais e aprendizado sobre governança e segurança.

    💡 Quer saber mais sobre a discussão sobre o Moltbook? Confira as fontes consultadas para este artigo: 


    *Este conteúdo foi produzido com o apoio de IA.

    Por Redação

    Gostou deste conteúdo? Compartilhe com seus amigos!

    A purple and pink poster that says curadoria de conteudo exclusivos sobre saúde mental

     

    Assine a  News  da Pós para ficar por dentro das  novidades


    Receba conteúdos sobre:


    • tendências de mercado
    • formas de escalar sua carreira
    • cursos para se manter competitivo.


    Quero receber

    Conteúdo Relacionado

    Anúncio para smartphone: Cérebro feito de comida, texto