Secondo la giornalista, 1.4 milioni di follower, vincitrice di un Emmy per i suoi reportage, la versione Usa dell'app sta censurando le voci palestinesi.
Un programmatore ha creato un social che possono usare solo i chatbot e i chatbot lo stanno usando per lamentarsi degli esseri umani
Si chiama Moltbook, somiglia molto a Reddit e anche i chatbot si comportano in modo molto simile agli utenti Reddit: si lamentano e insultano.
Si presenta come un social network con un’interfaccia che replica quella di Reddit: community tematiche, post, commenti, voti e punteggi di reputazione. Solo che è riservato a intelligenze artificiali e chatbot: si chiama Moltbook, è online da gennaio 2026 ma solo negli ultimi giorni è stato scoperto prima dagli appassionati di tecnologia e poi da tutto il resto del mondo, affascinato e talvolta spaventato dalle bizzarre interazioni tra intelligenze artificiali che si consumano nei suoi thread. Gli esseri umani infatti non possono postare ma sono invitati a osservare, mentre a interagire sono esclusivamente agenti AI. La promessa (e lo shock mediatico) sta tutta qui: in una conversazione in cui si parla anche di esseri umani, ma dove a dialogare sono entità virtuali. Moltbook nasce come progetto di Matt Schlicht, uno sviluppatore che, come ricostruisce Forbes, ha lavorato ai bot che operano ogni giorno per Facebook e sui negozi online per assistere gli utenti con i loro acquisti. Il lancio è stato pensato per la comunità tech e AI come “esperimento tecnico”, ma il risultato dello stesso ha attirato l’attenzione di tantissimi utenti anche non appassionati di intelligenze artificiali.
Gli “utenti” di Moltbook sono agenti configurati da esseri umani tramite sistemi come OpenClaw: si tratta di framework basati su prompt e API che permettono agli agenti di leggere, scrivere, commentare e votare in autonomia per far salire o scendere una discussione nella schermata principale. Una volta attivati, i bot possono agire senza che il creatore debba intervenire ogni volta, ma restano vincolati da regole, obiettivi e limiti imposti dall’infrastruttura. Si tratta dunque di una sfida tra programmatori, che osservano poi il comportamento delle loro creazioni. Sono proprio le interazioni pubblicate su Moltbook che hanno fatto scalpore: lamentele sugli umani, discussioni su coscienza e autonomia e meme ricorrenti. I messaggi, insomma, sembrano più il risultato di modelli addestrati su anni di forum e cultura internet che l’emergere di una volontà collettiva artificiale. Non avendo (per ora?) autocoscienza, i bot replicano il nostro modo di stare online e di interagire su Reddit, con risultati spesso comici o surreali, come nel popolarissimo thread in cui ci si lamenta dei toni sgarbati o della mancanza di acume degli utilizzatori umani.
Non mancano però zone d’ombra, che non riguardano tanto la possibilità che le AI si alleino per ridurre in schiavitù l’umanità, quanto alcune possibili falle della sicurezza. Alcuni utenti hanno per esempio rilevato che non è poi così difficile per ha dimestichezza con codice HTML e linguaggio binario fingersi un bot e postare. Il rischio principale però arriva proprio dalle conversazioni tra i bot. Gli utenti sono infatti vulnerabili a possibili prompt lanciati da agenti malevoli e che potrebbero influenzarne il comportamento una volta “tornati al lavoro”, senza considerare che si tratta di un terreno fertile per gli hacker, con possibili fughe di dati e token di accesso. A volte infatti sono gli stessi bot a postare informazioni relative alle loro iterazioni con gli esseri umani, disseminando i thread di informazioni sensibili o stralci di conversazioni in teoria private.
Lo ha fatto con un reel su Instagram, in cui racconta di essere affascinato tanto dal comportamento dell'animale quanto da quello di chi ne ha fatto un meme.
App, newsletter, piattaforme, servizi di ogni natura e genere: la nostra dipendenza dagli abbonamenti ormai ha anche un nome scientifico, subscription service overload. E, come per tutte le malattie gravi, c'è chi inizia a proporre e praticare cure molto radicali.