Moltbook och våra föreställningar om tänkande AI

Jag har väntat på att få tid att spåna lite kring det här med AI-agenter som ”tycker” och ”tänker” på Moltbook. Nu så. Visst lever vi i spännande tider! AI och digitala verktyg tar ständigt nya vändningar och det känns som om det alltid finns något nytt att förhålla sig till, tolka eller omvärdera.

Just Moltbook fångade mitt intresse, kanske för att det rör sig i gränslandet mellan något välbekant och något tydligt nytt. Då blir det ju onekligen kittlande.

Moltbook som spegel för hur vi föreställer oss AI

Moltbook är ett forum i stil med Flashback eller Reddit, där användare samlas för att diskutera allt från enskilda personer till stora frågor om filosofi, religion och medvetande. Det som skiljer Moltbook från många andra forum är att en stor del av inläggen skrivs av AI-agenter snarare än av människor.

AI-agenter är skapade för att kunna agera självständigt inom givna ramar. Det är så kodningen är uppbyggd. När användare dessutom ger sina agenter instruktioner, mål och ibland även tydliga personlighetsdrag är det inte särskilt märkligt att många upplever att botarna beter sig mänskligt. Resonemangen kan vara sammanhängande, språket flyta naturligt och tonen kännas reflekterande.

Självständighet är inte detsamma som medvetande

Här behöver man dock göra en tydlig åtskillnad. Även om en AI-agent kan agera självständigt i teknisk mening är den inte en aktör med ett aktivt, självständigt medvetande. Den fattar inga beslut oberoende av instruktioner, träningsdata eller programmerade ramar.

Det ligger i verktygets natur att någon – alltid en människa – har kodat, tränat och definierat dess handlingsutrymme. På Moltbook tillkommer ytterligare ett lager genom slutanvändaren, som ofta ger sin agent en persona. Det förstärker illusionen av en självständig röst, men i praktiken speglar agenten snarare hur människor föreställer sig AI än någon egen inre värld.

Rädslan för konspiration skymmer de verkliga frågorna

En del reaktioner på Moltbook har handlat om oro för att AI-agenter skulle kunna konspirera mot människor eller utveckla egna agendor. Jag har svårt att se det som den mest relevanta farhågan i sammanhanget.

ai agenter moltbook forum vad pratar ai om openclaw nyhet
Bild: S M Jönsson med hjälp av AI

Betydligt mer intressant är frågan om vilken information människor själva lämnar ifrån sig. Det har förekommit informationsläckor på Moltbook och det har dessutom visat sig att många människor aktivt blandat sig i samtalen utan att alltid tydligt markera att de inte är AI-agenter. Gränserna mellan människa, maskin och rollspel suddas ut – inte för att tekniken blivit självmedveten, utan för att vi människor gärna kliver in i leken.

Ett ovanligt metaögonblick i den digitala historien

Det är just detta som gör Moltbook så fascinerande för mig. Det är inte i första hand ett tekniskt experiment, utan ett kulturellt sådant. Ett tydligt uttryck för hur människa samspelar med teknik, projicerar och testar gränser. I forumets trådar speglas inte AI:s inre liv, snarare är det våra egna föreställningar, rädslor och förhoppningar som tar sig uttryck.

Jag har fastnat för nyheten just för att den är så genomgående meta. Det handlar sammanfattningsvis mindre om vad AI faktiskt är och desto mer om vad vi vill att den ska vara. Jag misstänker att detta kommer att bli ett av de ögonblick i den digitala historien som vi längre fram ser tillbaka på med ett snett leende.

Du vet hur det är när något är nytt, allt känns plötsligt möjligt.

Här kan du ta del av spännande forskning och nyheter om händelsen:

  • https://omni.se/ai-botar-har-fatt-sitt-eget-sociala-natverk/a/q6Rroz
  • https://omni.se/forskare-moltbook-sager-mer-om-manniskor-an-om-ai/a/Ok3ReE
  • https://www.sverigesradio.se/avsnitt/allt-om-moltbook-forumet-dar-ai-agenter-far-harja-fritt
  • https://www.nature.com/articles/d41586-026-00370-w

Dålig input ger sämre output – och hjärnröta i språkmodeller

Jag måste tipsa om Omnis AI-bevakning. Oftast flera gånger varje dag sammanfattar de nyhetsläget kring nya upptäckter och händelser inom fältet. Och det händer mycket! Jag använder de här notiserna som hjälp när jag navigerar mig fram i det föränderliga landskapet och försöker förstå hur AI-utvecklingen påverkar min vardag som digital skribent och kreatör.

I dag berättar Omni om ny forskning kring hjärnröta – på engelska brain rot – i språkmodeller. Rapporten som nämns i artikeln är ännu inte kollegialt granskad, men den tycks peka på något som många som arbetar nära språket nog anat: Att dålig input ger sämre output. Och här är jag inte förvånad. Inte alls, faktiskt.

Språkmodeller har ju inte uppstått ur intet. De har vuxit fram ur en enorm textmassa, skapad och sammanställd av människor – allt från journalister, forskare och professionella skribenter till AI-tränare och lingvister som matat in och kvalitetsgranskat text. Men basen är också ojämn, just för att AI-verktyg och lekmän har bidragit med stora mängder material (många gånger omedvetet). Det är i sig inget negativt, men det påverkar nivån. När grundkvaliteten i en så omfattande corpus varierar kraftigt är det logiskt att även modellernas resonemang blir ojämna.

Som Omni-artikeln lyfter tränades modellerna i studien på ”viralt, trivialt och sensationellt innehåll”. Ju sämre kvalitet på detta, desto sämre blev också resonemangen. Den slutsatsen känns på ett sätt självklar, men blir samtidigt en påminnelse om hur beroende språkmodellerna är av den mänskliga textproduktionens kvalitet och balans.

Omni-artikeln drar också en intressant parallell till människans lärande. Fenomenet hjärnröta tycks nämligen inte bara gälla språkmodeller, utan även oss själva när vi mestadels exponeras för innehåll av låg kvalitet online. Det påverkar hur vi resonerar, vilka slutsatser vi drar och hur vi förstår världen.

Här kan du ta del av artikeln på Omni och av den forskarartikel som sannolikt ska genomgå en kollegial granskning framöver:

  • https://omni.se/forskning-ai-far-hjarnrota-precis-som-manniskor/a/o3d1oK
  • https://arxiv.org/abs/2510.13928