När AI gör fastighetsbilder för snygga för att vara sanna

Tänk dig att du ser en fantastisk husbild i en mäklarannons online. Du klickar dig vidare, skrollar bland bilderna och häpnar över den vackra fastigheten.

Kanske börjar du rentav planera ett besök till visningen – eller till och med fundera på att lägga ett bud. Men när du väl kommer dit ser byggnaden inte alls ut som på bilden. Eller ännu värre: Du har redan bestämt dig för att köpa, utan att ha varit där.

AI-förbättrade fastighetsbilder – effektivt men vilseledande

I USA används allt oftare AI-upprustade fastighetsbilder. För mäklare och säljare är det både tids- och kostnadseffektivt. Enligt en artikel på CNBC kan AI-verktygen skapa förbättringar som i verkligheten skulle kosta upp mot 100 000 dollar – men dessa digitala ingrepp märks inte ut.

Homestyling och homestaging är i sig inget nytt. Under många år har mäklarfirmor anlitat inredningsproffs och fotografer för att skapa inspirerande visningsbilder som engagerar och lockar köpare. Syftet har varit att visa bostadens potential. Inte att ljuga, snarare att presentera den i sitt bästa ljus. Många gånger bokstavligt.

Skillnaden nu är att man med hjälp av AI-verktyg tar det ett steg längre. Verktygen kan lägga till nya fönster, förvandla golv, byta fasader eller skapa extra våningar som inte existerar. I vissa fall har trappor i bilderna lett ut i tomma intet, vilket förstås fått en hel del ögonbryn att skjuta i höjden. Gränsen mellan förbättring och förfalskning blir därför snabbt suddig.

Vad händer med förtroendet när bilden blir för bra?

Här uppstår den verkligt intressanta frågan: Vad gör detta med tilliten? Om du lockats av en bild och huset sedan inte alls ser ut så i verkligheten, känner du dig inte lurad då?

I längden riskerar denna typ av AI-retuschering att påverka förtroendet för hela fastighetsbranschen. Det handlar inte bara om att en bild förbättrats, utan om att förväntningarna har manipulerats. Köparen tror att de köper något som inte existerar och säljaren riskerar i sin tur att undergräva trovärdigheten i hela processen.

Även svenska medier har börjat uppmärksamma problemet. Omni rapporterar om växande kritik mot AI-förskönade husbilder i USA och beskriver hur digitala förbättringar gör det svårt för spekulanter att avgöra vad som är verkligt.

Digital homestyling – ett nytt ansvar för mäklarbranschen

Frågan är inte om tekniken ska användas, utan hur. AI-redigering kan vara ett effektivt verktyg för att visa en bostads potential – så länge transparensen finns där. En enkel märkning som AI-förbättrad bild skulle kunna räcka långt för att skapa förtroende.

I takt med att fler branscher börjar använda AI-verktyg för att skapa marknadsföringsmaterial uppstår ett nytt etiskt ansvar. För hur mycket får man egentligen ändra på verkligheten innan bilden blir en lögn?

Den senaste veckan har en liknande problematik belysts inom reklam för biståndsorganisationer, som i allt större utsträckning marknadsför vad Omni benämner ”fattigdomsporr” i form av AI-genererade bilder.

Här kan du ta del av artiklarna om digital homestyling på CNBC och Omni:

  • https://www.cnbc.com/2025/10/09/homeowners-stage-house-home-for-sale-real-estate-ai.html
  • https://omni.se/kritiken-hus-forskonas-med-ai-vilseledande/a/MnMXnJ

Dålig input ger sämre output – och hjärnröta i språkmodeller

Jag måste tipsa om Omnis AI-bevakning. Oftast flera gånger varje dag sammanfattar de nyhetsläget kring nya upptäckter och händelser inom fältet. Och det händer mycket! Jag använder de här notiserna som hjälp när jag navigerar mig fram i det föränderliga landskapet och försöker förstå hur AI-utvecklingen påverkar min vardag som digital skribent och kreatör.

I dag berättar Omni om ny forskning kring hjärnröta – på engelska brain rot – i språkmodeller. Rapporten som nämns i artikeln är ännu inte kollegialt granskad, men den tycks peka på något som många som arbetar nära språket nog anat: Att dålig input ger sämre output. Och här är jag inte förvånad. Inte alls, faktiskt.

Språkmodeller har ju inte uppstått ur intet. De har vuxit fram ur en enorm textmassa, skapad och sammanställd av människor – allt från journalister, forskare och professionella skribenter till AI-tränare och lingvister som matat in och kvalitetsgranskat text. Men basen är också ojämn, just för att AI-verktyg och lekmän har bidragit med stora mängder material (många gånger omedvetet). Det är i sig inget negativt, men det påverkar nivån. När grundkvaliteten i en så omfattande corpus varierar kraftigt är det logiskt att även modellernas resonemang blir ojämna.

Som Omni-artikeln lyfter tränades modellerna i studien på ”viralt, trivialt och sensationellt innehåll”. Ju sämre kvalitet på detta, desto sämre blev också resonemangen. Den slutsatsen känns på ett sätt självklar, men blir samtidigt en påminnelse om hur beroende språkmodellerna är av den mänskliga textproduktionens kvalitet och balans.

Omni-artikeln drar också en intressant parallell till människans lärande. Fenomenet hjärnröta tycks nämligen inte bara gälla språkmodeller, utan även oss själva när vi mestadels exponeras för innehåll av låg kvalitet online. Det påverkar hur vi resonerar, vilka slutsatser vi drar och hur vi förstår världen.

Här kan du ta del av artikeln på Omni och av den forskarartikel som sannolikt ska genomgå en kollegial granskning framöver:

  • https://omni.se/forskning-ai-far-hjarnrota-precis-som-manniskor/a/o3d1oK
  • https://arxiv.org/abs/2510.13928