← Back to feed

Genomskåda AI – här är tipsen som är ute och de som fortfarande funkar

Permalink
Published: 2026-03-06 08:28:24
Discovered: 2026-03-22 16:07:12
Hash: f42976b102af6bbd16986309aa64245db7402e71
https://kallkritikbyran.se/genomskada-ai-har-ar-tecknen-som-ar-ute-och-tipsen-som-fortfarande-funkar/
Description
Internetexpert: ”Det mesta är överspelat redan.”
Content
Nyhetsmedier blir lurade av AI-videor och tecknen i gamla AI-guider är nästan helt överspelade. Här är guiden för dig som försöker genomskåda AI i dag.

AI-bilder från det senaste halvåret. Foto: Skärmdump/Facebook/Twitter/X/SVT

Vad vi uppfattade som bra AI-genererade bilder i början av 2020-talet ser i dag nästan teckande ut.

– Man tyckte att det var superimponerande då. Man kunde säga ”ge mig en bild på en astronaut som äter en avocado” och så fick man det, även om den såg jättekackig ut, säger Måns Jonasson, internetexpert på Internetstiftelsen.

Foto: Adobe

– Men i dag får man något som ser ut som ett foto, som är helt omöjligt att avgöra om det är på riktigt eller inte.

Sedan 2023 har många byggt guider för hur du kan se igenom AI-skapade bluffar. Men tipsen och tecknen har snabbt blivit omsprungna av tekniken. Kvar på nätet ligger därför mer eller mindre daterade guider.– Det mesta är överspelat redan, säger Måns Jonasson.

I den här guiden går vi igenom sätten som blivit gamla och de tecken som fortfarande kvarstår i dag – mars 2026.

Tecknen då och nu

I början letade vi efter helt uppenbara fel, som hade med kroppen eller tyngdkraften att göra. På bilden som startade hela AI-manin 2023 kunde man till exempel se ett konstigt hängande kors på påven.

AI lade ibland till extra fingrar eller tvinnade ihop dem på onaturliga sätt. När det spreds AI-bilder på den algeriska boxaren Imane Khelif 2024 kunde man se deformerade händer och extra ledveck på fingrar.

Skärmdumpar från inlägg på Twitter/X den 22 augusti 2024.

I allt större grad har märklig textur på ytor försvunnit. Förr kunde människor se mer ut som plastdockor i AI-bilderna.

En av AI-bilderna som spreds 2023. (Falsk-stämpel är tillagd av Källkritikbyrån.)

Men utvecklingen har rusat och de flesta AI-genererade bilder och filmer som görs i dag ser väldigt bra ut i jämförelse med 2023 – här illustrerat av hur en AI-genererad Will Smith äter spaghetti.

En jämförande video på Youtube 22 januari.

I dag ser man mycket mer sällan dåligt genererade AI-videor, säger Mattias Svahn, forskare vid Totalförsvarets forskningsinstitut (FOI).

– De här surrealismerna som fanns 2024 är ju till stor del utslätade nu. Men alldeles nyss var det en kort filmsnutt som lurade SVT. Där syntes att det inte var bokstäver eller siffror på polisernas uniformer, det var bara surrealistiska symboler. Så det finns fortfarande i viss mån kvar, men i betydligt mindre utsträckning.

Från inslaget i SVT Agenda 23 november.

SVT har tagit bort klippet och rättat inslaget.

Även om ett fel börjar bli passé så kan det fortfarande dyka upp, särskilt när det gäller dåligt gjorda bilder, som gjorts i all hast eller som ett skämt, där avsändaren inte är så noga med om det märks.I mars 2026 lade människor exempelvis ut bilder där de infogat sig själva bredvid skådespelaren Jim Carrey.

Bilder från inlägg på Threads 5 mars. (Källkritikbyrån har anonymiserat personerna.)

Någon påpekade då att en av personerna fått en väldigt märklig vinkel på armen på sin bild.

Kommentar på Threads 5 mars.

Kvarvarande tecken att leta efter

I AI-genererade videor finns en brist kvar – AI verkar ha svårt med kända människor i motsats till de okända individerna som befolkar filmerna.

– Folk vill ju gärna rendera kändisar. Och om det är det någon som du har bra koll på så kan du ibland fortfarande se att något är fel, säger Måns Jonasson på Internetstiftelsen.

– Antagligen är det samma om man skulle få se en film av sin mamma eller sin man. Vi människor har uppenbarligen bra förmåga att känna igen minsta lilla avvikelse i ansikten vi redan är välbekanta med. Men de här AI-modellerna blir snabbt så mycket bättre att vi kan nog inte räkna med det heller snart.

Ett tidigt varningstecken: en AI-genererad Morgan Freeman som varnar för utvecklingen 2022.

Stillbilder av kända personer är däremot ofta väldigt bra och kan lura oss. I början av februari spreds en AI-genererad bild som såg ut att föreställa Socialdemokraternas partiledare Magdalena Andersson och finansmannen Jeffrey Epstein i en grupp på Facebook med över 150 000 medlemmar.

En del verkade tro att det rörde sig om en äkta bild. ”Det här blir intressant att se vart det här landar”, skrev en gruppmedlem. ”Passande par! Lika sjuka i huvudet”, skrev en annan.

Inlägg på Facebook 5 februari.

Ett annat tecken som balanserar på gränsen mellan att vara aktuellt och utdaterat är bokstäver i bilder. AI har blivit allt bättre på det, men det finns en lucka.

– Det de fortfarande är dåliga på är text i bakgrunden. Jag såg någon bild från en påstådd anti-ICE-protest i USA och då står folk och håller i skyltar. De som står längst fram, där ser det jättebra ut, men om man zoomar in i bakgrunden på skyltar så märker man att det där är ju inte engelska, det är inte ens riktiga bokstäver, säger Måns Jonasson.

Han tipsar om att helt enkelt granska bakgrunden i bilder och filmer – där uppstår det fortfarande avvikelser som märks.

Från en granskning från SVT Verifierar och Lilla Aktuellt i december 2025.

AI-detektorer – nästan oanvändbara?

Det finns i dag en skog av AI-detektorer i olika prisgrader, men de riktigt bra AI-bilderna går inte längre att genomskåda, säger Måns Jonasson.– Det enkla svaret är att det inte finns verktyg som till 100 procent kan avgöra om en bild är AI eller inte.

Problemen uppstår när verktygen ger falska frikännanden och felaktiga fällanden.

Från New York Times artikel ”How Easy Is It to Fool A.I.-Detection Tools?”.

Även Mattias Svahn på FOI konstaterar att systemen är långt ifrån säkra.– Generellt skulle jag säga att sådana här verktyg är mer som ”metalldetektorer” än laboratorietester, de kan pipa och indikera att något kanske finns där, men de säger inte exakt vad du har hittat och inte med någon säkerhet. Och det är lätt att lura dem.

Från Källkritikbyråns granskning av en företagare som använde AI och falsk marknadsföring hösten 2025.

Den som testar sin bild i AI-chatbottar kan få väldigt felaktiga svar och det beror på att de inte i första hand är tränade som analysverktyg av bilder. De kan ibland peka ut visuella anomalier, men de kan lika ofta hallucinera eller överanalysera, säger Svahn.

Finns det över huvud taget en poäng med att hålla på med detekteringsverktyg?

– Av de jag prövat så ställer jag mig rätt sval till dem. Vi har provat ett ganska dyrt och avancerat verktyg. Jag provade att generera fram en bild en AI-bild och detekteringsverktyget gav svaret: stopp, AI. Sen tog jag samma bild och tog en vanlig skärmdump av den och lade in i samma verktyg. Då sa den: grönt ljus.

Josefin Rosén, AI-expert på programföretaget SAS institute, håller med om att AI-detektorer inte kan ge absoluta svar.– Man kan se dem lite som ett första filter, men de behöver alltid kombineras med källkritik och kontext, säger hon.

Från SVT Verifierars inslag ”Dramatiska krigsklipp når miljoner – mycket är AI” den 4 mars.

Ingen av experterna uppfattar det som att man kan köpa sig till en nivå där man garanterat kan avgöra om bild är AI eller inte.

Framtiden och vattenstämplarna

Förutom synliga vattenstämplar kan man också väva in uppmärkningar i bilder.

SynthID är ett verktyg från Google som bäddar in digitala vattenstämplar direkt i bilder, ljud och videor som skapas med Googles AI-modeller. För närvarande kan det användas för att verifiera om något har skapats eller redigerats med Google AI-verktyg.

Från ett blogginlägg från Google i maj 2025.

Verifieringsportalen SynthID Detector är än så länge bara öppen för ett begränsat antal testpersoner, däribland journalister på flera svenska nyhetsredaktioner. Men SynthID-verifiering finns även tillgängligt i Gemini-appen för alla inloggade användare, berättar Mia Sahl på Google News Initiative.– För att använda SynthID-verifiering måste du ha ett personligt konto eller ett kvalificerat Workspace-konto, ha den senaste versionen av Gemini-appen om du använder appen för att verifiera innehåll och vara inloggad i Gemini-apparna.Här kan du läsa mer om hur du använder SynthID-verifiering.

I sommar förväntas EU:s nya transparenskrav för AI-genererat innehåll bli juridiskt bindande. Enligt Mia Sahl på Google News Initiative har flera av de största tech-bolagen, bland andra Google, Microsoft, Meta, BBC, Sony och OpenAI gått samman i en grupp som kallas C2PA (Coalition for Content Provenance and Authenticity) för att tillmötesgå kraven.

Från C2PA:s sajt.

Målet är att skapa en gemensam teknisk standard för att märka digitalt innehåll. Men när en sådan standard kan vara på plats och allmänheten kan ta del av den är oklart.

Vattenstämpeln också bara en ledtråd

Problemet med vattenstämplings-lösningen är att man bara får veta om en bild skapats med vissa verktyg, i SynthID-fallet om bilden är skapad med hjälp av Googles verktyg. – De som är ”professionella vilseledare” kommer att använda andra verktyg som inte har den här funktionen, säger Måns Jonasson på Internetstiftelsen.

Från Källkritikbyråns granskning av bluffsidor som använder AI-genererade bilder 25 augusti 2025.

Det går även – än så länge – att kringgå vattenstämplar, berättar Josefin Rosén på SAS institute.– Om man skärmdumpar eller fotar skärmen skapas ett nytt digitalt lager utan metadata från originalet och många gånger utan stämpeln.

Att beskära, rotera, justera färg, komprimera eller ta bort brus gör också att vattenstämpeln kan bli oläsbar.– Man kan även AI-generera en ny bild utifrån originalet, vilket kan radera eller förändra stämpeln. Det börjar dock dyka upp moderna och robusta vattenstämplar som är designade för att tåla sådana ingrepp och ändå kunna identifieras.

Vi testar den bild som nu sprids där människor skapat bilder med sig själva och Jim Carrey. Där visar SynthID-detektorn att bilden har skapats med Googles verktyg, men när vi laddar upp den bild som någon ritat streck på så står det ”Not made with Google AI”.

Bilder från Threads i mars 2026 uppladdade i SynthID Detector.

Enligt Mia Sahl på Google News Initiative så följer vattenstämpeln SynthID vanligtvis med en bild även om man skärmdumpar eller fotar skärmen, men inte alltid.– Ingen vattenstämpel är ännu 100 procent robust, men eftersom SynthID ”vävs” in i produkten när du skapar den i ett av Googles verktyg är den relativt svår att ”tvätta bort”. Den finns vanligtvis kvar även om bilden, videon eller ljudet skalas om, får nya färger, komprimeras eller ändras på andra sätt. Det finns dock en risk att vattenstämpeln inte identifieras efter många ändringar med verktyg som inte är Googles.

Undersök som vanligt

Var är vi nu då? Jo, kvar i den gamla vanliga källkritiken.

Källkritikbyråns samlingssida för guider.

– Vi måste flytta fokus från vad vi ser till vad vi vet om källan, säger Josefin Rosén och tipsar om att man får gå tillbaka till grunderna:

KontextenHur ser omständigheterna ut runt bilden, hur publicerades den? Är avsändaren trovärdig?MetadataFinns det en original-fil, en namngiven fotograf, tidsstämpel? Tänk på att metadata också kan manipuleras!Jämför detaljer med andra bilderStämmer proportioner, ljussättning, perspektiv och mikrouttryck överens med verkliga foton?KorsverifieringFinns samma bild i andra sammanhang, eller är den isolerad? Sök på bilden och undersök resultaten.

I den här guiden hittar du alla samlade tips och steg för hur du söker på en bild eller film!

Sammantaget: Se till att guider du följer är uppdaterade och att tipsen är aktuella. AI-bilder och filmer är avsvärt mycket bättre i dag, och de flesta av de tidiga tecknen börjar bli inaktuella.Kvarvarande bra saker att leta efter är om det finns text och bokstäver i bilden, till exempel på skyltar i bakgrunden eller symboler på uniformer och kläder.Bakgrunden av en bild eller i en filmsekvens är också platsen där det är mest sannolikt att brister och avvikelser dyker upp.Det finns sätt att kringgå AI-detektorer så se dem som ett första test och fortsätt sedan undersöka bilden.LÄS MER:► Stora verktygslådan för viralgranskare► AI-genererad bild sprids på Andersson och Epstein► Nej, det här är inte en äkta bild av Maduros fru Cilia Flores

Har du tips om saker du vill att vi ska granska så hör av dig!

History (3 versions shown )

Changes

From 2026-03-06 08:28:24 (discovered: 2026-03-19 13:50:23) hash: f42976b102af6bbd16986309aa64245db7402e71
To 2026-03-06 08:28:24 (discovered: 2026-03-22 16:07:12) hash: f42976b102af6bbd16986309aa64245db7402e71
Title
Genomskåda AI - här är tipsen som är ute och de som fortfarande funkar
Description
Internetexpert: ”Det mesta är överspelat redan.”
Content
Nyhetsmedier blir lurade av AI-videor och tecknen i gamla AI-guider är nästan helt överspelade. Här är guiden för dig som försöker genomskåda AI i dag. AI-bilder från det senaste halvåret. Foto: Skärmdump/Facebook/Twitter/X/SVT Vad vi uppfattade som bra AI-genererade bilder i början av 2020-talet ser i dag nästan teckande ut. - Man tyckte att det var superimponerande då. Man kunde säga ”ge mig en bild på en astronaut som äter en avocado” och så fick man det, även om den såg jättekackig ut, säger Måns Jonasson, internetexpert på Internetstiftelsen. Foto: Adobe - Men i dag får man något som ser ut som ett foto, som är helt omöjligt att avgöra om det är på riktigt eller inte. Sedan 2023 har många byggt guider för hur du kan se igenom AI-skapade bluffar. Men tipsen och tecknen har snabbt blivit omsprungna av tekniken. Kvar på nätet ligger därför mer eller mindre daterade guider.- guider.– Det mesta är överspelat redan, säger Måns Jonasson. I den här guiden går vi igenom sätten som blivit gamla och de tecken som fortfarande kvarstår i dag - mars 2026. Tecknen då och nu I början letade vi efter helt uppenbara fel, som hade med kroppen eller tyngdkraften att göra. På bilden som startade hela AI-manin 2023 kunde man till exempel se ett konstigt hängande kors på påven. AI lade ibland till extra fingrar eller tvinnade ihop dem på onaturliga sätt. När det spreds AI-bilder på den algeriska boxaren Imane Khelif 2024 kunde man se deformerade händer och extra ledveck på fingrar. Skärmdumpar från inlägg på Twitter/X den 22 augusti 2024. I allt större grad har märklig textur på ytor försvunnit. Förr kunde människor se mer ut som plastdockor i AI-bilderna. En av AI-bilderna som spreds 2023. (Falsk-stämpel är tillagd av Källkritikbyrån.) Men utvecklingen har rusat och de flesta AI-genererade bilder och filmer som görs i dag ser väldigt bra ut i jämförelse med 2023 - här illustrerat av hur en AI-genererad Will Smith äter spaghetti. En jämförande video på Youtube 22 januari. I dag ser man mycket mer sällan dåligt genererade AI-videor, säger Mattias Svahn, forskare vid Totalförsvarets forskningsinstitut (FOI). - De här surrealismerna som fanns 2024 är ju till stor del utslätade nu. Men alldeles nyss var det en kort filmsnutt som lurade SVT. Där syntes att det inte var bokstäver eller siffror på polisernas uniformer, det var bara surrealistiska symboler. Så det finns fortfarande i viss mån kvar, men i betydligt mindre utsträckning. Från inslaget i SVT Agenda 23 november. SVT har tagit bort klippet och rättat inslaget. Även om ett fel börjar bli passé så kan det fortfarande dyka upp, särskilt när det gäller dåligt gjorda bilder, som gjorts i all hast eller som ett skämt, där avsändaren inte är så noga med om det märks.I mars 2026 lade människor exempelvis ut bilder där de infogat sig själva bredvid skådespelaren Jim Carrey. Bilder från inlägg på Threads 5 mars. (Källkritikbyrån har anonymiserat personerna.) Någon påpekade då att en av personerna fått en väldigt märklig vinkel på armen på sin bild. Kommentar på Threads 5 mars. Kvarvarande tecken att leta efter I AI-genererade videor finns en brist kvar - AI verkar ha svårt med kända människor i motsats till de okända individerna som befolkar filmerna. - Folk vill ju gärna rendera kändisar. Och om det är det någon som du har bra koll på så kan du ibland fortfarande se att något är fel, säger Måns Jonasson på Internetstiftelsen. - Antagligen är det samma om man skulle få se en film av sin mamma eller sin man. Vi människor har uppenbarligen bra förmåga att känna igen minsta lilla avvikelse i ansikten vi redan är välbekanta med. Men de här AI-modellerna blir snabbt så mycket bättre att vi kan nog inte räkna med det heller snart. Ett tidigt varningstecken: en AI-genererad Morgan Freeman som varnar för utvecklingen 2022. Stillbilder av kända personer är däremot ofta väldigt bra och kan lura oss. I början av februari spreds en AI-genererad bild som såg ut att föreställa Socialdemokraternas partiledare Magdalena Andersson och finansmannen Jeffrey Epstein i en grupp på Facebook med över 150 000 medlemmar. En del verkade tro att det rörde sig om en äkta bild. "Det ”Det här blir intressant att se vart det här landar", landar”, skrev en gruppmedlem. "Passande ”Passande par! Lika sjuka i huvudet", huvudet”, skrev en annan. Inlägg på Facebook 5 februari. Ett annat tecken som balanserar på gränsen mellan att vara aktuellt och utdaterat är bokstäver i bilder. AI har blivit allt bättre på det, men det finns en lucka. - Det de fortfarande är dåliga på är text i bakgrunden. Jag såg någon bild från en påstådd anti-ICE-protest i USA och då står folk och håller i skyltar. De som står längst fram, där ser det jättebra ut, men om man zoomar in i bakgrunden på skyltar
From 2026-03-06 08:28:24 (discovered: 2026-03-19 12:04:14) hash: 6acf97714380f14bc18c3b316bd61205065b0d1c
To 2026-03-06 08:28:24 (discovered: 2026-03-19 13:50:23) hash: f42976b102af6bbd16986309aa64245db7402e71
Title
Genomskåda AI - här är tipsen som är ute och de som fortfarande funkar
Description
Internetexpert: ”Det mesta är överspelat redan.”
Content
Nyhetsmedier blir lurade av AI-videor och tecknen i gamla AI-guider är nästan helt överspelade. Här är guiden för dig som försöker genomskåda AI i dag. AI-bilder från det senaste halvåret. Foto: Skärmdump/Facebook/Twitter/X/SVT Vad vi uppfattade som bra AI-genererade bilder i början av 2020-talet ser i dag nästan teckande ut. - Man tyckte att det var superimponerande då. Man kunde säga ”ge mig en bild på en astronaut som äter en avocado” och så fick man det, även om den såg jättekackig ut, säger Måns Jonasson, internetexpert på Internetstiftelsen. Foto: Adobe - Men i dag får man något som ser ut som ett foto, som är helt omöjligt att avgöra om det är på riktigt eller inte. Sedan 2023 har många byggt guider för hur du kan se igenom AI-skapade bluffar. Men tipsen och tecknen har snabbt blivit omsprungna av tekniken. Kvar på nätet ligger därför mer eller mindre daterade guider.- Det mesta är överspelat redan, säger Måns Jonasson. I den här guiden går vi igenom sätten som blivit gamla och de tecken som fortfarande kvarstår i dag - mars 2026. Tecknen då och nu I början letade vi efter helt uppenbara fel, som hade med kroppen eller tyngdkraften att göra. På bilden som startade hela AI-manin 2023 kunde man till exempel se ett konstigt hängande kors på påven. AI lade ibland till extra fingrar eller tvinnade ihop dem på onaturliga sätt. När det spreds AI-bilder på den algeriska boxaren Imane Khelif 2024 kunde man se deformerade händer och extra ledveck på fingrar. Skärmdumpar från inlägg på Twitter/X den 22 augusti 2024. I allt större grad har märklig textur på ytor försvunnit. Förr kunde människor se mer ut som plastdockor i AI-bilderna. En av AI-bilderna som spreds 2023. (Falsk-stämpel är tillagd av Källkritikbyrån.) Men utvecklingen har rusat och de flesta AI-genererade bilder och filmer som görs i dag ser väldigt bra ut i jämförelse med 2023 - här illustrerat av hur en AI-genererad Will Smith äter spaghetti. En jämförande video på Youtube 22 januari. I dag ser man mycket mer sällan dåligt genererade AI-videor, säger Mattias Svahn, forskare vid Totalförsvarets forskningsinstitut (FOI). - De här surrealismerna som fanns 2024 är ju till stor del utslätade nu. Men alldeles nyss var det en kort filmsnutt som lurade SVT. Där syntes att det inte var bokstäver eller siffror på polisernas uniformer, det var bara surrealistiska symboler. Så det finns fortfarande i viss mån kvar, men i betydligt mindre utsträckning. Från inslaget i SVT Agenda 23 november. SVT har tagit bort klippet och rättat inslaget. Även om ett fel börjar bli passé så kan det fortfarande dyka upp, särskilt när det gäller dåligt gjorda bilder, som gjorts i all hast eller som ett skämt, där avsändaren inte är så noga med om det märks.I mars 2026 lade människor exempelvis ut bilder där de infogat sig själva bredvid skådespelaren Jim Carrey. Bilder från inlägg på Threads 5 mars. (Källkritikbyrån har anonymiserat personerna.) Någon påpekade då att en av personerna fått en väldigt märklig vinkel på armen på sin bild. Kommentar på Threads 5 mars. Kvarvarande tecken att leta efter I AI-genererade videor finns en brist kvar - AI verkar ha svårt med kända människor i motsats till de okända individerna som befolkar filmerna. - Folk vill ju gärna rendera kändisar. Och om det är det någon som du har bra koll på så kan du ibland fortfarande se att något är fel, säger Måns Jonasson på Internetstiftelsen. - Antagligen är det samma om man skulle få se en film av sin mamma eller sin man. Vi människor har uppenbarligen bra förmåga att känna igen minsta lilla avvikelse i ansikten vi redan är välbekanta med. Men de här AI-modellerna blir snabbt så mycket bättre att vi kan nog inte räkna med det heller snart. Ett tidigt varningstecken: en AI-genererad Morgan Freeman som varnar för utvecklingen 2022. Stillbilder av kända personer är däremot ofta väldigt bra och kan lura oss. I början av februari spreds en AI-genererad bild som såg ut att föreställa Socialdemokraternas partiledare Magdalena Andersson och finansmannen Jeffrey Epstein i en grupp på Facebook med över 150 000 medlemmar. En del verkade tro att det rörde sig om en äkta bild. "Det här blir intressant att se vart det här landar", skrev en gruppmedlem. "Passande par! Lika sjuka i huvudet", skrev en annan. Inlägg på Facebook 5 februari. Ett annat tecken som balanserar på gränsen mellan att vara aktuellt och utdaterat är bokstäver i bilder. AI har blivit allt bättre på det, men det finns en lucka. - Det de fortfarande är dåliga på är text i bakgrunden. Jag såg någon bild från en påstådd anti-ICE-protest i USA och då står folk och håller i skyltar. De som står längst fram, där ser det jättebra ut, men om man zoomar in i bakgrunden på skyltar

Versions

  1. 2026-03-06 08:28:24
    Discovered: 2026-03-22 16:07:12 Hash: f42976b102af6bbd16986309aa64245db7402e71
    Title:
    Genomskåda AI – här är tipsen som är ute och de som fortfarande funkar
    Description:
    Internetexpert: ”Det mesta är överspelat redan.”
    Content
    Nyhetsmedier blir lurade av AI-videor och tecknen i gamla AI-guider är nästan helt överspelade. Här är guiden för dig som försöker genomskåda AI i dag.

    AI-bilder från det senaste halvåret. Foto: Skärmdump/Facebook/Twitter/X/SVT

    Vad vi uppfattade som bra AI-genererade bilder i början av 2020-talet ser i dag nästan teckande ut.

    – Man tyckte att det var superimponerande då. Man kunde säga ”ge mig en bild på en astronaut som äter en avocado” och så fick man det, även om den såg jättekackig ut, säger Måns Jonasson, internetexpert på Internetstiftelsen.

    Foto: Adobe

    – Men i dag får man något som ser ut som ett foto, som är helt omöjligt att avgöra om det är på riktigt eller inte.

    Sedan 2023 har många byggt guider för hur du kan se igenom AI-skapade bluffar. Men tipsen och tecknen har snabbt blivit omsprungna av tekniken. Kvar på nätet ligger därför mer eller mindre daterade guider.– Det mesta är överspelat redan, säger Måns Jonasson.

    I den här guiden går vi igenom sätten som blivit gamla och de tecken som fortfarande kvarstår i dag – mars 2026.

    Tecknen då och nu

    I början letade vi efter helt uppenbara fel, som hade med kroppen eller tyngdkraften att göra. På bilden som startade hela AI-manin 2023 kunde man till exempel se ett konstigt hängande kors på påven.

    AI lade ibland till extra fingrar eller tvinnade ihop dem på onaturliga sätt. När det spreds AI-bilder på den algeriska boxaren Imane Khelif 2024 kunde man se deformerade händer och extra ledveck på fingrar.

    Skärmdumpar från inlägg på Twitter/X den 22 augusti 2024.

    I allt större grad har märklig textur på ytor försvunnit. Förr kunde människor se mer ut som plastdockor i AI-bilderna.

    En av AI-bilderna som spreds 2023. (Falsk-stämpel är tillagd av Källkritikbyrån.)

    Men utvecklingen har rusat och de flesta AI-genererade bilder och filmer som görs i dag ser väldigt bra ut i jämförelse med 2023 – här illustrerat av hur en AI-genererad Will Smith äter spaghetti.

    En jämförande video på Youtube 22 januari.

    I dag ser man mycket mer sällan dåligt genererade AI-videor, säger Mattias Svahn, forskare vid Totalförsvarets forskningsinstitut (FOI).

    – De här surrealismerna som fanns 2024 är ju till stor del utslätade nu. Men alldeles nyss var det en kort filmsnutt som lurade SVT. Där syntes att det inte var bokstäver eller siffror på polisernas uniformer, det var bara surrealistiska symboler. Så det finns fortfarande i viss mån kvar, men i betydligt mindre utsträckning.

    Från inslaget i SVT Agenda 23 november.

    SVT har tagit bort klippet och rättat inslaget.

    Även om ett fel börjar bli passé så kan det fortfarande dyka upp, särskilt när det gäller dåligt gjorda bilder, som gjorts i all hast eller som ett skämt, där avsändaren inte är så noga med om det märks.I mars 2026 lade människor exempelvis ut bilder där de infogat sig själva bredvid skådespelaren Jim Carrey.

    Bilder från inlägg på Threads 5 mars. (Källkritikbyrån har anonymiserat personerna.)

    Någon påpekade då att en av personerna fått en väldigt märklig vinkel på armen på sin bild.

    Kommentar på Threads 5 mars.

    Kvarvarande tecken att leta efter

    I AI-genererade videor finns en brist kvar – AI verkar ha svårt med kända människor i motsats till de okända individerna som befolkar filmerna.

    – Folk vill ju gärna rendera kändisar. Och om det är det någon som du har bra koll på så kan du ibland fortfarande se att något är fel, säger Måns Jonasson på Internetstiftelsen.

    – Antagligen är det samma om man skulle få se en film av sin mamma eller sin man. Vi människor har uppenbarligen bra förmåga att känna igen minsta lilla avvikelse i ansikten vi redan är välbekanta med. Men de här AI-modellerna blir snabbt så mycket bättre att vi kan nog inte räkna med det heller snart.

    Ett tidigt varningstecken: en AI-genererad Morgan Freeman som varnar för utvecklingen 2022.

    Stillbilder av kända personer är däremot ofta väldigt bra och kan lura oss. I början av februari spreds en AI-genererad bild som såg ut att föreställa Socialdemokraternas partiledare Magdalena Andersson och finansmannen Jeffrey Epstein i en grupp på Facebook med över 150 000 medlemmar.

    En del verkade tro att det rörde sig om en äkta bild. ”Det här blir intressant att se vart det här landar”, skrev en gruppmedlem. ”Passande par! Lika sjuka i huvudet”, skrev en annan.

    Inlägg på Facebook 5 februari.

    Ett annat tecken som balanserar på gränsen mellan att vara aktuellt och utdaterat är bokstäver i bilder. AI har blivit allt bättre på det, men det finns en lucka.

    – Det de fortfarande är dåliga på är text i bakgrunden. Jag såg någon bild från en påstådd anti-ICE-protest i USA och då står folk och håller i skyltar. De som står längst fram, där ser det jättebra ut, men om man zoomar in i bakgrunden på skyltar så märker man att det där är ju inte engelska, det är inte ens riktiga bokstäver, säger Måns Jonasson.

    Han tipsar om att helt enkelt granska bakgrunden i bilder och filmer – där uppstår det fortfarande avvikelser som märks.

    Från en granskning från SVT Verifierar och Lilla Aktuellt i december 2025.

    AI-detektorer – nästan oanvändbara?

    Det finns i dag en skog av AI-detektorer i olika prisgrader, men de riktigt bra AI-bilderna går inte längre att genomskåda, säger Måns Jonasson.– Det enkla svaret är att det inte finns verktyg som till 100 procent kan avgöra om en bild är AI eller inte.

    Problemen uppstår när verktygen ger falska frikännanden och felaktiga fällanden.

    Från New York Times artikel ”How Easy Is It to Fool A.I.-Detection Tools?”.

    Även Mattias Svahn på FOI konstaterar att systemen är långt ifrån säkra.– Generellt skulle jag säga att sådana här verktyg är mer som ”metalldetektorer” än laboratorietester, de kan pipa och indikera att något kanske finns där, men de säger inte exakt vad du har hittat och inte med någon säkerhet. Och det är lätt att lura dem.

    Från Källkritikbyråns granskning av en företagare som använde AI och falsk marknadsföring hösten 2025.

    Den som testar sin bild i AI-chatbottar kan få väldigt felaktiga svar och det beror på att de inte i första hand är tränade som analysverktyg av bilder. De kan ibland peka ut visuella anomalier, men de kan lika ofta hallucinera eller överanalysera, säger Svahn.

    Finns det över huvud taget en poäng med att hålla på med detekteringsverktyg?

    – Av de jag prövat så ställer jag mig rätt sval till dem. Vi har provat ett ganska dyrt och avancerat verktyg. Jag provade att generera fram en bild en AI-bild och detekteringsverktyget gav svaret: stopp, AI. Sen tog jag samma bild och tog en vanlig skärmdump av den och lade in i samma verktyg. Då sa den: grönt ljus.

    Josefin Rosén, AI-expert på programföretaget SAS institute, håller med om att AI-detektorer inte kan ge absoluta svar.– Man kan se dem lite som ett första filter, men de behöver alltid kombineras med källkritik och kontext, säger hon.

    Från SVT Verifierars inslag ”Dramatiska krigsklipp når miljoner – mycket är AI” den 4 mars.

    Ingen av experterna uppfattar det som att man kan köpa sig till en nivå där man garanterat kan avgöra om bild är AI eller inte.

    Framtiden och vattenstämplarna

    Förutom synliga vattenstämplar kan man också väva in uppmärkningar i bilder.

    SynthID är ett verktyg från Google som bäddar in digitala vattenstämplar direkt i bilder, ljud och videor som skapas med Googles AI-modeller. För närvarande kan det användas för att verifiera om något har skapats eller redigerats med Google AI-verktyg.

    Från ett blogginlägg från Google i maj 2025.

    Verifieringsportalen SynthID Detector är än så länge bara öppen för ett begränsat antal testpersoner, däribland journalister på flera svenska nyhetsredaktioner. Men SynthID-verifiering finns även tillgängligt i Gemini-appen för alla inloggade användare, berättar Mia Sahl på Google News Initiative.– För att använda SynthID-verifiering måste du ha ett personligt konto eller ett kvalificerat Workspace-konto, ha den senaste versionen av Gemini-appen om du använder appen för att verifiera innehåll och vara inloggad i Gemini-apparna.Här kan du läsa mer om hur du använder SynthID-verifiering.

    I sommar förväntas EU:s nya transparenskrav för AI-genererat innehåll bli juridiskt bindande. Enligt Mia Sahl på Google News Initiative har flera av de största tech-bolagen, bland andra Google, Microsoft, Meta, BBC, Sony och OpenAI gått samman i en grupp som kallas C2PA (Coalition for Content Provenance and Authenticity) för att tillmötesgå kraven.

    Från C2PA:s sajt.

    Målet är att skapa en gemensam teknisk standard för att märka digitalt innehåll. Men när en sådan standard kan vara på plats och allmänheten kan ta del av den är oklart.

    Vattenstämpeln också bara en ledtråd

    Problemet med vattenstämplings-lösningen är att man bara får veta om en bild skapats med vissa verktyg, i SynthID-fallet om bilden är skapad med hjälp av Googles verktyg. – De som är ”professionella vilseledare” kommer att använda andra verktyg som inte har den här funktionen, säger Måns Jonasson på Internetstiftelsen.

    Från Källkritikbyråns granskning av bluffsidor som använder AI-genererade bilder 25 augusti 2025.

    Det går även – än så länge – att kringgå vattenstämplar, berättar Josefin Rosén på SAS institute.– Om man skärmdumpar eller fotar skärmen skapas ett nytt digitalt lager utan metadata från originalet och många gånger utan stämpeln.

    Att beskära, rotera, justera färg, komprimera eller ta bort brus gör också att vattenstämpeln kan bli oläsbar.– Man kan även AI-generera en ny bild utifrån originalet, vilket kan radera eller förändra stämpeln. Det börjar dock dyka upp moderna och robusta vattenstämplar som är designade för att tåla sådana ingrepp och ändå kunna identifieras.

    Vi testar den bild som nu sprids där människor skapat bilder med sig själva och Jim Carrey. Där visar SynthID-detektorn att bilden har skapats med Googles verktyg, men när vi laddar upp den bild som någon ritat streck på så står det ”Not made with Google AI”.

    Bilder från Threads i mars 2026 uppladdade i SynthID Detector.

    Enligt Mia Sahl på Google News Initiative så följer vattenstämpeln SynthID vanligtvis med en bild även om man skärmdumpar eller fotar skärmen, men inte alltid.– Ingen vattenstämpel är ännu 100 procent robust, men eftersom SynthID ”vävs” in i produkten när du skapar den i ett av Googles verktyg är den relativt svår att ”tvätta bort”. Den finns vanligtvis kvar även om bilden, videon eller ljudet skalas om, får nya färger, komprimeras eller ändras på andra sätt. Det finns dock en risk att vattenstämpeln inte identifieras efter många ändringar med verktyg som inte är Googles.

    Undersök som vanligt

    Var är vi nu då? Jo, kvar i den gamla vanliga källkritiken.

    Källkritikbyråns samlingssida för guider.

    – Vi måste flytta fokus från vad vi ser till vad vi vet om källan, säger Josefin Rosén och tipsar om att man får gå tillbaka till grunderna:

    KontextenHur ser omständigheterna ut runt bilden, hur publicerades den? Är avsändaren trovärdig?MetadataFinns det en original-fil, en namngiven fotograf, tidsstämpel? Tänk på att metadata också kan manipuleras!Jämför detaljer med andra bilderStämmer proportioner, ljussättning, perspektiv och mikrouttryck överens med verkliga foton?KorsverifieringFinns samma bild i andra sammanhang, eller är den isolerad? Sök på bilden och undersök resultaten.

    I den här guiden hittar du alla samlade tips och steg för hur du söker på en bild eller film!

    Sammantaget: Se till att guider du följer är uppdaterade och att tipsen är aktuella. AI-bilder och filmer är avsvärt mycket bättre i dag, och de flesta av de tidiga tecknen börjar bli inaktuella.Kvarvarande bra saker att leta efter är om det finns text och bokstäver i bilden, till exempel på skyltar i bakgrunden eller symboler på uniformer och kläder.Bakgrunden av en bild eller i en filmsekvens är också platsen där det är mest sannolikt att brister och avvikelser dyker upp.Det finns sätt att kringgå AI-detektorer så se dem som ett första test och fortsätt sedan undersöka bilden.LÄS MER:► Stora verktygslådan för viralgranskare► AI-genererad bild sprids på Andersson och Epstein► Nej, det här är inte en äkta bild av Maduros fru Cilia Flores

    Har du tips om saker du vill att vi ska granska så hör av dig!
  2. 2026-03-06 08:28:24
    Discovered: 2026-03-19 13:50:23 Hash: f42976b102af6bbd16986309aa64245db7402e71
    Title:
    Genomskåda AI - här är tipsen som är ute och de som fortfarande funkar
    Description:
    Internetexpert: ”Det mesta är överspelat redan.”
    Content
    Nyhetsmedier blir lurade av AI-videor och tecknen i gamla AI-guider är nästan helt överspelade. Här är guiden för dig som försöker genomskåda AI i dag.

    AI-bilder från det senaste halvåret. Foto: Skärmdump/Facebook/Twitter/X/SVT

    Vad vi uppfattade som bra AI-genererade bilder i början av 2020-talet ser i dag nästan teckande ut.

    - Man tyckte att det var superimponerande då. Man kunde säga ”ge mig en bild på en astronaut som äter en avocado” och så fick man det, även om den såg jättekackig ut, säger Måns Jonasson, internetexpert på Internetstiftelsen.

    Foto: Adobe

    - Men i dag får man något som ser ut som ett foto, som är helt omöjligt att avgöra om det är på riktigt eller inte.

    Sedan 2023 har många byggt guider för hur du kan se igenom AI-skapade bluffar. Men tipsen och tecknen har snabbt blivit omsprungna av tekniken. Kvar på nätet ligger därför mer eller mindre daterade guider.- Det mesta är överspelat redan, säger Måns Jonasson.

    I den här guiden går vi igenom sätten som blivit gamla och de tecken som fortfarande kvarstår i dag - mars 2026.

    Tecknen då och nu

    I början letade vi efter helt uppenbara fel, som hade med kroppen eller tyngdkraften att göra. På bilden som startade hela AI-manin 2023 kunde man till exempel se ett konstigt hängande kors på påven.

    AI lade ibland till extra fingrar eller tvinnade ihop dem på onaturliga sätt. När det spreds AI-bilder på den algeriska boxaren Imane Khelif 2024 kunde man se deformerade händer och extra ledveck på fingrar.

    Skärmdumpar från inlägg på Twitter/X den 22 augusti 2024.

    I allt större grad har märklig textur på ytor försvunnit. Förr kunde människor se mer ut som plastdockor i AI-bilderna.

    En av AI-bilderna som spreds 2023. (Falsk-stämpel är tillagd av Källkritikbyrån.)

    Men utvecklingen har rusat och de flesta AI-genererade bilder och filmer som görs i dag ser väldigt bra ut i jämförelse med 2023 - här illustrerat av hur en AI-genererad Will Smith äter spaghetti.

    En jämförande video på Youtube 22 januari.

    I dag ser man mycket mer sällan dåligt genererade AI-videor, säger Mattias Svahn, forskare vid Totalförsvarets forskningsinstitut (FOI).

    - De här surrealismerna som fanns 2024 är ju till stor del utslätade nu. Men alldeles nyss var det en kort filmsnutt som lurade SVT. Där syntes att det inte var bokstäver eller siffror på polisernas uniformer, det var bara surrealistiska symboler. Så det finns fortfarande i viss mån kvar, men i betydligt mindre utsträckning.

    Från inslaget i SVT Agenda 23 november.

    SVT har tagit bort klippet och rättat inslaget.

    Även om ett fel börjar bli passé så kan det fortfarande dyka upp, särskilt när det gäller dåligt gjorda bilder, som gjorts i all hast eller som ett skämt, där avsändaren inte är så noga med om det märks.I mars 2026 lade människor exempelvis ut bilder där de infogat sig själva bredvid skådespelaren Jim Carrey.

    Bilder från inlägg på Threads 5 mars. (Källkritikbyrån har anonymiserat personerna.)

    Någon påpekade då att en av personerna fått en väldigt märklig vinkel på armen på sin bild.

    Kommentar på Threads 5 mars.

    Kvarvarande tecken att leta efter

    I AI-genererade videor finns en brist kvar - AI verkar ha svårt med kända människor i motsats till de okända individerna som befolkar filmerna.

    - Folk vill ju gärna rendera kändisar. Och om det är det någon som du har bra koll på så kan du ibland fortfarande se att något är fel, säger Måns Jonasson på Internetstiftelsen.

    - Antagligen är det samma om man skulle få se en film av sin mamma eller sin man. Vi människor har uppenbarligen bra förmåga att känna igen minsta lilla avvikelse i ansikten vi redan är välbekanta med. Men de här AI-modellerna blir snabbt så mycket bättre att vi kan nog inte räkna med det heller snart.

    Ett tidigt varningstecken: en AI-genererad Morgan Freeman som varnar för utvecklingen 2022.

    Stillbilder av kända personer är däremot ofta väldigt bra och kan lura oss. I början av februari spreds en AI-genererad bild som såg ut att föreställa Socialdemokraternas partiledare Magdalena Andersson och finansmannen Jeffrey Epstein i en grupp på Facebook med över 150 000 medlemmar.

    En del verkade tro att det rörde sig om en äkta bild. "Det här blir intressant att se vart det här landar", skrev en gruppmedlem. "Passande par! Lika sjuka i huvudet", skrev en annan.

    Inlägg på Facebook 5 februari.

    Ett annat tecken som balanserar på gränsen mellan att vara aktuellt och utdaterat är bokstäver i bilder. AI har blivit allt bättre på det, men det finns en lucka.

    - Det de fortfarande är dåliga på är text i bakgrunden. Jag såg någon bild från en påstådd anti-ICE-protest i USA och då står folk och håller i skyltar. De som står längst fram, där ser det jättebra ut, men om man zoomar in i bakgrunden på skyltar så märker man att det där är ju inte engelska, det är inte ens riktiga bokstäver, säger Måns Jonasson.

    Han tipsar om att helt enkelt granska bakgrunden i bilder och filmer - där uppstår det fortfarande avvikelser som märks.

    Från en granskning från SVT Verifierar och Lilla Aktuellt i december 2025.

    AI-detektorer - nästan oanvändbara?

    Det finns i dag en skog av AI-detektorer i olika prisgrader, men de riktigt bra AI-bilderna går inte längre att genomskåda, säger Måns Jonasson.- Det enkla svaret är att det inte finns verktyg som till 100 procent kan avgöra om en bild är AI eller inte.

    Problemen uppstår när verktygen ger falska frikännanden och felaktiga fällanden.

    Från New York Times artikel ”How Easy Is It to Fool A.I.-Detection Tools?”.

    Även Mattias Svahn på FOI konstaterar att systemen är långt ifrån säkra.- Generellt skulle jag säga att sådana här verktyg är mer som ”metalldetektorer” än laboratorietester, de kan pipa och indikera att något kanske finns där, men de säger inte exakt vad du har hittat och inte med någon säkerhet. Och det är lätt att lura dem.

    Från Källkritikbyråns granskning av en företagare som använde AI och falsk marknadsföring hösten 2025.

    Den som testar sin bild i AI-chatbottar kan få väldigt felaktiga svar och det beror på att de inte i första hand är tränade som analysverktyg av bilder. De kan ibland peka ut visuella anomalier, men de kan lika ofta hallucinera eller överanalysera, säger Svahn.

    Finns det över huvud taget en poäng med att hålla på med detekteringsverktyg?

    - Av de jag prövat så ställer jag mig rätt sval till dem. Vi har provat ett ganska dyrt och avancerat verktyg. Jag provade att generera fram en bild en AI-bild och detekteringsverktyget gav svaret: stopp, AI. Sen tog jag samma bild och tog en vanlig skärmdump av den och lade in i samma verktyg. Då sa den: grönt ljus.

    Josefin Rosén, AI-expert på programföretaget SAS institute, håller med om att AI-detektorer inte kan ge absoluta svar.- Man kan se dem lite som ett första filter, men de behöver alltid kombineras med källkritik och kontext, säger hon.

    Från SVT Verifierars inslag ”Dramatiska krigsklipp når miljoner - mycket är AI” den 4 mars.

    Ingen av experterna uppfattar det som att man kan köpa sig till en nivå där man garanterat kan avgöra om bild är AI eller inte.

    Framtiden och vattenstämplarna

    Förutom synliga vattenstämplar kan man också väva in uppmärkningar i bilder.

    SynthID är ett verktyg från Google som bäddar in digitala vattenstämplar direkt i bilder, ljud och videor som skapas med Googles AI-modeller. För närvarande kan det användas för att verifiera om något har skapats eller redigerats med Google AI-verktyg.

    Från ett blogginlägg från Google i maj 2025.

    Verifieringsportalen SynthID Detector är än så länge bara öppen för ett begränsat antal testpersoner, däribland journalister på flera svenska nyhetsredaktioner. Men SynthID-verifiering finns även tillgängligt i Gemini-appen för alla inloggade användare, berättar Mia Sahl på Google News Initiative.- För att använda SynthID-verifiering måste du ha ett personligt konto eller ett kvalificerat Workspace-konto, ha den senaste versionen av Gemini-appen om du använder appen för att verifiera innehåll och vara inloggad i Gemini-apparna.Här kan du läsa mer om hur du använder SynthID-verifiering.

    I sommar förväntas EU:s nya transparenskrav för AI-genererat innehåll bli juridiskt bindande. Enligt Mia Sahl på Google News Initiative har flera av de största tech-bolagen, bland andra Google, Microsoft, Meta, BBC, Sony och OpenAI gått samman i en grupp som kallas C2PA (Coalition for Content Provenance and Authenticity) för att tillmötesgå kraven.

    Från C2PA:s sajt.

    Målet är att skapa en gemensam teknisk standard för att märka digitalt innehåll. Men när en sådan standard kan vara på plats och allmänheten kan ta del av den är oklart.

    Vattenstämpeln också bara en ledtråd

    Problemet med vattenstämplings-lösningen är att man bara får veta om en bild skapats med vissa verktyg, i SynthID-fallet om bilden är skapad med hjälp av Googles verktyg. - De som är ”professionella vilseledare” kommer att använda andra verktyg som inte har den här funktionen, säger Måns Jonasson på Internetstiftelsen.

    Från Källkritikbyråns granskning av bluffsidor som använder AI-genererade bilder 25 augusti 2025.

    Det går även - än så länge - att kringgå vattenstämplar, berättar Josefin Rosén på SAS institute.- Om man skärmdumpar eller fotar skärmen skapas ett nytt digitalt lager utan metadata från originalet och många gånger utan stämpeln.

    Att beskära, rotera, justera färg, komprimera eller ta bort brus gör också att vattenstämpeln kan bli oläsbar.- Man kan även AI-generera en ny bild utifrån originalet, vilket kan radera eller förändra stämpeln. Det börjar dock dyka upp moderna och robusta vattenstämplar som är designade för att tåla sådana ingrepp och ändå kunna identifieras.

    Vi testar den bild som nu sprids där människor skapat bilder med sig själva och Jim Carrey. Där visar SynthID-detektorn att bilden har skapats med Googles verktyg, men när vi laddar upp den bild som någon ritat streck på så står det ”Not made with Google AI”.

    Bilder från Threads i mars 2026 uppladdade i SynthID Detector.

    Enligt Mia Sahl på Google News Initiative så följer vattenstämpeln SynthID vanligtvis med en bild även om man skärmdumpar eller fotar skärmen, men inte alltid.- Ingen vattenstämpel är ännu 100 procent robust, men eftersom SynthID ”vävs” in i produkten när du skapar den i ett av Googles verktyg är den relativt svår att ”tvätta bort”. Den finns vanligtvis kvar även om bilden, videon eller ljudet skalas om, får nya färger, komprimeras eller ändras på andra sätt. Det finns dock en risk att vattenstämpeln inte identifieras efter många ändringar med verktyg som inte är Googles.

    Undersök som vanligt

    Var är vi nu då? Jo, kvar i den gamla vanliga källkritiken.

    Källkritikbyråns samlingssida för guider.

    - Vi måste flytta fokus från vad vi ser till vad vi vet om källan, säger Josefin Rosén och tipsar om att man får gå tillbaka till grunderna:

    KontextenHur ser omständigheterna ut runt bilden, hur publicerades den? Är avsändaren trovärdig?MetadataFinns det en original-fil, en namngiven fotograf, tidsstämpel? Tänk på att metadata också kan manipuleras!Jämför detaljer med andra bilderStämmer proportioner, ljussättning, perspektiv och mikrouttryck överens med verkliga foton?KorsverifieringFinns samma bild i andra sammanhang, eller är den isolerad? Sök på bilden och undersök resultaten.

    I den här guiden hittar du alla samlade tips och steg för hur du söker på en bild eller film!

    Sammantaget: Se till att guider du följer är uppdaterade och att tipsen är aktuella. AI-bilder och filmer är avsvärt mycket bättre i dag, och de flesta av de tidiga tecknen börjar bli inaktuella.Kvarvarande bra saker att leta efter är om det finns text och bokstäver i bilden, till exempel på skyltar i bakgrunden eller symboler på uniformer och kläder.Bakgrunden av en bild eller i en filmsekvens är också platsen där det är mest sannolikt att brister och avvikelser dyker upp.Det finns sätt att kringgå AI-detektorer så se dem som ett första test och fortsätt sedan undersöka bilden.LÄS MER:? Stora verktygslådan för viralgranskare? AI-genererad bild sprids på Andersson och Epstein? Nej, det här är inte en äkta bild av Maduros fru Cilia Flores

    Har du tips om saker du vill att vi ska granska så hör av dig!
  3. 2026-03-06 08:28:24
    Discovered: 2026-03-19 12:04:14 Hash: 6acf97714380f14bc18c3b316bd61205065b0d1c
    Title:
    Genomskåda AI - här är tipsen som är ute och de som fortfarande funkar
    Description:
    Internetexpert: ”Det mesta är överspelat redan.”
    Content
    Nyhetsmedier blir lurade av AI-videor och tecknen i gamla AI-guider är nästan helt överspelade. Här är guiden för dig som försöker genomskåda AI i dag.

    AI-bilder från det senaste halvåret. Foto: Skärmdump/Facebook/Twitter/X/SVT

    Vad vi uppfattade som bra AI-genererade bilder i början av 2020-talet ser i dag nästan teckande ut.

    - Man tyckte att det var superimponerande då. Man kunde säga ”ge mig en bild på en astronaut som äter en avocado” och så fick man det, även om den såg jättekackig ut, säger Måns Jonasson, internetexpert på Internetstiftelsen.

    Foto: Adobe

    - Men i dag får man något som ser ut som ett foto, som är helt omöjligt att avgöra om det är på riktigt eller inte.

    Sedan 2023 har många byggt guider för hur du kan se igenom AI-skapade bluffar. Men tipsen och tecknen har snabbt blivit omsprungna av tekniken. Kvar på nätet ligger därför mer eller mindre daterade guider.- Det mesta är överspelat redan, säger Måns Jonasson.

    I den här guiden går vi igenom sätten som blivit gamla och de tecken som fortfarande kvarstår i dag - mars 2026.

    Tecknen då och nu

    I början letade vi efter helt uppenbara fel, som hade med kroppen eller tyngdkraften att göra. På bilden som startade hela AI-manin 2023 kunde man till exempel se ett konstigt hängande kors på påven.

    AI lade ibland till extra fingrar eller tvinnade ihop dem på onaturliga sätt. När det spreds AI-bilder på den algeriska boxaren Imane Khelif 2024 kunde man se deformerade händer och extra ledveck på fingrar.

    Skärmdumpar från inlägg på Twitter/X den 22 augusti 2024.

    I allt större grad har märklig textur på ytor försvunnit. Förr kunde människor se mer ut som plastdockor i AI-bilderna.

    En av AI-bilderna som spreds 2023. (Falsk-stämpel är tillagd av Källkritikbyrån.)

    Men utvecklingen har rusat och de flesta AI-genererade bilder och filmer som görs i dag ser väldigt bra ut i jämförelse med 2023 - här illustrerat av hur en AI-genererad Will Smith äter spaghetti.

    En jämförande video på Youtube 22 januari.

    I dag ser man mycket mer sällan dåligt genererade AI-videor, säger Mattias Svahn, forskare vid Totalförsvarets forskningsinstitut (FOI).

    - De här surrealismerna som fanns 2024 är ju till stor del utslätade nu. Men alldeles nyss var det en kort filmsnutt som lurade SVT. Där syntes att det inte var bokstäver eller siffror på polisernas uniformer, det var bara surrealistiska symboler. Så det finns fortfarande i viss mån kvar, men i betydligt mindre utsträckning.

    Från inslaget i SVT Agenda 23 november.

    SVT har tagit bort klippet och rättat inslaget.

    Även om ett fel börjar bli passé så kan det fortfarande dyka upp, särskilt när det gäller dåligt gjorda bilder, som gjorts i all hast eller som ett skämt, där avsändaren inte är så noga med om det märks.I mars 2026 lade människor exempelvis ut bilder där de infogat sig själva bredvid skådespelaren Jim Carrey.

    Bilder från inlägg på Threads 5 mars. (Källkritikbyrån har anonymiserat personerna.)

    Någon påpekade då att en av personerna fått en väldigt märklig vinkel på armen på sin bild.

    Kommentar på Threads 5 mars.

    Kvarvarande tecken att leta efter

    I AI-genererade videor finns en brist kvar - AI verkar ha svårt med kända människor i motsats till de okända individerna som befolkar filmerna.

    - Folk vill ju gärna rendera kändisar. Och om det är det någon som du har bra koll på så kan du ibland fortfarande se att något är fel, säger Måns Jonasson på Internetstiftelsen.

    - Antagligen är det samma om man skulle få se en film av sin mamma eller sin man. Vi människor har uppenbarligen bra förmåga att känna igen minsta lilla avvikelse i ansikten vi redan är välbekanta med. Men de här AI-modellerna blir snabbt så mycket bättre att vi kan nog inte räkna med det heller snart.

    Ett tidigt varningstecken: en AI-genererad Morgan Freeman som varnar för utvecklingen 2022.

    Stillbilder av kända personer är däremot ofta väldigt bra och kan lura oss. I början av februari spreds en AI-genererad bild som såg ut att föreställa Socialdemokraternas partiledare Magdalena Andersson och finansmannen Jeffrey Epstein i en grupp på Facebook med över 150 000 medlemmar.

    En del verkade tro att det rörde sig om en äkta bild. "Det här blir intressant att se vart det här landar", skrev en gruppmedlem. "Passande par! Lika sjuka i huvudet", skrev en annan.

    Inlägg på Facebook 5 februari.

    Ett annat tecken som balanserar på gränsen mellan att vara aktuellt och utdaterat är bokstäver i bilder. AI har blivit allt bättre på det, men det finns en lucka.

    - Det de fortfarande är dåliga på är text i bakgrunden. Jag såg någon bild från en påstådd anti-ICE-protest i USA och då står folk och håller i skyltar. De som står längst fram, där ser det jättebra ut, men om man zoomar in i bakgrunden på skyltar så märker man att det där är ju inte engelska, det är inte ens riktiga bokstäver, säger Måns Jonasson.

    Han tipsar om att helt enkelt granska bakgrunden i bilder och filmer - där uppstår det fortfarande avvikelser som märks.

    Från en granskning från SVT Verifierar och Lilla Aktuellt i december 2025.

    AI-detektorer - nästan oanvändbara?

    Det finns i dag en skog av AI-detektorer i olika prisgrader, men de riktigt bra AI-bilderna går inte längre att genomskåda, säger Måns Jonasson.- Det enkla svaret är att det inte finns verktyg som till 100 procent kan avgöra om en bild är AI eller inte.

    Problemen uppstår när verktygen ger falska frikännanden och felaktiga fällanden.

    Från New York Times artikel ”How Easy Is It to Fool A.I.-Detection Tools?”.

    Även Mattias Svahn på FOI konstaterar att systemen är långt ifrån säkra.- Generellt skulle jag säga att sådana här verktyg är mer som ”metalldetektorer” än laboratorietester, de kan pipa och indikera att något kanske finns där, men de säger inte exakt vad du har hittat och inte med någon säkerhet. Och det är lätt att lura dem.

    Från Källkritikbyråns granskning av en företagare som använde AI och falsk marknadsföring hösten 2025.

    Den som testar sin bild i AI-chatbottar kan få väldigt felaktiga svar och det beror på att de inte i första hand är tränade som analysverktyg av bilder. De kan ibland peka ut visuella anomalier, men de kan lika ofta hallucinera eller överanalysera, säger Svahn.

    Finns det över huvud taget en poäng med att hålla på med detekteringsverktyg?

    - Av de jag prövat så ställer jag mig rätt sval till dem. Vi har provat ett ganska dyrt och avancerat verktyg. Jag provade att generera fram en bild en AI-bild och detekteringsverktyget gav svaret: stopp, AI. Sen tog jag samma bild och tog en vanlig skärmdump av den och lade in i samma verktyg. Då sa den: grönt ljus.

    Josefin Rosén, AI-expert på programföretaget SAS institute, håller med om att AI-detektorer inte kan ge absoluta svar.- Man kan se dem lite som ett första filter, men de behöver alltid kombineras med källkritik och kontext, säger hon.

    Från SVT Verifierars inslag ”Dramatiska krigsklipp når miljoner - mycket är AI” den 4 mars.

    Ingen av experterna uppfattar det som att man kan köpa sig till en nivå där man garanterat kan avgöra om bild är AI eller inte.

    Framtiden och vattenstämplarna

    Förutom synliga vattenstämplar kan man också väva in uppmärkningar i bilder.

    SynthID är ett verktyg från Google som bäddar in digitala vattenstämplar direkt i bilder, ljud och videor som skapas med Googles AI-modeller. För närvarande kan det användas för att verifiera om något har skapats eller redigerats med Google AI-verktyg.

    Från ett blogginlägg från Google i maj 2025.

    Verifieringsportalen SynthID Detector är än så länge bara öppen för ett begränsat antal testpersoner, däribland journalister på flera svenska nyhetsredaktioner. Men SynthID-verifiering finns även tillgängligt i Gemini-appen för alla inloggade användare, berättar Mia Sahl på Google News Initiative.- För att använda SynthID-verifiering måste du ha ett personligt konto eller ett kvalificerat Workspace-konto, ha den senaste versionen av Gemini-appen om du använder appen för att verifiera innehåll och vara inloggad i Gemini-apparna.Här kan du läsa mer om hur du använder SynthID-verifiering.

    I sommar förväntas EU:s nya transparenskrav för AI-genererat innehåll bli juridiskt bindande. Enligt Mia Sahl på Google News Initiative har flera av de största tech-bolagen, bland andra Google, Microsoft, Meta, BBC, Sony och OpenAI gått samman i en grupp som kallas C2PA (Coalition for Content Provenance and Authenticity) för att tillmötesgå kraven.

    Från C2PA:s sajt.

    Målet är att skapa en gemensam teknisk standard för att märka digitalt innehåll. Men när en sådan standard kan vara på plats och allmänheten kan ta del av den är oklart.

    Vattenstämpeln också bara en ledtråd

    Problemet med vattenstämplings-lösningen är att man bara får veta om en bild skapats med vissa verktyg, i SynthID-fallet om bilden är skapad med hjälp av Googles verktyg. - De som är ”professionella vilseledare” kommer att använda andra verktyg som inte har den här funktionen, säger Måns Jonasson på Internetstiftelsen.

    Från Källkritikbyråns granskning av bluffsidor som använder AI-genererade bilder 25 augusti 2025.

    Det går även - än så länge - att kringgå vattenstämplar, berättar Josefin Rosén på SAS institute.- Om man skärmdumpar eller fotar skärmen skapas ett nytt digitalt lager utan metadata från originalet och många gånger utan stämpeln.

    Att beskära, rotera, justera färg, komprimera eller ta bort brus gör också att vattenstämpeln kan bli oläsbar.- Man kan även AI-generera en ny bild utifrån originalet, vilket kan radera eller förändra stämpeln. Det börjar dock dyka upp moderna och robusta vattenstämplar som är designade för att tåla sådana ingrepp och ändå kunna identifieras.

    Vi testar den bild som nu sprids där människor skapat bilder med sig själva och Jim Carrey. Där visar SynthID-detektorn att bilden har skapats med Googles verktyg, men när vi laddar upp den bild som någon ritat streck på så står det ”Not made with Google AI”.

    Bilder från Threads i mars 2026 uppladdade i SynthID Detector.

    Enligt Mia Sahl på Google News Initiative så följer vattenstämpeln SynthID vanligtvis med en bild även om man skärmdumpar eller fotar skärmen, men inte alltid.- Ingen vattenstämpel är ännu 100 procent robust, men eftersom SynthID ”vävs” in i produkten när du skapar den i ett av Googles verktyg är den relativt svår att ”tvätta bort”. Den finns vanligtvis kvar även om bilden, videon eller ljudet skalas om, får nya färger, komprimeras eller ändras på andra sätt. Det finns dock en risk att vattenstämpeln inte identifieras efter många ändringar med verktyg som inte är Googles.

    Undersök som vanligt

    Var är vi nu då? Jo, kvar i den gamla vanliga källkritiken.

    Källkritikbyråns samlingssida för guider.

    - Vi måste flytta fokus från vad vi ser till vad vi vet om källan, säger Josefin Rosén och tipsar om att man får gå tillbaka till grunderna:

    KontextenHur ser omständigheterna ut runt bilden, hur publicerades den? Är avsändaren trovärdig?MetadataFinns det en original-fil, en namngiven fotograf, tidsstämpel? Tänk på att metadata också kan manipuleras!Jämför detaljer med andra bilderStämmer proportioner, ljussättning, perspektiv och mikrouttryck överens med verkliga foton?KorsverifieringFinns samma bild i andra sammanhang, eller är den isolerad? Sök på bilden och undersök resultaten.

    I den här guiden hittar du alla samlade tips och steg för hur du söker på en bild eller film!

    Sammantaget: Se till att guider du följer är uppdaterade och att tipsen är aktuella. AI-bilder och filmer är avsvärt mycket bättre i dag, och de flesta av de tidiga tecknen börjar bli inaktuella.Kvarvarande bra saker att leta efter är om det finns text och bokstäver i bilden, till exempel på skyltar i bakgrunden eller symboler på uniformer och kläder.Bakgrunden av en bild eller i en filmsekvens är också platsen där det är mest sannolikt att brister och avvikelser dyker upp.Det finns sätt att kringgå AI-detektorer så se dem som ett första test och fortsätt sedan undersöka bilden.LÄS MER:? Stora verktygslådan för viralgranskare? AI-genererad bild sprids på Andersson och Epstein? Nej, det här är inte en äkta bild av Maduros fru Cilia Flores

    Har du tips om saker du vill att vi ska granska så hör av dig!