Skip to Main Content

Artificiell intelligens och chattbotar

Denna guide är skapad av Chalmers Biblioteks AI-grupp och är licensierad under CC BY-NC-SA.

Snedvridet resultat på grund av snedvriden träningsdata

Eftersom svaren från generativ AI baseras på träningsdata är innehållet i det inkluderade materialet avgörande för funktionen. Många AI-företag har skrapat internet på material för att inkludera i sin träningsdata. Om vi föreställer oss att en språkmodell tränats på all text som finns på internet innebär det att mycket oönskat material har inkluderats. Detta innebär att alla inlägg på sociala medier och information från icke trovärdiga källor reflekteras i chattbotens genererade svar.

Tack vare att språkmodellerna baseras på sannolikheter är det följaktligen de mest återgivna åsikter och perspektiv som kommer genereras fram i första hand. Som användare av AI-verktyg bör vi tänka på vilka perspektiv som troligen är de mest dominerande i modellens träningsdata och vilka perspektiv och röster som inte är det. Det är svårt att få nyanserade bilder eller analyser av samhällsfenomen eftersom de mest marginaliserade perspektiven inte kommer fram.

AI-företag som utvecklar chattbottar kan också välja att filtrera eller forma chattbotarnas svar utan att det tydliggörs för användare. Denna brist på transparens lyfter frågor kring partiskhet och censur samt vem som äger information och tillgång till den.

Upphovsrätt och informationssäkerhet

AI-företag är sällan öppna med ursprunget till den träningsdata som ligger till grund för sina språkmodeller. Vissa företag tycks ha skrapat internet på texter utan upphovspersonernas tillåtelse. Eftersom träningsdata innehåller upphovsrättsskyddat material är de genererade svaren även influerade av dessa vilket är problematiskt i förhållande till intellektuella rättigheter.

Det framgår inte alltid om dina promptar eller materialet du laddar upp till chattbotarna används som träningsdata för AI-företagens språkmodell. I vissa chattbotar är det möjligt att ändra inställning så att dina promptar inte absorberas av AI-företaget för att användas i utvecklingen av deras språkmodell men vissa chattbotar kräver att du använder betalversionen för att kunna göra det. På grund av detta bör du inte ladda upp material som innehåller känslig eller privat information eller något material som är skyddat av upphovsrättslagen, till exempel PDF:er med vetenskapliga artiklar som du laddat ner från bibliotekens databaser. Om du har text som ska ingå i ett examensarbete, avhandling eller vetenskaplig publikation bör du inte skicka in det till en chattbot då det kan innebära att du frånsäger dig upphovsrätten till materialet.

En annan fråga är huruvida det är AI-användaren eller AI-företaget som äger det genererade svaret från en chattbot. Här är det viktigt att känna till att upphovsrättslagar kan skilja sig åt mellan olika länder, något som är problematiskt då de flesta AI-företagen är baserade i USA men går att använda över hela världen. Frågan om upphovsrätt och AI är mycket komplex då det inte finns tillräckligt många rättsfall för att med säkerhet kunna fastslå vilken typ av användning som är acceptabel i vilka situationer. Det har hunnit bli några rättsfall, till exempel Disney och Universal stämmer bildgenereringsverktyget Midjourney 2025 och att en grupp författare inklusive Geroge R.R. Martin stämt OpenAI 2023. Det är således viktigt att reflektera innan du använder chattbotar eftersom det inte går att återkalla privat, känsligt eller upphovsrättsskyddat material i efterhand.

Ett viktigt regelverk inom EU är AI Act som är till för att främja tillförlitlig AI och reglerar utveckling, tillhandahållande och användning av AI. Förordningen definierar olika nivåer av AI-verktyg och vilken risk de utgör: oacceptabel risk, hög risk, begränsad risk, minimal risk.

Figur 6. Risknivåer (Internetstiftelsen. 2024, 13 juni).

Hållbarhet, miljö och energi

För att driva ett AI-verktyg krävs mycket energi. Energin går bland annat till datorkraft och att kyla ned serverhallar med vatten. AI-företag brister ofta i transparens gällande hur mycket energi som går åt när du promptar en chattbot. Det har dock konstaterats att både energi- och vattenförbrukningen ökat de senaste åren i takt med chattbotarnas framväxt.

Det är svårt att avgöra hur mycket energi och vatten som krävs för att använda AI-verktyg. Det beror också på vilket verktyg som används och vad som promptats. Om du däremot räknar på mängden personer som använder chattbotar och hur de används, så är det rimligt att anta att det går åt betydande mängder energi. Med tanke på detta är det viktigt att du är medveten om varför du använder AI, hur du använder AI och ifall AI är nödvändigt för den aktuella uppgiften. Kanske kan en webbsökning fungera lika bra?

Vidare läsning:

En AI förstår dig inte

Språkmodeller är, som namnet antyder, bra på att imitera språk. Vid interaktion med en chattbot framstår svaren ofta som oskiljaktiga från sådana svar som en människa kan formulera. Det kan inge känslan att man kommunicerar med en annan person men när man bryter ner tekniken ser man att det hela bygger på statistik och sannolikheter snarare än medvetande och magi.

Generativ AI är baserad på komplexa statistiska modeller och är skapad med avancerade djupinlärningstekniker som är inspirerade av de neurala nätverken i en mänsklig hjärna. Det finns algoritmer som är till för att utläsa kontext och sammanhang vilket ska generera ett mer relevant svar baserat på din prompt. Vad en generativ AI inte kan göra är att “förstå” din prompt på samma sätt som en människa förstår, även om generativ AI kan ha hög kapacitet att generera relevanta svar.

Det pågår många diskussioner kring vad intelligens och medvetande är men som användare av AI-verktyg är det bra att känna till funktionaliteten bakom tekniken för att inte få överdrivna förväntningar på resultatet. En metafor som används för att beskriva generativ AI är "stochastic parrots" då man menar att liksom papegojor kan chattbotar härma mänskligt tal och uttryck men inte förstå vad som sägs.

 

Såhär skriver ChatGPT (GPT-4o) om innebörden av stochastic parrots (2025-07-25):

När man kallar stora språkmodeller och chatbots för “stochastic parrots” syftar man på att de:

  1. Mekaniskt reproducerar språk utan förståelse
    – De lär sig mönster i textdata och förutspår nästa ord utifrån statistiska sannolikheter, snarare än att “förstå” eller reflektera över innehållet
     
  2. Regurgiterar det de tränats på
    – Precis som en papegoja kan härma fraser utan att förstå betydelsen, kan modellen återge formuleringar eller fakta från sin träningsdata – inklusive felaktigheter och fördomar.
     
  3. Är stokastiska
    – Vid varje generering drar de slumpmässigt från en sannolikhetsfördelning över nästa ord, vilket gör att samma ingång kan ge olika utdata över olika körningar.

Kort sagt betonar termen att dessa system, trots imponerande språklig förmåga, bara är statistiska apparater som “papegojor” som kombinerar och återanvänder det de har sett, utan egen insikt eller avsikt.