Innan jag började att driva ett företag där vi designade egna trådlösa sensorer för att mäta hade jag inte tänkt så mycket på varför en sensor skulle monteras på ett visst sätt. En temperatur var en temperatur liksom, så länge rätt data kom in från sensorn så var allt lugnt, eller?
Vi var noggranna från början och såg till att rätt data kom in från hårdvaran. Nu när AI gör entré så har jag fått ytterligare förstått vikten av att göra rätt från början. För de flesta av oss har någon gång stött på ett AI-svar som känts fel eller rent av nedslående. En hallucinerad sammanfattning, en felaktig översättning, ett svar som ignorerade det uppenbara, eller ett smart system som tog ett dumt beslut. Ibland kan det vara underhållande, och säkert ett bra skämt för kommande AW eller lunch med kollegorna. Men när AI-beslut börjar användas i fysiska system – för att styra enheter, reagera vid nödsituationer eller påverka utfall inom fastigheter, vård eller industri – då är det inte längre roligt med hallucinerad data, då kan det bli stökigt på riktigt.
Den här artikeln utforskar en särskild sårbarhet i AI som ofta förbises: bias – och hur den smyger sig in genom sensorer och IoT-infrastruktur. När datainsamling kombineras med edge computing och maskininlärning kan även välmenande AI-logik hamna snett. Om din AI är tränad, validerad eller implementerad på grundval av snedvriden data kommer inte slutsatserna att vara neutrala. I värsta fall kan slutsatserna både legitimera redan felaktiga antaganden eller förstärka dem.
Du kanske tycker att det här med AI är något som genomsyrar för många debatter, känner att det räcker, inte en till artikel om AI. Men om det är någon artikel du skall läsa så är det den här. Den handlar om AI och snedvriden data, bias? När IoT och AI kryper allt närmre varandra tyckte jag att jag behövde förstå hur bias kan påverka, och i värsta fall, förstöra nyttan av kombinationen IoT och AI. Det jag hittade var så pass viktigt att jag vill sprida ordet vidare.
Så låt oss titta på hur bias påverkar data som samlas in, låt oss gå från sensor till algoritm – och varför IoT spelar en nyckelroll om vi vill ge AI rätt data och i slutändan få riktiga resultat, svar vi kan lita på helt enkelt.
Hur bias påverkar resultatet när AI och IoT samverkar
Till skillnad från traditionella IT-system samlar IoT-system in stora mängder realtidsdata från fysiska sensorer i komplexa och varierade miljöer. Denna data kan användas till och utgöra grunden för att träna AI-modeller – och det gör att den i förlängningen används som bas för beslut. Om den insamlade datan inte speglar verkligheten korrekt, riskerar hela AI-pipelinen att skala dessa fel. Det är som att bygga sitt aktieinnehav på överdrivet positiva siffror – en sådan investering känns kanske bra i början men förr eller senare kommer den att göra dig besviken och orsaka skada.
När bias tar sig in i mätsystem riskerar det att förstärka befintliga ojämlikheter – vilket kan skapa nackdelar för exempelvis en grupp eller ett område. Det handlar inte bara om rent teknisk noggrannhet, utan konsekvenserna av bias sträcker sig till områden som förtroende, etik och efterlevnad av regler.
Varifrån bias uppstår i IoT-data
Bias i IoT-baserade system kan ha många källor – både tekniska och sociotekniska. Sensorer kan generera felaktig data på grund av hårdvarufel, dålig kalibrering, avvikelser eller saknade värden över tid. Sensorfel som ligger utanför förväntad data, degradering på grund av ålder eller miljöpåverkan, jamen alla typer av fel spelar in.
Som ett exempel: luftkvalitetssensorer kan driva iväg i sina värden över tid, det kan handla om något så enkelt som en rengöring som missats. En luftfuktighetssensor kan påverkas vid väderväxlingar och när temperaturen är nära noll grader. Den här typen av sensorer kräver regelbunden tillsyn för att leverera kvalitativ data.
Men låt oss inte klanka ned på hårdvaran, det vanligaste problemet är människor – sensorer monteras fel och ger därmed felaktiga värden. En temperatursensor som ska mäta rumstemperatur men som placeras i direkt solsken kommer, i jämförelse med andra korrekt monterade sensorer, att introducera bias. Hårdvarufel eller tillfälliga uppkopplingsproblem kan också leda till ofullständiga tidsserier. Här ligger en hel del på designerns bord.
Här handlar det om att jobba med sensorer som tar hänsyn till detta – sensorer som kan lagra tusentals datapunkter lokalt vid behov om de tappar kontakt med omvärlden och de filtrerar bort osannolika värden. Detta är så klart en bra startpunkt men samtidigt en risk för ytterligare bias om man begränsar filtreringen för mycket.
Obalanserad datainsamling i IoT
Sampling bias är när data samlas in oproportionerligt under vissa tider, på vissa platser eller från specifika användargrupper. Algoritmer tränas på statistiskt skev indata och genererar därför ogiltiga eller icke-generaliserbara resultat när de tillämpas på andra grupper eller i andra kontexter.
Sensorer samlar av naturliga skäl ofta in data från begränsade miljöer eller urval av befolkningen. Men, det krävs att begränsningen är genomtänkt, för ibland blir det fel. Ett sådant exempel är smarta städer, där sensorer oftare placeras i centrala områden medan områden utanför storstäderna eller stadskärnorna inte täcks på samma sätt. Detta fenomen kallas ibland för “dataöknar” eller “sensoröknar” – zoner där lite eller ingen data samlas in. Resultatet blir att hela områden, levnadsmiljöer eller grupper blir osynliga i datamängden, vilket leder till snedvridna analyser och feltolkningar.
När data från sensorer med begränsade dataset används för luftkvalitetsövervakning eller nyttjandegrad av olika områden vid olika tider, riskerar beslut att baseras på information från vissa områden – och därmed introduera geografiska och sociala skevheter i det offentliga beslutsfattandet. Sensorer på bara vissa platser visar inte samhällets faktiska behov.
Kvalitetskontroll
Om AI-algoritmer tränas enbart på en viss typ av data, data rensat från anomaliteter, finns risken att AI felklassificerar data som avviker från eller inte förekommer i träningsdatan. Ett AI-system som tränats på snedvriden data kommer att prestera sämre och vara mindre tillförlitligt – särskilt i situationer där underrepresenterade användare ingår. Det här speglar ett djupare problem: allt fler smarta system lär sig att världen ser ut så som den har dokumenterats, inte så som den faktiskt är. Och när dataset speglar samhällets befintliga ojämlikheter gör teknologin det också. Dåligt utformade tekniska system återspeglar inte bara bias – risken är att de förstärker den.
Bias skadar förtroendet
Bias urholkar förtroendet. När användare inser att deras tekniska lösning inte fungerar som tänkt sjunker förtroendet för produkten – och företaget bakom den. Förtroende, när det väl är förlorat, är svårt att återfå. För företag är bias i data mer än ett teoretiskt problem – det är en kommersiell risk. Produkter som underpresterar för vissa segment tappar marknadsandelar. Kunder överger produkterna eller företaget och varumärket förlorar värde. Att inte hantera bias är inte bara ett etiskt misstag utan både en risk för kundernas verksamhet och slutligen något riktigt farligt att bygga en verksamhet på.
Juridiska konsekvenser: Bristande efterlevnad är dyrt
Det regulatoriska trycket ökar. Inom EU omfattas AI-applikationer som drivs av IoT av den nya AI-förordningen (AI Act), samt av befintliga antidiskrimineringslagar. System som klassas som högrisk måste dokumenteras med noggranna riskbedömningar, och kunna bevisa att deras data är “representativ, felfri och statistiskt tillförlitlig.”
Upptäckt och hantering av bias
För att hantera bias måste IoT-företag aktivt analysera och justera sina data- och AI-flöden. På sensornivå är regelbunden kalibrering och en löpande validering av mätvärden avgörande för att undvika drift. Data kan rensas från uppenbara fel och brus med statistiska metoder som är särskilt framtagna för att upptäcka anomalier i sensordata, men det bästa är om din sensor är så pass smart att data inte ens skickas när den inte är korrekt.
Avslutande reflektioner: designa för rättvisa
Bias i IoT-data är ett komplext problem som kräver insikt i både tekniska och mänskliga faktorer. Bias är inte bara en biprodukt av felaktig data – det är en systemdesignutmaning som måste hanteras från sensornivån till AI-modellen och vidare till beslutens logik.
Bias är redan ett hot i molnbaserade modeller som tränats på internetdata. Men när AI tar steget in i fysiska miljöer förändras spelplanen. Ingen data är neutral. Ingen sensor är helt opartisk. Varje gång vi mäter världen gör vi val.
Att begränsa sig för mycket kan innebära en risk för bias. Att redan på designstadiet begränsa målgruppen eller användningsområden kan innebära att man designar för ett bias. Därtill läggs nu ett ansvar på exempelvis sensortillverkare att enheter inte skall kunna generera data som är osannolik, exempelvis 500 graders rumstemperatur. Så där finns ett regulatoriskt krav att filtrera bort data som produkttillverkaren anser vara osannolik. Helt klart är detta en balansgång som börjar med en enkel fråga: Bygger vi system som verkligen ser alla – eller bara de som redan är överrepresenterade?
Artikeln skrevs för Aktuella Byggens ventilationsspecial 2025-07

