Innan jag började att driva ett företag där vi designade egna IoT-sensorer hade jag inte tänkt så mycket på varför en sensor skulle monteras på ett visst sätt. En temperatur var en temperatur liksom, så länge rätt data kom in så var allt lugnt, eller?
Nu när AI gör entré så har jag efteråt förstått vikten av att vi var noga från början. De flesta av oss har ju någon gång stött på ett AI-svar som känts fel eller rent av nedslående. En hallucinerad sammanfattning, en felaktig översättning, ett svar som ignorerade det uppenbara, eller ett smart system som tog ett dumt beslut. Ibland kan det vara underhållande, och säkert ett bra skämt för kommande AW eller fikarast. Men när AI-beslut börjar användas i fysiska system – för att styra enheter, reagera vid nödsituationer eller påverka utfall inom vård eller industri – då är det inte längre ett skämt, då kan det bli stökigt på riktigt.
Jag är expert på IoT och uppkopplade enheter, men har nördat ned mig i AI på senaste tiden. Jag tar med mig mina erfarenheter från konstiga AI-svar och omsätter det till min verklighet. Hur kan snedvridning, bias, smyga sig in genom sensorer och IoT-infrastruktur och vad händer då?
Stora mängder av fel
Till skillnad från traditionella IT-system samlar IoT-system in stora mängder realtidsdata från fysiska sensorer i varierade miljöer. Data kan utgöra grunden för att träna AI-modeller – och det gör att den i förlängningen används som bas för beslut. Om den insamlade datan inte speglar verkligheten korrekt, riskerar hela AI-pipelinen att skala fel. Det är som att bygga sitt aktieinnehav på överdrivet positiva siffror – en sådan investering känns kanske bra i början men förr eller senare kommer den att göra dig besviken.
AI är som barn – den gör som vi gör, inte som vi säger
Bias i IoT-baserade system kan ha många källor – både tekniska och sociotekniska. Sensorer kan generera felaktig data på grund av hårdvarufel, dålig kalibrering, avvikelser eller saknade värden över tid. Sensorfel som ligger utanför förväntad data, degradering på grund av ålder eller miljöpåverkan, jamen alla typer av fel spelar in. Men låt oss inte klanka ned på hårdvaran, det vanligaste problemet med bias är människor – vanligast kanske är sensorer som monteras fel och ger felaktiga värden. En temperatursensor som ska mäta rumstemperatur som placeras i direkt solsken kommer, i jämförelse med andra korrekt monterade sensorer, att introducera bias. Hårdvarufel eller tillfälliga uppkopplingsproblem kan också leda till ofullständiga tidsserier. Här ligger en hel del på hårdvarudesignerns bord.
Sampling bias är när data samlas in oproportionerligt. Algoritmer tränas på statistiskt skev indata och genererar därför avvikande resultat tillämpade på andra grupper eller i andra kontexter. Ett sådant exempel är smarta städer, där sensorer oftare placeras i centrala områden medan områden utanför stadskärnan inte täcks på samma sätt. Detta fenomen kallas “sensoröknar” – zoner där lite eller ingen data samlas in. Resultatet: områden, levnadsmiljöer eller grupper blir osynliga i datamängden, vilket leder till snedvridna analyser eller feltolkningar.
Transport och självkörande fordon
Moderna fordon är utrustade med en mängd IoT-sensorer – radar, lidar, kameror – alla avgörande för säker navigation. Forskning har visat att AI-modeller för fotgängardetektering i självkörande bilar presterar sämre vid identifiering av barn och personer med mörkare hudton. En skillnad som kan innebära en farlig form av bias om livsavgörande beslut hänger på maskiners förmåga att uppfatta omgivningen korrekt.
Det här speglar ett djupare problem: IoT-system lär sig av världen såsom den har dokumenterats, inte så som den faktiskt är. Och när dataset speglar samhällets befintliga ojämlikheter gör teknologin det också.
Bias i IoT-data är ett komplext problem som kräver insikt i både tekniska och mänskliga faktorer. Att begränsa sig för mycket kan innebära en risk för bias. Att redan på designstadiet begränsa målgruppen eller användningsområden kan innebära att man designar för ett bias. Därtill läggs nu regulatoriska ansvar på exempelvis sensortillverkare att enheter inte skall kunna generera data som är osannolik, exempelvis 500 graders rumstemperatur. Detta krav att filtrera bort data som produkttillverkaren anser vara osannolik tillför ytterligare risk för bias. Helt klart är att AI-beslut fattas på den verklighet vi matar den med – inte den verklighet vi tror att vi lever i. I en tid där maskiner börjar fatta beslut åt människor, måste är det inte okej. Bias är inte bara en bugg i en modell, utan något som påverkas av hela kedjan: från sensorval och datainsamling till tolkning och tillämpning. Ska vi bygga rättvisa, tillförlitliga system krävs medvetna val i varje led.
Denna krönika skrevs för Critical Communication Sweden News 2025-03

