Kontroll och kvalitet i en AI-driven mjukvaruvärld
Publicerad januari 31, 2026
Publicerad januari 31, 2026

Den ökande användningen av generativ AI inom mjukvaruutveckling har gett upphov till både möjligheter och utmaningar, särskilt inom kvalitetskontroll. En ny doktorsavhandling från Blekinge Tekniska Högskola belyser dessa frågor.
Liang Yu har genomfört forskning om hur mjukvaruteam integrerar generativ AI i praktiska projekt. Han identifierar tre centrala faser i processen: snabb testning av idéer, integration i utvecklingsarbetet och drift med användardata som grund för lärande.
Kvalitetsgranskning spelar en roll i alla dessa faser, men ofta sker den i isolerade grupper. Detta skapar en brist på övergripande ansvar. Avhandlingen presenterar ett ramverk för att stödja organisationer i att evaluera AI-funktioner under utvecklingen.
Detta ramverk tydliggör när kvalitetskontroller bör genomföras, vad som ska kontrolleras och vem som har det slutgiltiga ansvaret.
Liang Yu framhåller att med rätt metoder kan företag implementera generativ AI utan att förlora kontrollen över kvalitet och ansvar. Han påpekar också ett problem med ”koordinationsglapp” där tydliga roller saknas, vilket kan leda till kvalitetsrisker.
För att motverka detta föreslås att en samordnande funktion inrättas, exempelvis i form av en domänexpert, för att sammanföra kvalitet, dokumentation och ansvar på ett effektivt sätt. Med AI:s växande betydelse inom kritiska samhällstjänster är det avgörande att ansvarsfördelningen klargörs.