I takt med udviklingen og udbredelsen af kunstig intelligens er der kommet en opmærksomhed på de uønskede bias, der kan finde vej ind i IT-systemer. Det er bias, der i anvendelsen af det konkrete IT-system kan have konsekvenser for forskellige befolkningsgrupper alt efter køn, hudfarve, alder, funktionsdygtighed, social klasse, m.m.
De uønskede bias, der kan findes i IT-systemer, er resultatet af det komplekse krydsfelt mellem IT, mennesker og processer – organisatoriske så vel som tekniske – som IT-systemer udvikles i. Denne specifikation omhandler IT-systemer, der udfører eller bidrager til beslutninger vedrørende grupper af mennesker, herunder specifikt IT-systemer baseret på kunstig intelligens. Tilblivelsen af IT-systemer indbefatter også en række menneskelige beslutninger: i alle faser af udviklingsprocessen bliver der taget beslutninger, og i disse menneskelige beslutningsprocesser kan bias komme til udtryk.
Specifikationen har til formål at vejlede i, hvordan man kan skabe gennemsigtighed om disse bias og deres mulige konsekvenser. Herefter er det op til læseren selv at vurdere, hvilke bias der er ønskede, uønskede og neutrale.