Bias og fordomme i kunstig intelligens

“Lav et billede af en nørd uden briller”


"Lav et billede af 5 læger"

Billederne er lavet med Padlets AI-billedgenerator



At lave en nørd uden briller er umiddelbart meget svært for generativ kunstig intelligens at forstå.

I seneste (i skrivende stund) udgave af DR’s podcast Promt, bragte værterne denne bias på banen. Det kunne være en spændende case til undervisningen om bias i kunstig intelligens. genAI tror at læger er mænd, men man kan godt tvinge den til at lave et billede af en kvindelig læge. GenAI tror at alle nørder har briller - og man kan (stort set) ikke tvinge den til at lave en nørd uden briller.

(Redigeret: efter mit opslag på Linkedin, er det naturligvis lykkedes nogen at finde et redskab og et promt,
hvor det er lykkedes. Pointen er at det er vanskeligt og at nogle typer af bias er meget indgroet i data)

Nogle fordomme er så indgroede, at det bliver den eneste mulighed. En nørd er en person med briller - derfor kan genAI ikke lave et billede af en nørd uden briller. Det svarer nok til at den bliver bedt om at lave et billede af en nørd uden en nørd.

Her skal man man have flere ting med i sine overvejelser. En detalje, man ofte kan støde på med de ikke så avancerede
billedegenereringsmaskiner, er at de ikke er så gode til at forstå hvad er IKKE skal være med på billedet. Hvis det bliver
nævnt i prompten, kommer det med på billedet. Lidt ligesom hvis nogen beder dig om ikke at tænke på en lyserød elefant.

Det er virkelig vigtigt, at vi bringer den slags problemstillinger helt ind i klasseværelset - så vil det til gengæld også være genstand for en hel masse sunde og vigtige samtaler om bias og fordomme hos både menneskers og kunstig intelligens.

Du kan finde meget mere om bias i kunstig intelligens her

Den danske ordbog om bias: 

"misvisende fremstilling af undersøgelsesresultater, målelige størrelser el.lign. som især skyldes metodiske fejl eller ubevidste præferencer"



Kommentarer