Google har annonceret at det tager yderligere skridt for at forbedre repræsentationen af forskellige hudtoner på tværs af sine produkter og har implementeret en ny skala, der bedre viser spektret af hudfarve i den virkelige verden.
Google har været særligt åbenhjertig omkring manglen på repræsentation af alle hudfarver i medier og online. Sidste år lancerede virksomheden Real Tone til Pixel, som den siger blot er et eksempel på dets bestræbelser på at forbedre repræsentationen af forskellige hudtoner på tværs af Google-produkter.
MST-skalaen
For at fortsætte denne indsats har virksomheden i dag lanceret en ny hudtoneskala, som den udviklede sammen med Harvard-professor og sociolog Dr. Ellis Monk som har studeret, hvordan hudtone og kolorisme påvirker menneskers liv i mere end 10 år.
Google siger, at kulminationen på hans arbejde er kendt som Monk Skin Tone (MST) Scale, en skala med 10 nuancer, som vil blive indarbejdet i Googles produkter i løbet af de kommende måneder.
“Vi frigiver åbent vægten, så alle kan bruge den til forskning og produktudvikling. Vores mål er, at skalaen skal understøtte inkluderende produkter og forskning på tværs af industrien – vi ser dette som en chance for at dele, lære og udvikle vores arbejde med hjælp fra andre,” Googles produktchef for ansvarlig AI og produktinkludering i Search Tulsee siger Doshi.
Selvom MST-skalaen ikke omfatter alle mulige hudtoner, hævder Google, at den er langt mere repræsentativ for den nuværende tekniske industristandard.
“I vores forskning fandt vi ud af, at folk meget af tiden føler, at de er klumpet ind i racekategorier, men der er al denne heterogenitet med etniske og racemæssige kategorier,” siger Dr. Monk.
“Og mange metoder til kategorisering, inklusive tidligere hudtoneskalaer, er ikke opmærksomme på denne mangfoldighed. Det er her, manglende repræsentation kan ske…vi er nødt til at finjustere måden, vi måler ting på, så folk føler sig repræsenteret.”
MST-skalaen og billedsprog
Google siger, at den ved at bruge MST-skalaen bedre kan forstå repræsentationen i billeder, så den kan være sikker på, at et produkt eller en funktion fungerer godt på tværs af en række hudfarver. Virksomheden siger, at dette er særligt vigtigt, når det kommer til computersyn, som det siger, har vist sig ikke at fungere så godt for mennesker med mørkere hud.
“MST-skalaen vil hjælpe os og den teknologiske industri som helhed med at opbygge mere repræsentative datasæt, så vi kan træne og evaluere AI-modeller for retfærdighed, hvilket resulterer i funktioner og produkter, der fungerer bedre for alle – i alle hudtoner,” forklarer Doshi. “For eksempel bruger vi skalaen til at evaluere og forbedre de modeller, der registrerer ansigter på billeder.”

Google har til hensigt at bruge skalaen til bedre at give hudtonerepræsentation i Googles søgeresultater. For eksempel, hvis nogen skulle søge efter makeup-relaterede forespørgsler, ville de være i stand til at forfine resultater yderligere for at vise billeder efter hudfarve.
Google Fotos vil også blive forbedret takket være integrationen af MST-skalaen. Virksomheden introducerede en måde at forbedre sin autoforbedringsfunktion på sidste år, og i år lancerer det et nyt sæt Real Tone-filtre, der er designet til at fungere godt på tværs af hudtoner og evalueres ved hjælp af MST-skalaen.
“Vi arbejdede med en bred vifte af anerkendte billedskabere, såsom Kennedy Carter og Joshua Kissi, som er fejret for smukke og nøjagtige afbildninger af deres motiver, for at evaluere, teste og bygge disse filtre,” siger Doshi.
“Disse nye Real Tone-filtre giver dig mulighed for at vælge mellem et bredere udvalg af looks og finde et, der afspejler din stil. Real Tone-filtre vil blive rullet ud på Google Fotos på tværs af Android, iOS og Web i de kommende uger.”
For dem, der ønsker mere information om processen med at implementere MST-skalaen, har Google offentliggjort et detaljeret blogindlæg der tager et nærmere kig på den forskning, der gik i hudtonerepræsentation og kunstig intelligens.
.