AI könsförskjutning Ă€r ingen glitch i systemet – FN-rapporten

AI könsförskjutning Àr ingen glitch i systemet - FN-rapporten

Teknikindustrins problem med köns- och rasdiversitet kommer bara att förvÀrras om inte ÄtgÀrder vidtas pÄ institutionell och systemnivÄ, enligt experter.

Även om teknikbranschens brist pĂ„ mĂ„ngfald inte Ă€r nĂ„got nytt, tycks tanken att helt enkelt “fĂ„ tjejer att koda” rĂ€tta till situationen misslyckas.

Enligt författarna till en kommande FN-rapport krÀver lösningarna en radikal omprövning av statlig tillsyn och reglering av sjÀlva tekniksektorn.

Rörledningsproblemet

Judy Wajcman, professor i sociologi vid London School of Economics, beskrev i praktiken vid CogX-konferensen de problem som kvinnor inom teknik stÄr inför efter att ha samlat bevis i mer Àn ett Är.

”Vi vill inte upprepa tidigare misstag, och det misstag jag vill prata om Ă€r vad som har blivit kĂ€nt som rörledningsproblemet. IdĂ©n att, pĂ„ nĂ„got sĂ€tt, bristen pĂ„ kvinnor Ă€r ett problem som bara kommer att förbĂ€ttras med tiden, att det pĂ„ nĂ„got sĂ€tt Ă€r ett generationsproblem, och att om vi bara fĂ„r tjejer att koda kommer det sĂ„ smĂ„ningom att rĂ€tta till sig sjĂ€lv. ”

Wajcman hĂ€vdar att lösningen pĂ„ problemet gĂ„r mycket djupare. “Det [the getting girls to code framework] fokuserar mycket pĂ„ problemet att kvinnor har bristande intresse för teknik och deras [lack] kompetens, snarare Ă€n att lĂ€gga tonvikten pĂ„ institutionerna sjĂ€lva, sĂ€ger Wajcman.

“Det finns gott om bevis för att mĂ„nga kvinnor gĂ„r in i teknik, men Ă€ndĂ„ finns det höga andelar, det finns problem med befordran, det finns problem med lön.”

LĂ€s mer – Priset som Ă€ndrar berĂ€ttelsen om kvinnor i teknik

Kulturproblemet

”En teknisk kultur har utvecklats som Ă€r ganska fientlig mot kvinnor”, ​​sĂ€ger Erin Young, stipendiat vid Alan Turing Institute. “Det hĂ€r kan vara allt frĂ„n mikroangrepp till sexuella trakasserier och andra former av diskriminering.”

Medan mÄnga företag har gjort anstrÀngningar för att bekÀmpa sexuella trakasserier och diskriminering de senaste Ären, anser Young att lösningarna krÀver en betydande omprövning av företagsstrukturen.

“Studier tittar ocksĂ„ pĂ„ vad som kallas maskulina standardvĂ€rden”, sa Young. ”Detta Ă€r sĂ€rskilt vanligt i Silicon Valley just nu och arbetsplatskulturen inkluderar allt frĂ„n förĂ€ldraledighetspolicy till avslappnade samtal och löneklyftan. Det inkluderar ocksĂ„ trenden, sĂ€rskilt i tekniska nystartade företag, att arbeta löjligt lĂ„nga timmar, vilket helt enkelt inte Ă€r möjligt för mĂ„nga kvinnor som gör lejonparten av hushĂ„llens obetalda vĂ„rdarbete hemma. ”

Med detta argument Àr det tydligt att den enda effektiva, lÄngsiktiga lösningen för könsskillnaderna inom teknik Àr att ompröva hur en bredare arbetskultur och ett samhÀlle Àr strukturerat och drivs.

AI-problemet

“Problemet med nuvarande teknik Ă€r att det inte Ă€r köns- eller rasneutralt, eftersom det fungerar för dem som bygger dem: vita mĂ€n”, sa Young.

Medan artificiell intelligens ofta betraktas som en av de viktigaste tekniska utvecklingen de senaste Ären, gjorde forskarna klart att tekniken, som den ser ut, ser ut att göra mer skada Àn nytta.

”Vi kan inte förstĂ„ dessa tekniker som könsneutrala verktyg”, sĂ€ger Young, ”utan snarare som en del av ett bredare socio-politiskt sammanhang som formar deras design, deras syfte och deras anvĂ€ndning. Enkelt uttryckt Ă€r bristen pĂ„ mĂ„ngfald inom teknikindustrin och dessa framvĂ€xande konstruktioner av könsförskjutning djupt sammanflĂ€tade. ”

Även om denna idĂ© kan verka abstrakt och kortvarig, Ă€r dess konsekvenser alltför verkliga. Till exempel nedgraderade en Amazon-anstĂ€llningsalgoritm sökande som hade könsbeteckningar i sina CV. Kvinnor fick pĂ„stĂ„s ocksĂ„ lĂ€gre kreditgrĂ€nser nĂ€r de ansökte om Apple-kortet tack vare en felaktig Goldman Sachs-algoritm.

Young pekade till och med pÄ bristfÀllig datorsynsteknik, vilket visade att ett dÄligt konstruerat system missbildade en bild av en ung Oprah Winfrey.

Även om dessa kan lĂ„ta som smĂ„ isolerade hĂ€ndelser, var Young angelĂ€gen om att pĂ„peka att nĂ„gra av de största tekniska företagen i vĂ€rlden Ă€r lyckligt omedvetna om sina egna fördomar.

“Det vanliga kvinnliga könet av virtuella personliga assistenter som Alexa eller Siri Ă€r ett annat, ganska uppenbart fall av partisk design dĂ€r traditionella, men Ă€ndĂ„ skadliga stereotyper om kvinnors roll Ă€r lydiga, underhĂ„llande och tĂ€mjda, förankras ytterligare”, sa hon.

“Det som vi tycker Ă€r mest skadligt med automatiserade beslutssystem Ă€r att de faktiskt frĂ€mjas och uppfattas som mycket mer objektiva och neutrala, snarare Ă€n att de skrivs för vissa preferenser och vĂ€rderingar,” sa Young. “Och detta kan ytterligare reproducera och förstĂ€rka befintliga ojĂ€mlikheter.”

”Könsförskjutning och andra fördomar Ă€r inte ett problem i systemet”, sade Young och sammanfattade. ”Det handlar inte om de dĂ„liga avsikterna, men det handlar om den grundlĂ€ggande arkitekturen i dessa system. Men som jag nĂ€mnde ser saker och ting ut, och vissa företag utvecklar nu könsneutrala röstassistenter. Feministiska forskare har ökat medvetenheten om och utmanat dessa frĂ„gor inom teknikindustrin och de behandlas.

Regleringsproblemet

Trots vissa framsteg mÄste det göras mer betydande ingripande för att sÀkerstÀlla att AI-verktygen som Àr instÀllda för att styra vÄra liv förblir rÀttvisa för alla. I en förhandsvisning av deras kommande FN-rapport redogjorde Young och Wajcman för nÄgra av sina resultat och rekommendationer för hur man löser problemen.

“För det första bör regeringar se till att ny teknik utvecklas inom ett regelverk som prioriterar och skyddar kvinnors rĂ€ttigheter”, sĂ€ger Young. “Och för det andra bör etiska ramar för granskning och övervakning av AI-teknik sĂ€tta jĂ€mstĂ€lldhet mellan könen.”

“Kvinnor bör vara lika partner i tekniskt arbete”, sĂ€ger Wajcman. “Inte bara för att lika möjligheter Ă€r en social rĂ€ttvisefrĂ„ga, utan ocksĂ„ för att det kommer att sĂ€kerstĂ€lla att vi fĂ„r den bĂ€sta tekniken och den bĂ€sta datavetenskapen.”