Fordomme AI skifter amerikanske liv. Hvad kan vi gøre ved det?

Fordomme AI skifter amerikanske liv. Hvad kan vi gøre ved det?
Fordomme AI skifter amerikanske liv. Hvad kan vi gøre ved det?

Video: DE RUINEDE DET FOR MIG! | Vi er The Davises 2024, Juli

Video: DE RUINEDE DET FOR MIG! | Vi er The Davises 2024, Juli
Anonim

Forestil dig en verden, hvor kunstigt intelligente algoritmer træffer beslutninger, der påvirker din hverdag. Forestil dig nu, at de er fordomme.

Dette er den verden, vi allerede lever i, siger dataforsker, Harvard PhD og forfatter Cathy O'Neil. (Læs del en af ​​vores diskussion med Dr. O'Neil her). Vi satte os ned med den nominerede National Book Award for at finde ud af, hvad vi kan gøre med fordomme i ælden af ​​big data. CT: Er AI fordømt?

CO: Enhver algoritme, der ikke eksplicit er blevet gjort fair, skal antages at være fordømt. For som mennesker er vi fordomme. Hvis vi anerkender det, og vi opretter disse algoritmer med vores værdier og vores data, skal vi ikke antage, at noget magisk er sket for at gøre tingene retfærdige. Der er ingen magi der.

CT: Hvor får algoritmer deres data?

CO: Det afhænger af algoritmen. Nogle gange er sociale medier, for ting som politisk markedsmålretning eller reklame eller for-profit colleges og rovdyrudlån - men en masse af dataene indsamles ikke på sociale medier eller endda online.

Dataindsamling er i stigende grad bundet til det virkelige liv, som at få et job, arbejde på dit job, gå på college eller gå i fængsel. Disse ting er ikke ting, vi kan omgå med beskyttelse af personlige oplysninger. Det er magtspørgsmål, hvor de mennesker, der er målrettet mod algoritmerne ikke har magt, og de mennesker, der indsamler informationen og bygger og implementerer algoritmerne har al magt. Du har ikke nogen rettigheder til beskyttelse af personlige oplysninger, hvis du er en kriminel tiltalte, du ikke har nogen rettigheder til beskyttelse af personlige oplysninger på dit job, og du har ikke meget i vejen for privatlivets fred, hvis du ansøger om et job, fordi hvis du ikke besvarer de spørgsmål, som din fremtidige arbejdsgiver har stillet dig, vil du sandsynligvis ikke få jobbet.

Vi bør tænke mindre på privatliv og mere om magt, når det kommer til algoritmer og skaden [de kan forårsage].

CT: Hvad kan vi gøre for at gøre det bedre?

CO: Vi kan erkende, at disse algoritmer ikke er iboende perfekte og teste dem for deres mangler. Vi bør have løbende revisioner og monitorer - især til vigtige beslutninger som ansættelse, straffedømmelse eller vurdering af mennesker på deres job - for at sikre, at algoritmerne fungerer på den måde, som vi vil have dem, ikke på en slags diskriminerende eller urimelig måde.

Image

Ailsa Johnson / © Culture Trip

CT: Hvad er de bedste og værste sager for den datadrevne fremtid?

CO: Det værste tilfælde er, hvad vi har nu - at vi alle blindt forventer, at algoritmer skal være perfekte, selvom vi skulle vide bedre nu. Og vi formerer fortidens uretfærdigheder og uretfærdigheder. Og vi fortsætter med at ignorere fejlene i disse algoritmer.

Det bedste tilfælde er, at vi anerkender, at disse algoritmer ikke i sagens natur er bedre end mennesker. Vi beslutter, hvad vi vil have som mennesker, hvad vi stræber efter. Hvordan vi ønsker, at samfundet skal se ud, og vi lærer disse værdier. Hvis vi gør det med succes, kunne disse algoritmer være bedre end mennesker.

CT: Hvilken rolle kan hverdagen spille?

CO: Den vigtigste rolle, som en person kan spille, er ikke implicit at have tillid til nogen algoritme. At have en enorm mængde skepsis. Hvis du evalueres på en algoritme, så spørg 'Hvordan ved jeg, at det er fair, hvordan ved jeg, at det er nyttigt, hvordan ved jeg, at det er nøjagtigt? Hvad er fejlfrekvensen? For hvem mislykkes denne algoritme? Fejler det kvinder eller mindretal? ' Stil den slags spørgsmål.

Den anden ting ud over skepsis er, at hvis du tror, ​​en algoritme er uretfærdig over for dig eller andre mennesker, er det at organisere sig med disse andre mennesker. Et nyligt eksempel er lærere. De statistiske modeller om værditilpassede lærere er forfærdelige, næsten tilfældige talgeneratorer. Men de blev brugt til at beslutte, hvilke lærere der skulle få mandat, og hvilke lærere der skal fyres over hele USA.

Mit forslag er, at de får deres fagforening til at skubbe tilbage. Og dette skete nogle steder. Men det er overraskende, hvor lidt modstand der var på grund af scoresystemets matematiske karakter.

CT: Hvordan kom du ind i 'big data'?

CO: Jeg arbejdede på Wall Street og var vidne til den økonomiske krise indefra. Jeg blev oprørt af den måde, hvorpå matematik blev brugt til enten at drage fordel af mennesker eller til at narre folk. Jeg så den slags skade, der kunne komme af matematiske løgner, hvad jeg kalder 'våbenføring af matematik'.

Jeg besluttede at komme væk fra det, så jeg sluttede mig til Occupy Wall Street og begyndte at arbejde som dataforsker. Jeg blev langsomt klar over, at vi så fejlbehæftede og vildledende hype omkring vildledende datalgoritmer, der også foregik uden for Wall Street, og at det ville føre til en masse skade. Forskellen var, at mens mennesker overalt i verden bemærkede den økonomiske krise, troede jeg ikke, at folk ville bemærke fejlene i disse big data-algoritmer, fordi de normalt sker på individuelt niveau.

Læs del en af ​​vores diskussion med Dr. O'Neil her. Dr. Cathy O'Neils bog, The Weapons of Math Destruction: How Big Data Øger uligheden og truer demokratiet, er tilgængelig nu.

Populær i 24 timer