Hvordan ændrer Big Data dagligdagen overalt i Amerika?

Hvordan ændrer Big Data dagligdagen overalt i Amerika?
Hvordan ændrer Big Data dagligdagen overalt i Amerika?

Video: Desegregation in Corporate America: African-American Civil Rights Movement (1950s) 2024, Kan

Video: Desegregation in Corporate America: African-American Civil Rights Movement (1950s) 2024, Kan
Anonim

Ideen om 'big data' er blevet allestedsnærværende, hvad er det, og hvordan ændrer det den måde, vi lever på? Vi satte os sammen med datavidenskabsmand, Harvard PhD og National Book Award-nominerede Cathy O'Neil for at finde ud af det.

CT: Lad os starte med det grundlæggende - hvad er egentlig 'big data'?

CO: Big data er en ny tilgang til at forudsige ting. Mere specifikt er 'big data' brugen af ​​tilfældigt indsamlede data - som hvordan du søger gennem din browser eller hvad du gør på Facebook - til at udlede ting om dig, som hvad du vil købe eller hvad dine politiske tilknytninger er. Det er en indirekte måde at finde ud af folk på. Et kamera, der overvåger os, spørger for eksempel ikke 'Hvad laver du?' - det får bare se, hvad vi laver.

CT: Og hvad er en algoritme?

CO: Algoritmer er beregninger, der [fortolker] de data, der er samlet om dig for at skabe en forudsigelse. Tænk på det som en matematisk ligning, der prøver at besvare et spørgsmål, der er indrammet som forudsigelse, såsom: 'Er denne person ved at købe noget?' eller 'Er denne person ved at stemme på nogen?'

CT: Hvorfor hører jeg så meget om det lige nu?

CO: Før 'big data', ville statistikere gøre dyre ting som at afstemme folk for at finde ud af fremtiden. For eksempel at stille folk direkte spørgsmål som: 'Hvem skal du stemme for?' Nu stoler vi i stigende grad på 'data-udstødning', som jeg kalder de data, der konstant indsamles om dig, for at udlede tingene om dig.

Før 'big data' havde virksomheder kun vilde gætte at gøre. Nu har vi bedre end vilde gætte. Det overraskende er, at de fleste big data-algoritmer er vildt unøjagtige, og der er ingen grund til at tro, at de har ret. Men de er bedre end vilde gætte. Og det er derfor, big data er taget ud, som det har gjort.

CT: Hvis de er unøjagtige, hvad reflekterer de så?

CO: De mangelfulde datasæt, som vi fodrer dem. Algoritmer ved ikke noget ud over, hvad vi fortæller dem. Så når vi har ujævne data, og vi fodrer det til algoritmen eller partiske data, vil det tro, det er virkeligheden.

Image

Ailsa Johnson / © Culture Trip

CT: Hvad er et ægte eksempel på det?

CO: Et eksempel kan være, at sorte mennesker i USA fem gange er mere tilbøjelige til at blive arresteret for at ryge gryde end hvide mennesker. Dette skyldes ikke, at sorte mennesker ryger gryden oftere - begge grupper ryger gryden med samme hastighed. Sorte mennesker er bare meget mere tilbøjelige til at blive arresteret for det. Hvis du overleverer det til en algoritme, som vi gør, vil det korrekt udlede, at sorte mennesker i fremtiden er meget mere tilbøjelige til at blive arresteret for at ryge gryden. Og så vil det give sorte mennesker højere risikoscore for kriminalitet, hvilket har indflydelse på straffedømmelse.

Et andet eksempel er et tankeeksperiment. Jeg vil bruge Fox News, fordi Fox News har haft udbrud for nylig relateret til en intern kultur af sexisme. Eksperimentet er 'Hvad ville der ske, hvis Fox News forsøgte at bruge deres egne data til at opbygge en maskinlæringsalgoritme til at ansætte folk i fremtiden?'

Lad os sige, at vi f.eks. Leder efter folk, der havde succes med Fox News. Det afhænger af, hvordan du definerer succes, men som regel ser du på mennesker, der får rejser, forfremmelser eller ophold i lang tid. Ved en af ​​disse foranstaltninger afspejler dataene, at kvinder ikke lykkes med Fox News. Hvis det bruges som ansættelsesalgoritmer, vil det udbrede dette problem. Den ville se på en pool af ansøgere, og den ville sige 'Jeg vil ikke ansætte nogen kvinder, fordi de ikke har succes her. De er ikke gode lejere. ' Og det behøver ikke blot at være Fox News - enhver virksomhedskultur har bias. Når du fodrer en algoritmedata, spreder algoritme-biasen det derefter. Det fortsætter med at styrke de fordomme, der allerede findes i samfundet.

CT: Er forudindenet forsætlige?

CO: Jeg tror ikke dataforskere forsøger at fremstille sexistiske eller racistiske algoritmer. Men maskinlæringsalgoritmer er usædvanligt gode til at samle relativt nyanserede mønstre og derefter propagere dem. Det er ikke noget, som forskere med vilje gør, men det er ikke desto mindre bias.

CT: Hvilken rolle spiller unøjagtige algoritmer i vores daglige liv?

CO: De bruges i alle mulige beslutninger i folks liv - alt fra optagelser i college til at få et job.

Der er algoritmer, der bestemmer, hvordan politiet skal politiudføre kvarterer, samt algoritmer, der bestemmer, hvordan dommerne vil dømme tiltalte. Der er algoritmer, der bestemmer, hvor meget du skal betale for forsikring, eller hvilken type APR [rente] du får på dit kreditkort. Der er algoritmer, der bestemmer, hvordan du skal på dit job, som bruges til at bestemme lønnsstigninger. Der er algoritmer hvert skridt fra vejen til død.

CT: Så hvor forlader det os?

CO: Vi er sprunget ind i big data-æraen og har kastet algoritmer til hvert eneste problem, vi har, under antagelse af, at disse algoritmer skal være mere retfærdige end mennesker - men faktisk er de lige så uretfærdige som mennesker. Vi skal gøre det bedre.

Klik her for at læse den anden del af vores interview med Dr. O'Neil. Hendes bog, The Weapons of Math Destruction: How Big Data Øger uligheden og truer demokratiet er tilgængelig nu.