Kā Big Data maina ikdienas dzīvi visā Amerikā?

Kā Big Data maina ikdienas dzīvi visā Amerikā?
Kā Big Data maina ikdienas dzīvi visā Amerikā?

Video: Tatjana Volkova - Nākotnes nodarbināmība: qua vadis? 2024, Jūlijs

Video: Tatjana Volkova - Nākotnes nodarbināmība: qua vadis? 2024, Jūlijs
Anonim

Ideja par “lielajiem datiem” ir kļuvusi visuresoša, bet kas tas ir un kā tas maina mūsu dzīves veidu? Apsēdāmies pie datu zinātnieces, Hārvardas PhD un Nacionālās grāmatu balvas nominantes Keitijas O'Nīlas.

CT: Sāksim ar pamatiem - kas īsti ir “lieli dati”?

CO: Lielie dati ir jauna pieeja lietu prognozēšanai. Konkrētāk, “lieli dati” ir nejauši savāktu datu izmantošana, piemēram, kā jūs meklējat caur savu pārlūkprogrammu vai ko jūs darāt Facebook, lai izsecinātu lietas par jums, piemēram, to, ko jūs gatavojaties pirkt vai kāda ir jūsu politiskā piederība. Tas ir netiešs veids, kā izdomāt cilvēkus. Piemēram, fotoaparāts, kas mūs apseko, neprasa “Ko jūs darāt?” - tas tikai ļauj redzēt, ko mēs darām.

CT: Un kāds ir algoritms?

CO: Algoritmi ir aprēķini, kas [interpretē] datus, kas ir apkopoti par jums, lai izveidotu prognozi. Padomājiet par to kā matemātisku vienādojumu, kas mēģina atbildēt uz jautājumu, kas ir izteikts kā pareģojums, piemēram: 'Vai šī persona gatavojas kaut ko pirkt?' vai 'Vai šī persona gatavojas balsot par kādu?'

CT: Kāpēc es par to šobrīd dzirdu tik daudz?

CO: Pirms “lieliem datiem” statistiķi darītu dārgas lietas, piemēram, aptaujājot cilvēkus, lai izdomātu nākotni. Piemēram, uzdodot cilvēkiem tiešus jautājumus, piemēram: “Par ko jūs balsosit?” Tagad mēs arvien vairāk paļaujamies uz “datu izplūdi”, ko es saucu par datiem, kas tiek nepārtraukti savākti par jums, lai izdarītu secinājumus par jums.

Pirms “lielajiem datiem” uzņēmumiem bija jāizdara tikai savvaļas minējumi. Tagad mums ir labāk nekā savvaļas minējumi. Pārsteidzoši ir tas, ka vairums lielo datu algoritmu ir mežonīgi neprecīzi, un nav pamata domāt, ka tiem ir taisnība. Bet tie ir labāki nekā savvaļas minējumi. Un tāpēc lielie dati ir parādījušies līdzīgi.

CT: Ja viņi ir neprecīzi, tad ko viņi atspoguļo?

CO: Nepilnīgas datu kopas, kuras mēs tām barojam. Algoritmi nezina neko citu kā tikai to, ko mēs viņiem sakām. Tātad, ja mums ir nevienmērīgi dati un mēs to izmantojam algoritmam vai neobjektīviem datiem, tiks uzskatīts, ka tā ir realitāte.

Image

Ailsa Džonsone / © Kultūras ceļojums

CT: Kāds ir reālās pasaules piemērs?

CO: Piemērs varētu būt, ka Amerikas Savienotajās Valstīs melnādainie cilvēki ir arestēti piecas reizes biežāk nekā baltie cilvēki. Tas nav tāpēc, ka melnādainie cilvēki biežāk smēķē katlu - abas grupas smēķē katlu ar vienādu ātrumu. Melnādainie cilvēki par to tiek arestēti daudz biežāk. Ja jūs to nodosit algoritmam, ko mēs darām, tas pareizi secina, ka nākotnē melnādainos cilvēkus daudz vairāk arestēs par smēķēšanas katlu. Un tad melnādainiem cilvēkiem tiks doti augstāki noziedzības riska rādītāji, kas ietekmē kriminālsodus.

Vēl viens piemērs ir domas eksperiments. Es izmantošu Fox News, jo Fox News nesen ir bijuši izvirdumi, kas saistīti ar seksisma iekšējo kultūru. Eksperiments ir 'Kas notiktu, ja Fox News mēģinātu izmantot savus datus, lai izveidotu mašīnmācīšanās algoritmu, lai turpmāk pieņemtu darbā cilvēkus?'

Pieņemsim, ka mēs meklējam cilvēkus, kuriem, piemēram, izdevās panākumus. Tas ir atkarīgs no tā, kā jūs definētu panākumus, bet parasti jūs skatāties uz cilvēkiem, kuri saņem paaugstinājumus, paaugstinājumus vai paliek uz ilgu laiku. Izmantojot jebkuru no šiem pasākumiem, dati atspoguļotu to, ka sievietēm Fox News neizdodas gūt panākumus. Ja to izmantotu kā algoritmus, tas šo problēmu izplatītu. Tajā būtu aplūkots pretendentu loks un teikts: “Es nevēlos pieņemt darbā sievietes, jo viņas šeit nav veiksmīgas. Viņi nav labi algotie. ” Un tam nav jābūt tikai Fox News - katrai korporatīvajai kultūrai ir neobjektivitāte. Kad jūs ievadāt algoritma datus, algoritma novirze to izplatās. Tas turpina pastiprināt sabiedrībā jau pastāvošos aizspriedumus.

CT: vai aizspriedumi ir apzināti?

CO: Es nedomāju, ka datu zinātnieki mēģina izveidot seksistiskus vai rasistiskus algoritmus. Bet mašīnmācīšanās algoritmi ir ārkārtīgi labi, lai savāktu salīdzinoši niansētus modeļus un pēc tam tos izplatītu. Tas nav kaut kas tāds, ko zinātnieki apzināti dara, bet tas tomēr ir neobjektivitāte.

CT: Kāda loma mūsu ikdienas dzīvē ir kļūdainiem algoritmiem?

CO: Viņi tiek izmantoti visu veidu lēmumos par cilvēku dzīvi - sākot no uzņemšanas koledžās līdz darba iegūšanai.

Ir algoritmi, kas izlemj, kā policija vadīs apkaimi, kā arī algoritmi, kas izlemj, kā tiesneši sodīs apsūdzētos. Ir algoritmi, kas izlemj, cik jūs maksāsit par apdrošināšanu vai kādu GPL [procentu likmi] iegūsit no jūsu kredītkartes. Ir algoritmi, kas izlemj, kā jums veicas jūsu darbā, kurus izmanto, lai noteiktu atalgojuma pieaugumu. Katrā solī ir algoritmi, sākot no dzimšanas līdz nāvei.

CT: Tātad, kur tas mūs atstāj?

CO: Mēs esam ieslēgušies lielo datu laikmetā un izmetuši algoritmus katrai mūsu problēmai, pieņemot, ka šiem algoritmiem jābūt taisnīgākiem nekā cilvēkiem, taču patiesībā tie ir tikpat negodīgi kā cilvēki. Mums jādara labāk.

Noklikšķiniet šeit, lai lasītu mūsu intervijas ar Dr O'Neil otro daļu. Viņas grāmata “Matemātikas iznīcināšanas ieroči: cik lieli dati palielina nevienlīdzību un apdraud demokrātiju” ir pieejama tagad.

Iecienīta 24 stundām