Iepriekš izlemts, ka AI maina Amerikas dzīves. Ko mēs varam darīt tā labā?

Iepriekš izlemts, ka AI maina Amerikas dzīves. Ko mēs varam darīt tā labā?
Iepriekš izlemts, ka AI maina Amerikas dzīves. Ko mēs varam darīt tā labā?

Video: The future we're building -- and boring | Elon Musk 2024, Jūlijs

Video: The future we're building -- and boring | Elon Musk 2024, Jūlijs
Anonim

Iedomājieties pasauli, kurā mākslīgi inteliģenti algoritmi pieņem lēmumus, kas ietekmē jūsu ikdienas dzīvi. Tagad iedomājieties, ka viņi ir aizspriedumaini.

Šī ir pasaule, kurā mēs jau dzīvojam, saka datu zinātnieks, Hārvarda PhD un autore Cathy O'Neil. (Lasiet mūsu diskusijas ar Dr O'Neil pirmo daļu šeit). Mēs apsēdāmies ar Nacionālās grāmatas balvas nominantu, lai uzzinātu, ko mēs varam darīt pret aizspriedumiem lielo datu laikmetā. CT: vai AI ir aizspriedumi?

CO: Uzskata, ka katrs algoritms, kas nav skaidri padarīts taisnīgs, tiek ietekmēts. Jo kā cilvēki mēs esam aizspriedumi. Ja mēs to atzīstam un mēs veidojam šos algoritmus ar savām vērtībām un datiem, tad nevajadzētu uzskatīt, ka kaut kas maģiski ir noticis, lai padarītu lietas taisnīgas. Tur nav maģijas.

CT: Kur algoritmi iegūst savus datus?

CO: Tas ir atkarīgs no algoritma. Dažreiz sociālie mediji, piemēram, politiska mērķauditorijas atlase vai reklamēšana vai bezpeļņas koledžas un plēsonīgas aizdevumi, bet liela daļa datu netiek apkopota sociālajos medijos vai pat tiešsaistē.

Datu vākšana arvien vairāk tiek saistīta ar reālo dzīvi, piemēram, darba iegūšana, darbs savā darbā, došanās uz koledžu vai došanās uz cietumu. Šīs lietas nav lietas, kuras mēs varam apiet ar privātuma likumiem. Tie ir jaudas jautājumi, kur cilvēkiem, uz kuriem attiecas algoritmi, nav varas, un cilvēkiem, kuri vāc informāciju un veido un ievieš algoritmus, ir visa vara. Jums nav privātuma tiesību, ja esat kriminālsodu apsūdzētais, jums nav nekādu privātuma tiesību jūsu darbā, un, ja piesakāties darbā, jums nav daudz šķēršļu privātuma tiesībām, jo ja neatbildēsit uz jautājumiem, kurus nākamais darba devējs jums ir uzdevis, tad jūs, iespējams, nesaņemsit darbu.

Mums vajadzētu mazāk domāt par privātumu un vairāk par jaudu, runājot par algoritmiem un kaitējumu [tie var radīt].

CT: Ko mēs varam darīt, lai to uzlabotu?

CO: Mēs varam atzīt, ka šie algoritmi pēc savas būtības nav perfekti, un pārbaudīt tos ar trūkumiem. Mums vajadzētu būt pastāvīgiem auditiem un monitoriem - īpaši attiecībā uz tādiem svarīgiem lēmumiem kā cilvēku pieņemšana darbā, kriminālsodīšana vai cilvēku novērtēšana viņu darbā - lai pārliecinātos, ka algoritmi darbojas tā, kā mēs vēlamies, nevis kaut kādā diskriminējošā vai negodīgā veidā.

Image

Ailsa Džonsone / © Kultūras ceļojums

CT: Kādi ir labākie un sliktākie scenāriji uz datiem balstītai nākotnei?

CO: Sliktākais scenārijs ir tāds, kāds mums ir tagad - ka mēs visi akli gaidām, ka algoritmi būs nevainojami, kaut arī mums tagad būtu jāzina labāk. Un mēs izplatām pagātnes netaisnības un negodīgumu. Un mēs turpinām ignorēt šo algoritmu trūkumus.

Labākais scenārijs ir tas, ka mēs atzīstam, ka šie algoritmi pēc savas būtības nav labāki par cilvēkiem. Mēs izlemjam, ko mēs kā cilvēki vēlamies, uz ko mēs tiecamies. Kā mēs vēlamies, lai sabiedrība izskatās, un mēs mācām šīs vērtības. Ja mēs to veiksmīgi darīsim, šie algoritmi varētu būt labāki nekā cilvēki.

CT: Kādu lomu var spēlēt ikdienas cilvēki?

CO: Vissvarīgākā loma, ko indivīds var spēlēt, ir netieša uzticēšanās algoritmam. Lai būtu ārkārtīgi daudz skepsi. Ja jūs novērtējat pēc algoritma, jautājiet “Kā es varu zināt, ka tas ir taisnīgi, kā es varu zināt, ka tas ir noderīgi, kā es varu zināt, ka tas ir precīzs? Kāds ir kļūdu līmenis? Kam šis algoritms neizdodas? Vai tas neizdodas sievietēm vai minoritātēm? ” Uzdodiet šāda veida jautājumu.

Otra lieta, kas nav skeptiska, ir tāda, ka, ja jūs domājat, ka algoritms ir negodīgs pret jums vai citiem cilvēkiem, tas ir jāorganizē kopā ar šiem citiem cilvēkiem. Nesenais piemērs ir skolotāji. Statistikas modeļi par skolotājiem ar pievienoto vērtību ir briesmīgi, gandrīz nejaušu skaitļu ģenerētāji. Bet viņi tika izmantoti, lai izlemtu, kādiem skolotājiem vajadzētu saņemt amatu un kādus skolotājus vajadzētu atlaist visā ASV.

Mans ieteikums ir viņiem panākt, lai viņu apvienība atgrieztos. Un tas dažviet notika. Bet tas ir pārsteidzoši, cik maza bija pretestība vērtēšanas sistēmas matemātiskā rakstura dēļ.

CT: Kā jūs nokļuvāt “lielajos datos”?

CO: Es strādāju Volstrītā un biju liecinieks finanšu krīzei no iekšpuses. Man riebās tas, kā matemātika tika izmantota, lai vai nu izmantotu cilvēku priekšrocības, vai arī apmānītu cilvēkus. Es redzēju tāda veida kaitējumu, ko varētu radīt matemātiski meli, ko es saucu par “matemātikas ieročošanu”.

Es nolēmu no tā izvairīties, tāpēc pievienojos Occupy Wall Street un sāku strādāt par datu zinātnieku. Es lēnām sapratu, ka mēs redzam kļūdainu un maldinošu uzvedību ap maldinošu datu algoritmiem, kas notiek arī ārpus Volstrītas, un ka tas radīs lielu kaitējumu. Atšķirība bija tā, ka, lai gan cilvēki visā pasaulē pamanīja finanšu krīzi, es nedomāju, ka cilvēki pamanīs šo lielo datu algoritmu kļūdas, jo tās parasti notiek individuālā līmenī.

Lasiet mūsu diskusijas ar Dr O'Neil pirmo daļu šeit. Dr Cathy O'Neil grāmata “Matemātikas iznīcināšanas ieroči: cik lieli dati palielina nevienlīdzību un apdraud demokrātiju” ir pieejama tagad.

Iecienīta 24 stundām