Paano Nagbabago ang Big Data sa Pang-araw-araw na Buhay sa buong Amerika?

Paano Nagbabago ang Big Data sa Pang-araw-araw na Buhay sa buong Amerika?
Paano Nagbabago ang Big Data sa Pang-araw-araw na Buhay sa buong Amerika?

Video: Araling Panlipunan Grade 10 : Globalisasyon Konsepto at Perspektibo 2024, Hulyo

Video: Araling Panlipunan Grade 10 : Globalisasyon Konsepto at Perspektibo 2024, Hulyo
Anonim

Ang ideya ng 'malaking data' ay naging nasa lahat, kung ano ito at paano ito binabago ang paraan ng pamumuhay? Naupo kami kasama ang data scientist, Harvard PhD at nominado ng National Book Award na si Cathy O'Neil upang malaman.

CT: Magsimula tayo sa mga pangunahing kaalaman - ano ang eksaktong 'malaking data'?

CO: Ang malaking data ay isang bagong pamamaraan sa paghuhula ng mga bagay. Lalo na partikular, ang 'malaking data' ay ang paggamit ng data na kinokolektang data - tulad ng kung paano ka maghanap sa iyong browser o kung ano ang ginagawa mo sa Facebook - upang mas mababa ang mga bagay tungkol sa iyo, tulad ng kung ano ang bibilhin mo o kung ano ang iyong mga kaakibat na pampulitika. Ito ay isang hindi tuwirang paraan ng pag-uunawa sa mga tao. Halimbawa, ang isang camera na sumusubaybay sa amin ay hindi nagtanong 'Ano ang ginagawa mo?' - makikita lamang nito kung ano ang ginagawa namin.

CT: At ano ang isang algorithm?

CO: Ang mga algorithm ay mga pagkalkula na [bigyang-kahulugan ang] data na natipon tungkol sa iyo upang lumikha ng isang hula. Isipin ito tulad ng isang equation ng matematika na sumusubok na sagutin ang isang katanungan na naka-frame bilang hula, tulad ng: 'Ang taong ito ba ay bibilhin ng isang bagay?' o 'Ang taong ito ay malapit nang bumoto para sa isang tao?'

CT: Bakit ako masyadong nakaririnig ngayon?

CO: Bago ang 'malaking data', gagawin ng mga istatistika ang mga mamahaling bagay tulad ng botohan ng mga tao upang malaman ang hinaharap. Halimbawa, ang pagtatanong ng mga tao sa direktang mga katanungan tulad ng: 'Sino ang iyong iboboto?' Ngayon, lalo kaming umaasa sa 'data exhaust', na kung saan ang tinatawag kong data na kinokolekta tungkol sa iyo palagi, upang mas mababa ang mga bagay tungkol sa iyo.

Bago ang 'malaking data', ang mga kumpanya ay nagkaroon lamang ng mga ligaw na hula na gagawin. Ngayon, mayroon kaming mas mahusay kaysa sa mga ligaw na hula. Ang nakakagulat ay ang karamihan sa mga malaking algorithm ng data ay ligaw na hindi tumpak, at walang dahilan upang isipin na tama sila. Ngunit ang mga ito ay mas mahusay kaysa sa mga ligaw na hula. At iyon ang dahilan kung bakit ang malaking data ay tinanggal na tulad nito.

CT: Kung hindi tumpak ang mga ito, kung gayon ano ang kanilang ipinapakita?

CO: Ang mga flawed data set na pinapakain namin sa kanila. Ang mga algorithm ay hindi alam ang anumang bagay na higit sa kung ano ang sinabi namin sa kanila. Kaya kapag mayroon kaming hindi pantay na data at pinapakain namin iyon sa algorithm, o bias na data, iisipin nito ang katotohanan.

Image

Ailsa Johnson / © Culture Trip

CT: Ano ang isang tunay na halimbawa ng mundo?

CO: Ang isang halimbawa ay maaaring sa Estados Unidos, ang mga itim na tao ay limang beses ay mas madaling maaresto para sa paninigarilyo kaysa sa mga puting tao. Hindi ito dahil ang mga itim na tao ay naninigarilyo palayok nang mas madalas - ang parehong mga grupo usok palayok sa parehong rate. Ang mga itim na tao ay mas malamang na maaresto para dito. Kung ibibigay mo iyon sa isang algorithm, na ginagawa namin, tama itong mas mababa na ang mga itim na tao ay mas malamang, sa hinaharap, na maaaresto para sa paninigarilyo. At pagkatapos ay bibigyan nito ang mga itim na tao ng mas mataas na mga marka ng peligro para sa pagkakasala, na may epekto sa sentensya ng kriminal.

Ang isa pang halimbawa ay isang eksperimento sa pag-iisip. Gagamitin ko ang Fox News, dahil ang Fox News ay nagkaroon ng pagsabog kamakailan na may kaugnayan sa isang panloob na kultura ng seksismo. Ang eksperimento ay 'Ano ang mangyayari kung sinubukan ng Fox News na gamitin ang kanilang sariling data upang makabuo ng isang algorithm sa pag-aaral ng makina upang umarkila sa mga tao sa hinaharap?'

Sabihin nating naghahanap kami ng mga taong matagumpay sa Fox News, halimbawa. Depende ito sa kung paano mo tukuyin ang tagumpay, ngunit kadalasan ay makikita mo ang mga taong nakakataas, promo o mananatili nang mahabang panahon. Sa pamamagitan ng alinman sa mga hakbang na ito, masasalamin ng data na ang mga kababaihan ay hindi magtagumpay sa Fox News. Kung ginamit bilang isang pag-upa ng mga algorithm, ito ay magpapalaganap ng problemang iyon. Tumingin ito sa isang pool ng mga aplikante at sasabihin nito na 'Hindi ko nais na umarkila ng anumang mga kababaihan, dahil hindi sila matagumpay dito. Hindi sila mahusay na hires. ' At hindi lamang ito dapat maging Fox News - bawat kultura ng korporasyon ay may bias. Kapag nagpapakain ka ng isang data ng algorithm, ang algorithm bias pagkatapos ay kumalat na. Patuloy itong nagpapatibay sa mga biases na mayroon na sa lipunan.

CT: Sinadya ba ang mga biases?

CO: Hindi sa palagay ko sinusubukan ng mga siyentipiko ng data na gumawa ng mga sexist o rasist algorithm. Ngunit ang mga algorithm sa pag-aaral ng makina ay mahusay sa pagpili ng medyo mga naka-pattern na pattern, at pagkatapos ay pagpapalaganap ng mga ito. Ito ay hindi isang bagay na sinasadya na gawin ng mga siyentipiko, ngunit ito ay bias.

CT: Ano ang papel na ginagampanan ng hindi tumpak na mga algorithm sa ating pang-araw-araw na buhay?

CO: Ginagamit na sila sa lahat ng uri ng mga pagpapasya para sa buhay ng mga tao - lahat mula sa mga admission sa kolehiyo upang makakuha ng trabaho.

Mayroong mga algorithm na nagpapasya kung paano ang mga pulis sa mga kapitbahayan ng pulisya, pati na rin ang mga algorithm na nagpapasya kung paano hahatulan ang mga hukom ng mga nasasakdal. Mayroong mga algorithm na nagpapasya kung magkano ang babayaran mo para sa seguro, o kung anong uri ng APR [rate ng interes] na nakukuha mo sa iyong credit card. Mayroong mga algorithm na nagpapasya kung paano ka nagagawa sa iyong trabaho, na ginagamit upang matukoy ang pagtaas ng sahod. Mayroong mga algorithm sa bawat hakbang ng paraan, mula sa pagkamatay ng kapanganakan.

CT: Kaya saan tayo iniwan?

CO: Tumalon kami sa malaking panahon ng data at itinapon ang mga algorithm sa bawat solong problema na mayroon kami, sa pag-aakalang ang mga algorithm na ito ay dapat na maging mas patas kaysa sa mga tao - ngunit sa totoo lang sila ay hindi makatarungan sa mga tao. Kailangan nating gumawa ng mas mahusay.

Mag-click dito upang mabasa ang pangalawang bahagi ng aming pakikipanayam kay Dr O'Neil. Ang kanyang libro, Ang Mga Armas ng Pagsira sa matematika: Gaano Karagdagang Data ang Nagpapataas ng Kakayahan at Nagbabala na Demokrasya ay magagamit na ngayon.