Intrebarea cat de multi algoritmi de putere au viata noastra are o margine de actualitate. Deja exista linii de cod care ne spun ce sa urmarim, cui pana in prezent si chiar pe cine sa trimitem la inchisoare. In Hello World: Being Human in the Age of Algorithms Matematicianul britanic Hannah Fry ne duce in interiorul acelei lumi si ne intreaba: Suntem in pericol sa ne pierdem umanitatea?
Cand National Geographic a prins Fry in New York in timpul turneului de carte, autoarea a explicat de ce infrangerea lui Gary Kasparov de catre Deep Blue de la IBM a fost un moment atat de definitoriu, cum algoritmii folositi in sistemul de justitie pot avea prejudecati rasiale si de ce alegerile din 2016 ar trebui sa fie un apel treaz pentru democratia noastra.
Incepeti cartea cu victoria Deep Blue de la IBM asupra maestrului de sah Gary Kasparov in 1997. De ce a fost un moment atat de important?
Ceea ce s-a intamplat cu Gary Kasparov a fost un moment bazin in aceasta istorie. El a fost in acel moment cel mai mare jucator de sah din lume. Am vorbit cu multi maestri de sah si l-au descris ca fiind o tornada; ar intra in camera si toata lumea va fi fixata pe parti, deoarece aura lui era atat de intimidanta. Omul era un zeu al sahului.
IBM a construit o masina care putea juca sah, lucru pe care oamenii si-au dorit-o de mult timp, dar au crezut intotdeauna ca depaseste capacitatile unui computer. Au fost doua seturi de meciuri. Cea importanta in 1997, cand computerul a batut Kasparov a fost acest moment in care toata lumea s-a asezat si a trebuit sa reevalueze ceea ce credeau ca sunt capabile calculatoarele, precum si capacitatile noastre unice ca oameni.
Dar adevaratul motiv pentru care Kasparov a fost batut de masina nu a fost chiar faptul ca masina era mai buna la sah. Cei mai multi accepta ca la acea vreme Kasparov era inca mai bun decat masina. Se datora faptului ca si-a permis sa fie intimidat de masina. El a inceput sa-i ghiceasca pe cat de mult stia masina si i-a permis sa-l psycheze afara. Acest lucru a dus in cele din urma la caderea sa.
Exista o morala in acea poveste care se aplica astazi la fel cum a facut-o in 1997. Cu toate noile tehnologii care explodeaza in acest moment, in special inteligenta artificiala si invatarea masinii, exista aceasta intrebare despre cat de mult avem incredere aceste masini si cata putere le acordam si cat de multe defecte umane in jurul increderii si puterii vor intra in joc in viitor.
Doua companii de tehnologie au lovit stirile din acest an: Cambridge Analytica si Facebook. O noua carte a academicianului american Kathleen Hall Jamieson sugereaza ca ei, si rusii, au ajutat la balansarea alegerilor pentru Donald Trump. Esti de acord?
De ceva vreme acum companiile stiu ca recoltarea datelor noastre poate fi extrem de profitabila. Daca intelegeti cine sunt clientii dvs. puteti prezice ce vor face si folositi aceasta predictie pentru a le manipula subtil comportamentul, de obicei pentru a ne face sa cumparam mai multe lucruri. Supermarketurile fac asta de mult timp. Dar ceea ce a reusit Facebook sa faca, pentru ca au acces la informatii cu adevarat personale, nu este doar despre ceea ce se afla in cosurile noastre de cumparaturi; este cine suntem si ce ne place, cum vorbim intre noi. Daca aveti acces la informatiile respective, acesta este un lucru incredibil de puternic.
Ceea ce facea Cambridge Analytica a mers cu un pas mai departe, prin incercarea de a ne descoperi tipurile de personalitate si de a ne servi publicitatile ca un mod de a ne manipula cele mai mari sperante si temeri. Un exemplu a fost un mesaj de lobby pro-arma care vizeaza mamele singure care aveau natura nevrotica. Le-ar servi apoi reclame despre cineva care a intrat in casele lor in miez de noapte si nevoia de protectie.
In ceea ce priveste daca vreunul dintre acestia a facut o diferenta in rezultatul alegerilor, este foarte greu de spus, deoarece o mare parte din aceste lucruri au iesit la suprafata. Dar, avand in vedere cat de stransa a fost alegerile, unde Trump a castigat cu cateva mii de voturi, nu cred ca este dincolo de domeniul posibilitatilor. Acesta este un lucru ingrijorator. Trebuie sa fim preocupati de puterea pe care o au acum acesti algoritmi, incat pot schimba regulile democratiei.
Experiment Pen Pal: Doua femei schimba datele vietii lor zilnice
Cand designerii de informatii Giorgia Lupi si Stefanie Posavec au convenit sa corespunda intre ei, au ales o metoda neobisnuita prin care sa comunice – limbajul vizualizarii datelor si a datelor.
Masinile fara sofer sunt in stire. Una dintre cele mai mari provocari este crearea de masini care nu doar vad imprejurimile – ci le percep asa cum facem noi si chiar luam decizii „compatimitoare”. Va fi posibil vreodata asta?
Tehnic, da. Daca asta dorim sa se intample este o alta intrebare cu totul, deoarece faceti referire la ceva numit problema caruciorului. Ideea este ca o masina fara sofer se indreapta pe drum, iar un camion in fata ei isi varsa sarcina, iar aceasta masina trebuie sa ia decizii. Deplasati-va intr-o directie si conduceti in traficul viitor si ucideti soferul in masina, sau incercati pe celalalt drum si salvati pe toti in masina, dar scoateti unii pietoni.
Cand aceasta dilema morala a fost initial prezentata, ideea a fost sa spunem ca exista cateva intrebari in care nu puteti aplica doar o logica simpla pentru a gasi un raspuns corect. Exista cateva intrebari care pur si simplu nu au un raspuns corect. Asadar, nu sunt convins ca ne vom gasi vreodata intr-o situatie in care masinile fara soferi se afla printre toate celelalte vehicule, zgomot si haos pe care il gasesti pe drum.
Unii dintre cititorii nostri vor veni ca o surpriza, asa cum mi s-a intamplat si mie, ca algoritmii sunt folositi pe scara larga in sistemul de justitie. Pot fi corectate prejudecatile cu ajutorul invatarii automate?
Algoritmii au fost folositi in salile de judecata de mult timp, datand din anii 1930. Ideea este ca incerci sa faci o prezicere a faptului daca un individ va continua sau nu sa comita o crima in viitor. Indiferent daca iti place sau nu, judecatorul trebuie sa decida daca persoana care sta in fata lui sau ea va comite o alta crima atunci cand este eliberata pe strada. Si exista acesti algoritmi care pot face predictii mai exacte decat oamenii sunt capabili.
In 2017 a aparut o stire mare de jurnalisti investigatori de la Propublica.com, unde au luat unul dintre acesti algoritmi si au demonstrat ca modul in care algoritmul face greseli nu este neaparat acelasi pentru fiecare individ. Ei au aratat ca, daca sunteti un inculpat negru, algoritmul este mai probabil sa spuna incorect ca aveti un risc ridicat de a comite o alta crima decat daca sunteti albi.
Algoritmii sunt de asemenea din ce in ce mai folositi in medicina. Vorbeste-ne prin unele dintre aplicatii si problemele etice care apar.
Una dintre povestile pozitive despre modul in care algoritmii sunt folositi in medicina este in cazul diagnosticului de cancer. Acesta este un exemplu in care oamenii nu pun prea multa putere in mainile algoritmului. Se bazeaza in principal pe recunoasterea imaginii, unde un algoritm priveste o diapozitiva pentru biopsie si detecteaza daca exista sau nu tumori minime ascunse intre celule.
Exista si alte exemple in care acesti algoritmi sunt folositi in diagnostic. Exista o aplicatie care a castigat multa presa in Marea Britanie, numita Babylon Health, care este folosita de Serviciul National de Sanatate pentru a ajuta la simplificarea procesului de diagnostic. Va conectati si discutati cu aceasta caseta de chat, care va va oferi informatii si sfaturi despre starea dvs. si apoi filtrati-va ancheta la un personal de sanatate relevant.
Acest lucru suna ca un vis, daca puteti face asistenta medicala mai accesibila si mai usor de accesat, nu doar pentru oamenii din lumea occidentala, ci si in tarile in curs de dezvoltare. Dar exista o usoara problema, care este ca nu cred ca aceste tehnologii sunt la fel de bune pe cat sustin. Inca fac multe greseli. Un exemplu interesant despre Babilon a fost cand cineva a mers la casuta de chat cu diagnosticul si a spus ca au cotul ranit si casuta de chat a diagnosticat in cele din urma ca au roseata in jurul organelor genitale. [rade] Asa ca au fost toate aceste glume online despre cum botul nu-si stia fundul de la cot. [rade]
Cert este ca nu exista nimic mai privat si personal decat datele dumneavoastra medicale, in special atunci cand vine vorba de ADN-ul vostru. Toti acesti algoritmi necesita cantitati uriase de date pentru a putea functiona. Intrebarea este: cine detine datele dvs. si sunteti complice in renuntarea la dreptul dvs. la aceste date? Nu cred ca suntem inca in punctul in care stim sa navigam in aceste probleme, protejand confidentialitatea oamenilor in timp ce filmam pentru un viitor mai pozitiv.
Pe langa aplicatiile pozitive, cartea dvs. este plina de povesti despre raul pe care algoritmii il pot face. Descrieti cele pentru noi.
milf anal porno http://www.comparestoreprices.co.uk/visit.asp?v=Responsible+Travel&u=https://adult66.net/
porno la sala http://quickdomainfwd.com/__media__/js/netsoltrademark.php?d=adult66.net/
porno 300 http://www.ymg-ssz.jp/cms/modules/wordpress0/wp-ktai.php?view=redir&url=https://adult66.net/
filme porno cu filipineze http://www.vladinfo.ru/away.php?url=https://adult66.net/filme-porno/amatori
porno 360 http://ads2.westca.com/server/adclick.php?bannerid=2977&zoneid=0&source=&dest=https://adult66.net/filme-porno/anal
porno fetite http://1.rank-nation.jp/webto.php?url=https://adult66.net/filme-porno/asiatice
porno plaja http://www.americantourister.com/disneyside/bumper.php?r=https://adult66.net/filme-porno/beeg
mihaela radulescu porno https://duotek.ru/away.php?url=https://adult66.net/filme-porno/blonde
film porno mame https://apps.firstrain.com/service/openurl.jsp?action=titleclick&src=rss&u=https://adult66.net/filme-porno/brazzers
porno cu femei pitice http://japan-antique.net/navi/navi.cgi?jump=9030&url=https://adult66.net/filme-porno/brunete
porno africa https://www.rondomusic.com/cgi-bin/affiliates/clickthru.cgi?id=bwcornwell&page=https://adult66.net/filme-porno/chaturbate
porno alura jenson http://www.ship.sh/link.php?url=https://adult66.net/nevasta-fututa-face-sex-oral-unui-tanar-pana-ejaculeaza-in-gura
familia porno http://generarelectric.com.assetline.com/__media__/js/netsoltrademark.php?d=adult66.net/tanara-beata-e-fututa-in-discoteca-de-patronul-acesteia
yutube porno http://www.boergoats.com/goto.php?fp=2&url=https://adult66.net/isi-fute-adanc-sora-mai-mica-in-dormitorul-parintilor
film porno cu minore http://www.peterblum.com/DES/DateAndTime.aspx?Returnurl=https://adult66.net/adolescenti-fac-sex-intens-si-pasional-apoi-au-orgasm
porno cu tata http://acegisecurity.org/__media__/js/netsoltrademark.php?d=adult66.net/o-blonda-minora-e-violata-pe-podeaua-din-sufragerie-de-mai-multi-prieteni-ai-fratelui
porno comic http://go.takbook.com/index.php?url=https://adult66.net/o-studenta-in-calduri-e-fututa-rapid-pe-la-spate-pe-banca-de-profesorul-ei
xxx mature porno http://fwdservice.com/__media__/js/netsoltrademark.php?d=adult66.net/doua-bunaciuni-lesbiene-se-excita-una-pe-alta-la-piscina-si-se-joaca-cu-vibratorul
filme porno cu femei pitice http://searchingmagnified.com/__media__/js/netsoltrademark.php?d=adult66.net/fututa-la-greu-chiar-in-patul-ei-de-un-negru-venit-in-vizita
sistar porno http://historisches-festmahl.de/go.php?url=https://adult66.net/o-pustoaica-excitata-se-masturbeaza-cu-un-morcov
Raul apare atunci cand algoritmilor li se acorda prea multa putere. Revenind la exemplul algoritmilor folositi in salile de judecata, exista toate aceste probleme de partinire. Dar exista si faptul ca acesti algoritmi ajung sa greseasca. Un exemplu este un tanar numit Christopher Drew Brooks. Era un barbat in varsta de 19 ani, din Virginia, condamnat pentru violarea legala a unei fetite de 14 ani. Au avut o relatie consensuala, dar totusi ea era sub varsta, asa ca el a fost condamnat pentru o crima. In timpul procesului sau, un algoritm a evaluat probabilitatea sa de a rejudeca. Fiindca avea doar 19 ani si comitea deja infractiuni sexuale, a ajuns la concluzia ca exista sanse mari sa se intoarca la o viata de crima si i-a recomandat sa i se dea ceva de genul de 18 luni de inchisoare.
Asta demonstreaza modul in care acesti algoritmi pot fi ilogici. Acest algoritm special a pus multa greutate pe varsta. Dar daca Christopher Drew Brooks ar fi avut 36 de ani, mai degraba decat 19, facandu-l cu 22 de ani mai in varsta decat victima sa, ceea ce, prin orice metrica, face crima mult mai rea, algoritmul l-ar fi considerat un risc scazut de rejudecare, scapand astfel. inchisoare in intregime. Ai spera ca in acest tip de situatie, un judecator ar vedea defectele algoritmului si ar sti sa-l anuleze. Dar, in acest caz particular, si in multe altele le place, nu vedem oameni care se ridica in picioare si au incredere in propriile instincte asupra celui al algoritmilor. In acest caz, sentinta lui Christopher Drew Brooks a fost sporita pe cuvantarea algoritmului. Acolo apar problemele. Algoritmii fac greseli si pot facegreseli calamite . Daca le dam putere fara a ne gandi uman la contextul si nuanta situatiei, cred ca cerem probleme.
Scrieti la sfarsitul cartii, „In epoca algoritmului, oamenii nu au fost niciodata mai importanti.” Explicati aceasta idee pentru noi si problemele cu care ne putem confrunta sa mergem inainte.
In cele din urma, aceasta nu este o carte despre algoritmi; aceasta este o carte despre oameni . Este vorba despre modul in care ne incadram in propriul viitor, despre modul in care tehnologia schimba regulile modului in care vorbim reciproc, democratie, medicina, politie si justitie. Totul se schimba si este vorba despre modul in care trebuie sa preluam mai mult control asupra propriului viitor si sa decidem cata putere dorim sa renuntam. Este vorba si despre cum nu suntem in acea etapa in care oamenii sunt scosi din imagine. Nu cred ca discutia ar trebui sa fie despre oameni fata de masini. Discutia ar trebui sa fie despre parteneriat de oameni si masini impreuna, despre strangerea mainilor cu aceasta noua tehnologie si imbratisarea defectelor sale, precum si recunoasterea faptului ca ne-am confundat pe noi insine si elaborarea acelui parteneriat, o calatorie impartasita de posibilitati pentru viitor, care exploateaza cat mai mult fortele reciproce. .
Acest interviu a fost editat pentru lungime si claritate.
Simon Worrall curateaza Discutia de carte. Urmati-l pe Twitter sau pe simonworrallauthor.com.








