Cum si-au surprins baloanele Google creatorul

Algoritmii care folosesc inteligenta artificiala descopera trucuri neasteptate pentru a rezolva problemele care ii uimesc pe dezvoltatori. Dar ridica, de asemenea, ingrijorari cu privire la capacitatea noastra de a le controla.

T

Bazaitul angajatilor Google a privit uimit ecranele computerului. Petrecusera multe luni perfectionand un algoritm conceput pentru a conduce un balon de heliu fara pilot tot drumul de la Puerto Rico la Peru. Dar ceva nu era in regula. Balonul, controlat de mintea sa de masina, a continuat sa se indeparteze de curs.

Salvatore Candido al proiectului Google Loon, care a disparut acum, care urmarea sa aduca accesul la internet in zone indepartate prin intermediul baloanelor, nu a putut explica traiectoria navei. Colegii sai au preluat manual controlul sistemului si l-au pus la loc.

Abia mai tarziu si-au dat seama ce se intampla. In mod neasteptat, inteligenta artificiala (AI) de la bordul balonului a invatat sa recreeze o tehnica de navigatie veche dezvoltata pentru prima data de oameni cu secole in urma, daca nu chiar cu mii de ani in urma. „Tacking” implica directionarea unei nave in vant si apoi inclinarea din nou spre exterior, astfel incat sa poata fi realizat un progres in zig-zag, aproximativ in directia dorita.

In conditii meteorologice nefavorabile, baloanele care zboara singure au invatat sa se lipeasca singure. Faptul ca au facut acest lucru, neprevazut, a surprins pe toata lumea, nu in ultimul rand pe cercetatorii care lucreaza la proiect.

„Ne-am dat seama repede ca am fost depasiti cand primul balon a permis executarea completa a acestei tehnici a stabilit un record de timp de zbor din Puerto Rico in Peru”, a scris Candido intr-o postare pe blog despre proiect. „Nu m-am simtit niciodata mai inteligent si mai prost in acelasi timp.”

Acesta este doar genul de lucruri care se pot intampla atunci cand AI este lasata pe propriile dispozitive. Spre deosebire de programele traditionale de computer, AI sunt concepute pentru a explora si dezvolta noi abordari ale sarcinilor despre care inginerii lor umani nu le-au spus in mod explicit.

Dar, in timp ce invata cum sa faca aceste sarcini, uneori AI-urile vin cu o abordare atat de inventiva incat poate uimi chiar si oamenii care lucreaza cu astfel de sisteme tot timpul. Acesta poate fi un lucru bun, dar ar putea face ca lucrurile controlate de AI sa fie periculos de imprevizibile – robotii si masinile cu conducere automata ar putea ajunge sa ia decizii care sa puna oamenii in pericol.

Inteligenta artificiala care a controlat baloanele pline de gaz ale Proiectului Loon a invatat o tehnica de navigatie pentru a prinde vantul (Credit: Loon)

Cum este posibil ca un sistem AI sa-si „pacaleasca” stapanii umani? Si am putea retine mintea masinilor intr-un fel, pentru a ne asigura ca un dezastru neprevazut nu are loc?

In comunitatea AI, exista un exemplu de creativitate AI care pare sa fie citat mai mult decat oricare altul. Momentul care i-a facut pe oameni sa fie entuziasmati de ceea ce poate face AI, spune Mark Riedl la Georgia Institute of Technology, este cand DeepMind a aratat cum un sistem de invatare automata stapanea jocul antic Go – si apoi a invins pe unul dintre cei mai buni jucatori umani din lume la aceasta.

„S-a ajuns sa demonstreze ca exista strategii sau tactici noi pentru a contracara un jucator pe care nimeni nu il folosise cu adevarat pana acum – sau cel putin o multime de oameni nu stiau”, explica Riedl.

Si totusi chiar si asta, un joc inocent de Go, provoaca sentimente diferite in randul oamenilor. Pe de o parte, DeepMind a descris cu mandrie modul in care sistemul sau, AlphaGo, a fost capabil sa „inoveze” si sa dezvaluie noi abordari ale unui joc pe care oamenii il joaca de milenii. Pe de alta parte, unii s-au intrebat daca o astfel de IA inventiva ar putea intr-o zi sa prezinte un risc serios pentru oameni.

„Este o farsa sa credem ca vom putea prevedea sau gestiona cel mai rau comportament al AI atunci cand nu ne putem imagina comportamentul probabil”, a scris Jonathan Tapson la Western Sydney University dupa victoria istorica a AlphaGo.

S-ar putea sa-ti placa si:

  • Detectivii care nu se odihnesc niciodata
  • Cum vin robotii pentru votul dvs.
  • Semnele bolii pe care nimeni nu le poate vedea

Lucrul important de retinut, spune Riedl, este ca AI nu chiar gandesc ca oamenii. Retelele lor neuronale sunt intr-adevar inspirate vag din creierul animalelor, dar ar putea fi descrise mai bine ca „dispozitive de explorare”. Cand incearca sa rezolve o sarcina sau o problema, nu aduc cu ei multe, daca exista, preconceptii despre lumea larga. Pur si simplu incearca – uneori de milioane de ori – sa gaseasca o solutie.

„Noi, oamenii, aducem cu noi o multime de bagaje mentale, ne gandim la reguli”, spune Riedl.

„Sistemele de inteligenta artificiala nici macar nu inteleg regulile, asa ca se uita la lucruri foarte intamplator”.

In acest fel, AI ar putea fi descrise ca echivalentul de siliciu al persoanelor cu sindrom savant, adauga Riedl, citand o afectiune in care o persoana are o dizabilitate mintala grava, dar poseda si o abilitate extraordinara, de obicei legata de memorie.

O modalitate prin care AI ne pot surprinde implica capacitatea lor de a aborda probleme radical diferite, dar folosind acelasi sistem de baza. Recent, un instrument de invatare automata conceput pentru a genera paragrafe de text un cuvant la rand a fost rugat sa indeplineasca o functie foarte diferita: sa joace un joc de sah.

Sistemul in cauza se numeste GPT-2 si a fost creat de OpenAI. Pregatit pe milioane de articole de stiri online si pagini web, GPT-2 poate prezice cuvantul urmator dintr-o propozitie pe baza cuvintelor precedente. Deoarece miscarile de sah pot fi reprezentate in caractere alfanumerice, „Be5” pentru a muta un episcop, de exemplu, dezvoltatorul Shawn Presser a crezut ca, daca ar antrena algoritmul in evidenta meciurilor de sah, instrumentul ar putea invata cum sa joace jocul descoperind de dorit secvente de miscari.

Presser a instruit sistemul cu 2,4 milioane de jocuri de sah. „A fost tare misto sa vezi ca motorul de sah prinde viata”, spune el. – Nu eram sigura ca va functiona deloc. Dar a facut-o. Nu este la fel de bun ca computerele special concepute pentru sah – dar este capabil sa joace cu succes meciuri dure.

Presser spune ca experimentul sau arata ca sistemul GPT-2 are multe capabilitati neexplorate. Un savant cu un cadou pentru sah.

O versiune ulterioara a aceluiasi software a uimit proiectantii web atunci cand un dezvoltator l-a instruit pe scurt sa scuipe cod pentru afisarea articolelor pe o pagina web, cum ar fi textul si butoanele. AI a generat codul adecvat, chiar daca tot ce trebuia sa continue a fost descrieri simple precum „text rosu care spune„ Te iubesc ”si un buton cu„ ok ”pe el”. In mod clar, a avut esenta de baza a designului web, dar numai dupa o formare surprinzator de mica.

Odata ce inteligenta artificiala incepe sa fie folosita in lumea reala, este important sa stim daca va face ceva neasteptat (Credit: Nicholas Kamm / Getty Images)

O arena in care AI au impresionat mult timp este jocurile video. Exista nenumarate anecdote in comunitatea AI despre lucruri surprinzatoare pe care algoritmii le-au facut in medii virtuale. Spatiile asemanatoare jocurilor video sunt adesea unde algoritmii sunt testati si perfectionati, pentru a vedea cat de capabili sunt cu adevarat.

In 2019, OpenAI a facut titluri cu un videoclip despre un joc de ascundere jucat de personaje controlate de invatarea automata. Spre surprinderea cercetatorilor, cautatorii din joc au aflat in cele din urma ca pot sari deasupra obiectelor si sa-i „navigheze” pentru a avea acces la incintele in care se ascundeau ascunzatorii. Cu alte cuvinte, cautatorii au invatat sa aplece regulile jocului in avantajul lor.

O strategie de incercare-eroare poate duce la tot felul de comportamente interesante. Dar nu intotdeauna duc la succes. In urma cu doi ani, cercetatoarea DeepMind, Victoria Krakovna, le-a cerut cititorilor blogului ei sa impartaseasca povesti despre vremuri in care AI au rezolvat probleme dificile – dar in moduri imprevizibil de inacceptabile.

Lista lunga de exemple pe care le-a colectat este fascinanta. Printre acestea se numara un algoritm de joc care a invatat sa se sinucida la sfarsitul nivelului unu – pentru a evita moartea la nivelul doi. Obiectivul de a nu muri la nivelul doi a fost atins, doar nu intr-un mod deosebit de impresionant. Un alt algoritm a descoperit ca ar putea sari de pe o stanca intr-un joc si sa duca un adversar cu el pana la moartea sa. Asta i-a dat AI suficient de multe puncte pentru a castiga o viata suplimentara, astfel incat sa poata repeta aceasta tactica suicidara intr-o bucla infinita.

Cercetatorul in jocuri video, Julian Togelius, de la Universitatea din New York, Tandon School of Engineering, poate explica ce se intampla aici. El spune ca acestea sunt exemple clasice de erori de „alocare a recompenselor”. Cand unei AI i se cere sa realizeze ceva, aceasta poate descoperi metode ciudate si neasteptate de a-si atinge obiectivul, unde scopul intotdeauna justifica mijloacele. Noi, oamenii, rareori adoptam o astfel de pozitie. Conteaza mijloacele si regulile care guverneaza modul in care ar trebui sa jucam.

Togelius si colegii sai au constatat ca aceasta prejudecata orientata spre obiective poate fi expusa in sistemele de IA atunci cand sunt puse la incercare in conditii speciale. In experimentele recente, echipa sa a descoperit ca un AI care a solicitat sa investeasca bani la o banca va alerga intr-un colt din apropiere al holului bancii virtuale si va astepta sa primeasca o rentabilitate a investitiei. Togelius spune ca algoritmul a invatat sa asocieze alergarea la colt cu obtinerea unei recompense financiare, chiar daca nu a existat o relatie reala intre miscarea sa si cat a fost platit.

Acest lucru, spune Togelius, seamana cu un AI care dezvolta o superstitie: „Ai primit o recompensa sau o pedeapsa pentru ceva – dar de ce ai primit-o?”

Aceasta este una dintre capcanele „invatarii prin intarire”, in care o IA ajunge sa elaboreze o strategie gresita, bazata pe ceea ce intalneste in mediul sau. AI nu stie de ce a reusit, isi poate baza actiunile doar pe asociatii invatate. Un pic ca culturile umane timpurii care au inceput sa asocieze ritualurile cu schimbarile vremii, de exemplu.

Sau, porumbei. In 1948, un psiholog american a publicat o lucrare care descrie un experiment neobisnuit in care a asezat porumbei in incinte si le-a dat recompense alimentare in mod intermitent. Porumbeii au inceput sa asocieze mancarea cu tot ce s-a intamplat sa faca in acel moment – fie ca aripi sau a facut o miscare asemanatoare dansului. Apoi au repetat aceste comportamente, aparent asteptand ca va urma o recompensa.

Exista o mare diferenta intre AI-urile testate de Togelius in joc si animalele vii folosite de psiholog, dar Togelius sugereaza ca acelasi fenomen de baza pare sa fie la locul de munca: recompensa devine asociata din greseala cu un anumit comportament.

In timp ce cercetatorii AI pot fi surprinsi de caile parcurse de sistemele de invatare automata, asta nu inseamna neaparat ca sunt infricosati de ele. „Nu am niciodata sentimentul ca acesti agenti au mintea lor”, spune Raia Hadsell la DeepMind.

Porumbeii pot invata sa asocieze mancarea cu anumite comportamente, iar AI pot afisa tipuri similare de antrenament (Credit: Binnur Ege Gurun Kocak / Getty Images)

Hadsell a experimentat cu multe AI care au gasit solutii interesante si noi la probleme care nu au fost prezise de colegii ei. Ea subliniaza ca tocmai de aceea cercetatorii cauta sa ascuteasca AI in primul rand – astfel incat sa poata realiza lucruri pe care oamenii nu le pot face singuri.

Si ea sustine ca produsele care utilizeaza AI, cum ar fi masinile cu conducere automata, pot fi testate riguros pentru a se asigura ca orice imprevizibilitate se afla in anumite limite acceptabile.

„Puteti oferi garantii rezonabile privind comportamentul care se bazeaza pe dovezi empirice”, spune ea.

Timpul va spune daca toate companiile care vand produse construite cu inteligenta artificiala sunt scrupuloase in acest sens. Dar, intre timp, merita remarcat faptul ca AI-urile care demonstreaza comportamente neasteptate nu sunt nicidecum limitate la mediile de cercetare. Ei isi lucreaza deja drumul spre produsele comerciale.

Anul trecut, un brat robot care lucra la o fabrica din Berlin, dezvoltat de firma americana Covariant, a venit cu modalitati neasteptate de sortare a obiectelor in timp ce trec pe o banda transportoare. In ciuda faptului ca nu a fost programat special pentru a face acest lucru, AI care controleaza bratul a invatat sa vizeze centrul articolelor din ambalaje transparente pentru a garanta ca le va ridica cu succes de fiecare data. Deoarece astfel de obiecte se pot confunda atunci cand se suprapun, datorita materialului vizibil, obiectivul mai putin precis insemna ca robotul ar putea sa nu ridice obiectul.

„Evita suprapunerea colturilor obiectelor si, in schimb, vizeaza o suprafata usor de ales”, spune cofondatorul si directorul executiv al Covariant, Peter Chen. „Chiar ne-a surprins”.

Separat, Hadsell spune ca echipa sa a experimentat recent cu un brat robot care trece diferite blocuri prin gauri de sortare a formei. Mana de prindere a robotului a fost destul de neindemanatica, astfel incat AI care l-a controlat a invatat ca, ridicand si aruncand in mod repetat blocul, ar putea sa-l ajunga in pozitia corecta pentru a-l apuca si trece cu usurinta prin orificiul corespunzator – mai degraba decat sa incerce pentru a se lauda cu el folosind manerul.

Toate acestea ilustreaza un punct facut de Jeff Clune la OpenAI, care a colaborat recent cu colegi din intreaga lume pentru a colecta exemple de AI care au dezvoltat solutii inteligente la probleme. Clune spune ca natura exploratorie a IA este fundamentala pentru succesul ei viitor.

„Pe masura ce extindem aceste sisteme de IA, ceea ce vedem este ca lucrurile pe care le fac, care sunt creative si impresionante, nu mai sunt curiozitati academice”, spune el.

Intrucat AI gasesc modalitati mai bune de a diagnostica boala sau de a livra provizii de urgenta oamenilor, vor salva chiar vieti datorita capacitatii lor de a gasi noi modalitati de a rezolva problemele vechi, adauga Clune. Dar el crede ca cei care dezvolta astfel de sisteme trebuie sa fie deschisi si sinceri cu privire la natura lor imprevizibila, pentru a ajuta publicul sa inteleaga cum functioneaza AI.

Este, la urma urmei, o sabie cu doua taise – chiar promisiunea si amenintarea AI, toate infasurate intr-una. La ce se vor gandi in continuare?

Alaturati-va unui milion de fani Viitor placandu-ne pe  Facebook sau urmati-ne pe  Twitter  sau  Instagram .

Daca ti-a placut aceasta poveste,  inscrie-te la buletinul informativ saptamanal bbc.com , numit „Lista esentiala”. O selectie selectata de povesti de la BBC Future, Culture, Worklife si Travel, livrate in casuta de e-mail in fiecare vineri.