Inteligența artificială nu este atât de inteligentă pe cât ați putea crede
#Postat de Antoniu Lovin on iunie 8, 2022
O privire atentă dezvăluie că cele mai noi sisteme, inclusiv foarte popularul Gato de la DeepMind, sunt încă împiedicate de aceleași probleme vechi. Pentru omul obișnuit, trebuie să pară că domeniul inteligenței artificiale face progrese imense. Potrivit comunicatelor de presă și a unora dintre conturile media, DALL-E 2 de la OpenAI poate crea imagini spectaculoase din orice text; un alt sistem OpenAI numit GPT-3 poate vorbi despre orice; și un sistem numit Gato, care a fost lansat în mai de DeepMind, o divizie a Alphabet, se pare că a funcționat bine la fiecare sarcină pe care compania le-ar putea pune. Unul dintre directorii de nivel înalt ai DeepMind a mers chiar atât de departe încât s-a lăudat că, în căutarea inteligenței generale artificiale (AGI), AI care are flexibilitatea și ingeniozitatea inteligenței umane, „The Game is Over!” Și Elon Musk a spus recent că ar fi surprins dacă nu vom avea inteligență generală artificială până în 2029. Nu vă lăsați păcăliți. Mașinile pot fi într-o zi la fel de inteligente ca oamenii și poate chiar mai inteligente, dar jocul este departe de a se termina.
Sursa foto: scientificamerican.com
Mai este încă o cantitate imensă de muncă de făcut pentru a face mașini care cu adevărat pot înțelege și raționa despre lumea din jurul lor. Ceea ce avem cu adevărat nevoie acum este mai puțină postură și mai multă cercetare de bază. Cu siguranță, există într-adevăr câteva moduri în care AI realizează progrese – imaginile sintetice par din ce în ce mai realiste, iar recunoașterea vorbirii poate funcționa adesea în medii zgomotoase – dar suntem încă la ani lumină distanță de uz general, la nivel uman. AI care poate înțelege adevăratele semnificații ale articolelor și videoclipurilor sau poate face față obstacolelor și întreruperilor neașteptate. Suntem încă blocați de aceleași provocări pe care oamenii de știință academicieni (inclusiv eu) le-au subliniat de ani de zile: ca AI să fie de încredere și să facă față unor circumstanțe neobișnuite.
Sursa foto: scientificamerican.com
Luați recentul celebru Gato, un presupus călugăr în toate meseriile, și modul în care a subtitrat o imagine a unui ulcior aruncând o minge de baseball. Sistemul a returnat trei răspunsuri diferite: „Un jucător de baseball aruncând o minge deasupra unui teren de baseball”, „Un bărbat care aruncă o minge de baseball într-un ulcior de pe un teren de baseball” și „Un jucător de baseball la bâtă și un prins în pământ în timpul un joc de baseball.” Primul răspuns este corect, dar celelalte două răspunsuri includ halucinații ale altor jucători care nu sunt văzute în imagine. Sistemul nu are idee ce este de fapt în imagine, spre deosebire de ceea ce este tipic pentru imaginile aproximativ similare. Orice fan de baseball ar recunoaște că acesta a fost ulciorul care tocmai a aruncat mingea, și nu invers – și deși ne așteptăm ca un catcher și un batator să fie în apropiere, evident că nu apar în imagine.
Când sisteme precum DALL-E fac greșeli, rezultatul este amuzant, dar alte erori ale AI creează probleme serioase. Pentru a lua un alt exemplu, o Tesla pe pilot automat a condus recent direct către un muncitor uman care purta un semn de stop în mijlocul drumului, încetinind doar când a intervenit șoferul uman. Sistemul putea recunoaște oamenii pe cont propriu (așa cum au apărut în datele de antrenament) și semnele de oprire în locațiile lor obișnuite (din nou așa cum apăreau în imaginile antrenate), dar nu a reușit să încetinească atunci când a fost confruntat cu combinația neobișnuită a celor două. care a pus semnul de stop într-o poziție nouă și neobișnuită. Din păcate, faptul că aceste sisteme încă nu reușesc să fie fiabile și se luptă cu circumstanțe noi este de obicei îngropat în literele mici. Gato a lucrat bine la toate sarcinile raportate de DeepMind, dar rareori la fel ca și alte sisteme contemporane. GPT-3 creează adesea proză fluentă, dar încă se luptă cu aritmetica de bază și are atât de puțină strângere asupra realității încât este predispus să creeze propoziții de genul „Unii experți cred că actul de a mânca un șosetă ajută creierul să iasă din starea sa alterată. ca rezultat al meditației”, când niciun expert nu a spus vreodată așa ceva. O privire scurtă asupra titlurilor recente nu vă va spune despre niciuna dintre aceste probleme.
Sursa foto: internet
Învățarea profundă a avansat capacitatea mașinilor de a recunoaște modele în date, dar are trei defecte majore. Tiparele pe care le învață sunt, în mod ironic, superficiale, nu conceptuale; rezultatele pe care le creează sunt greu de interpretat; iar rezultatele sunt greu de utilizat în contextul altor procese, cum ar fi memoria și raționamentul. După cum a remarcat informaticianul de la Harvard Les Valiant, „provocarea centrală [în viitor] este de a unifica formularea… învățării și raționamentului.” Nu poți avea de-a face cu o persoană care poartă un semn de stop dacă nu înțelegi cu adevărat ce este măcar un semn de stop. Deocamdată, suntem prinși într-un „minim local” în care companiile urmăresc repere, mai degrabă decât idei fundamentale, realizând mici îmbunătățiri cu tehnologiile pe care le au deja, în loc să se oprească pentru a pune întrebări mai fundamentale. În loc să urmăm demo-uri spectaculoase direct către media, avem nevoie de mai mulți oameni care să pună întrebări de bază despre cum să construim sisteme care să învețe și să raționeze în același timp. În schimb, practica actuală a ingineriei este cu mult înaintea competențelor științifice, lucrând mai mult pentru a utiliza instrumente care nu sunt pe deplin înțelese decât pentru a dezvolta noi instrumente și un teren teoretic mai clar. Acesta este motivul pentru care cercetarea fundamentală rămâne crucială.
Că o mare parte a comunității de cercetare AI (cum ar fi cei care strigă „Game Over”) nici măcar nu vede asta este, ei bine, sfâșietor. Imaginează-ți dacă un extraterestru ar studia toată interacțiunea umană doar privind în jos la umbrele de pe pământ, observând, spre meritul său, că unele umbre sunt mai mari decât altele și că toate umbrele dispar noaptea și poate chiar observând că umbrele cresc în mod regulat și s-au micșorat la anumite intervale periodice – fără a privi vreodată în sus pentru a vedea soarele sau a recunoaște lumea tridimensională de deasupra.
Sursa: scientificamerican.com
Jurnal FM 