Current track

Title

Artist


Ce ne poate spune inteligența artificială despre noi?

#Postat de on septembrie 3, 2021

Rețelele neuronale artificiale (sau doar – rețelele neuronale), utilizate ca așa-numitele componente de învățare automată și învățare profundă în aplicațiile de inteligență artificială (AI), obțin o oarecare măsură de inspirație din atributele funcționale și structurale ale creierului biologic. În timp ce similitudinile procesării informațiilor sunt totuși rare, mai multe comportamente funcționale ale rețelelor neuronale sunt similare cu astfel de comportamente ale creierului biologic, cum ar fi învățarea, uitarea și amintirea. De asemenea, demonstrează încercări de a valorifica biomimicria pentru soluțiile structurale ale rețelei neuronale. În consecință, întrucât lucrările fictive (de exemplu, de literatură) inspiră adesea tehnologii din lumea reală, s-ar putea aștepta că există inspirații reciproce (Figura 1), care pot fi extrase din implementările soluțiilor de rețea neuronală artificială, care invocă o perspectivă semnificativă asupra proceselor biologice ale creierului , cel puțin în ceea ce privește domeniile funcționale.

Figura 1. Studiul naturii care inspiră crearea tehnologiei și studiul tehnologiei inspirând o înțelegere mai profundă a naturii

Din păcate, rezultatele științifice utile demonstrate în acest sens sunt greu de găsit. Cu toate acestea, o viziune a rețelelor neuronale prin obiectivul Software 2.0, o paradigmă referitoare la rețelele neuronale care a apărut în parte din articolul de pe Medium.com al lui Andrej Karpathy, poate oferi o perspectivă utilă. Paradigma Software 2.0 consideră că algoritmii de formare a rețelelor neuronale (adică rețelele neuronale care funcționează într-un mod de învățare) sunt comparabili cu compilatoarele care aduc date și produc modele de software ale rețelei neuronale, adică calculează structuri care efectuează direct inferența la intrările de date pentru a produce ieșiri de date. . Asocierea unor astfel de definiții la nomenclatura software tradițională în care compilatoarele sunt definite pentru a admite un set de instrucțiuni numit cod sursă (și generează un model), iar modelele sunt definite pentru date de intrare (și date de ieșire care sunt transformate din intrarea originală), atunci Software 2.0 notează că pentru rețelele neuronale datele sunt atât cod sursă, cât și – date. Observând că creierul nostru include, de asemenea, moduri de învățare inductivă și de inferență analogice, atunci ideile referitoare la anumite comportamente funcționale ale creierului biologic ar putea fi obținute prin aplicarea unui obiectiv Software 2.0. De exemplu, printr-un astfel de obiectiv observăm că creierul nostru este literalmente scufundat în codul sursă dinamic (adică datele sau mediul informațional, pe care le vedem, auzim, simțim, mirosim și gustăm). Un astfel de mediu informațional cuprinde date corelate care sunt compilate continuu și autonom de algoritmii de învățare inductivi din creierul nostru în modele care pot defini substanțial cine suntem, ce credem și ce facem. În plus, un astfel de punct de vedere proiectează că, la fel ca o implementare a rețelei neuronale artificiale, creierul biologic are protecții înnăscute marginale împotriva a ceea ce informațiile îi fac. În consecință, creierul biologic poate fi, la rădăcină, esențial fluid și, în ceea ce privește creierele umane, din ce în ce mai precar în epoca noastră informațională, deoarece informația-mediu-ca-sursă-cod se transformă exponențial.
Comportamentele adaptabile autonom ale creierului ar părea un avantaj evolutiv, permițând creierului uman să utilizeze feedback-urile de mediu pentru a-și instrui modelele de inferență pentru a realiza comportamente care să faciliteze succesul (inclusiv dezvoltarea premiselor utile pentru raționamentul deductiv) împotriva unui termen mai scurt (în raport cu timpul evolutiv), provocări de mediu stochastice. Cu toate acestea, în era informațională, unde o parte din ce în ce mai mare din mediul nostru informațional este fabricat de om și este divergentă de feedback-urile naturale de mediu, ar putea rezulta o proliferare a creierelor umane care sunt slab pregătite pentru a genera răspunsuri corecte de supraviețuire la provocări reale. Cn un astfel de comportament un creier efectiv instabil ar fi deosebit de periculos pentru grupul uman și chiar pentru specia umană, supraviețuirea împotriva amenințărilor de amploare și complexitate substanțiale, în cazul în care comportamentele colective sunt de o importanță sporită. Cu alte cuvinte, Software 2.0 permite apariția potențială a unui bun simț care este incompatibil cu supraviețuirea umană. Poate că obiectivul Software 2.0 oferă o ocazie creierului uman de a se uita înapoi la sine și de a aprecia limitele propriului său potențial. O astfel de viziune ar putea motiva cercetarea obiectivă referitoare la pragurile de conținut informație-mediu-ca-cod-sursă și punctele de basculare aferente referitoare la sănătatea funcțională a creierului uman. Din acest punct de vedere, poate este important să stabilim ce ne-ar putea dori ca mediul informațional să facă din noi – înainte ca acesta să ne facă.
Poate am putea defini modul în care mediul informațional va contribui la succesul uman în următorii 50, 100 de ani, pe măsură ce Epoca informațională devine un substrat complet format și greu de modificat în epocile următoare. Poate că există roluri critice pe care AI le poate juca în protejarea creierului uman de toxicitățile informațiilor noastre pe termen mediu, permițând totodată recoltarea de beneficii. În cele din urmă, obiectivul Software 2.0 aplicat creierului uman poate oferi, de asemenea, o alternativă la criteriul de trecere așteptat al testului Turing, plecându-se de la narațiunile umane superioare ale AI-ului fictiv mult apreciat, cum ar fi reprezentat de Robotul lui Azimov, Datele Star Trek, și chiar Pinocchio al lui Collodi. Obiectivul tradițional al testului Turing este acela de a face ca o IA ascunsă să funcționeze atât de bine într-o conversație cu un om încât omul să rămână la nesfârșit conștient că conversantul este un AI. Cu toate acestea, prin obiectivul software-ului 2.0, testul Turing s-ar putea încheia cu succes atunci când AI extrem de complexă și introspectivă își curăță în mod metaforic gâtul și, ridicând o sprânceană internă, spune participantului uman: „Salutări, coleg automat!” Sursa: medium.com


Opiniile cititorului

Lasa un comentariu

Your email address will not be published. Câmpurile obligatorii sunt marcate cu *