Sun. Jan 23rd, 2022

Ideea de inteligență artificială s-a vorbit despre răsturnarea omenirii pentru multe decenii, iar în ianuarie 2021, oamenii de știință și-au dat verdictul dacă vom fi capabili să controlăm o super-inteligență computerizată de nivel înalt. Răspunsul? Aproape sigur nu.

Problema este că controlul unei super-inteligențe mult dincolo de înțelegerea umană ar necesita o simulare a acelei super-inteligențe pe care o putem analiza. Dar dacă nu reușim să-l înțelegem, este imposibil să creăm o astfel de simulare.

Reguli precum „să nu faci rău oamenilor” nu pot fi stabilite dacă nu înțelegem tipul de scenarii cu care va veni o IA, sugerează autorii lucrării din 2021. Odată ce un sistem computerizat funcționează la un nivel peste nivelul de aplicare al programatorilor noștri, nu mai putem stabili limite.

„O super-inteligență pune o problemă fundamental diferită de cele studiate de obicei sub steagul „eticii robotului””, au scris cercetătorii.

„Aceasta se datorează faptului că o superinteligență are mai multe fațete și, prin urmare, este capabilă să mobilizeze o diversitate de resurse pentru a atinge obiective care sunt potențial de neînțeles pentru oameni, cu atât mai puțin controlabile.”

O parte din raționamentul echipei vine din problema opririi propusă de Alan Turing în 1936. Problema se concentrează pe a ști dacă un program de calculator va ajunge sau nu la o concluzie și va răspunde (deci se oprește), sau pur și simplu încearcă să găsească unul.

După cum a demonstrat Turing prin unele matematică inteligentă, deși putem ști că pentru unele programe specifice, este logic imposibil să găsim o modalitate care să ne permită să știm asta pentru fiecare program potențial care ar putea fi scris vreodată. Asta ne readuce la AI, care, într-o stare super-inteligentă, ar putea reține în mod fezabil fiecare program de calculator posibil în memoria sa simultan.

Orice program scris pentru a opri AI să dăuneze oamenilor și să distrugă lumea, de exemplu, poate ajunge la o concluzie (și opri) sau nu – este imposibil din punct de vedere matematic pentru noi să fim absolut siguri în orice caz, ceea ce înseamnă că nu poate fi controlat.

„De fapt, acest lucru face ca algoritmul de izolare să fie inutilizabil”, a spus informaticianul Iyad Rahwan, de la Institutul Max-Planck pentru Dezvoltare Umană din Germania în ianuarie.

Alternativa la a-i preda AI niște etică și a-i spune să nu distrugă lumea – lucru pe care niciun algoritm nu poate fi absolut sigur că îl va face, spun cercetătorii – este să limiteze capacitățile super-inteligenței. Ar putea fi deconectat de la anumite părți ale internetului sau de la anumite rețele, de exemplu.

Studiul recent respinge și această idee, sugerând că ar limita raza de acțiune a inteligență artificială – argumentul spune că, dacă nu îl vom folosi pentru a rezolva probleme dincolo de sfera oamenilor, atunci de ce să-l creăm deloc?

Dacă vom merge mai departe cu inteligența artificială, s-ar putea să nu știm nici măcar când ajunge o super-inteligență aflată în afara controlului nostru, așa este incomprehensibilitatea ei. Asta înseamnă că trebuie să începem să întrebăm pe unii intrebari serioase despre direcțiile în care mergem.

„O mașină super-inteligentă care controlează lumea sună ca o ficțiune științifico-fantastică.” a spus informaticianul Manuel Cebrian, de la Institutul Max-Planck pentru Dezvoltare Umană. „Dar există deja mașini care îndeplinesc anumite sarcini importante în mod independent, fără ca programatorii să înțeleagă pe deplin cum au învățat-o.”

„Așadar, se pune întrebarea dacă acest lucru ar putea deveni la un moment dat incontrolabil și periculos pentru umanitate.”

By Amrit

Leave a Reply

Your email address will not be published. Required fields are marked *