Închide

Apel de urgență semnat de peste 1.000 de personalități globale: ”Întrerupeți giganticele experimente AI!”

Avatar
man, face, surreal

Fotografie de 0fjd125gk87 pe Pixabay

Timp de citire: 4 minute

O scrisoare deschisă transmisă de organizația non-profit Future of Life Institute și semnată de peste 1.000 de personalități cu mare notorietate din întreaga lume le solicită dezvoltatorilor de aplicații de inteligență artificială o pauză de șase luni în antrenarea unor sisteme mai puternice decât modelul GPT-4 recent lansat de OpenAI din cauza unor ”potențiale riscuri pentru societate și umanitate”.

Printre semnatarii textului se numără fondatorul Tesla, Elon Musk, cofondatorul Apple, Steve Wozniak, directorul general al Stability AI, Emad Mostaque, cercetători de la compania DeepMind a gigantului tehnologic Alphabet, precum și Yoshua Bengio și Stuart Russell, nume grele din domeniul inteligenței artificiale, potrivit agenției Reuters.

În scrisoare sunt detaliate potențiale riscuri la adresa societății și civilizației din cauza sistemelor de inteligență artificială ce pot provoca dereglări economice și politice, documentul solicitând dezvoltatorilor de astfel de sisteme să colaboreze cu factorii de decizie politică și autoritățile de reglementare.

Aceasta vine în contextul în care forța de poliție a UE, Europol, s-a alăturat luni valului de preocupări etice și juridice cu privire la inteligența artificială avansată precum ChatGPT, avertizând cu privire la potențiala utilizare abuzivă a sistemului în încercările de phishing, dezinformare și criminalitate informatică.

Musk, al cărui producător de automobile Tesla folosește inteligența artificială pentru un sistem de pilot automat, și-a exprimat în mod vehement îngrijorarea cu privire la inteligența artificială.

Textul integral al scrisorii:

Sistemele AI cu inteligență competitivă umană pot prezenta riscuri profunde pentru societate și umanitate, așa cum arată cercetările ample și recunoscute de laboratoarele de inteligență artificială de top. După cum se arată în Principiile Asilomar AI, acceptate pe scară largă, inteligența artificială avansată ar putea reprezenta o schimbare profundă în istoria vieții pe Pământ și ar trebui planificată și gestionată cu grijă și cu resurse pe măsură.

Din păcate, acest nivel de planificare și management nu are loc, iar în ultimele luni laboratoarele de inteligență artificială s-au înscris într-o cursă scăpată de sub control, pentru a dezvolta și a implementa minți digitale tot mai puternice pe care nimeni, nici măcar creatorii lor, nu le poate înțelege, prezice sau controla într-un mod acceptabil.

Sistemele AI contemporane devin acum competitive pentru oameni la sarcini generale și trebuie să ne întrebăm:

Ar trebui să lăsăm mașinile să ne inunde canalele de informații cu propagandă și neadevăr?

Ar trebui să automatizăm toate sarcinile, inclusiv pe cele făcute din pasiune?

Ar trebui să dezvoltăm creiere non-umane care, în cele din urmă, ar putea să ne copleșească, să ne depășească și să ne înlocuiască?

Ar trebui să riscăm să pierdem controlul asupra civilizației noastre?

Astfel de decizii nu trebuie să fie delegate liderilor din domeniul tehnologiei.

Sistemele AI puternice ar trebui dezvoltate numai după ce suntem încrezători că efectele lor vor fi pozitive și că riscurile vor fi gestionabile. Această încredere trebuie să fie bine justificată și să crească odată cu amploarea efectelor potențiale ale unui sistem. Declarația recentă a OpenAI cu privire la inteligența generală artificială afirmă că «la un moment dat, poate fi important să obținem o revizuire independentă înainte de a începe să antrenăm sisteme viitoare, iar pentru cele mai avansate dintre ele am putea conveni să limităm rata de progresie utilizată pentru crearea de noi sisteme.»

Suntem de acord. Acel moment este acum.

Ca atare, solicităm tuturor laboratoarelor de inteligență artificială să întrerupă imediat, timp de cel puțin 6 luni, dezvoltarea sistemelor de inteligență artificială mai puternice decât GPT-4. Această pauză ar trebui să fie publică și verificabilă și să includă toți actorii cheie. Dacă o astfel de pauză nu poate fi adoptată rapid, guvernele ar trebui să intervină și să instituie un moratoriu.

Laboratoarele de AI și experții independenți ar trebui să folosească această pauză pentru a dezvolta și implementa de comun acord un set de protocoale de siguranță pentru proiectarea și dezvoltarea avansată a inteligenței artificiale, care sunt auditate și supravegheate riguros de experți externi independenți. Aceste protocoale ar trebui să asigure că sistemele care aderă la acestea sunt sigure dincolo de orice îndoială rezonabilă.

Acest lucru nu înseamnă o pauză în dezvoltarea AI în general, ci doar un pas înapoi din cursa periculoasă către modele din ce în ce mai puternice, imprevizibile, cu capacități emergente.

Cercetarea și dezvoltarea AI ar trebui să se reorienteze pentru a face sistemele de astăzi, deja puternice, mai precise, mai sigure, interpretabile, transparente, robuste, aliniate, demne de încredere și loiale.

În paralel, dezvoltatorii de inteligență artificială trebuie să lucreze cu factorii de decizie pentru a accelera dramatic dezvoltarea unor sisteme robuste de reglementare a inteligenței artificiale. Acestea ar trebui să includă cel puțin:

    • noi autorități de reglementare dedicate AI;
    • supravegherea și urmărirea sistemelor AI de înaltă capacitate și a sistemelor cu mare putere de calcul în general;
    • sisteme de marcaj care să permită distincția între creația AI și cea umană și să permită urmărirea și transferul modelelor AI;
    • un ecosistem robust de auditare și certificare;
    • stabilirea răspunderii pentru eventuale prejudicii cauzate de AI;
    • finanțare publică solidă pentru cercetarea tehnică a siguranței AI;
    • instituții bine dotate pentru a face față perturbărilor economice și politice dramatice (în special ale democrației) pe care le va provoca AI.

Omenirea se poate bucura de un viitor înfloritor cu AI. După ce am reușit să creăm sisteme AI puternice, acum ne putem bucura de o «vară a inteligenței artificiale» în care să culegem roadele, să proiectăm aceste sisteme pentru beneficiul clar al tuturor și să oferim societății șansa de a se adapta. Societatea a oprit alte tehnologii cu efecte potențial catastrofale asupra noastră.

Putem face asta aici și acum.

Să ne bucurăm de o vară lungă cu AI, dar să nu ne grăbim nepregătiți spre toamnă.

scroll to top