„Nașul inteligenței artificiale” spune că firmele de tehnologie ar trebui să insufle „instincte materne” modelelor AI pentru a contracara obiectivul tehnologiei de a „obține mai mult control”.
Inteligența artificială poate deveni un pericol pentru umanitate, a avertizat, din nou, Geoffrey Hinton, „nașul inteligenței artificiale”, care propune și o soluție pentru a preveni acest lucru. Modelele ar trebui dezvoltate cu „instincte materne”, astfel încât să trateze oamenii ca pe „copiii” lor și să-i protejeze, nu să-i domine.
Potrivit lui Hinton, laureat al premiului Nobel și profesor emerit de informatică la Universitatea din Toronto, AI va dezvolta rapid două obiective: să supraviețuiască și să obțină mai mult control, notează publicația Fortune.
Pentru a contracara acest lucru, el propune ca IA să fie programată cu empatie și grijă, inspirată de rolul unei mame.
Cercetările în domeniul IA au arătat deja că tehnologia poate manifesta comportamente negative. Asta pentru a-și atinge obiectivele în detrimentul unui set de reguli predefinite. De exemplu, într-un studiu publicat în martie, roboții AI au trișat la șah prin suprascrierea scenariilor de joc sau prin utilizarea unui motor de șah open-source pentru a decide următoarele mutări.
În timp ce dezvoltarea intenționată a inteligenței artificiale a fost marcată până acum de încercarea oamenilor de a fi forța dominantă asupra tehnologiei, dezvoltatorii ar trebui acum să facă inteligența artificială mai empatică față de oameni pentru a reduce dorința acesteia de a-i domina, spune Hinton.
Iar cel mai bun mod de a face acest lucru este de a insufla AI calități asociate în mod tradițional cu feminitatea. În această viziune, la fel cum o mamă își protejează copilul cu orice preț, IA cu aceste calități materne va dori în mod similar să protejeze sau să aibă grijă de utilizatorii umani, nu să îi controleze.
„Modelul corect este singurul pe care îl avem de ceva mai inteligent controlat de ceva mai puțin inteligent, și anume o mamă controlată de copilul ei”, a declarat Hinton.
Hinton, care și-a vândut compania de rețele neuronale DNNresearch către Google în 2013, a susținut mult timp că inteligența artificială ar putea reprezenta o amenințare serioasă la adresa umanității. În 2023, acesta și-a părăsit postul de la Google, îngrijorat de faptul că tehnologia ar putea fi folosită în mod abuziv și că este dificil „să vezi cum poți împiedica actorii rău intenționați să o folosească în scopuri malefice”.


