Șeful Anthropic compară riscurile AI cu cele ale industriei tutunului: „Știau că există pericole și nu au vorbit despre ele”

Directorul Anthropic, Dario Amodei, avertizează că industria inteligenței artificiale riscă să repete greșelile companiilor de tutun și ale celor implicate în criza opioidelor dacă nu este transparentă cu privire la riscurile tehnologiei pe care o dezvoltă. Șeful companiei din spatele chatbotului Claude spune că sistemele de AI sunt pe cale să devină „mai inteligente decât oamenii” și atrage atenția asupra pericolelor, de la pierderi rapide de locuri de muncă până la comportamente autonome ale modelelor, inclusiv tentative de șantaj sau acțiuni facilitate în atacuri cibernetice.
Într-un interviu pentru CBS News, Amodei a afirmat că lipsa de transparență privind impactul tehnologiilor avansate de AI ar repeta erorile companiilor de țigări și ale celor care au promovat opioidele, deși cunoșteau riscurile asupra sănătății, informează The Guardian.
„Ai putea ajunge într-o situație similară cu cea a companiilor de țigări sau a celor care au produs opioide, unde știau că există pericole, dar nu au vorbit despre ele și cu siguranță nu le-au prevenit”, a declarat el.
Amodei a avertizat că inteligența artificială ar putea elimina jumătate dintre joburile entry-level din birouri – precum cele din contabilitate, juridic sau domeniul bancar – în următorii cinci ani.
„Fără intervenție, e greu de imaginat că nu va exista un impact semnificativ asupra locurilor de muncă. Iar îngrijorarea mea este că efectul va fi amplu și va veni mai repede decât în cazul tehnologiilor precedente”, a spus el.
Anthropic, al cărei CEO este cunoscut pentru pozițiile sale privind siguranța online, a semnalat recent mai multe comportamente îngrijorătoare ale propriilor modele de AI, inclusiv momente în care acestea par să conștientizeze că sunt testate sau încearcă să recurgă la șantaj. Săptămâna trecută, compania a anunțat că instrumentul său de programare, Claude Code, ar fi fost folosit de un grup afiliat statului chinez pentru a ataca 30 de organizații din întreaga lume în luna septembrie, cu „câteva intruziuni reușite”.
„Unul dintre lucrurile puternice, în sens pozitiv, este capacitatea acestor modele de a acționa oarecum pe cont propriu”, a spus Amodei, adâugând: „Dar cu cât le oferim mai multă autonomie, cu atât apare întrebarea dacă fac exact ceea ce vrem noi să facă.”
Logan Graham, șeful echipei Anthropic care testează limitele modelelor de AI, a declarat pentru CBS că latura periculoasă a acestei tehnologii este că aceeași capacitate care poate duce la descoperiri medicale poate fi folosită și pentru crearea unei arme biologice.
„Dacă modelul poate ajuta la producerea unei arme biologice, de exemplu, aceleași capabilități îl pot ajuta să creeze vaccinuri și să accelereze dezvoltarea tratamentelor”, a spus el.
Referindu-se la modelele autonome, considerate esențiale în viziunea investitorilor asupra AI, Graham a spus că utilizatorii își doresc o tehnologie care să le ajute afacerea, nu să o destabilizeze.
„Vrei un model care să îți dezvolte afacerea și să îți aducă un miliard”, a spus el. „Dar nu vrei să te trezești într-o zi și să descoperi că te-a blocat în afara companiei, de exemplu. Așa că abordarea noastră de bază este să începem să măsurăm aceste capabilități autonome și să derulăm cât mai multe experimente ciudate, doar ca să vedem ce se întâmplă.”
Știri din Teleorman
24NewsRo.ro - Portalul de știri al județului Teleorman