Magnatul Elon Musk şi un grup de experţi în inteligenţă artificială şi responsabili din industria IT au făcut apel la o pauză de şase luni în pregătirea de sisteme mai puternice decât modelul GPT-4 recent lansat de laboratoarele OpenAI.
Aceștia avertizează prin intermediul unei scrisorii deschise asupra potenţialelor riscuri la adresa societăţii şi omenirii, relatează miercuri Reuters, citată de Agerpres.
Scrisoarea publicată de institutul non-profit Future of Life şi semnată de peste 1000 de persoane - între care Elon Musk, şeful companiei Stability AI Emad Mostaque, cercetători de la laboratorul DeepMind al grupului Alphabet şi informaticieni de prestigiu ca Yoshua Bengio şi Stuart Russell - cere o pauză în dezvoltarea IA avansate până când nu vor fi create, implementate şi verificate de experţi independenţi protocoale de securitate comune pentru astfel de modele.
„Nu ar trebui dezvoltate sisteme IA puternice decât după ce vom putea avea încredere că efectele lor sunt pozitive şi putem gestiona riscurile”, se arată în scrisoare.
Aceasta explică de asemenea că sistemele de IA ce intră în competiţie cu inteligenţa umană generează potenţiale riscuri pentru societate şi civilizaţie sub forma tulburărilor economice şi politice şi îi îndeamnă pe dezvoltatorii de astfel de sisteme să conlucreze cu factorii de decizie politică şi autorităţile de reglementare.
Musk, a cărui companie Tesla foloseşte IA pentru sistemul de autopilotare al maşinilor autonome, şi-a exprimat în mod repetat preocuparea în legătură cu inteligenţa artificială. Luni, forţa de poliţie a UE Europol s-a alăturat la rândul ei corului de preocupări etice şi juridice cu privire la sistemele avansate de IA cum este ChatGPT, avertizând împotriva unor potenţiale utilizări abuzive ale acestora sub forma tentativelor de phishing, a dezinformării şi criminalităţii informatice.
După ce anul trecut OpenAI, cu sprijinul Microsoft, a lansat ChatGPT, concurenţa a accelerat dezvoltarea de modele similare ce integrează inteligenţa artificială generativă.
Sam Altman, CEO al OpenAI, nu a semnat scrisoarea, menţionează Reuters, citând un purtător de cuvânt de la Future of Life.
„Scrisoarea nu este perfectă, dar este corectă: trebuie să scădem ritmul până când vom înţelege mai bine ramificaţiile”, a notat Gary Marcus, profesor la Universitatea New York şi unul dintre semnatari. Sisteme puternice de IA „pot provoca daune grave (...), marii jucători sunt din ce în ce mai secretoşi în legătură cu ceea ce fac, iar societăţii îi va fi mai greu să se apere de problemele care se pot materializa”, a adăugat acesta.