OpenAI po ndërtonte reputacion në fushën e inteligjencës artificiale, por nuk ishte emër i njohur kur Mira Murati iu bashkua laboratorit të kërkimit jofitimprurës në vitin 2018.
Menjëherë pas kësaj, laboratori i San Franciskos filloi një transformim të madh. Ai u kthye në një biznes që tërhoqi vëmendjen në mbarë botën si krijues i ChatGPT-së.
Tani shefja e tij e teknologjisë, Murati, drejton ekipet e kërkimit, produkteve dhe sigurisë të OpenAI-së. Ajo ka udhëhequr zhvillimin dhe lansimin e modeleve të AI-së duke përfshirë ChatGPT-në, gjeneratorin e imazheve DALL-E dhe më të riun, GPT-4.
Ajo ka folur me “The Associated Press” për masat mbrojtëse të AI-së dhe vizionin e kompanisë për konceptin futurist të inteligjencës së përgjithshme artificiale, të njohur si AGI. Intervista është redaktuar për gjatësi dhe qartësi.
AP: Çfarë do të thotë inteligjenca e përgjithshme artificiale për OpenAI?
Murati: Me inteligjencë të përgjithshme artificiale, zakonisht nënkuptojmë sisteme shumë autonome që janë të afta të prodhojnë rezultat ekonomik, prodhim të rëndësishëm ekonomik. Me fjalë të tjera, sisteme që mund të përgjithësohen në fusha të ndryshme. Është aftësi e nivelit njerëzor. Vizioni specifik i OpenAI-së rreth tij është ta ndërtojë atë në mënyrë të sigurt dhe të kuptojë se si ta ndërtojë atë në një mënyrë që është në përputhje me qëllimet njerëzore, në mënyrë që sistemet e AI-së të bëjnë gjërat që duam që ata të bëjnë dhe që të përfitojë maksimalisht sa më shumë njerëz të jetë e mundur, në mënyrë ideale të gjithë.
AP: A ka ndonjë shteg midis produkteve si GPT-4 dhe AGI?
Murati: Jemi larg pikës për të pasur një sistem AGI të sigurt, të besueshëm. Rruga jonë për të arritur atje ka disa vektorë të rëndësishëm. Nga pikëpamja kërkimore, ne po përpiqemi të ndërtojmë sisteme që kanë një kuptim të fortë të botës në mënyrë të ngjashme me mënyrën si jemi ne si njerëz. Sistemet si GPT-3 fillimisht u trajnuan vetëm mbi të dhënat e tekstit, por bota jonë nuk është e përbërë vetëm nga teksti, kështu që ne kemi edhe imazhe dhe më pas filluam të prezantonim modalitete të tjera. Këndi tjetër ka qenë shkallëzimi i këtyre sistemeve për ta rritur përgjithësinë e tyre. Me GPT-4, kemi të bëjmë me një sistem shumë më të aftë, veçanërisht nga këndi i arsyetimit për gjërat. Kjo aftësi është thelbësore. Nëse modeli është mjaft i zgjuar për të kuptuar një drejtim të paqartë ose një drejtim të nivelit të lartë, atëherë mund të kuptoni se si ta bëni atë të ndjekë këtë drejtim. Por nëse nuk e kupton as atë qëllim të nivelit të lartë apo drejtim të nivelit të lartë, është shumë më e vështirë ta përafrosh atë. Nuk është e mjaftueshme për të ndërtuar këtë teknologji në një vakum në laborator. Ne kemi vërtet nevojë për këtë kontakt me realitetin, me botën reale, për të parë se ku janë dobësitë, ku janë pikat e thyerjes, dhe të përpiqemi ta bëjmë këtë në një mënyrë të kontrolluar dhe me rrezik të ulët dhe të marrim sa më shumë reagime.
AP: Çfarë masash sigurie merrni?
Murati: Ne mendojmë për ndërhyrje në çdo fazë. Redaktojmë të dhëna të caktuara nga trajnimi fillestar në model. Me DALL-E, ne donim të reduktonim problemet e dëmshme të paragjykimeve që po shihnim. Ne rregulluam raportin e imazheve femra dhe meshkuj në grupin e të dhënave të trajnimit. Por duhet të jeni shumë të kujdesshëm sepse mund të krijoni ndonjë çekuilibër tjetër. Duhet të kontrollohet vazhdimisht. Në atë rast, ne patëm paragjykime të ndryshme sepse shumë nga këto imazhe ishin të natyrës seksuale. Pra, atëherë duhet ta rregulloni përsëri dhe të jeni shumë të kujdesshëm sa herë që bëni një ndërhyrje, duke parë se çfarë tjetër po prishet. Në trajnimin e modelit, me ChatGPT në veçanti, bëmë të mësuarit përforcues me reagime njerëzore për të ndihmuar modelin të përafrohet më shumë me preferencat njerëzore. Në thelb ajo që ne po përpiqemi të bëjmë është të përforcojmë atë që konsiderohet sjellje e mirë dhe më pas të ç’përforcojmë atë që konsiderohet sjellje e keqe.
AP: A duhet të rregullohen këto sisteme?
Murati: Po, absolutisht. Këto sisteme duhet të rregullohen. Në OpenAI, po flasim vazhdimisht me qeveritë, rregullatorët dhe organizatat e tjera që po zhvillojnë këto sisteme për të rënë dakord, të paktën në nivel kompanie, për disa nivele standardesh. Ne kemi bërë disa punë për këtë në dy vitet e fundit me zhvillues të mëdhenj të modeleve gjuhësore në përputhje me disa standarde bazë të sigurisë për vendosjen e këtyre modeleve. Por mendoj se duhet të bëhet shumë më tepër. Rregullatorët e qeverisë sigurisht që duhet të jenë shumë të përfshirë.
AP: Një letër që kërkonte një pauzë 6-mujore të industrisë në ndërtimin e modeleve të AI-së më të fuqishme se GPT-4 mori shumë vëmendje. Çfarë mendoni për peticionin dhe supozimin e saj në lidhje me rreziqet e AI-së?
Murati: Shiko, mendoj se është e vështirë të dizajnosh mekanizma sigurie në sisteme komplekse. Këtu ka shumë nuanca. Disa nga rreziqet që thekson letra janë plotësisht të vlefshme. Në OpenAI, ne kemi folur për to shumë hapur prej vitesh dhe i studiojmë gjithashtu. Nuk mendoj se nënshkrimi i një letre është mënyrë efektive për të ndërtuar mekanizma sigurie ose për të koordinuar lojtarët në hapësirë. Disa nga deklaratat në letër ishin thjesht të pavërteta në lidhje me zhvillimin e GPT-4 ose GPT-5. Ne nuk e po trajnojmë GPT-5. Nuk kemi ndonjë plan për ta bërë këtë në gjashtë muajt e ardhshëm. Dhe ne nuk nxituam nga GPT-4. Na u deshën gjashtë muaj, në fakt, që të fokusoheshim tërësisht në zhvillimin dhe vendosjen e sigurt të GPT-4. Edhe atëherë, e hapëm atë me një numër të madh parmakësh mbrojtës dhe një hapje shumë të koordinuar dhe të ngadaltë. Nuk është lehtësisht e arritshme për të gjithë, dhe sigurisht nuk është me burim të hapur. E gjithë kjo do të thotë se unë mendoj se mekanizmat e sigurisë dhe mekanizmat e koordinimit në këto sisteme të AI-së dhe çdo sistem kompleks teknologjik është i vështirë dhe kërkon shumë mendim, eksplorim dhe koordinim midis lojtarëve.
AP: Sa ka ndryshuar OpenAI që kur ju iu bashkuat?
Murati: Kur iu bashkova OpenAI-së, ishte organizatë jofitimprurëse. Mendova se kjo ishte teknologjia më e rëndësishme që ne do të ndërtojmë ndonjëherë si njerëzim dhe me të vërtetë ndjeva sikur një kompani me misionin e OpenAI-t do të kishte shumë gjasa të sigurohej që të shkonte mirë. Me kalimin e kohës, ne ndryshuam strukturën tonë sepse këto sisteme janë të shtrenjta. Ata kërkojnë shumë fonde. U siguruam që t’i strukturonim stimujt në mënyrë të tillë që t’i shërbenim akoma misionit jofitimprurës. Kjo është arsyeja pse ne kemi një strukturë të “fitimit të kufizuar”. Njerëzit në OpenAI janë thelbësisht të motivuar dhe të përafruar me misionin dhe kjo nuk ka ndryshuar që nga fillimi. Por gjatë pesë viteve, mendimi ynë ka evoluar shumë kur bëhet fjalë për atë se cila është mënyra më e mirë për t'u vendosur, cila është mënyra më e sigurt. Ky është ndoshta ndryshimi më i madh. Mendoj se është ndryshim i mirë.
AP: A e keni parashikuar reagimin ndaj ChatGPT-së përpara publikimit të tij më 30 nëntor?
Murati: Teknologjia themelore kishte qenë rreth e rrotull për muaj të tërë. Ne kishim besim të lartë në kufizimet e modelit nga klientët që e kishin përdorur tashmë atë nëpërmjet një API-je. Por ne kemi bërë disa ndryshime në krye të modelit bazë. E përshtatëm atë në dialog. Më pas e bëmë atë të disponueshme për studiuesit përmes një ndërfaqe të re ChatGPT. E kishim eksploruar atë nga brenda me një grup të vogël, të besuar dhe kuptuam se pengesa ishte se po merrte më shumë informacion dhe merrte më shumë të dhëna nga njerëzit. Ne donim ta zgjeronim atë për më shumë njerëz atje në atë që ne e quajmë një vrojtim kërkimor, jo një produkt. Synimi ishte të mblidheshin reagime se si modeli po sillet dhe t'i përdorë ato të dhëna për të përmirësuar modelin dhe për ta bërë atë më të harmonizuar. Ne nuk e parashikuam shkallën në të cilën njerëzit do të magjepseshin kaq shumë duke folur me një sistem AI. Ishte vetëm një vrojtim kërkimor. Numrin e përdoruesve e këso gjërash, nuk i parashikuam deri në atë nivel.
Përktheu: Blerta Haxhiu