Pse ish-drejtuesi i kërkimit të AI te Cohere sfidon garën e rritjes

Laboratorët e inteligjencës artificiale po garojnë për të ndërtuar qendra të të dhënave gjigante, të mëdha sa Manhatani, ku secila kushton miliarda dollarë dhe shpenzon sasi të mëdha energjie, në nivelet e një qyteti të vogël. Kjo përpjekje udhëhiqet nga besimi i thellë në “shkallëzimin” — ideja se shtimi i fuqisë kompjuterike në metodat ekzistuese të trajnimit të AI-së do të mundësojë sisteme superinteligjente të afta të përmbushin çdo lloj detyre. Megjithatë, një numër gjithnjë e më i madh studiuesish të AI-së paralajmëron se shkallëzimi i modeleve të mëdha të gjuhës po arrin kufijtë e tij dhe janë të nevojshme zbulime të reja për të përmirësuar performancën e AI-së.
Liderët e rinj në inovacionin e AI: Adaption Labs
Kjo është edhe strategjia që ndjek Sara Hooker, ish-Zv. Presidente e Kërkimeve të AI në Cohere dhe ish-anëtare e Google Brain, me startupin e ri Adaption Labs. Së bashku me Sudip Roy, po ashtu ekspert i Google dhe Cohere, ata besojnë se shkallëzimi i modeleve të mëdha të gjuhës është bërë joefikas. Synimi i tyre është të ndërtojnë sisteme AI që mësojnë dhe përshtaten në mënyrë të vazhdueshme nga përvoja reale duke qenë shumë të kursyer me përdorimin e burimeve. Hooker ka theksuar se vetëm rritja e përmasave të modeleve nuk ka prodhuar inteligjencë të vërtetë që përshtatet me botën përreth.
Përshtatja është “zemra e të mësuarit”, shpjegon ajo. Nëse godet një tavolinë teksa kalon, ti mëson të ecësh më kujdesshëm herën tjetër. Laboratorët e AI-së janë përpjekur ta kapin këtë koncept përmes trajnimimit përforcues (Reinforcement Learning – RL), që lejon sistemet AI të mësojnë nga gabimet në ambiente të kontrolluara. Por, trajnimet aktuale nuk i ndihmojnë modelet e përdorura tashmë nga klientët të mësojnë në kohë reale, duke bërë që sistemi të përsërisë gabimet. Ndërsa disa laboratorë ofrojnë shërbime konsulence për përshtatje të modeleve, këto janë shërbime shumë të shtrenjta, me OpenAI që raportohet të kërkojë investime prej 10 milionë dollarësh për personalizim të thelluar.
Pikëpyetjet mbi shkallëzimin dhe drejtimi i ri i AI-së
Kritika ndaj qasjes së shkallëzimit po rritet. Studime të fundit nga MIT tregojnë se përfitimet shtesë nga modelet gjithnjë e më të mëdha po zbehen. Edhe personalitete të njohura si Richard Sutton, “babai i RL-së”, kanë shprehur se modelet aktuale nuk mësojnë si duhet nga përvoja reale. Këto shqetësime janë përmendur që në fund të vitit 2024, kur studiues të AI-së thanë se metoda e trajnimit në grupe të mëdha të dhënash po arrin nivele të pjerrëta përfitimi, ndonëse tani ka strategji të reja si modelet e arsyetimit të AI-së, që shpenzojnë më shumë kohë dhe burime për të zgjidhur probleme përpara se të përgjigjen.
Laboratorë si OpenAI, Meta dhe Periodic Labs po fokusohen tashmë në zgjerimin e modeleve të RL dhe arsyetimit. Por ekziston një problem i madh: këto qasje janë tejet të kushtueshme, me studime që kapin vlerën e miliona dollarëve. Adaption Labs kërkon të sjellë zgjidhje më të efektshme, duke provuar se të mësuarit nga përvoja mund të jetë jo vetëm më i avancuar, por edhe shumë më i lirë. Startup-i ka tërhequr tashmë vëmendjen e investitorëve të fuqishëm dhe besohet se ka mbyllur një raund të financimit mes 20 dhe 40 milionë dollarëve.
Sara Hooker gjatë karrierës së saj ka demonstruar sukses në ndërtimin e modeleve të vogla dhe efikase për bizneset, shpesh duke i tejkaluar modelet më të mëdha në detyra si programimi, matematika apo detyrat e arsyetimit. Po ashtu, ajo është e njohur për promovimin global të kërkimit në AI dhe hapjes ndaj talenteve të reja nga e gjithë bota. Me zyrë në San Francisko dhe një filozofi të hapur për punësim ndërkombëtar, Adaption Labs është i pozicionuar të nxjerrë në pah kufizimet aktuale të shkallëzimit dhe të provojë se të mësuarit vërtet fleksibël mund të jetë më i përshtatshëm dhe ekonomik për industrinë.
Nëse kjo qasje rezulton e suksesshme, përfitimet do të jenë të mëdha për të gjithë industrinë e AI-së, pasi mund të ndryshohet rrënjësisht mënyra se si modelet trajnohen, përdoren dhe adaptohen për nevoja të ndryshme, duke mos qenë të varur vetëm nga “më e madhe është më mirë”.
Tags: AI, shkallëzim, Adaption Labs, të mësuarit nga përvoja, eficienca e modeleve, startup
