LAJMI I FUNDIT:

A po ngadalësohet ngritja meteorike e Inteligjencës Artificiale?

A po ngadalësohet ngritja meteorike e Inteligjencës Artificiale?

Një bindje që po rritet ngadalë në Silicon Valley mund të ketë pasoja të mëdha: përparimet nga modelet e mëdha të Inteligjencës Artificiale (AI) – ato që priten të sjellin AI në nivel njerëzor në të ardhmen e afërt – mund të jenë duke u ngadalësuar.

Që nga prezantimi i bujshëm i ChatGPT dy vite më parë, besnikët e AI kanë mbajtur qëndrimin se përmirësimet në AI gjenerative do të përshpejtoheshin eksponencialisht, pasi gjigantët e teknologjisë do të vazhdonin të shtonin “karburant” në formën e të dhënave për trajnimin dhe fuqinë kompjuterike.

Arsyeja pas kësaj ishte që për të realizuar premtimin e teknologjisë mjaftonte thjesht të investoheshin burime – të derdhej mjaftueshëm fuqi kompjuterike dhe të dhëna, dhe inteligjenca artificiale e përgjithshme (AGI) do të shfaqej, duke qenë e aftë të përputhej ose të tejkalonte performancën e nivelit njerëzor.


Përparimi po ecte me një ritëm aq të shpejtë sa që figura kryesore të industrisë, përfshirë Elon Musk, bënë thirrje për një moratorium mbi kërkimet në AI, shkruan japantimes.

Megjithatë, kompanitë kryesore të teknologjisë, përfshirë atë të Musk, vazhduan përpara, duke shpenzuar dhjetëra miliarda dollarë për të mos mbetur pas.

OpenAI, krijuesi i ChatGPT, i mbështetur nga Microsoft, së fundmi mblodhi 6.6 miliardë dollarë për të financuar përparime të mëtejshme.

xAI, kompania e AI e Musk, është në proces për të mbledhur 6 miliardë dollarë, sipas CNBC, për të blerë 100 mijë çipa Nvidia, komponentët elektronikë më të fundit që fuqizojnë modelet e mëdha.

Megjithatë, duket se ka probleme në rrugën drejt AGI, transmeton Telegrafi.

Burimet e brendshme të industrisë po fillojnë të pranojnë se modelet e mëdha të gjuhës (LLM) nuk po shkallëzohen pafundësisht me ritme marramendëse kur u shtohet më shumë fuqi dhe të dhëna.

Pavarësisht investimeve masive, përmirësimet në performancë po tregojnë shenja ngopjeje.

“Vlerësimet jashtëzakonisht të larta të kompanive si OpenAI dhe Microsoft bazohen kryesisht në idenë se LLM-të, me vazhdimësinë e shkallëzimit, do të bëhen inteligjencë artificiale e përgjithshme”, tha eksperti i AI dhe kritiku i shpeshtë Gary Marcus dhe shtoi se “çiç kam paralajmëruar gjithmonë, kjo është thjesht një fantazi”.

“Asnjë mur”

Një sfidë themelore është sasia e kufizuar e të dhënave të bazuara në gjuhë që janë në dispozicion për trajnimin e AI.

Sipas Scott Stevenson, CEO i firmës për detyra ligjore të AI, Spellbook, që bashkëpunon me OpenAI dhe ofrues të tjerë, mbështetja vetëm tek të dhënat e gjuhës për të rritur performancën është e destinuar të hasë një kufi.

“Disa prej laboratorëve ishin shumë të fokusuar thjesht në furnizimin me më shumë gjuhë, duke menduar se AI do të bëhej thjesht më e zgjuar”, shpjegoi Stevenson.

Sasha Luccioni, hulumtuese dhe drejtuesja e AI në startup-in Hugging Face, argumenton se ngadalësimi i përparimit ishte i parashikueshëm, duke marrë parasysh përqendrimin e kompanive në madhësi dhe jo në qëllimin e zhvillimit të modeleve.

“Ndjekja e AGI ka qenë gjithmonë jorealiste, dhe qasja ‘më e madhe është më e mirë’ ndaj AI ishte e destinuar të arrinte një kufi eventualisht – dhe mendoj se kjo është ajo që po shohim tani”, tha ajo.

Industria e AI e kundërshton këtë interpretim, duke këmbëngulur se përparimi drejt AI në nivel njerëzor është i paparashikueshëm.

“Nuk ka mur”, deklaroi CEO i OpenAI, Sam Altman, të enjten në X, pa dhënë shpjegime të tjera.

CEO i Anthropic, Dario Amodei, kompania e të cilit zhvillon chatbot-in Claude në partneritet me Amazon, mbetet optimist se “nëse thjesht shikon ritmin me të cilin po përmirësohen këto aftësi, të bën të mendosh se do ta arrijmë deri në vitin 2026 ose 2027”.

Koha për të menduar

Megjithatë, OpenAI ka vonuar publikimin e pasardhësit të pritur të GPT-4, modelit që fuqizon ChatGPT, pasi përmirësimet janë nën pritshmëritë, sipas burimeve të cituara nga The Information.

Tani, kompania po përqendrohet në përdorimin më efikas të aftësive ekzistuese.

Kjo ndryshim strategjie pasqyrohet në modelin e tyre të fundit, o1, i krijuar për të ofruar përgjigje më të sakta përmes arsyetimit të përmirësuar, në vend të shtimit të të dhënave të trajnimit.

Stevenson tha se kalimi i OpenAI në mësimin e modelit të saj për të “kaluar më shumë kohë duke menduar sesa duke iu përgjigjur” ka sjellë “përmirësime radikale.”

Ai e krahasoi ardhjen e AI me zbulimin e zjarrit. Në vend që të hidhet më shumë “karburant” në formën e të dhënave dhe fuqisë kompjuterike, është koha të përdoret ky përparim për detyra specifike.

Profesori i Universitetit të Stanfordit, Walter De Brouwer, e krahasoi LLM-të e avancuara me studentët që kalojnë nga gjimnazi në universitet “AI-ja e porsalindur ishte një chatbot që bënte shumë improvizime” dhe ishte i prirur ndaj gabimeve, vuri në dukje ai.

“Qasja homo sapiens e të menduarit para se të veprohet po vjen”, shtoi ai. /Telegrafi/