Kompania për Inteligjencë Artificiale, OpenAI thuhet se po punonte në një sistem të avancuar përpara shkarkimit të Sam Altman, i cili ishte aq i fuqishëm sa shkaktoi shqetësime për sigurinë në mesin e stafit të kompanisë.
Modeli i Inteligjencës Artificiale shkaktoi një alarm të tillë ku disa studiues të OpenAI i kanë shkruar bordit të drejtorëve përpara shkarkimit të Altman duke paralajmëruar se mund të kërcënonte njerëzimin, raportoi Reuters.
Modeli, i quajtur Q* – dhe i shqiptuar si “Q-Star” – ishte në gjendje të zgjidhte probleme themelore matematikore që nuk i kishte parë më parë, dhe se ritmi i zhvillimit pas sistemit kishte alarmuar disa studiues të sigurisë. Aftësia për të zgjidhur problemet e matematikës do të shihej si një zhvillim i rëndësishëm në AI.
Shumë ekspertë janë të shqetësuar se kompani të tilla si OpenAI po ecin shumë shpejt drejt zhvillimit të inteligjencës së përgjithshme artificiale (AGI), termi për një sistem që mund të kryejë një shumëllojshmëri të gjerë detyrash në nivele njerëzore ose mbi nivelet e inteligjencës njerëzore – dhe që mundet, në teori , t’i shmanget kontrollit njerëzor.
Përveç AGI-s, lind frika se së shpejti mund të vijë edhe superinteligjenca.
Matematika luan një rol vendimtar në zhvillimin e AI-s gjeneruese. Ndërsa sistemet aktuale gjeneruese të AI janë të mira në shkrimin dhe përkthimin e gjuhës, mposhtja e aftësisë për të kryer detyra matematikore nënkupton aftësi më të mëdha arsyetimi që i ngjajnë inteligjencës njerëzore. Kjo mund të ketë aplikime të rëndësishme në fusha të ndryshme, duke përfshirë kërkimin shkencor.
Rreziku i mundshëm i makinave superinteligjente ka qenë prej kohësh një temë diskutimi midis shkencëtarëve kompjuterikë. Shqetësimi është se nëse Inteligjenca Artificiale bëhet superinteligjente, ajo mund të marrë potencialisht vendime që janë të dëmshme për njerëzimin. Kjo ngre konsiderata të rëndësishme sigurie dhe etike që duhet të adresohen.
Përpjekjet e Altman në OpenAI, duke përfshirë zhvillimin e ChatGPT-s, kanë kontribuar në rritjen e kompanisë dhe kërkimin e kompanisë në AGI. Megjithatë, shkarkimi i tij ngre pyetje në lidhje me drejtimin që OpenAI do të marrë në të ardhmen.
Çfarë është superinteligjenca?
Superinteligjenca i referohet sistemeve të inteligjencës artificiale që janë më të zgjuar se njerëzit. Këto sisteme kanë potencialin të tejkalojnë njerëzit në detyra të ndryshme njohëse.
Çfarë është inteligjenca e përgjithshme artificiale (AGI)?
Inteligjenca e përgjithshme artificiale i referohet sistemeve të AI-s që zotërojnë aftësinë për të kuptuar, mësuar dhe përgjithësuar nëpër fusha të shumta, duke simuluar inteligjencën e ngjashme me njeriun. Sistemet AGI nuk kufizohen në detyra specifike, por mund të kryejnë një gamë të gjerë funksionesh njohëse.
Cilat janë rreziqet e mundshme të superinteligjencës?
Një shqetësim është se makinat superinteligjente mund të veprojnë në mënyra që janë të dëmshme për njerëzimin. Ekziston rreziku që këto makina t’i japin përparësi qëllimeve të tyre mbi mirëqenien njerëzore, duke çuar në pasoja të padëshiruara dhe të dëmshme.
Si mund të zbuten rreziqet e makinave superinteligjente?
Për të adresuar rreziqet e mundshme të makinave superinteligjente, është thelbësore të zbatohen masat e duhura të sigurisë dhe udhëzimet etike. OpenAI dhe organizatat e tjera që punojnë në kërkimin e AI-s duhet t’i japin përparësi zhvillimit të sistemeve të AI-s që përputhen me vlerat njerëzore dhe kanë mekanizma për të siguruar kontroll dhe mbikëqyrje. /Telegrafi/