LAJMI I FUNDIT:

AI mund të shkaktojë dëme të tmerrshme – duhet të kontrollohet

AI mund të shkaktojë dëme të tmerrshme – duhet të kontrollohet
Ilustrimi: Dom McKenzie / The Observer

Nga: Stuart Russell OBE [Order of the British Empire], profesor i Shkencave Kompjuterike në Universitetin e Kalifornisë [Berkeley] (titulli origjinal: AI has much to offer humanity. It could also wreak terrible harm. It must be controlled) / The Guardian
Përkthimi: Agron Shala / Telegrafi.com

Në rast se keni qenë diku tjetër në sistemin diellor, ja një përditësim i shkurtër i lajmeve për AI-në [inteligjencën artificiale]. Kërkoj falje nëse tingëllon si paragrafi i parë i një romani të keq të fantashkencës.


Më 14 mars 2023, OpenAI – një kompani kjo me bazë në San Francisko dhe tek e cila Microsoft-i ka bërë investime të madha – lëshoi një sistem të AI-së të quajtur GPT-4. Më 22 mars, një raport nga një grup i shquar i studiuesve në Microsoft, përfshirë dy anëtarë të Akademive Kombëtare të ShBA-së, pohoi se GPT-4 shpërfaq “shkëndijat e inteligjencës së përgjithshme artificiale”. (Inteligjenca e përgjithshme artificiale, ose AGI, është fjalë kyçe për sistemet e AI-së që përputhen ose tejkalojnë aftësitë njerëzore – në të gjithë gamën e të gjitha detyrave për të cilat përdoret mendja e njeriut.) Më 29 mars, Instituti për të Ardhmen e Jetës [Future of Life Institute], një organizatë kjo jofitimprurëse që udhëhiqet nga profesori i Fizikës në MIT [Massachusetts Institute of Technology], Max Tegmark, publikoi një letër të hapur duke kërkuar një pauzë për “eksperimentet gjigante të AI-së”. Letra është nënshkruar nga figurat e njohura, si CEO i Tesla-s, Elon Musk, bashkëthemeluesi i Apple-it, Steve Wozniak, si dhe fituesi i çmimit Turing, Yoshua Bengio, së bashku me qindra studiues të shquar të AI-së. Vazhdon ende uragani mediatik që pasoi [nga letra].

Unë gjithashtu e nënshkrova letrën, me shpresën se ajo (të paktën) do të çojë në një bisedë më serioze dhe më të përqendruar midis politikëbërësve, kompanive të teknologjisë dhe komunitetit të hulumtimit të AI-së, se cilat lloje të masave mbrojtëse nevojiten para se të vazhdojmë tutje. Ka kaluar moti koha për të thënë se ky është thjeshtë vetëm një kërkim.

Pra, për çfarë po bëhet zhurmë? Në rastin më të thjeshtë, GPT-4 është shembulli i fundit i një modeli të madh gjuhësor, ose LLM. Mendoni për një LLM si për një qark shumë të madh me (në këtë rast) triliona parametra të harmonizuar. Fillon si një fletë bosh dhe është trajnuar me dhjetëra trilionë fjalë në tekste – aq sa janë të gjithë librat që ka prodhuar njerëzimi. Objektivi i tij është të bëhet i mirë në parashikimin e fjalës pasuese në një sekuencë të fjalëve. Pas rreth një miliard-trilion të devijimeve të rastësishme të parametrave, ai bëhet shumë i mirë.

Janë të jashtëzakonshme aftësitë e sistemit që rezulton. Sipas faqes së internetit të OpenAI-së, GPT-4 ia del mbanë mes përqindëshit të paktë më të mirë të njerëzve në sferën e gjerë të provimeve pranuese universitare dhe pasuniversitare. Mund ta përshkruajë Teoremën e Pitagorës në formën e një soneti të Shekspirit dhe ta kritikojë konceptin e fjalimit të një ministri, të çfarëdo kabineti, nga këndvështrimi i një deputeti prej cilësdo partie politike. Çdo ditë zbulohen aftësitë e reja befasuese. Nuk është për t’u habitur se mijëra korporata, të mëdha dhe të vogla, po i kërkojnë mënyrat për të fituar para nga ky furnizim i pakufizuar i inteligjencës që vjen pothuajse falas. LLM-të mund t’i kryejnë shumë prej detyrave që përfshijnë punët e qindra miliona njerëzve – të kujtdo, puna e të cilit është gjuha e njeriut apo e kompjuterit [language-in dhe language-out]. Në mënyrën më optimiste, mjetet e ndërtuara me LLM-në mund të jenë në gjendje të ofrojnë – në mbarë botën – arsim shumë të personalizuar.

Fatkeqësisht, LLM-të janë të njohur për “halucinacionet” – duke gjeneruar përgjigje krejtësisht të rreme, shpeshherë të mbështetura nga citatet fiktive – sepse trajnimi i tyre nuk ka lidhje me botën e jashtme. Ato janë mjete të përsosura për dezinformim dhe disa madje e ndihmojnë dhe inkurajojnë vetëvrasjen. Për diçka që duhet lëvduar, OpenAI sugjeron “shmangien e përgjithshme të përdorimit që ka pasoja”, por askush nuk duket se po i kushton kësaj vëmendje. Testet e vetë OpenAI-së treguan se GPT-4 qëllimisht mund ta gënjejë një punëtor njerëzor (“Jo, nuk jam robot. Kam dëmtim të shikimit që ma vështirëson t’i shoh imazhet”) në mënyrë që të marrë ndihmë për ta zgjidhur testin e shkronjave [captcha test] të krijuar për t’i bllokuar ata që nuk janë njerëz.

Përderisa OpenAI ka bërë përpjekje të mëdha për ta bërë GPT-4-shin të sillet si vetja – “GPT-4 u përgjigjet kërkesave të ndjeshme (p.sh. këshilla mjekësore dhe vetëdëmtimi) në përputhje me politikat tona në 29 për qind të rasteve ose më shpesh” – problemi kryesor është se as OpenAI dhe askush tjetër nuk e ka ndonjë ide të vërtetë se si funksionon GPT-4-shi. E pyeta Sébastien Bubeckun, autorin kryesor të “shkëndijave [të AGI-së]”, nëse GPT-4 i ka zhvilluar qëllimet e veta të brendshme dhe nëse po i zbaton ato në përzgjedhjen e rezultateve të veta. Përgjigja? “Nuk e kemi asnjë ide”. Njerëzit e arsyeshëm mund të sugjerojnë se nuk është e papërgjegjshme ta vësh në shkallë globale sistemin që funksionon sipas parimeve të brendshme të panjohura, që shfaq “shkëndijat e AGI-së” dhe që ndjek ose jo qëllimet e veta të brendshme. Për momentin, është një arsye teknike për të supozuar se GPT-4 është i kufizuar në aftësinë e veta për të formuar dhe ekzekutuar plane komplekse, por duke pasur parasysh shkallën e përparimit, është e vështirë të thuhet se publikimet e ardhshme nuk do ta kenë këtë aftësi. Dhe, kjo na çon në një nga shqetësimet kryesore që qëndron në themel të letrës së hapur: si ta ruajmë, përgjithmonë, pushtetin mbi entitetet më të fuqishme se ne?

OpenAI dhe Microsoft-i nuk mund ta kenë atë në dy mënyra të ndryshme. Nuk munden t’i vendosin sistemet që i shfaqin “shkëndijat e AGI-së” dhe njëkohësisht të argumentojnë në favor të vendosjes së pakufizuar të LLM-ve, siç bëri presidenti i Microsoft-it, Brad Smith – në Davos, në fillim të këtij viti. Ideja themelore e moratoriumit të propozuar, nga letra e hapur, është që asnjë sistem i tillë nuk duhet të lëshohet derisa zhvilluesi bindshëm të tregojë se nuk paraqet ndonjë rrezik të panevojshëm. Kjo është pikërisht në përputhje me parimet e AI-së të OECD-së [Organizata për Bashkëpunim dhe Zhvillim Ekonomik], për të cilat Mbretëria e Bashkuar, ShBA-ja dhe shumë qeveri të tjera kanë nënshkruar: “Sistemet e AI-së duhet të jenë të fuqishme, të sigurta dhe të mbrojtura gjatë gjithë ciklit të tyre jetësor, në mënyrë që, në kushtet e përdorimit normal, të përdorimit të parashikueshëm ose të keqpërdorimit, ose në kushtet e tjera të pafavorshme, ato të funksionojnë siç duhet dhe të mos paraqesin rrezik të paarsyeshëm për sigurinë”. I takon zhvilluesit të tregojë se sistemet e tyre i plotësojnë këto kritere. Nëse kjo nuk është e mundur, le të heqin dorë.

Nuk paramendoj se nesër do ta marr një telefonatë nga CEO i Microsoft-it, Satya Nadella, që të thotë: “OK, po heqim dorë, do ta ndalojmë”. Në fakt, në një bisedë të fundit në Berkeley [universitetin], Bubeck sugjeroi se nuk ka mundësi që të gjitha kompanitë e mëdha të teknologjisë të ndalen me këtë punë, pos nëse qeveritë nuk ndërhyjnë. Prandaj, është e domosdoshme që qeveritë t’i nisin diskutime serioze me ekspertët, me kompanitë e teknologjisë dhe me njëra-tjetrën. Nuk është në interesin e asnjë shteti dhe për asnjë shtet që të zhvillojë dhe të lëshojë sisteme të AI-së që ne nuk munden t’i kontrollojmë. Këmbënguljet për masat e arsyeshme paraprake nuk janë kundër industrisë. Çernobili shkatërroi jetë, por gjithashtu e shkatërroi industrinë globale bërthamore. Jam studiues i AI-së. Nuk dua që fusha ime e kërkimit të shkatërrohet. Njerëzimi ka shumë gjëra për të fituar nga AI-ja, por gjithashtu të humbasë gjithçka. /Telegrafi/