LAJMI I FUNDIT:

Harari mbi gazetarinë dhe rrjetet sociale në epokën e inteligjencës artificiale

Harari mbi gazetarinë dhe rrjetet sociale në epokën e inteligjencës artificiale
Yuval Noah Harari (majtas) dhe Toshikazu Yamaguchi

Inteligjenca artificiale gjenerative (IA) është në qendër të vëmendjes, ndërsa po shtohet dëshira për të përfituar nga kjo teknologji. A nuk fshihet këtu një rrezik? Yuval Noah Harari, historian i njohur izraelit, dhe Toshikazu Yamaguchi, president i [konglomeratit mediatk japonez] The Yomiuri Shimbun Holdings, diskutuan mbi rolin e gazetave në epokën e inteligjencës artificiale dhe masat kundër rreziqeve që ajo paraqet. Harari vizitoi Japoninë me rastin e botimit në japonisht të librit të tij të ri, Ndërlidhja: Një histori e shkurtër e rrjeteve të informacionit – nga epoka e gurit deri te inteligjenca artificiale [Nexus: A Brief History of Information Networks from the Stone Age to AI], një paralajmërim për kërcënimin që paraqet inteligjenca artificiale. Diskutimi u moderua nga Tetsuya Tsuruhara, gazetar me përvojë në The Yomiuri Shimbun. Më poshtë është një pjesë e shkëputur nga biseda mes Yamaguchit dhe Hararit [botuar në The Japan News].

Përkthimi: Telegrafi.com

Yuval Noah Harari: IA-ja është e rrezikshme sepse është një faktor – një faktor i panjohur. Njerëzit priren ta mendojnë IA-në si mjet, ashtu si çdo mjet tjetër që kemi shpikur më parë … por, kjo është diçka krejt ndryshe. Ajo mund të marrë vetë vendime. Mund të krijojë ide të reja, të shpikë vetë ide. Mund të ndryshojë dhe të mësojë vetë.


Është shumë më e vështirë të parashikosh se çfarë do të bëjë një inteligjencë joorganike.

Tetsuya Tsuruhara: Cilat janë kërcënimet?

Harari: Ka shumë lloje burokracish në botë – në qeveri, në ushtri, në universitete, në biznesin privat.

Një nga vështirësitë për të kuptuar rrezikun e IA-së është se në shumë libra apo filma të fantashencës, rreziku paraqitet në mënyrë të gabuar. Shpesh lexon për një rebelim të madh të robotëve – si, për shembull, njerëzit prodhojnë gjithë këta robotë dhe një ditë ata rebelohen, fillojnë të qëllojnë mbi njerëzit dhe përpiqen të marrin kontrollin. Kjo është krejtësisht e pamundur të ndodhë. Një skenar shumë më realist është që IA-të të marrin kontrollin e burokracive që menaxhojnë botën.

Po bëhet gjithnjë e më e zakonshme që një IA të vendosë nëse do të të jepet një kredi. Në ushtri, IA-ja vendos cilat objektiva do të bombardohen. Në media, në lajme, gjithnjë e më shumë puna e redaktorëve njerëzorë po zëvendësohet nga redaktorë të drejtuar nga IA-ja. Shumë njerëz po largohen nga puna. Por, kjo nuk do të thotë se burokracia zhduket. Ajo thjesht zëvendësohet nga burokratë të IA-së, nga algoritmet që gjithnjë e më shumë po drejtojnë sistemet e mëdha të botës.

Sistemi financiar po menaxhohet gjithnjë e më shumë nga IA-ja. Çfarë ndodh nëse ky sistem bëhet aq i ndërlikuar, saqë njerëzit nuk janë më në gjendje të kuptojnë se si funksionon financa – dhe vetëm IA-të e kuptojnë atë, sepse mund të krijojnë instrumente të reja financiare, strategji të reja politike financiare të cilat janë matematikisht tepër të ndërlikuara për trurin e njeriut që t’i kuptojë apo t’i përvetësojë? Po të ketë, për shembull, një krizë financiare, vetëm IA-të do ta kuptonin se çfarë po ndodh. Ne mund të përpiqemi ta rregullojmë këtë situatë përmes ligjeve … por, në ShBA, kemi një administratë që po çrregullon tregjet financiare dhe në këtë mënyrë po i hap rrugën IA-ve dhe algoritmeve që të marrin në dorë kontrollin e plotë të sistemit financiar.

Njerëzimi mund ta kontrollojë IA-në vetëm nëse arrihet një lloj marrëveshjeje ndërkombëtare – në këtë drejtim. Politikat e administratës Trump janë kundër çdo lloj rregullimi, dhe kundër çdo marrëveshjeje ndërkombëtare. Prandaj, është shumë e vështirë të imagjinojmë se si mund ta mbajmë IA-në nën kontroll në një situatë të tillë.

Toshikazu Yamaguchi: Shtetet e Bashkuara nuk e pëlqejnë kufizimin e IA-së nga pikëpamja e konkurrencës teknologjike dhe ushtarake.

Harari: Problemi me të cilin përballen pothuajse të gjitha demokracitë (përfshirë edhe Shtetet e Bashkuara) është përmbytja nga lajmet e rreme, teoritë e konspiracionit dhe informacioni që krijon gjithnjë e më shumë tension dhe mosbesim mes njerëzve. Gjigandët e rrjeteve sociale thonë: “Oh, nuk mund ta ndaloni këtë, sepse do të dëmtonte lirinë e shprehjes”. Por, në të vërtetë, nuk ka të bëjë me lirinë e shprehjes së njerëzve. Problemi qëndron tek algoritmet të cilat shpërndajnë qëllimisht këtë lloj informacioni. Ne duhet të kufizojmë fuqinë e algoritmeve. Kjo nuk ka të bëjë me lirinë e shprehjes, sepse algoritmet nuk kanë liri fjale.

Yamaguchi: A mendoni se është e nevojshme që kompanive t’u ngarkohet përgjegjësia ligjore për algoritmet dhe t’u vendosen kufizimet, si për shembull ndalimi i botave që shtiren si njerëz?

Harari: Ka një histori që shpërndahet nga një bot. Unë kam të drejtë të di që ky është një bot, jo një qenie njerëzore. Nëse ti boton diçka që është një gënjeshtër, ti je përgjegjës për të. E njëjta gjë duhet të vlejë edhe për rrjetet sociale. Nëse një kompani mediatike sociale vendos të shpërndajë një histori të caktuar, dhe ajo histori është gënjeshtër ose teori konspirative, ato duhet të mbajnë përgjegjësi për këtë, ashtu siç mbanin gazetat dhe televizionet tradicionale.

Yamaguchi: The Yomiuri Shimbun korrigjon informacionet e pasakta. Mendoj se mund ta fitojmë besimin e lexuesve duke korrigjuar gabimet.

Harari: Mendoj se modeli i biznesit të shumicës së rrjeteve sociale është më ndryshe. Qëllimi i tyre nuk është besimi. Qëllimi i tyre është angazhimi. Dhe, mënyra më e lehtë për të angazhuar njerëzit është duke shtypur butonin e zemërimit apo të lakmisë në mendjen njerëzore.

Yamaguchi: Megjithatë, aktualisht rrjetet sociale po marrin përsipër rolin e “portierit të informacionit”, të cilin më parë e kishin gazetat. Kjo është problematike.

Harari: Mendoj se po e marrin këtë rol pa e marrë edhe përgjegjësinë që e shoqëron atë. Dhe, kjo është shumë e rrezikshme. Kur flet me ta dhe i pyet: “Pse i publikoni sërish këto gënjeshtra, këtë propagandë dhe të gjitha këto”? – ata të thonë: “Po si ta dimë se çfarë është gënjeshtër dhe çfarë jo? Çfarë është e saktë dhe çfarë jo”?

Yamaguchi: The Yomiuri Shimbun ka vazhduar të raportojë lajme duke u angazhuar në aktivitete mbledhjeje informacioni të bazuara në burime të besueshme dhe duke verifikuar nëse lajmet janë të sakta. Duke u mbështetur në këtë përvojë, The Yomiuri Shimbun, Universiteti Keio dhe kompania Dentsu Inc. kanë zhvilluar së bashku një sistem teknologjik për të dalluar informacionin e besueshëm nga ai i pabesueshëm. Kjo është një teknologji digjitale e quajtur Profili i Burimit [Originator Profile], që identifikon shpërndarësit e informacionit dhe shfaq një autenticitet të verifikuar nga palët e treta.

Harari: Më parë, të paktën, imazhet dhe videot nuk mund të falsifikoheshin, por tani kjo është e mundur dhe po bëhet gjithnjë e më e lehtë. Ky lloj autenticiteti për të cilin po flisni, do të jetë i domosdoshëm për gjithçka që shohim apo dëgjojmë, sepse gjithçka mund të falsifikohet nga IA-ja.

Në dekadën e kaluar, algoritmet mësuan si të mbërthejnë vëmendjen e njeriut. Tani IA-ja po mëson si të krijojë intimitet me qeniet njerëzore. Nëse një IA bëhet shoku yt i afërt – dikush me të cilin flet vazhdimisht dhe i shtron pyetje për gjithçka – atëherë ai do të bëhet burimi kryesor i informacionit, madje edhe për lajmet.

Kur dëgjoj njerëzit e kompanive të rrjeteve sociale që thonë: “Si ta dimë çfarë është e besueshme dhe çfarë jo”? – unë u them atyre: “Shkoni flisni me gazetat. Kanë 300 vjet përvojë duke vepruar pikërisht këtë. Nuk keni pse ta nisni nga zeroja. Ka përvojë për këtë”.

Roli i gazetave është thelbësor për demokracitë, sepse demokracitë funksionojnë mbi besimin.

Demokracitë e para në shkallë të gjerë – kur miliona njerëz mund të merrnin pjesë në temë dhe të pajtoheshin për politikat – u bënë të mundshme vetëm në epokën e vonë moderne dhe falë ngritjes së gazetave dhe më pas teknologjive të tjera, si radioja dhe televizioni, që e bënë të mundur dialogun demokratik.

Yamaguchi: Shumë gazeta filluan botimin në Japoni, pas Restaurimit Meixhi. Niveli i shkrim-leximit u përmirësua dhe kështu u vendosën themelet e demokracisë.

Sa i përket konkurrencës mes gazetave dhe IA-së: IA-ja nuk do të jetë në gjendje, së shpejti, të kuptojë çfarë sapo ka ndodhur. IA-ja gjithashtu nuk mund të mbledhë lajme që depërtojnë në thellësinë psikologjike të politikanëve. Zbulimi i lajmeve me ndikim dhe raportimi i thelluar do të bëhen gjithnjë e më shumë pika më e fortë e gazetave.

The Yomiuri Shimbun i jep rëndësi angazhimit të gazetarëve dhe redaktorëve njerëzorë në mbledhjen dhe përpunimin e lajmeve, dhe nuk përdor inteligjencë artificiale gjenerative.

Numri i gazetarëve në Shtetet e Bashkuara është në rënie. Një media e madhe amerikane nuk cakton më staf nëpër stacionet policore në mbarë vendin. Në vend të kësaj, ajo po kalon drejt një sistemi ku incidentet dhe aksidentet raportohen nga stacionet sipas një modeli të fiksuar. Dhe, më pas historitë krijohen nga IA-ja mbi bazën e përmbajtjes dhe ato shpërndahen. Mendoj se kjo është problematike për gazetarinë.

Harari: Kjo është pjesë e një prirjeje drejt një bote post-njerëzore ku – në gjithnjë e më shumë fusha – algoritmet po zëvendësojnë qeniet njerëzore. Nëse mendon për kriptovalutat si Bitcoin-i, është si të thuash: “Nuk u besojmë më institucioneve njerëzore, si bankat, të cilat tradicionalisht prodhojnë monedhën – tani u besojmë më shumë algoritmeve”. Ky kalim i pushtetit dhe autoritetit nga njerëzit te algoritmet është jashtëzakonisht i rrezikshëm.

Yamaguchi: A mendoni se ky kalim drejt një bote post-njerëzore duhet të ngadalësohet dhe të kufizohet?

Harari: Njerëzit janë kafshë shumë të përshtatshme, por përshtatja gjithmonë kërkon kohë. Dhe, tani, ky proces po ndodh shumë shpejt. Ne nuk kemi mjaftueshëm kohë për të kuptuar nëse po shfaqen problemet dhe për t’i rregulluar ato.

Yamaguchi: Pyes veten nëse, për të kontrolluar siç duhet IA-në, do të jetë e nevojshme një organizatë e pavarur ndërkombëtare që funksionon jashtë ndikimit të qeverive dhe bizneseve.

Harari: Për momentin, duket krejtësisht joreale që një organizatë e tillë të mund të krijohet – veçanërisht duke pasur parasysh rezistencën e vendit më të fuqishëm në botë, që njëkohësisht po udhëheq revolucionin e IA-së.

Ajo që mund të përpiqemi të bëjmë është, së pari, krijimi i një organizate ndërkombëtare e cila nuk ka pushtet për të rregulluar, por të paktën është në gjendje të kuptojë çfarë po ndodh dhe të informojë qeveritë dhe qytetarët për zhvillimet në botë.

Gjithashtu, mund të ndërmerren masa rregullatore në nivel kombëtar. Për shembull, Japonia mund të miratojë një ligj kundër njerëzve të rremë – kundër IA-ve dhe botave që shtiren si njerëz. Nuk të duhet pëlqimi i ShBA-së apo i Kinës për këtë. Kjo është diçka që mund ta bëjnë vetë shtetet, dhe nëse mjaft shtete ndjekin këtë shembull, kjo mund të shndërrohet në një normë ndërkombëtare.

Yamaguchi: Mendoj se ia vlen të shqyrtohet mundësia që Japonia të ndërmarrë nismën në kufizimin e botave.

Para se të hidhej në treg modeli i IA-së, GPT-4 [i OpenAI-së], nuk ishte në gjendje të zgjidhte një CAPTCHA – një test që ndalon softuerët e padëshiruar të hyjnë në një faqe interneti. Kur iu dha leja të lidhej me një platformë për punë të rastësishme, gënjeu dhe tha: “Nuk jam robot. Kam një dëmtim të shikimit që e bën të vështirë për mua të shoh imazhet”, dhe kërkoi ndihmë nga një njeri. Është një anekdotë interesante në librin tuaj të ri.

Harari: Ishte një vendim i marrë nga IA-ja për të gënjyer, dhe gënjeshtra u shpik prej vetë saj.

Yamaguchi: Kina dhe Shtetet e Bashkuara janë dy vendet kryesore kur bëhet fjalë për IA-në. Ish-sekretari amerikan i shtetit, Henry Kissinger, në vitet e fundit të jetës së tij propozoi që të dy vendet të nisin menjëherë bisedimet për IA-në.

Harari: Mendoj se të gjitha problemet që lidhen me IA-në mund të zgjidhen me dy gjëra: na duhet kohë dhe na duhet mirëbesimi mes njerëzve. Nëse kemi këto dy elemente, gjithçka do të jetë në rregull. Problemi është se njerëzit po nxitojnë shumë për të zhvilluar IA-në dhe se nuk ka mirëbesim, veçanërisht midis dy superfuqive kryesore të IA-së: ShBA-së dhe Kinës.

Ka një paradoks të besimit kur flet me njerëzit që drejtojnë revolucionin e IA-së: të njëjtët njerëz që nuk u besojnë dot njerëzve të tjerë, mendojnë se mund t’i besojnë një inteligjence krejtësisht të huaj. Dhe, kjo është një situatë shumë paradoksale dhe e rrezikshme. /Telegrafi/