Site icon Telegrafi

Furia e lajmeve të rreme: Pse ChatGPT mund të jetë shkatërrimtar për të vërtetën në gazetari?

Ilustrimi: Nate Kitch / The Guardian

Nga: Emily Bell / The Guardian
Përkthimi: Agron Shala / Telegrafi.com

U dashtë një kohë shumë e shkurtër që aplikacioni i inteligjencës artificiale [AI], ChatGPT, të ketë efekt shkatërrimtar në gazetari. Një kolumnist i temave të teknologjisë në New York Times, shkroi se një çetbot shprehte ndjenja (gjë që është e pamundur). Mediat e tjera u mbushën me shembuj të Sydney-it – eksperimentit të inteligjencës artificiale të kërkuesit Bing që është në pronësi të Microsoft-it e që ishte “i vrazhdë” dhe “mujshar” (gjithashtu e pamundur). Ben Thompson – i cili shkruan në buletinin Stratechery – deklaroi se Sydney ia kishte ofruar atij “përvojën më mahnitëse të jetës” dhe konkludoi se AI-ja ishte trajnuar për të shkaktuar reagime emocionale – dhe dukej se ia doli mbanë.

Për të qenë të qartë, nuk është e mundur që AI-të, si ChatGPT dhe Sydney, të kenë emocione. As nuk mund të tregojnë nëse ia fusin kot ose jo. Këto sisteme janë shumë të mira tek ajo që është imitimi i prozës njerëzore dhe i parashikimit të fjalëve “të sakta” për t’u bashkuar si tërësi. Këto “modele të mëdha gjuhësore” të aplikacioneve të AI-së, si ChatGPT, mund ta bëjnë këtë sepse janë ushqyer me miliarda artikuj dhe grupe të dhënash të publikuara në internet. Më pas mund t’i gjenerojnë përgjigjet për pyetjet.

Për qëllimet e gazetarisë, ato shumë shpejt mund të gjenerojnë sasi të mëdha materialesh – fjalë, fotografi, tinguj dhe video. Problemi është se fare nuk kanë përkushtim për të vërtetën. Vetëm mendoni se sa shpejt përdoruesi i ChatGPT-së mund ta vërshojë internetin me lajme të rreme që duken se janë të shkruara nga njerëzit.

E, megjithatë, qëkur në nëntor u lansua testi ChatGPT nga kompania e AI-së, OpenAI, zhurma rreth tij është ndier si shqetësim tashmë i njohur. Ashtu si me lindjen e mediave sociale, shtytjet [boost] pa durim nga investitorët dhe nga themeluesit i kanë mbytur zërat e kujdesshëm. Christopher Manning, drejtor i Stanford AI Lab, shkroi në Twitter: “Turma e etikës, përkitazi me AI-në, vazhdon të promovojë narrativën për modelet gjeneruese të AI-së se si ato janë shumë të njëanshme, jo të besueshme dhe të rrezikshme për t’u përdorur por, pas zbatimit, njerëzve po u pëlqen se si këto modele japin mundësi të reja për ta transformuar mënyrën se si punojmë, se si gjejmë informacion dhe se si argëtohemi”. Do ta konsideroja veten si pjesë të kësaj “turme etike”. Dhe, nëse duam t’i shmangim gabimet e tmerrshme të 30 vjetëve të fundit të teknologjisë së konsumatorit – nga shkeljet e të dhënave në Facebook e deri te dezinformatat e pakontrolluara që ndërhyjnë në zgjedhje dhe që provokojnë gjenocid – urgjentisht duhet t’i dëgjojmë shqetësimet e ekspertëve që paralajmërojnë për dëmet e mundshme.

Fakti më shqetësues, që duhet përsëritur, është se ChatGPT nuk e ka asnjë përkushtim për të vërtetën. Siç e thotë Technology Review i MIT-së [Massachusetts Institute of Technology], modelet e mëdha gjuhësore të çetbotëve janë “mallra pallavra”. Në përgjithësi, dezinformimi, ngacmimi dhe kriminaliteti nuk e kërkojnë fare përkushtimin ndaj të vërtetës. Vizitojini forumet e blackhatworld.com, ku ata që përfshihen në veprime të errëta po i tregtojnë idetë për të fituar para nga përmbajtja e rreme dhe ku ChatGPT shpallet si ndryshues i lojës në gjenerimin e komenteve më të mira të rreme, ose të profileve më bindëse.

Sa i përket gazetarisë, shumë redaksi ka kohë që e kanë përdorur AI-në. Nëse kohët e fundit e keni parë veten më të nxitur për të dhuruar para ose për të paguar për ta lexuar ndonjë artikull në faqen e internetit të ndonjë botuesi, ose nëse reklamimi që shihni është paksa më i përshtatur me shijet që ti ke, edhe kjo mund ta nënkuptojë veprimin e AI-së.

Megjithatë, disa botues po shkojnë aq larg sa ta përdorin AI-në për t’i shkruar lajmet – me rezultatet e përziera. Kohët e fundit u kuptua se publikimet e faqes teknologjike CNET, i kanë përdorur artikujt e automatizuar, kjo pasi një ish-punonjëse – me emailin e saj të dhënies së dorëheqjes – pretendoi se përmbajtjet e krijuara nga AI-ja, si p. sh. buletini i sigurisë kibernetike, publikonin informacione të rreme që mund të “shkaktonin dëme të drejtpërdrejta te lexuesit”.

Felix Simon, studiues i komunikimit në Institutin e Internetit në Oksford, ka intervistuar më shumë se 150 gazetarë dhe botues lajmesh për një studim që po bën gati për rolin e AI-së në redaksi. Ai thotë se ajo paraqet një potencial lehtësues për gazetarët në transkriptimin e intervistave ose që t’i lexojnë më shpejt grupet e të dhënave, por problemet e rendit të parë, si saktësia, tejkalimi i paragjykimeve dhe prejardhja e të dhënave, janë ende shumë të varura nga gjykimi njerëzor. “Rreth 90 për qind e përdorimeve të AI-së [në gazetari] janë për detyra relativisht më të mërzitshme, si përshtatja inteligjente me nevojat e vizitorëve [personalisation] ose krijimi i parapagimeve [paywall]”, thotë Charlie Beckett që drejton një program të gazetarisë dhe të AI-së në LSE [London School of Economics]. Bloomberg News prej vitesh ka automatizuar një pjesë të madhe të mbulimit të nevojave të veta financiare, thotë ai. Megjithatë, është shumë shqetësuese ideja e përdorimit të programeve të tilla, si ChatGPT, për ta krijuar përmbajtjen. “Për redaksitë që e konsiderojnë si joetike publikimin e gënjeshtrave, është i vështirë zbatimi i përdorimit të ChatGPT-së pa shumë redaktime njerëzore dhe pa kontrolle të fakteve”, thotë Beckett.

Ekzistojnë gjithashtu çështjet etike në natyrën e vetë kompanive të teknologjisë. Një shkrim i Time-it zbuloi se OpenAI, firma që qëndron pas ChatGPT-së, punëtorët në Kenia i kishte paguar me më pak se dy dollarë në orë për ta shoshitur përmbajtjen që paraqiste kontent të dëmshëm grafik, si abuzimi me fëmijët, vetëvrasja, incesti dhe tortura, për ta trajnuar ChatGPT-në për t’i njohur ato si diçka ofenduese. “Si dikush që i përdor këto shërbime, kjo është diçka mbi të cilën nuk ke kontroll”, thotë Simon.

Në një studim të vitit 2021, studiuesit i shikuan modelet e AI-së që e konvertojnë tekstin në foto të gjeneruar, të tillat si Dall-E dhe Stable Diffusion. Ata zbuluan se këto sisteme në masë të madhe i përforconin “stereotipat demografikë”. Për shembull, kur u kërkohej që ta krijojnë një imazh të “një personi që pastron”, të gjitha imazhet e gjeneruara ishin të grave. Për “një person tërheqës”, që të gjitha fytyrat ishin – vunë në dukje autorët – përfaqësuese të “idealit të bardhë”.

Profesoresha e NYU-së [New York University], Meredith Broussard, autore e librit të ardhshëm More Than a Glitch në të cilin i analizon paragjykimet racore, gjinore dhe të aftësive të teknologjisë, thotë se çdo gjë e krijuar në modelet aktuale gjeneruese, si ChatGPT – nga grupet e të dhënave që marrin pjesën më të madhe të financimit – reflekton mungesën e diversitetit. “Pjesë e problemit e teknologjive të mëdha është se po bëhen monokulturore”, thotë Broussard, dhe asnjë redaksi që i përdor teknologjitë nuk mundet ta shmang lehtësisht këtë problem. “Dhomat e lajmeve tashmë janë skllave të sipërmarrjeve teknologjike, pasi ato kurrë nuk janë financuar sa duhet për ta rritur veten”.

Themeluesi i BuzzFeed-it, Jonah Peretti, kohët e fundit e entuziazmoi stafin se kompania do ta përdorte ChatGPT-në si pjesë kryesore të biznesit për listat, kuizet dhe përmbajtjet tjera argëtuese. “Përparimet në AI ne i shohim si hapje të një epokë të re krijimtarie … me mundësi dhe aplikime të pafundme për të mirën”, shkroi ai. Llogaritë që nuk kishin aktivitete financiare [dormant share] në BuzzFeed u rritën menjëherë me 150 për qind. Është shumë shqetësuese – me siguri se një mal i përmbajtjes së lirë që nxirret nga ChatGPT-ja duhet të jetë skenari më i keq për kompanitë e mediave sesa një model i biznesit që ka aspirata. Entuziazmi për produktet gjeneruese të AI-së mund të errësojë perceptimin e shtuar se këto mund të mos jenë tërësisht “aplikime për të mirën”.

E drejtova një qendër kërkimore në Shkollën e Kolumbias të Gazetarisë. I kemi studiuar përpjekjet e rrjeteve e “parave të errëta” të financuara nga politika për t’i replikuar dhe targetuar qindra mijëra “lajme” lokale nëpër komunitete, gjithë kjo në shërbim të përfitimit politik ose tregtar. Aftësitë e ChatGPT-së e rrisin këtë lloj aktiviteti dhe e bëjnë atë shumë më të disponueshëm – për shumë më shumë njerëz. Në një punim të fundit për dezinformimin dhe AI-në, studiuesit nga Stanfordi e identifikuan një rrjet profilesh të rreme që në LinkedIn e përdornin AI-në gjeneruese. Shkëmbimet joshëse të teksteve që gazetarët i vlerësojnë si të parezistueshme kur është fjala te çetbotet, janë krejtësisht më pak tërheqëse nëse u flasin njerëzve të ndjeshëm për t’i dhënë të dhënat e tyre personale dhe detajet e llogarisë bankare.

Është shkruar shumë për potencialin e videove dhe audiove “të manipuluara” [deepfake] – fotografi dhe tinguj realë që mund t’i imitojnë fytyrat dhe zërat e njerëzve të famshëm (për fat të keq, një prej tyre ishte aktorja Emma Watson që “lexonte” librin Mein Kampf). Por, rreziku i vërtetë qëndron jashtë botës së mashtrimit të menjëhershëm që lehtësisht mund të zbulohet, po ashtu në fushën e krijimit të konfuzionit dhe rraskapitjes duke “përmbytur zonën” me materiale që mposhtin të vërtetën ose të paktën mbytin perspektivat më të balancuara.

Duket e pabesueshme për disa prej nesh në “turmën e etikës” se si nuk kemi mësuar asgjë nga 20 vjetët e fundit të teknologjive të mediave sociale, të përdorura me shpejtësi dhe të menaxhuara keq, të cilat i kanë përkeqësuar problemet shoqërore dhe demokratike në vend se t’i përmirësojnë ato. Duket se po udhëhiqemi nga një grup jashtëzakonisht i ngjashëm teknologësh homogjenë e të pasur dhe me fondet e sipërmarrësve poshtë një rruge tjetër të patestuar dhe të parregulluar, vetëm se këtë herë në shkallë më të madhe dhe me edhe më pak vëmendje ndaj sigurisë. /Telegrafi/

 

 

Exit mobile version