LAJMI I FUNDIT:

Kujdes nga hajdutët e zërit të inteligjencës artificiale

Kujdes nga hajdutët e zërit të inteligjencës artificiale

Nga: Mary Wakefield / The Spectator
Përkthimi: Agron Shala / Telegrafi.com

Pas shumë viteve të një indiference së kënaqshme, më në fund kam frikë nga AI-ja [inteligjenca artificiale]. Kam qenë e vetëkënaqur, kam fjetur mirë pranë burrit tim teksa i ngulte sytë dhe mërmëriste pa gjumë, prej ankthit që ai kishte për robotët. Por, tashti edhe unë jam e frikësuar. Ajo që ndodhi ishte kjo.


Pak javë më parë, një shoqe merr një telefonatë nga djali që jeton në një pjesë tjetër të vendit. “Nënë, kam pasur një aksident,” tha zëri i djalit. Mund ta dëgjonte se sa i mërzitur ishte. Zemra e saj nis të rrahë më shpejtë. “A je mirë? Çfarë ka ndodhur?”, tha ajo.

“Më vjen shumë keq nënë, nuk ishte faji im, të betohem!” Djali shpjegoi se një zonjë shofere kishte kaluar dritën e kuqe para tij dhe se ai e kishte goditur me makinë. Ajo ishte shtatzënë, tha ai, dhe ai ishte arrestuar. A mund t’i gjejë paratë e nevojshme për lirimin me kusht?

Pikërisht në atë moment, shoqja ime – ndonëse e frikësuar dhe e tronditur – ndjeu diçka të dyshimtë. “Mirë, po ku je? Cili stacion policor?”

Telefonata u ndërpre. Në vend që të priste që djali i saj sërish të cingërojë, ajo thirri në numrin e tij të celularit: “Ku po të mbajnë?” Por, këtë herë ajo po fliste me djalin e saj të vërtetë, jo me një zë të rremë të gjeneruar nga inteligjenca artificiale. Ai ishte në shtëpi, shëndosh e mirë dhe për merak, dhe jo në stacion policor.

Mashtrimet me zë po rriten në mënyrë dramatike. Vitin e kaluar paraqisnin mashtrimin e dytë më të zakonshëm në Amerikë, dhe po shkojnë drejt vendit të parë në këtë vit. Në Mbretërinë e Bashkuar: kush e di? Po duket se nuk merret parasysh ekipi ynë i mashtrimit.

Është tmerrësisht e lehtë të mashtrosh njerëzit kur ti ke AI-në si bashkëpunëtor. Duke mësuar nga vetëm një fragment i dikujt që flet – le të themi, një video në Facebook – një mjet i AI-së mund të prodhojë një klon zanor që do të tingëllojë njësoj si ai dhe mund të udhëzohet të thotë çdo gjë.

Në janar, një kompani e re britanike e quajtur Eleven-Labs, e publikoi platformën e vet të klonimit të zërit. Vetëm një javë më vonë dikush e përdori atë për ta rikrijuar zërin e aktores Emma Watson duke e recituar Mein Kampf-in [Lufta ime, vepër e Adolf Hitlerit]. Për këtë nuk mendoja shumë në atë kohë. Tashti gjithçka që mund të mendoj janë miliona prindër të moshuar, pa mbrojtje në dhomat e tyre të ndenjjes, të gjithë të ethshëm për një telefonatë nga fëmijët e vet, të gjithë duke e pritur këtë.

Në Kanada, një çift i moshuar me mbiemrin Perkin u mashtrua me 21 mijë dollarë nga gënjeshtra pothuajse identike me atë që përjetoi shoqja ime. Një pasdite ata morën një telefonatë nga një burrë i cili tha se ishte avokat dhe i cili u tha se djali i tyre e kishte goditur një diplomat amerikan. Avokati ia kaloi telefonatë “djalit” i cili prindërve të frikësuar u tha se i nevojiten dhe se, po, i duheshin urgjentisht parat në dorë. Çfarë dinin ata? Ishte zëri i djalit të tyre, thotë zonja Perkin. Ata paguan dhe tani paratë janë zhdukur. Askush nuk mban përgjegjësi.

Edhe pasi e kuptoi se ishte një mashtrim, ajo ende nuk mund të shmanget nga ndjesia se kishte folur me djalin e vet, thotë zonja Perkin. Dhe, kjo është ajo që më duket kaq brutale për zërat e rrejshëm. Nëse e do një person, tingulli i tij shkon drejt e në zemrën tënde. Përgjigjeni instinktivisht dhe emocionalisht.

Nëse paramendoj të marr ndonjë telefonatë nga burri, duke e dëgjuar teksa thotë se djali është lënduar, presioni i gjakut rritet. Me rrahje të shpejta zemre do t’ia dërgoja atij të dhënat e mia bankare dhe nëse do të mendoja të ndalesha pak për ta kontrolluar identitetin e tij, kjo në vetvete do të ndihej si gabim. “As logjika nuk më ndihmonte,” thotë shoqja ime për përvojën e saj, “sepse një nga mendimet e mia ‘logjike’ ishte se zëri ishte shumë i ngjashëm me M-in për të mos qenë ai. Mendova se do të isha koprrace nëse do të gjeja ndonjë arsyetim për të mos besuar në atë që po dëgjoja.”

Tashmë që është e qartë se sa lehtë AI-ja mund të hakojë dhe të manipulojë emocionet njerëzore, ndihem e dëshpëruar se pse më parë nuk kisha frikë. Për këtë i fajësoj memet dhe pornografinë.

Për një kohë të gjithë ne mësuam për videot e rreme [deepfake]. Një klip i famshëm tregon se si Tom Cruise – me pamje shumë reale të tij – bën shaka, truke magjike dhe lëpin lëpizën. Jam qetësuar nga kjo, sepse në një analizë nga afër ai në të vërtetë nuk është Tom Cruise. Asnjë Tom i gjeneruar nga AI-ja nuk mund ta kopjojë pamjen reale të tërbimit të ndrydhur të tij; mospërfilljen e dhimbshme në të cilën origjinali kapton njerëzit e rëndomtë.

Natyrisht, në mënyrë të parashikueshme shumica e kërkesave për video të rreme ka qenë për pornografinë. Në vitin 2019 u vlerësua se pornografia përbën 96 për qind të materialeve zbavitëse të rreme në internet. Ka shumë bujë mediatike për videot e rreme të seksit, por, përsëri, kjo aspak nuk më shqetëson. Është problem vetëkorrigjues: sa më shumë që njerëzit dinë për mundësinë e falsifikimeve pornografike, aq më i besueshëm është çdo mohim – edhe kur pamjet janë reale.

Në janar, një lojtar në internet i quajtur Brandon Ewing – emri i tij në internet “Atrioc” – u zbulua për pornografi të rreme të femrave që i kishte kolege dhe shoqe. Koleget dhe shoqet thanë se ishin të zemëruara dhe të lënduara, por … çfarë mendonin se do të ndodhte pastaj? Ekziston një arsye se pse shërbimet e videove të rreme janë reklamuar në Pornhub.

Por, gjithsesi – kujt i intereson vërtet videot e seksit? Janë prindërit dhe gjyshërit që më interesojnë, dhe në këtë botë të re të krimit të AI-së, ata janë pothuajse krejtësisht të vetëm. Policët nuk mund të bëjnë asgjë, përveçse të këmbëngulin se po rekrutojnë “ekspertë kibernetikë” dhe se ekipin e mashtrimit po “e merr shumë seriozisht”. Do të varet nga ju dhe unë që t’i paralajmërojmë të afërmit tanë. Nuk mund ta shoh se gjërat do të shkojnë së mbari.

“Nënë, nëse më dëgjon në telefon duke thënë se kam pasur një aksident, ki kujdes …”

“Ke pasur një aksident?”

/Telegrafi/