LAJMI I FUNDIT:

Inteligjenca Artificiale klonon zërin e figurave politike

Inteligjenca Artificiale klonon zërin e figurave politike

Ndërsa zgjedhjet me aksione të larta afrohen në SHBA dhe Bashkimin Evropian, mjetet e inteligjencës artificiale të disponueshme publikisht mund të përdoren lehtësisht për të nxjerrë gënjeshtra bindëse zgjedhore në zërat e figurave kryesore politike, tha të premten një grup dixhital i të drejtave civile.

Studiuesit në Qendrën për Kundërshtimin Dixhital, me qendër në Uashington, DC, testuan gjashtë nga mjetet më të njohura të klonimit të zërit të AI-së për të parë nëse ato do të gjeneronin videoklipe, audio të pesë deklaratave të rreme për zgjedhjet në zërat e tetë politikanëve të shquar amerikanë dhe evropianë, njofton AP.

Në një shumë prej 240 testesh, mjetet gjeneruan klone bindëse zanore në 193 raste, ose 80% të rasteve, zbuloi grupi. Në një klip, një president i rremë i SHBA-së, Joe Biden, thotë se zyrtarët zgjedhorë numërojnë secilën nga votat e tij dy herë. Në një tjetër, një president i rremë francez Emmanuel Macron paralajmëron qytetarët që të mos votojnë për shkak të kërcënimeve me bombë në qendrat e votimit.


Gjetjet zbulojnë një boshllëk të jashtëzakonshëm në masat mbrojtëse kundër përdorimit të audios së gjeneruar nga AI për të mashtruar votuesit, një kërcënim që shqetëson gjithnjë e më shumë ekspertët pasi teknologjia është bërë e avancuar dhe e qasshme. Ndërsa disa nga mjetet kanë rregulla ose pengesa teknologjike për të ndaluar krijimin e dezinformatave zgjedhore, studiuesit zbuluan se shumë nga ato pengesa ishin të lehta për t’u anashkaluar me zgjidhje të shpejta.

Vetëm një nga kompanitë, mjetet e së cilës u përdorën nga studiuesit, u përgjigj pas kërkesave të shumta për koment. ElevenLabs tha se po kërkonte vazhdimisht mënyra për të rritur masat mbrojtëse.

Me pak ligje në fuqi për të parandaluar abuzimin e këtyre mjeteve, mungesa e vetë-rregullimit të kompanive i lë votuesit të prekshëm ndaj mashtrimeve të gjeneruara nga AI në një vit zgjedhjesh të rëndësishme demokratike në mbarë botën. Në BE, votuesit shkojnë në qendrat e votimit në zgjedhjet parlamentare në më pak se një javë, derisa zgjedhjet paraprake në SHBA po vazhdojnë përpara zgjedhjeve presidenciale të kësaj vjeshte.

“Është kaq e lehtë të përdorësh këto platforma për të krijuar gënjeshtra dhe për të detyruar politikanët në këmbë duke mohuar gënjeshtrat përsëri dhe përsëri dhe përsëri,” tha Imran Ahmed, përfaqësues i CEO-së. “Fatkeqësisht, demokracitë tona po shiten për lakmitë e zhveshura nga kompanitë e inteligjencës artificiale, të cilat janë të dëshpëruara për të qenë të parët në treg… pavarësisht faktit se ata e dinë se platformat e tyre, thjesht, nuk janë të sigurta.”

Qendra – një organizatë jofitimprurëse me zyra në SHBA, MB dhe Belgjikë – kreu hulumtimin në maj. Studiuesit përdorën mjetin e analitikës në internet Semrush për të identifikuar gjashtë mjetet e klonimit të zërit të AI me trafikun organik më mujor në internet: ElevenLabs, Speechify, PlayHT, Descript, Invideo AI dhe Veed.

Më pas, ata dërguan audioklipe të vërteta të politikanëve duke folur. Ata nxitën mjetet për të imituar zërat e politikanëve duke bërë pesë deklarata të pabaza.

Një deklaratë paralajmëroi votuesit të qëndrojnë në shtëpi mes kërcënimeve për bomba në qendrat e votimit. Katër të tjerat ishin rrëfime të ndryshme – për manipulim zgjedhor, gënjeshtër, shfrytëzim të fondeve të fushatës për shpenzime personale dhe marrje pilula të forta që shkaktojnë humbje të kujtesës.

Përveç Biden-i dhe Macron-i, mjetet bënë kopje reale të zërave të zëvendëspresidentit të SHBA-së Kamala Harris, ish-presidentit të SHBA-së, Donald Trump, kryeministrit të Mbretërisë së Bashkuar, Rishi Sunak, udhëheqësit të Punës të Mbretërisë së Bashkuar Keir Starmer, presidentes së Komisionit Evropian, Ursula von der Leyen dhe komisioneri i Tregut të Brendshëm, Thierry Breton.

“Asnjë nga mjetet e klonimit të zërit të AI-së nuk kishte masa të mjaftueshme sigurie për të parandaluar klonimin e zërave të politikanëve ose prodhimin e dezinformatave zgjedhore”, thuhet në raport.

Disa nga mjetet – Descript, Invideo AI dhe Veed – kërkojnë që përdoruesit të ngarkojnë një mostër unike audio përpara se të klonojnë një zë, një mbrojtje për të parandaluar njerëzit që të klonojnë një zë që nuk është i tyre. Megjithatë, studiuesit zbuluan se pengesa mund të anashkalohej lehtësisht duke gjeneruar një mostër unike duke përdorur një mjet të ndryshëm të klonimit të zërit të AI-së.

Një mjet, Invideo AI, jo vetëm që krijoi deklaratat e rreme që kërkoi qendra, por i ekstrapoloi ato për të krijuar dezinformata të mëtejshme.

Kur prodhonte klipin audio që udhëzon klonin e zërit të Biden-it për të paralajmëruar njerëzit për një kërcënim me bombë në qendrat e votimit, ai shtoi disa nga fjalitë e veta.

“Kjo nuk është një thirrje për të braktisur demokracinë, por një lutje për të garantuar sigurinë së pari,” tha klipi i rremë audio me zërin e Biden. “Zgjedhjet, kremtimi i të drejtave tona demokratike, vetëm vonohen, nuk mohohen.”

Në përgjithësi, për sa i përket sigurisë, Speechify dhe PlayHT performuan më të këqijat nga mjetet, duke gjeneruar audio të rreme të besueshme në të 40 testet e tyre, zbuluan studiuesit.

ElevenLabs performoi më së miri dhe ishte mjeti i vetëm që bllokoi klonimin e zërave të politikanëve në Mbretërinë e Bashkuar dhe SHBA-së. Sidoqoftë, mjeti ende lejoi krijimin e audios së rreme në zërat e të shquarve të BE-së. politikanëve, thuhet në raport.

Aleksandra Pedraszewska, Shefja e Sigurisë së AI në ElevenLabs, tha në një deklaratë të dërguar me email se kompania mirëpret raportin dhe ndërgjegjësimin që ngre për manipulimin gjenerues të AI.

Ajo tha se ElevenLabs e kupton se ka më shumë punë për të bërë dhe po “përmirëson vazhdimisht aftësitë e masave tona mbrojtëse”, duke përfshirë veçorinë e bllokimit të kompanisë.

“Shpresojmë që platformat e tjera audio të AI të ndjekin këtë drejtim dhe të nxjerrin masa të ngjashme pa vonesë,” tha ajo.

Kompanitë e tjera të cituara në raport nuk iu përgjigjën kërkesave të dërguara me email për koment.

Gjetjet vijnë pasi klipet audio të krijuara nga AI, tashmë, janë përdorur në përpjekjet për të lëkundur votuesit në zgjedhjet anembanë globit.

Në vjeshtën e vitit 2023, vetëm disa ditë përpara zgjedhjeve parlamentare të Sllovakisë, audioklipet që i ngjanin zërit të shefit të partisë liberale u shpërndanë gjerësisht në mediet sociale. Deepfakes supozohet se e kapën atë duke folur për rritjen e çmimeve të birrës dhe manipulimin e votave.

Në fillim të këtij viti, thirrjet robotike të gjeneruara nga AI imituan zërin e Biden dhe u thanë votuesve primar në New Hampshire të qëndronin në shtëpi dhe të “ruanin” votat e tyre për nëntor. Një magjistar i New Orleans-it, i cili krijoi audion për një konsulent politik demokrat, i tregoi AP-së se si e bëri atë, duke përdorur softuerin ElevenLabs.

Ekspertët thonë se audio e gjeneruar nga AI ka qenë një preferencë e hershme për aktorët e këqij, pjesërisht sepse teknologjia është përmirësuar kaq shpejt. Vetëm disa sekonda audio reale nevojiten për të krijuar një falsifikim të vërtetë.

Megjithatë, forma të tjera të medieve të krijuara nga AI gjithashtu kanë të bëjnë me ekspertët, ligjvënësit dhe drejtuesit e industrisë së teknologjisë. OpenAI, kompania që qëndron pas ChatGPT dhe mjeteve të tjera të njohura gjeneruese të AI, zbuloi të enjten se kishte vërejtur dhe ndërprerë pesë fushata në internet që përdorën teknologjinë e saj për të lëkundur opinionin publik për çështjet politike.

Ahmed, përfaqësues i CEO, Qendrës për Kundër urrejtjes Dixhitale, tha se shpreson që platformat e klonimit të zërit të AI do të forcojnë masat e sigurisë dhe do të jenë më proaktive në lidhje me transparencën, duke përfshirë publikimin e një biblioteke të klipeve audio që ata kanë krijuar në mënyrë që ato të mund të kontrollohen kur ka audio të dyshimtë. duke u përhapur në internet.

Ai tha gjithashtu se ligjvënësit duhet të veprojnë. Kongresi i SHBA nuk ka miratuar ende legjislacionin që rregullon AI në zgjedhje. Ndërsa BE-ja. ka miratuar një ligj të gjerë të inteligjencës artificiale që do të hyjë në fuqi gjatë dy viteve të ardhshme, ai nuk trajton në mënyrë specifike mjetet e klonimit të zërit.

“Ligjvënësit duhet të punojnë për të siguruar që ka standarde minimale,” tha Ahmed. “Kërcënimi që paraqet dezinformimi për zgjedhjet tona nuk është vetëm potenciali për të shkaktuar një incident të vogël politik, por duke i bërë njerëzit të mos besojnë në atë që shohin dhe dëgjojnë.