Please enter at least 3 characters.

“Pornografia e varfërisë”: Imazhet e rreme të krijuara me IA, po përdoren nga agjencitë e ndihmës

Një imazh i krijuar me inteligjencë artificiale nga fushata e vitit 2023 e organizatës humanitare “Plan International” kundër martesave të fëmijëve. Organizata ka deklaruar se ka synuar mbrojtjen e “privatësisë dhe dinjitetin e vajzave të vërteta”

Burimi: “Plan International”/YouTube

Nga: Aisha Down / The Guardian (titulli: AI-generated ‘poverty porn’ fake images being used by aid agencies)
Përkthimi: Telegrafi.com

Imazhet e krijuara nga inteligjenca artificiale [IA], të cilat paraqesin varfërinë ekstreme, fëmijë dhe të mbijetuara të dhunës seksuale, po përmbytin faqet e fotografive në internet dhe po përdoren gjithnjë e më shumë nga OJQ-të kryesore të shëndetit publik, thonë profesionistët e shëndetit global të cilat kanë shprehur shqetësim për një epokë të re të të ashtuquajturës “pornografi e varfërisë”.

“Po përdoren kudo”, ka thënë Noah Arnold, i punësuar në Fairpicture, një organizatë me bazë në Zvicër që promovon përdorimin etik të imazheve në zhvillimin global. “Disa i përdorin vazhdimisht imazhet e krijuara nga IA-ja dhe të tjerët - e dimë me siguri - po eksperimentojnë të paktën me to”.

Arsenii Alenichev, studiues në Institutin e Mjekësisë Tropikale në Antverp, i cili studion prodhimin e imazheve për shëndetin global, ka thënë: “Këto imazhe riprodhojnë gramatikën vizuale të varfërisë - fëmijë me pjata bosh, tokë të çarë, pamje stereotipike”.

Alenichev ka mbledhur më shumë se 100 imazhe të krijuara nga IA-ja që paraqesin varfëri ekstreme dhe janë përdorur nga individë ose OJQ-të - si pjesë e fushatave në rrjetet sociale kundër urisë ose dhunës seksuale. Imazhet që ai ndau me The Guardian tregojnë skena të ekzagjeruara që përforcojnë stereotipat: fëmijë të grumbulluar në ujë me baltë; një vajzë afrikane me fustan nusërie dhe një lot që i rrjedh në faqe. Në një artikull të botuar të enjten në Lancet Global Health, ai argumentoi se këto imazhe përfaqësojnë një version të ri të “pornografisë së varfërisë” [poverty porn 2.0].

Megjithëse është e vështirë të përcaktohet përhapja e këtyre imazheve të gjeneruara nga IA-ja, Alenichevi dhe të tjerët thonë se përdorimi i tyre është në rritje, nxitur nga shqetësimet mbi pëlqimin dhe kostot. Arnoldi shtoi se shkurtimet e financimeve nga ShBA-ja për buxhetet e OJQ-ve e kanë përkeqësuar më tej situatën.

“Është krejtësisht e qartë se organizata të ndryshme po fillojnë të marrin në konsideratë përdorimin e imazheve sintetike në vend të fotografive reale, sepse janë të lira dhe nuk të duhet të merresh me pëlqimin, lejen apo çështje të tjera të ndërlikuara”, ka thënë Alenichev.

Imazhet e krijuara nga IA-ja që paraqesin varfëri ekstreme, tani shfaqen me shumicë në faqet më të njohura të fotografive, si Adobe Stock Photos dhe Freepik, si përgjigje ndaj kërkimeve me fjalën “varfëri” [poverty]. Shumë prej tyre mbajnë përshkrime të tilla si: “Fëmijë në një kamp refugjatësh”; “Fëmijë aziatikë që notojnë në një lumë të mbushur me mbeturina”; dhe “Një vullnetar i bardhë kaukazian ofron konsultë mjekësore për fëmijë të vegjël me ngjyrë në një fshat afrikan”. Adobe shet licencat për dy fotografitë e fundit në këtë listë për rreth 60 paundë [vlera e përafërt e 70 eurove].

“Ato janë aq të ngarkuara me racizëm. Nuk duhet të lejohen kurrë të publikohen, sepse përfaqësojnë stereotipat më të këqij për Afrikën, Indinë, apo cilindo vend tjetër që mund të përmendësh”, tha Alenichev.

Joaquín Abela, drejtor ekzekutiv i Freepik-ut tha se përgjegjësia për përdorimin e imazheve kaq ekstreme bie mbi konsumatorët e medias dhe jo mbi platformat si ajo e tij. Fotot e krijuara nga IA-ja, tha ai, gjenerohen nga komuniteti global i përdoruesve të platformës, të cilët mund të marrin një pagesë për licencë kur klientët e Freepik-ut vendosin t’i blejnë imazhet e tyre.

Ai shtoi se Freepik-u ishte përpjekur të frenonte paragjykimet që kishte hasur në pjesë të tjera të bibliotekës së fotove, duke “injektuar diversitet” dhe duke u përpjekur për të siguruar një balancë gjinore në imazhet e avokatëve dhe drejtuesve ekzekutivë që publikohen në faqe.

Por, sipas tij, platforma e tij kishte kufizime. “Është si të përpiqesh të thash një oqean. Ne bëjmë përpjekje, por në realitet, nëse klientët në mbarë botën duan imazhe në një mënyrë të caktuar, absolutisht askush nuk mund të bëjë asgjë”.

Imazhe të krijuara nga IA-ja me temën “varfëri” që kanë ngjallur shqetësime mbi paragjykimet dhe stereotipatBurimi: Freepik

Në të kaluarën, organizatat kryesore bamirëse kanë përdorur imazhe të krijuara nga IA-ja si pjesë e strategjive të tyre të komunikimit për shëndetin global. Në vitin 2023, dega holandeze e organizatës britanike Plan International publikoi një fushatë me video, kundër martesës së fëmijëve, që përmbante imazhe të krijuara nga IA-ja, përfshirë një vajzë me sy të nxirë, një burrë të moshuar dhe një adoleshente shtatzënë.

Vitin e kaluar, Kombet e Bashkuara publikuan në YouTube një video me “rinskenime” të dhunës seksuale në kohë konflikti - të krijuara me IA - ku përfshihej një dëshmi e gjeneruar nga IA-ja e një gruaje nga Burundi që përshkruante se si ishte përdhunuar nga tre burra dhe ishte lënë për vdekje në vitin 1993, gjatë luftës civile në vend. Videoja u hoq pasi The Guardian kontaktoi OKB-në për koment.

Një zëdhënës i forcave paqeruajtëse të OKB-së deklaroi: “Videoja në fjalë, e cila u prodhua më shumë se një vit më parë me një mjet që po zhvillohej me shpejtësi, është hequr nga qarkullimi, pasi besojmë se përfaqëson një përdorim të papërshtatshëm të inteligjencës artificiale dhe mund të paraqesë rreziqe për integritetin e informacionit, duke përzier pamje reale me përmbajtje pothuajse reale të gjeneruar në mënyrë artificiale. Kombet e Bashkuara mbeten të përkushtuara në mbështetjen e viktimave të dhunës seksuale në konflikte, përfshirë përmes inovacionit dhe avokatisë kreative”.

Arnold ka thënë se rritja e përdorimit të këtyre imazheve të IA-së vjen pas shumë vitesh debatesh në sektor mbi përdorimin etik të fotografive dhe shfaqjen dinjitoze të varfërisë dhe dhunës. “Supozohet se është më e lehtë të përdorësh pamje të gatshme nga IA-ja, që nuk kërkojnë pëlqim, sepse nuk janë njerëz të vërtetë”.

Kate Kardol, konsulente për komunikimin në një OJQ tha se këto imazhe e frikësojnë dhe se ia kujtojnë debatet e mëparshme rreth përdorimit të “pornografisë së varfërisë” në sektorin humanitar.

“Më trishton fakti që lufta për përfaqësim më etik të njerëzve që përjetojnë varfëri tani është shtrirë edhe te jorealja”, tha ajo.

Mjetet e inteligjencës gjenerative artificiale, prej kohësh janë vërejtur se riprodhojnë - dhe në disa raste edhe ekzagjerojnë - paragjykimet e gjera shoqërore. Alenichev ka thënë se përhapja e imazheve të njëanshme në komunikimet për shëndetin global mund ta përkeqësojë këtë problem, sepse këto imazhe mund të qarkullojnë në mbarë internetin dhe të përdoren për të trajnuar gjeneratën e ardhshme të modeleve të IA-së - një proces që është dëshmuar se përforcon paragjykimet.

Një zëdhënës i Plan International-it deklaroi se organizata, duke nisur nga ky vit, “ka miratuar udhëzime që këshillojnë kundër përdorimit të inteligjencës artificiale për të paraqitur fëmijë të caktuar”, dhe tha se fushata e vitit 2023 kishte përdorur imazhe të krijuara nga IA-ja për të mbrojtur “privatësinë dhe dinjitetin e vajzave të vërteta”.

Adobe refuzoi të komentojë. /Telegrafi/