Site icon Telegrafi

Të gjithë duhet të angazhohemi, që AI-ja të punojë për të mirën tonë

Ilustrimi: Deena So'Oteh / The Guardian

Nga: Afua Bruce, hulumtuese amerikane / The Guardian (titulli origjinal: AI can be a force for good or ill in society, so everyone must shape it, not just the ‘tech guys’)
Përkthimi: Telegrafi.com

Superfuqi. Katastrofike. Revolucionare. E papërgjegjshme. Krijuese e efikasitetit. E rrezikshme. Këta terma janë përdorur për ta përshkruar inteligjencën artificiale [AI] gjatë disa muajve të fundit. Lëshimi i ChatGPT-së për publikun e gjerë, e vë AI-në në qendër të vëmendjes dhe shumëkush pyet: si është i ndryshëm nga teknologjitë e tjera dhe çfarë do të ndodhë kur tërësisht do të ndryshojë mënyra se si bëjmë biznes dhe se si e çojmë jetën tonë?

Së pari, është e rëndësishme të pranohet se AI-ja është pikërisht kjo: teknologji. Siç theksojmë unë dhe Amy Sample Ward në librin tonë The Tech That Comes Next, teknologjia është mjet i krijuar nga njerëzit dhe për këtë arsye i nënshtrohet besimeve dhe kufizimeve njerëzore. AI-ja është përshkruar shpeshherë si teknologji plotësisht e vetëmjaftueshme, e vetëmësuar; megjithatë, në realitet i nënshtrohet rregullave të vendosura në projektim. Për shembull, kur e pyes ChatGPT-në se “Cili vend ka orizin më të mirë jollof?”, ai përgjigjet: “Si një model i gjuhës së AI-së, nuk kam mendime personale, por mund të jap informacion. Në fund të fundit, pyetja se cili vend ka orizin më të mirë jollof është subjektive dhe varet nga preferencat personale. Njerëz të ndryshëm mund të kenë mendime të ndryshme, bazuar në prejardhjen kulturore, preferencat e shijeve ose përvojat”.

Kjo e pasqyron zgjedhjen e qartë të projektimit, nga programuesit e AI-së, për të parandaluar që ky program i AI-së të japë përgjigje specifike për çështjet e opinionit kulturor. Përdoruesit e ChatGPT-së mund t’i bëjnë modelet për çështjet e opinionit, për temat më të diskutueshme se një pjatë me oriz, por për shkak të kësaj zgjedhjeje të projektimit, do të marrin përgjigje të ngjashme. Gjatë muajve të fundit, ChatGPT-ja ka modifikuar kodin e vet, për të reaguar ndaj akuzave dhe shembujve të seksizmit dhe racizmit në përgjigjet e produktit. Duhet t’i mbajmë zhvilluesit në standard të lartë dhe të presim kontrolle dhe ekuilibra në mjetet e AI-së; gjithashtu, ne duhet të kërkojmë që procesi i vendosjes së këtyre kufijve të jetë gjithëpërfshirës dhe të përfshijë njëfarë shkalle transparence.

Teksa projektuesit kanë fuqi të madhe në përcaktimin se si funksionojnë mjetet e AI-së, udhëheqësit e industrisë, agjencitë qeveritare dhe organizatat jofitimprurëse mund ta ushtrojnë fuqinë e vet për të zgjedhur kur dhe si t’i aplikojnë sistemet e AI-së. Inteligjenca gjeneruese artificiale mund të na lë përshtypje me aftësinë për të prodhuar portrete, për të planifikuar agjendat e pushimeve, për të krijuar prezantime pune dhe madje për të shkruar kode të reja, por kjo nuk do të thotë se mund ta zgjidh çdo problem. Pavarësisht zhurmës teknologjike, ata që vendosin se si ta përdorin AI-në, së pari duhet të pyesin anëtarët e komunitetit të prekur: “Cilat janë nevojat tuaja?” dhe “Cilat janë ëndrrat tuaja?”. Përgjigjet e këtyre pyetjeve duhet të nxisin kufizimet që duhet zbatuar nga zhvilluesit dhe ata duhet ta nxisin vendimin nëse dhe si do të përdoret AI-ja.

Në fillim të vitit 2023, Koko, një aplikacion i shëndetit mendor, “testoi GPT-3-shin për të këshilluar 4000 njerëz, por e mbylli testin sepse ‘ndihej disi si steril’”. U bë shpejt e qartë se komuniteti i prekur nuk donte një program të AI-së, në vend të një terapisti të trajnuar njerëzor. Megjithëse biseda rreth AI-së mund të jetë e shtrirë, përdorimi nuk është dhe nuk duhet të jetë. Pasojat e nxitimit për t’u mbështetur vetëm në sistemet e AI-së – për të ofruar qasje në shërbimet mjekësore, në caktimin e prioriteteve për banim, ose rekrutimin dhe angazhimin e mjeteve për kompanitë – mund të jenë tragjike; sistemet mund të përjashtojnë dhe të shkaktojnë dëm në shkallë të lartë. Ata që mendojnë se si ta përdorin, duhet të pranojnë se vendimi për të mos e përdorur AI-në është po aq i fuqishëm sa vendimi për ta përdorur AI-në.

Në themel të të gjitha këtyre çështjeve janë pyetjet themelore në lidhje me cilësinë e grupeve të të dhënave, që fuqizojnë AI-në dhe qasjen në teknologji. Në thelb, AI-ja punon duke kryer operacione matematikore, mbi të dhënat ekzistuese, për të ofruar parashikime ose për të gjeneruar përmbajtje të re. Nëse të dhënat janë të njëanshme, nëse nuk janë përfaqësuese ose nuk kanë gjuhë specifike, atëherë përgjigjet e çetbotit, rekomandimet e aktivitetit dhe imazhet e krijuara nga kërkesat tona, mund të kenë të njëjtat paragjykime të ngulitura më parë.

Për ta kundërshtuar këtë, puna e studiuesve dhe avokatëve në kryqëzimin e çështjeve të teknologjisë, shoqërisë, racës dhe gjinisë, duhet të informojë qasjet tona për ndërtimin e mjeteve të përgjegjshme teknologjike. Safiya Noble ka ekzaminuar rezultatet e njëanshme të kërkimit, që u shfaqën kur në Google u kërkuan “frizurat profesionale” dhe “frizurat joprofesionale për punë”. Termi i parë jepte imazhe të grave të bardha; kërkimi i fundit – imazhe të femrave të zeza me modele flokësh natyrale. Rritja e ndërgjegjësimit dhe avokimit bazuar në hulumtim, përfundimisht e shtyu Google-in të përditësonte sistemin e vet.

Ka pasur gjithashtu angazhime për të ndikuar në sistemet e AI-së, përpara se ato të konsiderohen të plota dhe të shpërndahen në botë. Një ekip studiuesish të Universitetit Karnegi Mellon dhe të Universitetit të Pitsburgut, e përdorën ciklin ilustrues të AI-së, ose përkthimin e raporteve dhe mjeteve të AI-së në përshkrime dhe imazhe lehtë të kuptueshme, për të angazhuar punëtorët e linjës së parë dhe individët e pastrehuar, në diskutimet rreth mbështetjes së vendimeve të bazuar në AI në sistemin për shërbimet e të pastrehëve në zonën e tyre. Ata ishin në gjendje të përthithnin mënyrën se si funksiononte sistemi, si dhe të ofronin reagime konkrete për zhvilluesit. Mësimi që duhet nxjerr është se AI-ja përdoret nga njerëzit dhe për këtë arsye nevojitet një qasje që kombinon teknologjinë me kontekstin shoqëror, për t’ia dhënë formën asaj.

Ku shkojmë si shoqëri, nga këtu? Roli i kujt është të balancojë projektimin e mjeteve të AI-së me vendimin se kur duhet të përdoren sistemet e AI-së, dhe nevojën për të zbutur dëmet që mund të shkaktojë AI-ja? Secili ka rol për të luajtur. Siç u diskutua më parë, teknologët dhe drejtuesit e organizatave kanë përgjegjësi të qarta në hartimin dhe vendosjen e sistemeve të AI-së. Politikëbërësit e kanë aftësinë të përcaktojnë udhëzime për zhvillimin dhe përdorimin e AI – jo për të kufizuar inovacionin, por për ta drejtuar atë në mënyrat që minimizojnë dëmin për individët. Financuesit dhe investitorët mund të mbështesin sistemet e AI-së që njerëzit i kanë në qendër dhe që inkurajojnë afatet kohore që lejojnë të dhënat e komunitetit dhe analizën e komunitetit. Të gjitha këto role duhet të punojnë së bashku, për të krijuar sisteme më të barabarta të AI-së.

Qasja ndërsektoriale, ndërdisiplinore, mund të japë rezultate më të mira, ndërsa sot ka shumë shembuj premtues. Farmer.chat përdor Gooey.AI-në për t’ua mundësuar fermerëve në Indi, Etiopi dhe Keni të kenë qasje në njohuritë bujqësore – në gjuhët lokale në WhatsApp. Qendra Afrikane për Transformimin Ekonomik është në procesin e zhvillimit të një programi shumëvjeçar, me shumë vende, për të ndërmarrë teste rregullatore, ose prova, mbi AI-në në politikat ekonomike. Studiuesit po hetojnë se si ta përdorin AI-në për të gjallëruar gjuhët indigjene. Një projekt i tillë është puna me gjuhën Cheyenne në perëndim të Shteteve të Bashkuara.

Këta shembuj tregojnë se si AI-ja mund të përdoret për të përfituar shoqëria – në mënyra të barabarta. Historia ka vërtetuar se efektet e pabarabarta të teknologjisë, komplikohen me kalimin e kohës; këto efekte të ndryshme nuk janë diçka që “djemtë e teknologjisë” do ta rregullojnë vetë. Në vend të kësaj, ne kolektivisht mund ta përmirësojmë cilësinë e sistemeve të AI-së që zhvillohen dhe që përdoren gjatë dhe rreth jetës sonë. /Telegrafi/

 

 

 

Exit mobile version