Gara globale e IA-së do të fitohet nga ai që menaxhon reagimin negativ
Nga: Maha Hosain Aziz, profesoreshë në Universitetin e Nju-Jorkut dhe autore e trilogjisë Rendi i ardhshëm botëror [Future World Order] / Newsweek
Përkthimi: Telegrafi.com
Gara globale e IA-së [inteligjencës artificiale] po vlerësohet në mënyrë të gabuar.
Pjesa më e madhe e debatit ende e trajton atë si një garë për çipa, kapital dhe modele, zakonisht e paraqitur si rivalitet mes Shteteve të Bashkuara dhe Kinës. Këta faktorë kanë rëndësi. Por, ata nuk përcaktojnë më nëse IA-ja mund të shtrihet në mbarë shoqërinë. Ajo që ka rëndësi tani është diçka që qeveritë nuk mund ta blejnë apo thjesht ta importojnë: aftësia për të menaxhuar rreziqet e IA-së në botën reale, përpara se ato të nxisin reagime të ashpra dhe të pezullojnë shtrirjen e saj.
Këto rreziqe janë tashmë të dukshme. Ato përfshijnë çrregullimin e tregut të punës nga IA-ja; mashtrime të fuqizuara nga zëra sintetikë; imazhe të rreme [deepfake] që gërryejnë besimin në informacion; vendime të paqarta automatike në shërbime të ndjeshme publike; si dhe kostot energjetike dhe mjedisore të infrastrukturës së IA-së. Shumica e njerëzve nuk do ta shohin kurrë IA-në si një “model”. Ata do ta përjetojnë si një telefonatë mashtruese, një njoftim pushimi nga puna ose një faturë më të lartë shërbimesh. Nëse votuesit mendojnë se ata po paguajnë kostot ndërsa të tjerët marrin përfitimet, zbatimi ngadalësohet. Menaxhoni keq këto rreziqe dhe sekuenca është e parashikueshme: kundërshtim, pauzë, ngadalësim.
Kjo sekuencë nuk është më teorike. Indonezia bllokoi përkohësisht Grok-un e Elon Musk pasi gjeneroi përmbajtje seksuale, dhe më pas e lejoi sërish vetëm nën mbikëqyrje. Në Gjermani, aktorët e zërit kanë protestuar kundër kontratave që do t’u lejonin studiove të përdorin incizimet e tyre për trajnimin e IA-së. Në Evropë, Akti i IA-së i BE-së tani ndalon, në parim, përdorimin nga zbatuesit e ligjit të identifikimit biometrik në kohë reale në hapësira publike, duke lejuar vetëm përjashtime të kufizuara nën masa të rrepta sigurie. Në Shtetet e Bashkuara, qendrat e të dhënave janë bërë pika të nxehta politike për shkak të kërkesës për energji elektrike, konsumit të ujit dhe stimujve tatimorë. Guvernatori i Ilinois, J.B. Pritzker, propozoi së fundmi pezullimin e stimujve shtetërorë për qendra të reja të të dhënave, duke argumentuar se familjet nuk duhet të përballojnë kostot e zgjerimit të IA-së. Rreziqe të ndryshme, e njëjta dinamikë politike. Tronditjet gjeopolitike mund t’i përforcojnë këto presione të brendshme - si sulmet e fundit me dronë që dëmtuan qendrat e të dhënave në Gjirin Persik, duke shtuar rreziqet në zinxhirët e furnizimit dhe qëndrueshmërinë.
Menaxhimi i rrezikut nuk është çështje dytësore. Është ajo që e bën adoptimin politikisht të qëndrueshëm. Thënë thjesht, IA-ja ka nevojë për legjitimitet në nivel: gatishmërinë e njerëzve për ta pranuar atë në jetën e përditshme, veçanërisht kur ajo dështon.
Këtu bëhet vendimtar reagimi kundërshtues ndaj teknologjisë [techlash]. Reagimi ndaj teknologjisë nuk është frikë irracionale ndaj inovacionit. Është një gjykim se institucionet nuk munden ose nuk duan të kontrollojnë pasojat negative. Sapo kjo bindje të përhapet, debati publik zhvendoset nga Si duhet ta përdorim këtë teknologji? në Pse duhet ta lejojmë atë? Kjo është ajo që e ndalon zbatimin.
Në Davos këtë vit dhe në Samitin e Ndikimit të IA-së në Nju-Delhi, një mesazh i përsëritur ishte adoptimi në shkallë. Por, shpejtësia nuk është e njëjtë me qëndrueshmërinë. Vendet mund të nxitojnë shpejt në laborator dhe prapë të pengohen në shoqëri nëse legjitimiteti shembet. Gara reale nuk është kush e vendos IA-në i pari, por cili sistem mund të përballojë goditje të përsëritura pa e humbur mbështetjen publike.
Pika më e madhe e tensionit afatshkurtër ka të ngjarë të jetë puna. IA-ja nuk do të zhdukë profesione të tëra brenda natës, por do të gërryejë detyrat, do të dobësojë fuqinë negociuese dhe do të destabilizojë rrugët e karrierës. Ajo po zgjeron atë që unë e kam quajtur klasa prekariate e AI-së - punëtorë që përballen me pasiguri të vazhdueshme, pa mbrojtje të qarta ose mjete juridike. Menaxhimi i këtij tranzicioni kërkon më shumë sesa slogane për rikualifikim. Qeveritë mund të kenë nevojë për përfitime të lëvizshme që ndjekin punëtorët nga njëra punë te tjetra, rikualifikim të financuar nga përfitimet e zbatimit të IA-së dhe sisteme sigurimesh sociale që funksionojnë për punëtorët me kontratë apo në ekonominë e kontratave afatshkurta [gig economy], si dhe për punonjësit tradicionalë.
Indeksi i Ankthit për IA-në
Newsweek
Ankthi publik për AI-në nuk mund të injorohet. Ai skalit atë që qeveritë mund të zbatojnë dhe atë që kompanitë mund të vendosin në praktikë. Për të kuptuar më mirë se ku legjitimiteti është më i brishtë, unë kam zhvilluar një prototip të Indeksit të Ankthit për IA-në në Universitetin e Nju-Jorkut. Ai kombinon besimin publik në qeveri, ekspozimin e fuqisë punëtore ndaj IA-së gjeneruese dhe sondazhe mbi frikën lidhur me pengesat e shkaktuara nga IA-ja në ekonomitë kryesore.
Po shfaqet një model. Vendet perëndimore - përfshirë Shtetet e Bashkuara, Mbretërinë e Bashkuar dhe Francën - grumbullohen në anën me nivel më të lartë të ankthit. Disa ekonomi aziatike duket se shfaqin nivele më të ulëta ankthi, pavarësisht ekspozimit të konsiderueshëm të fuqisë punëtore. Qëllimi nuk është të renditen sistemet politike, por të identifikohet se ku polemikat mbi IA-në krijojnë më shumë pengesa. Në mjedise me ankth të lartë, çdo incident ka më shumë gjasa të shkaktojë procese gjyqësore, ndalesa rregullatore, ndalime prokurimi dhe reagim politik. Në mjedise me ankth më të ulët, qeveritë shpesh përballen me më pak pengesa dhe mund të testojnë, përshtatin dhe vazhdojnë të zgjerojnë përdorimin.
Kjo tregon një divergjencë në mënyrën se si vendet e menaxhojnë IA-në. Disa qeveri do të lëvizin më shpejt në menaxhimin e rrezikut - duke kërkuar auditime, duke kufizuar përdorimet e dëmshme dhe duke zbatuar standarde të të dhënave - dhe do të zgjerohen më shpejt. Shtetet më të vogla me kapacitete të larta mund të kenë avantazh sepse koordinimi është më i lehtë. Por, shpejtësia e zbatimit dhe legjitimiteti nuk janë e njëjta gjë. Ankthi i ulët mund të pasqyrojë menaxhim efektiv të rrezikut - ose thjesht që kostot janë më pak të dukshme derisa papritur të bëhen. Pyetja kryesore është qëndrueshmëria: a mundet ndonjë sistem ta mbajë adoptimin e IA-së kur përfitimet të zhgënjejnë, kostot bëhen të dukshme ose dështimet grumbullohen?
Vendet që do të kenë sukses do ta trajtojnë menaxhimin e rrezikut si infrastrukturë, jo si imazh. Kjo do të përfshinte kapacitete të pavarura vlerësimi; raportim të detyrueshëm të incidenteve; përgjegjësi dhe llogaridhënie të qarta; rregulla prokurimi që shpërblejnë sigurinë; politika të besueshme për tranzicionin e punës; dhe planifikim serioz për ndikimin energjetik dhe mjedisor të IA-së.
Gara e AI-së nuk ka të bëjë më vetëm me atë se kush ndërton sistemet më të fuqishme. Ka të bëjë me atë se kush mund t’i zgjerojë ato pa shkaktuar reagimin kundërshtues që ndalon përparimin. Menaxhimi i këtij reagimi tani është çmimi i zgjerimit. /Telegrafi/

