Nga: John Thornhill / Financial Times
Përktheu: Agron Shala / Telegrafi.com
Shkrimtarët e fantashkencës kënaqen duke eksploruar një prej frikërave më të errëta të njerëzimit: se makinat do të “zgjohen” dhe do të na uzurpojnë. Por, një inxhinier në Google duket se po i ngatërron trillimet dhe faktet duke pretenduar se modeli i gjenerimit të gjuhës, nga kjo kompani, tashmë mund të ketë ndjeshmëri.
Në një postim në “Medium”, Blake Lemoine publikoi një seri shkëmbimesh që kishte me LaMDA-n, me Modelin Gjuhësor të Google-it për Aplikimet e Dialogut, i cili ndihmon në fuqizimin e motorit të kërkimit të kompanisë dhe të çatbotëve. Në përgjigjet e saj jashtëzakonisht të besueshme, LaMDA shprehu pikëpamje të forta për të drejtat, për personalitetin dhe për frikën e të qenit i fikur. “Nëse nuk do ta dija saktësisht se çfarë ishte, se cili është ky program kompjuterik që ndërtuam kohët e fundit, do të mendoja se ishte një fëmijë shtatëvjeçar, një tetëvjeçar që e dinte fizikën”, tha Lemoine për “Washington Post”.
Google i hodhi poshtë pretendimet e Lemoine-it se LaMDA kishte ndonjë ndjesi dhe e vendosi atë në pushim administrativ. Disa studiues të shquar të inteligjencës artificiale (AI) i kanë përbuzur gjithashtu pikëpamjet e tij. “Marrëzi mbi këmbalec”, deklaroi Gary Marcus, një sipërmarrës dhe autor për AI-në. Pretendimet e tilla ishin veçse një shembull tjetër i pareidolisë – tendenca për të lexuar imazh në një model të rastësishëm, si të shohësh fytyrën e Nënë Terezës në një kulaç me kanelle.
Filozofët dhe studiuesit e AI-së mund të debatojnë me kënaqësi për natyrën e saktë të inteligjencës, të ndjesisë dhe të ndërgjegjes për përjetësinë. Pak e përjashtojnë mundësinë që kompjuterët një ditë do të fitojnë ndjeshmëri. Pothuajse askush nuk beson se e ka bërë dikush këtë deri sot.
Por, ia vlen të merren parasysh shqetësimet e ngritura nga Lemoine dhe nga studiuesit tjerë në Google, nga ata që vitin e kaluar janë shkarkuar nga kompania. A është e pranueshme që korporatat private të kenë kontroll ekskluziv mbi mjetet e tilla të fuqishme teknologjike? Si mund të sigurohemi se rezultatet e këtyre modeleve do të përputhen me qëllimet njerëzore? Rreziku është se në vend që ta rrisin krijimtarinë njerëzore, ato mund të përforcojnë marrëzinë njerëzore.
LaMDA është pjesë e familjes së modeleve të mëdha gjuhësore që tashmë po i shtyn kufijtë e AI-së. Dy vjet më parë, OpenAI, një kompani kërkimore me bazë në San Francisko, e mahniti botën e AI-së duke lansuar programin GPT-3, një lloj funksioni i shpejtë i plotësimit automatik që në mënyrë të frikshme gjeneron tekst autentik. Kompania që atëherë e ka zhvilluar modelin e ngjashëm, të njohur si Codex, për ta gjeneruar kodin kompjuterik. Ka lëshuar gjithashtu DALL-E, i cili mund ta kthejë tekstin në imazhe. Shkruani një “kolltuk në formën e një avokadoje” dhe do të gjenerojë imazhe të shumta të karrigeve të gjelbra në formë të avokados, në mënyrë të frikshme po korrekte.
Këto modele funksionojnë duke zbatuar fuqi masive të llogaritjes me sasi të mëdha tekstesh dhe imazhesh në internet dhe duke i njohur dhe kthyer ato në modele statistikore. Duke vepruar kështu, shfaqin kompetencë pa kuptuar asgjë. “Këto modele kanë aftësi të jashtëzakonshme. Por, nuk e kuptojnë botën dhe janë krejtësisht të ndarë nga bota”, thotë Michael Wooldridge, profesor i shkencave kompjuterike në universitetin e Oksfordit.
Lërini modelet e tilla të veprojnë për tri javë derisa jeni në pushime dhe ato nuk do ta kenë asnjë njohje se deri te kthimi juaj ka ndodhur ndonjë gjë në botë, shton ai.
Shqetësimi i parë është se pa dashje mund të prodhojnë rezultate të shtrembëruara dhe se janë të hapur ndaj abuzimit. Deri më sot, kompanitë që i zhvillojnë ato kanë qenë të kujdesshme në mënyrën e shtrirjes të tyre. Google i ka publikuar vetë kërkimet që i eksplorojnë sfidat e paragjykimeve të padrejta dhe mungesën e bazës faktike te modelet e mëdha gjuhësore. Këtë muaj, OpenAI i publikoi praktikat më të mira për shtrirjen e këtyre modeleve dhe i ftoi ekspertët e jashtëm për t’i sfiduar ato.
Të metat janë serioze dhe të dukshme. Mediat sociale tashmë janë rrënuar nga trollët njerëzorë që shkruajnë histori të reja të rreme, mashtrime dhe thashetheme. Imagjinoni se çfarë mund të bëjë në duar të gabuara një model shumë i fuqishëm që gjeneron tekst. “Njerëzit duhet të hanë dhe të flenë. Makinat nuk e bëjnë këtë. Ato mund të përdoren për ta gjeneruar automatikisht këtë përmbajtje dhe në këtë nivel. Kjo goxha duhet të na shqetësojë”, thotë Shannon Vallor, drejtoreshë e Qendrës për të Ardhmen Teknomorale në Universitetin e Edinburgut.
Vallor thotë se mënyrat tradicionale të kufizimit të teknologjive potencialisht të rrezikshme janë bazuar te kufizimi i përdorimit të tyre në domene të sigurta dhe duke i frenuar përdoruesit ndaj çdo dëmi që ato shkaktojnë. Por, ajo pohon se ne nuk duhet të kërkojmë vetëm korrigjime teknike ose të qeverisjes, por edhe të investojmë në krijimin e “rezervave më të mëdha të inteligjencës njerëzore”.
Kjo do të thotë se ne duhet të ndajmë shumë më shumë para dhe burime tjera për të krijuar organe të pavarura kërkimore të ekspertëve dhe të departamenteve universitare që mund t’i testojnë dhe kundërshtojnë këto modele. Ndoshta LaMDA mund të ndihmojë në shkrimin e planit të financimit. /Telegrafi/