LAJMI I FUNDIT:

Disa përdorues thanë se iu janë shfaqur biseda të përdoruesve të tjerë në ChatGPT, kompania thotë se është ndrequr gabimi

Disa përdorues thanë se iu janë shfaqur biseda të përdoruesve të tjerë në ChatGPT, kompania thotë se është ndrequr gabimi

Një defekt në ChatGPT lejoi disa përdorues të shihnin titujt e bisedave të përdoruesve të tjerë, tha shefi i chatbot-it të inteligjencës artificiale.

Në faqet e mediave sociale Reddit dhe Twitter, përdoruesit kishin ndarë imazhe të historive të bisedave që ata nuk i kishin bërë, transmeton Telegrafi.

CEO i OpenAI, Sam Altman tha se kompania ndihet “keq” por gabimi “kryesor” tani ishte rregulluar.


Megjithatë, shumë përdorues mbetën të shqetësuar për privatësinë në këtë platformë.

Miliona njerëz e kanë përdorur ChatGPT për të shkruar mesazhe, për të shkruar këngë madje edhe për koduar që nga lansimi i tij në nëntor të vitit të kaluar.

Çdo bisedë me chatbotin ruhet në shiritin e historisë së bisedës së përdoruesit, ku mund të rishikohet më vonë.

Por që nga e hëna, përdoruesit filluan të shihnin biseda në historinë e tyre që potencuan se nuk i kishin bërë me programin.

Një përdorues në Reddit ndau një foto të historisë së tij të bisedës duke përfshirë tituj si “Zhvillimi i Socializmit Kinez”, si dhe biseda në gjuhën mandarin.

Të martën, kompania i tha Bloomberg se kishte çaktivizuar shkurtimisht chatbotin vonë të hënën për të rregulluar gabimin.

Ata gjithashtu thanë se përdoruesit nuk kishin qenë në gjendje të hynin në bisedat aktuale.

Shefi ekzekutiv i OpenAI tha në Twitter se së shpejti do të ketë një “kontroll teknik”. Por gabimi ka shkaktuar shqetësim nga përdoruesit të cilët kanë frikë se biseda e tyre private mund të lëshohet përmes mjetit.

Defekti dukej se tregonte se OpenAI ka akses në bisedat e përdoruesve.

Politika e privatësisë e kompanisë thotë se të dhënat e përdoruesit, të tilla si kërkesat dhe përgjigjet, mund të përdoren për të vazhduar trajnimin e modelit.

Por këto të dhëna përdoren vetëm pasi të jenë hequr të dhënat personale të identifikueshme. /Telegrafi/