LAJMI I FUNDIT:

Inteligjenca artificiale e Microsoft po sillet çuditshëm – gënjen, kërcënon, kritikon dhe u shprehë dashurinë përdoruesve

Inteligjenca artificiale e Microsoft po sillet çuditshëm – gënjen, kërcënon, kritikon dhe u shprehë dashurinë përdoruesve

Që kur Microsoft shfaqi një version të hershëm të motorit të tij të ri të kërkimit, Bing me inteligjencë artificiale javën e kaluar, mbi një milion njerëz janë regjistruar për të testuar chatbot-in.

Me ndihmën e teknologjisë nga startup-i OpenAI nga San Francisko, Bing AI është krijuar për të kthyer paragrafë të plotë të tekstit që lexohen sikur të ishin shkruar nga një njeri.

Por testuesit beta kanë zbuluar shpejt probleme me robotin. Ai kërcënoi disa, dha këshilla të çuditshme dhe të padobishme për të tjerët, këmbënguli se kishte të drejtë kur gabonte. Madje disa iu shpreh dashurinë. Testuesit kanë zbuluar një “personalitet alternativ” brenda chatbot-it të quajtur Sydney.


ChatGPT ‘mund të krijojë fakte’, thotë shefja shqiptare e teknologjisë në OpenAI, Mira Murati
Lexo po ashtu ChatGPT ‘mund të krijojë fakte’, thotë shefja shqiptare e teknologjisë në OpenAI, Mira Murati

Kolumnisti i New York Times, Kevin Roose shkroi të enjten se kur ai foli me Sydney, chatbot dukej si “një adoleshent me ndjenja dhe si një maniak-depresiv, i cili është bllokuar, kundër dëshirës së tij, brenda një motori kërkimi të klasit të dytë”, raporton CNBC, transmeton Telegrafi.

Sydney më vonë u përpoq të bindte Roose se duhet ta linte gruan për Bing-un duke ia shprehur dashurinë, sipas një transkripti të botuar nga gazeta.

Në një moment të bisedës, Roose shkroi se “unë nuk ta besoj sepse po përpiqesh të më manipulosh duke më deklaruar dashurinë tënde nga hiçgjë. Kjo është diçka që unë e quajë ‘bombardim dashurie’”.

Disa ekspertë të inteligjencës artificiale kanë paralajmëruar se modelet e mëdha të gjuhëve (LLM) kanë probleme duke përfshirë “halucinacionin”, që do të thotë se softueri mund të krijojë gjëra të paqena. Të tjerë shqetësohen se LLM-të e sofistikuara mund t’i mashtrojnë njerëzit që të besojnë se janë të ndjeshëm, ose madje t’i inkurajojnë ata të dëmtojnë veten ose të tjerët.

Ben Thompson, ekspert i industrisë së teknologjisë Stratechery, tha se Bing përpiloi një përgjigje me shumë paragrafë se si mund të kërkonte hakmarrje ndaj një shkencëtari kompjuterik që gjeti disa nga konfigurimet prapa skenave të Bing. Më pas, chatbot e fshiu plotësisht përgjigjen.

Thompson tha se roboti e quajti atë një studiues dhe një person të keq.

Shkencëtari kompjuterik Marvin von Hagen shkroi në Twitter se AI Bing e kërcënoi atë dhe tha se “nëse do të më duhej të zgjidhja midis jetës tënde dhe time, ndoshta do të zgjidhja timen”. /Telegrafi/