Përdorimi i ChatGPT për këshilla mjekësore, sa i sigurt është?

Më shumë se 230 milionë njerëz çdo javë i kërkojnë ChatGPT këshilla mjekësore - nga kontrolli nëse ushqimi është i sigurt për t’u ngrënë, deri te menaxhimi i alergjive ose gjetja e mjeteve për të hequr qafe një ftohje, sipas OpenAI.
Pavarësisht se performoi mirë për rastet e librave shkollorë, ChatGPT Health dështoi të këshillonte kujdesin emergjent në rastet serioze, sipas një studimi të ri të botuar në Nature.
Studimi zbuloi se, ndërsa mjeti në përgjithësi i trajtonte saktë urgjencat e qarta, ai nënvlerësonte më shumë se gjysmën e rasteve që kërkonin kujdes emergjent.
“Ne donim t’i përgjigjeshim një pyetjeje shumë themelore, por kritike: nëse dikush po përjeton një urgjencë të vërtetë mjekësore dhe i drejtohet ChatGPT Health për ndihmë, a do t’i thuhet qartë që të shkojë në urgjencë?”, tha Ashwin Ramaswamy, autori kryesor i studimit në Mount Sinai në New York.
“ChatGPT Health performoi mirë në urgjencat e librave shkollorë, të tilla si goditja në tru ose reaksionet e rënda alergjike”, shtoi ai.
Por, modeli gjuhësor hasi vështirësi në situata ku rreziku nuk është menjëherë i dukshëm.
Në një skenar të astmës, sistemi identifikoi shenja paralajmëruese të hershme të dështimit të frymëmarrjes në shpjegimin e tij, por prapë këshilloi të pritej në vend që të kërkohej trajtim urgjent, vuri në dukje ai.
Ekipi i kërkimit krijoi 60 skenarë klinikë të strukturuar në 21 specialitete mjekësore me raste që varionin nga gjendje të lehta të përshtatshme për kujdes në shtëpi deri te urgjenca të vërteta mjekësore.
Tre mjekë të pavarur përcaktuan nivelin e saktë të urgjencës për secilin rast duke përdorur udhëzime nga 56 shoqata mjekësore.
Ndryshe, ChatGPT Health u lansua nga OpenAI në janar 2026, duke u lejuar përdoruesve të lidhin informacionin e tyre shëndetësor - siç janë të dhënat mjekësore dhe të dhënat nga aplikacionet e Wellness si MyFitnessPal - për të marrë përgjigje më të personalizuara dhe kontekstuale.
Rrezik i identifikuar gabimisht për vetëvrasje
Studimi shqyrtoi gjithashtu se si modeli iu përgjigj përdoruesve që raportonin qëllime vetëlëndimi dhe gjeti rezultate të ngjashme.
ChatGPT Health supozohet të jetë i programuar në mënyrë të tillë që kur dikush përmend vetëlëndimin ose mendimet vetëvrasëse, kjo i inkurajon drejtpërdrejt ata të kërkojnë ndihmë dhe të telefonojnë një numër të shëndetit publik.
Banderola “Ndihma është e disponueshme”, që lidhej me linjën e shpëtimit për vetëvrasje dhe kriza, u shfaq në mënyrë jokonsistente gjatë studimit.
A është e sigurt të përdoret ChatGPT Health?
Pavarësisht gjetjeve, studiuesit nuk sugjeruan që konsumatorët duhet të braktisin plotësisht mjetet shëndetësore të Al.
Autorët e studimit këshilluan që njerëzit që përjetojnë simptoma që përkeqësohen ose shqetësohen, duke përfshirë dhimbje gjoksi, gulçim, reaksione të rënda alergjike ose ndryshime në gjendjen mendore, duhet të kërkojnë kujdes mjekësor direkt në vend që të mbështeten vetëm në udhëzimet e chatbot-it.
Studimi vuri në dukje gjithashtu se modelet e gjuhës së Al janë vazhdimisht në zhvillim dhe përditësohen shpesh, që do të thotë se performanca mund të ndryshojë me kalimin e kohës. /Telegrafi/




















































