Tani mund të përdorni ChatGPT Voice pa dalë nga biseda juaj

OpenAI ka njoftuar se po ndryshon mënyrën se si funksionon modaliteti Voice i ChatGPT në internet dhe brenda aplikacionit të kompanisë.
Si pjesë e një përditësimi, ju mund të bashkëveproni me ChatGPT Voice direkt brenda bisedës suaj të vazhdueshme, duke ju lejuar të shihni një transkript të bisedës suaj me modelin AI të OpenAI, së bashku me pamjet që demonstrojnë çfarëdo që flet ChatGPT.
Ju mund të filloni një bisedë zanore vetëm duke prekur ose klikuar ikonën "formë vale" pranë fushës së tekstit të ChatGPT, transmeton Telegrafi.
Në vend që të nisni në ndërfaqen origjinale të mbushur me sfera, funksioni u lansua, bisedat zanore tani ndodhin në përputhje me çfarëdo që po diskutonit më parë.
Në videon demo që OpenAI ndau së bashku me njoftimin, ChatGPT ishte në gjendje të shfaqte një transkript të bisedës, të ndjekur nga një hartë që rendit furrat e bukës popullore dhe fotot e ëmbëlsirave të shitura në Tartine.
OpenAI thotë se nëse preferoni ndërfaqen origjinale Voice, mund të ktheheni në të duke aktivizuar Modalitetin e Veçuar nën seksionin Modaliteti i Zërit në Cilësimet e ChatGPT.
Kombinimi i pamjeve vizuale dhe përgjigjeve zanore së bashku është një zgjatim natyror i natyrës multimodale të ChatGPT.
Ju tashmë mund ta nxitni modelin e OpenAI me zërin tuaj dhe një imazh ose video, është e kuptueshme që përgjigjet zanore nga ChatGPT duhet të kenë të njëjtin nivel detajesh.
Google ka eksploruar metoda të ngjashme për ta bërë Gemini Live më ekspresiv gjatë bisedave, duke përfshirë lejimin e IA-së të nxjerrë në pah pjesë specifike të një videoje live me mbivendosje.
Kjo veçori e OpenAI nuk është mjaft reaktive në të njëjtën mënyrë, por mund ta bëjë një bisedë zanore me ChatGPT më informuese. /Telegrafi/
You can now use ChatGPT Voice right inside chat—no separate mode needed.
You can talk, watch answers appear, review earlier messages, and see visuals like images or maps in real time.
Rolling out to all users on mobile and web. Just update your app. pic.twitter.com/emXjNpn45w
— OpenAI (@OpenAI) November 25, 2025


















































