Site icon Telegrafi

Edhe Google nuk i beson chatbot-it Bard

Google ka paralajmëruar punonjësit e vet që të mos zbulojnë informacione konfidenciale ose të përdorin kodin kompjuterik të krijuar nga Bard, chatbot i tij i bazuar në Inteligjencën Artificiale (AI).

Një ndalim i brendshëm është vendosur në gjigantin Mountain View sepse Bard mund të printojë ‘sugjerime të kodit të pakërkuara’.

Përdorimi i Bard potencialisht mund të dërgojë në programe me gabime ose softuer kompleks dhe të fryrë që zhvilluesve do t’u duhej më shumë kohë për t’u rregulluar sesa nëse nuk do të kishin përdorur fare AI për të koduar.

Google gjithashtu këshilloi përdoruesit që të mos përfshijnë informacione të ndjeshme në bisedat e tyre me Bard.

Kompani të tjera të mëdha në mënyrë të ngjashme kanë paralajmëruar stafin e tyre për rrjedhjen e dokumenteve të ndjeshme ose kodit kompjuterik, duke i ndaluar ata të përdorin chatbot të tjerë të bazuar në AI.

Megjithatë, paralajmërimi i brendshëm i Google mund të jetë shkak për shqetësim.

Nëse mjetet e bazuara në AI nuk përdoren as nga krijuesit e tyre për shkak të rreziqeve të privatësisë dhe sigurisë, si mund të jenë të sigurta për të tjerët?

Për më tepër, paralajmërimi i punonjësve të vet që të mos përdorin drejtpërdrejt kodin e gjeneruar nga Bard minon pretendimet e Google se chatbot-i i tij mund të ndihmojë zhvilluesit të bëhen më produktivë. /Telegrafi/

Exit mobile version