(資料圖)
近日,加拿大魁北克大學(xué)的四位研究人員發(fā)現(xiàn),基于 GPT-3.5 接口的聊天機(jī)器人 ChatGPT 在生成代碼時(shí)存在嚴(yán)重的安全問(wèn)題。研究人員讓 ChatGPT 生成了21個(gè)程序和腳本,結(jié)果顯示只有5個(gè)是安全的。
部分問(wèn)題是由于它沒(méi)有考慮敵對(duì)的代碼執(zhí)行模型,但在后續(xù)被要求改進(jìn)問(wèn)題時(shí),它才提供了有用的指導(dǎo)。研究人員認(rèn)為,ChatGPT 的這種行為并不理想,因?yàn)橛脩粜枰獙?duì)特定的漏洞和編碼技術(shù)有一定了解。此外,ChatGPT 內(nèi)部存在道德上的不一致性,它會(huì)拒絕創(chuàng)建攻擊代碼,但卻會(huì)創(chuàng)建有漏洞的代碼。研究人員認(rèn)為,使用 ChatGPT 生成代碼存在風(fēng)險(xiǎn),需要讓學(xué)生意識(shí)到,如果代碼是用這種類(lèi)型的工具生成的,那么它很可能是不安全的。