(資料圖)
ChatGPT可以說賺足了風(fēng)頭,現(xiàn)在這款A(yù)I語言模型迎來大升級,OpenAPI推出了GPT-4模型,本次升級讓ChatGPT具備了圖像的識別和理解能力,使其有了更強大的功能。
消息稱,GPT-4模型的參數(shù)量高達100萬億,比現(xiàn)有的ChatGPT模型強大500多倍。然而,OpenAPI并未證實這一指標(biāo)。GPT-4主要的升級是在多模態(tài)能力方面,而非參數(shù)量方面。它原本只支持文本,但現(xiàn)在已經(jīng)能夠識別和理解圖像。舉例來說,用戶可以發(fā)送圖片給ChatGPT,讓ChatGPT識別圖片中的顏色、描述圖片內(nèi)容、閱讀地圖,并提出建議。
此外,GPT-4還支持更長的Token序列,之前的版本限制為4096個Token,大約只有8000個單詞,但現(xiàn)在它支持32768個Token,相當(dāng)于6.4萬個單詞或50頁文本,一次對話足以完成一部劇本或者短篇小說。此外,GPT-4還支持更多的語言,擴展到了26種,回答也更加個性化。