(資料圖片僅供參考)
自谷歌發(fā)布其“實(shí)驗(yàn)性對(duì)話AI服務(wù)”Bard以來(lái),人們并沒(méi)有對(duì)它留下深刻印象。與OpenAI的ChatGPT和微軟的必應(yīng)聊天(也由OpenAI的GPT-4提供支持)相比,用戶發(fā)現(xiàn)它的回答不如競(jìng)爭(zhēng)對(duì)手那樣知識(shí)淵博或詳細(xì)。
然而,這可能會(huì)有所改變,在紐約時(shí)報(bào)播客“Hard Fork”上確認(rèn),谷歌首席執(zhí)行官桑達(dá)爾·皮查伊表示Bard將很快從當(dāng)前基于LaMDA模型轉(zhuǎn)移到更大規(guī)模的PaLM數(shù)據(jù)集。當(dāng)被問(wèn)及他對(duì)Bard發(fā)布后反應(yīng)的感受時(shí),皮查伊評(píng)論道:“我們顯然擁有更強(qiáng)大的模型。
很快,在此過(guò)程中,我們將把Bard升級(jí)到一些更具能力、無(wú)論是在推理還是編碼方面都具備更多功能的PaLM模型。”為了說(shuō)明差異,去年Google分享了關(guān)于基于語(yǔ)言模型的細(xì)節(jié)時(shí)稱已經(jīng)使用1370億個(gè)參數(shù)訓(xùn)練了LaMDA。另一方面,則稱PaLM已經(jīng)使用約5400億個(gè)參數(shù)進(jìn)行訓(xùn)練。
兩種模型自2022年初以來(lái)可能已經(jīng)發(fā)展和成長(zhǎng)了,但這種對(duì)比可能表明為什么谷歌現(xiàn)在正在緩慢地將Bard轉(zhuǎn)移到PaLM上,因?yàn)樗哂懈蟮臄?shù)據(jù)集和更多樣化的答案。皮查伊聲稱并不擔(dān)心谷歌的AI開(kāi)發(fā)速度與競(jìng)爭(zhēng)對(duì)手相比。當(dāng)Bard首次亮相時(shí),他承認(rèn)其依賴于LaMDA使其規(guī)模較小,但將計(jì)算能力降低視為一種好處,可以讓更多用戶測(cè)試并提供反饋。皮查伊還確保在獲得現(xiàn)實(shí)世界信息后,谷歌將進(jìn)行自己對(duì)Bard安全性和質(zhì)量的分析。