傳谷歌(GOOGL)大模型PaLM 2在訓練中使用的文本數(shù)據(jù)是其前身的近五倍
摘要: 據(jù)市場消息,谷歌(GOOGL)上周宣布的大型語言模型PaLM2使用的訓練數(shù)據(jù)幾乎是其前身的五倍,使其能夠執(zhí)行更高級的編碼、數(shù)學和創(chuàng)意寫作任務。根據(jù)內(nèi)部文件,PaLM2是谷歌在I/O大會上推出的新型通用
據(jù)市場消息,谷歌(GOOGL)上周宣布的大型語言模型PaLM 2使用的訓練數(shù)據(jù)幾乎是其前身的五倍,使其能夠執(zhí)行更高級的編碼、數(shù)學和創(chuàng)意寫作任務。
根據(jù)內(nèi)部文件,PaLM 2是谷歌在I/O大會上推出的新型通用大型語言模型,它接受了3.6萬億個token的訓練。谷歌之前版本的PaLM于2022年發(fā)布,并接受了7800億個token的訓練。
PaLM






