欧美交换国产一区内射,国外b2b网站毛片,国产成人乱色伦区,美女人妻激情乱人伦

當(dāng)前位置: 首頁(yè) > 體育 > 電競(jìng)

騰訊研發(fā)全新TiG框架:可用AI玩王者榮耀讓AI模型學(xué)會(huì)戰(zhàn)略性思考

2025-10-04 21:11:36
電競(jìng)資訊10月4日稱(chēng) 據(jù) decoder 今天報(bào)道,騰訊研究人員最近用《王者榮耀》游戲作為訓(xùn)練平臺(tái),探索如何讓AI在游戲中學(xué)會(huì)“戰(zhàn)略性思考”,研究全新 TiG(Think in Games)框架,相關(guān)成果已發(fā)表于 Hugging Face 平臺(tái)和 arXiv 期刊。

研究團(tuán)隊(duì)指出,目前的 AI 模型存在明顯的功能鴻溝,以游戲?yàn)槿∠虻?AI 能正常游玩但無(wú)法理解自己所做的決策,而語(yǔ)言模型雖然可以推理策略,但很難真正執(zhí)行操作,為此他們研發(fā)了全新 TiG 框架,讓模型在游戲中同步思考、行動(dòng)。

undefined

團(tuán)隊(duì)選擇以《王者榮耀》游戲作為訓(xùn)練范本,先使用匿名且標(biāo)準(zhǔn)化的賽事數(shù)據(jù)定義推上路、擊殺暴君、守家等 40 種宏觀行動(dòng),勝負(fù)回?cái)?shù)均衡,AI 模型們必須要在每個(gè)定義好的場(chǎng)景下選擇最佳策略,并解釋其戰(zhàn)略緣由。

undefined

具體來(lái)說(shuō),訓(xùn)練分為兩個(gè)階段,首先是在監(jiān)督中學(xué)習(xí),弄清楚這些策略的基本機(jī)制;隨后通過(guò)獎(jiǎng)勵(lì)機(jī)制進(jìn)行強(qiáng)化學(xué)習(xí),如果行動(dòng)正確能得 1 分,錯(cuò)誤行動(dòng)則得 0 分。

undefined

隨后團(tuán)隊(duì)測(cè)試了多種語(yǔ)言模型,涵蓋 Qwen2.5(7B、14B、32B)、Qwen3-14B 模型,并使用 DeepSeek-R1 大模型作為對(duì)照組;先從 DeepSeek-R1 提煉高質(zhì)量訓(xùn)練數(shù)據(jù),然后使用群體相對(duì)策略?xún)?yōu)化(GRPO)技術(shù),比較不同策略之間的優(yōu)劣。

undefined

最終經(jīng)過(guò) TiG 框架訓(xùn)練的模型不僅能制定行動(dòng)計(jì)劃,還能解釋原因,例如 AI 會(huì)指出某個(gè)防御塔防守薄弱,是理想的進(jìn)攻目標(biāo),但需要注意埋伏的敵人。模型訓(xùn)練后仍保持原有的文本理解、數(shù)學(xué)推理與問(wèn)答能力。

undefined

最終測(cè)試結(jié)果如下:

  • 對(duì)照組 DeepSeek-R1:決策準(zhǔn)確率達(dá) 86.67%

  • Qwen3-14B:決策準(zhǔn)確率達(dá) 90.91%,超越 DeepSeek-R1
  • Qwen2.5-32B :準(zhǔn)確率從 66.67% 提升至 86.84%
  • Qwen2.5-14B:準(zhǔn)確率從 53.25% 提升至 83.12%
  • 最新資訊