12月12日消息,巨人網(wǎng)絡在2024年度中國游戲產(chǎn)業(yè)年會上發(fā)布“千影 QianYing”有聲游戲生成大模型,加碼“游戲+AI”賽道?!扒в?QianYing”包含游戲視頻生成大模型YingGame、視頻配音大模型YingSound,實現(xiàn)了有聲可交互游戲視頻生成的新突破。
與此同時,巨人網(wǎng)絡啟動“千影共創(chuàng)計劃”,基于大模型底座技術,對外開放模型技術、模型應用、原創(chuàng)游戲項目等方面的合作共創(chuàng)、應用落地、人才招募,加速布局“游戲+AI”從降本增效向顛覆式創(chuàng)新的快速轉化。
YingGame由巨人網(wǎng)絡AI實驗室聯(lián)合清華大學SATLab研發(fā),是首個實現(xiàn)角色多樣運動與個性化、具備強物理模擬特性的游戲視頻生成大模型,可生成開放世界游戲視頻,通過文本、圖像或鍵盤、鼠標操作實現(xiàn)角色動作的交互控制,并自定義游戲角色,同時具備更好的游戲物理仿真特性,無需傳統(tǒng)游戲的3D模型制作和引擎渲染環(huán)節(jié)。結合自研視頻配音大模型YingSound,能夠根據(jù)畫面生成與之匹配的復雜音效,實現(xiàn)有聲游戲視頻。
YingSound是由巨人網(wǎng)絡AI實驗室、西北工業(yè)大學ASLP Lab和浙江大學聯(lián)合研發(fā)的視頻配音大模型(Video-to-Audio Model,V2A),擁有超強的時間對齊、視頻語義理解能力,無需人工輸入提示詞,端到端為各類視頻生成多種類型的高精細度音效,涵蓋真實場景視頻、動漫視頻與游戲視頻等,具備多樣化應用場景泛化能力。
今年以來,大模型技術在視頻領域取得了突破性進展。對于游戲行業(yè),視頻生成能力有望替代傳統(tǒng)游戲生產(chǎn)方式,極大提高游戲發(fā)行內(nèi)容的創(chuàng)作效率;長期來看,其涌現(xiàn)出對3D模型的理解以及強大的物理世界仿真能力和泛化能力,將對游戲生產(chǎn)管線、交互方式、游戲玩法產(chǎn)生深遠影響,被認為是完全由數(shù)據(jù)驅動的下一代“游戲引擎”。
巨人網(wǎng)絡表示,“千影 QianYing”有聲游戲大模型展示了通過文字描述實現(xiàn)游戲創(chuàng)造的一種可行性,目前尚處于技術打磨階段,AI實驗室將持續(xù)推進模型能力的升級迭代。
巨人網(wǎng)絡已建立起以自研大模型為核心的全方位基礎能力,擁有行業(yè)領先的AI 工業(yè)化生產(chǎn)全流程解決方案。旗下通用認知對話大模型“GiantGPT”、語音大模型“Bailing-TTS”、高效編碼大模型“CodeBrain”等在核心游戲業(yè)務規(guī)?;瘧?,已形成高效的生產(chǎn)鏈路閉環(huán)。首創(chuàng)基于自研多智能體大模型的全新產(chǎn)品范式,實現(xiàn)大模型在復雜決策場景落地從0到1的突破。隨著“千影 QianYing”有聲游戲生成大模型的發(fā)布,巨人網(wǎng)絡實現(xiàn)了多模態(tài)全矩陣布局。
今年初,巨人網(wǎng)絡董事長史玉柱提出該公司在“游戲+AI”領域的愿景,希望探索打造一個AI游戲孵化平臺,旨在降低游戲開發(fā)的門檻,讓普通人也能開發(fā)游戲?!扒в?QianYing”游戲大模型的最新進展,意味著這一愿景邁出了新一步。
(責任編輯:朱赫)