2025-10-27 11:22:51
每經記者|趙雯琪 每經編輯|余婷婷
每經北京10月27日電(記者 趙雯琪)美團LongCat團隊今日發(fā)布并開源LongCat-Video視頻生成模型,以統(tǒng)一模型在文生、圖生視頻基礎任務上達到開源SOTA(最先進水平),并依托原生視頻續(xù)寫任務預訓練,實現分鐘級長視頻連貫生成,保障跨幀時序一致性與物理運動合理性。
美團LongCat團隊認為,此次發(fā)布的視頻生成模型,是為探索“世界模型”邁出的第一步。未來,憑借精準重構真實世界運行狀態(tài)的能力,LongCat模型也會融入公司近年來持續(xù)投入的自動駕駛、具身智能等深度交互業(yè)務場景中,成為公司更好連接“比特世界”和“原子世界”的技術基礎。
如需轉載請與《每日經濟新聞》報社聯系。
未經《每日經濟新聞》報社授權,嚴禁轉載或鏡像,違者必究。
讀者熱線:4008890008
特別提醒:如果我們使用了您的圖片,請作者與本站聯系索取稿酬。如您不希望作品出現在本站,可聯系我們要求撤下您的作品。
歡迎關注每日經濟新聞APP