日前,Runway宣布推出一款旨在彻底改变视频生成的AI模型Gen-3 Alpha,可以根据文本提示生成10秒视频。
作为对其前身 Gen-2的重大升级,Gen-3 Alpha在保真度、一致性和运动方面取得了重大改进。Gen-3 Alpha可以生成比Gen-2更高保真度的视频。根据Runway的说法,质量的提高部分源于模型更擅长描绘运动,同时Gen-3 Alpha还更擅长确保视频帧彼此一致。
图源:Runway
据悉,Gen-3 Alpha利用Runway为大规模多模式训练而构建的新基础设施进行训练,是即将推出的多款模型中的首个模型。其接受了视频图像数据联合训练,将增强Runway的工具套件,包括文本到视频、图像到视频和文本到图像功能。
此外,Gen-3 Alpha还将支持现有的控制模式,例如运动画笔、高级相机控制和导演模式。在安全审查方面,Gen-3 Alpha还将推出一系列新的保障措施,包括改进的内部视觉审核系统和C2PA来源标准,以确保内容质量并遵守社区准则,增强生成内容的透明度和可追溯性。
Runway计划在未来几天内向所有Runway订阅者发布Gen-3 Alpha。未来,Runway还将推出更多功能,旨在提供“对结构、风格和运动的更精细的控制”。