浙江瑞通建设集团网站,中国房地产未来走势,wordpress 翻页404,齐三seo简介
我们很高兴推出Qwen-Image-Layered模型#xff0c;该模型能够将图像分解为多个RGBA图层。这种分层表示解锁了内在可编辑性#xff1a;每个图层可以独立操作而不影响其他内容。同时#xff0c;这种分层表示天然支持高保真基础操作——例如调整大小、重新定位和重新着色。…简介我们很高兴推出Qwen-Image-Layered模型该模型能够将图像分解为多个RGBA图层。这种分层表示解锁了内在可编辑性每个图层可以独立操作而不影响其他内容。同时这种分层表示天然支持高保真基础操作——例如调整大小、重新定位和重新着色。通过将语义或结构组件物理隔离到不同图层中我们的方法实现了高保真且一致的编辑。快速开始确保您的transformers版本≥4.51.3支持Qwen2.5-VL安装最新版diffuserspip install githttps://github.com/huggingface/diffusers pip install python-pptxfromdiffusersimportQwenImageLayeredPipelineimporttorchfromPILimportImage pipelineQwenImageLayeredPipeline.from_pretrained(Qwen/Qwen-Image-Layered)pipelinepipeline.to(cuda,torch.bfloat16)pipeline.set_progress_bar_config(disableNone)imageImage.open(asserts/test_images/1.png).convert(RGBA)inputs{image:image,generator:torch.Generator(devicecuda).manual_seed(777),true_cfg_scale:4.0,negative_prompt: ,num_inference_steps:50,num_images_per_prompt:1,layers:4,resolution:640,# Using different bucket (640, 1024) to determine the resolution. For this version, 640 is recommendedcfg_normalize:True,# Whether enable cfg normalization.use_en_prompt:True,# Automatic caption language if user does not provide caption}withtorch.inference_mode():outputpipeline(**inputs)output_imageoutput.images[0]fori,imageinenumerate(output_image):image.save(f{i}.png)案例展示应用中的分层解构给定一张图像Qwen-Image-Layered可将其分解为多个RGBA图层分解后编辑操作仅作用于目标图层使其在物理层面与其他内容隔离从而从根本上确保编辑的一致性。例如我们可以单独对首层重新着色同时保持其他所有内容不受影响我们也可以将第二层从女孩替换为男孩目标层使用Qwen-Image-Edit进行编辑我们将文本修改为“Qwen-Image”目标图层使用Qwen-Image-Edit进行编辑此外分层结构天然支持基础操作。例如我们可以彻底删除不需要的对象。我们也可以在不失真的情况下调整对象大小分层解构后我们可以在画布上自由移动对象灵活可迭代的分层Qwen-Image-Layered 不局限于固定分层数量。该模型支持可变层数分解例如根据需求可将图像分解为3层或8层此外分解可以递归应用任何层级本身都可以进一步分解从而实现无限分解。许可协议Qwen-Image-Layered 采用 Apache 2.0 许可证授权。引用说明如果您认为我们的工作对您有所帮助我们诚挚地建议您引用相关成果。misc{yin2025qwenimagelayered, title{Qwen-Image-Layered: Towards Inherent Editability via Layer Decomposition}, author{Shengming Yin, Zekai Zhang, Zecheng Tang, Kaiyuan Gao, Xiao Xu, Kun Yan, Jiahao Li, Yilei Chen, Yuxiang Chen, Heung-Yeung Shum, Lionel M. Ni, Jingren Zhou, Junyang Lin, Chenfei Wu}, year{2025}, eprint{2512.15603}, archivePrefix{arXiv}, primaryClass{cs.CV}, url{https://arxiv.org/abs/2512.15603}, }