level 8
世界上最小的单位是缘起
楼主
1. 最新动态:春晚首秀与使用规范
在开始操作前,有几个昨天(2月15日)刚刚发布的重要信息值得你关注:
春晚首秀:Seedance 2.0 的首个客户是2026年总台春晚,深度参与了多个节目的视觉制作。模型在训练时使用了大量东方美学素材,因此在国风、传统文化内容的创作上表现尤为出色。
重要限制(必看):抖音集团副总裁李亮昨日提醒,出于反侵权策略,平台暂不支持真人人脸参考和知名IP形象(如迪士尼、熊出没等)的生成。如需使用真人素材作为主体参考,必须经过本人验证或取得授权。
马斯克点赞:特斯拉CEO埃隆·马斯克在X平台转发Seedance 2.0相关内容并感叹“发展速度太快了(It's happening fast)”。
2. 访问入口更新(截至2026.02.16)
目前,Seedance 2.0已全面接入字节系多款应用,形成“全家桶”式布局:
平台名称 访问方式 特点与费用参考
即梦 AI Web端访问 jimeng.jianying.com,或在App内手动切换模型至 Seedance 2.0。 字节官方平台,功能最完整。新用户可1元试用7天。
豆包 App 打开豆包App,点击下方“创作”按钮,进入“视频生成”功能。 综合AI助手,集成视频生成能力,日活用户基数大。
小云雀 App 下载App并使用抖音账号登录。 免费体验入口:新用户通常有3次免费生成机会,每日赠送120积分。
火山引擎 访问 volcengine.com 企业控制台。 面向企业用户的工作台试用,API预计在2月中下旬上线。
3. 核心功能升级:多模态联合生成
Seedance 2.0 采用了统一的多模态音视频联合生成架构,支持文字、图片、音频、视频四种模态混合输入。你可以同时上传:
图片(最多9张):定义角色长相、服装细节、场景风格。
视频(最多3段):参考运镜轨迹、舞蹈动作、复杂交互。
音频(最多3段):用于生成与画面节奏完美同步的原声音效、背景音乐或人物解说(音画同步是2.0的核心亮点之一)。
@标签系统(进阶控制)
在提示词中使用 @[文件类型][编号],精准告诉AI如何使用这些素材:
示例:@image1 作为主角,穿着 @image2 中的衣服,模仿 @video1 中的舞蹈动作。
应用场景:舞蹈复刻、多镜头叙事、角色一致性保持。
4. 基础操作流程(2026版)4.1 第一步:设定基础参数
时长:支持 4秒 到 15秒 的视频生成,满足短视频平台需求。
分辨率:最高支持 1080p 制作级输出,部分平台可通过后期进行2K超分。
比例:全面支持 16:9(横屏)、9:16(竖屏)、4:3、3:4、21:9 和 1:1。
运动强度:建议从5-7开始尝试,避免肢体扭曲。
4.2 第二步:结构化提示词
采用 “主体 + 动作 + 场景 + 镜头语言 + 灯光风格” 的描述方式,效果最佳。
示例:
一位身穿白色连衣裙的年轻女性在樱花树下翩翩起舞,镜头从远景缓缓推近至中景,柔和的自然光从左侧照射,花瓣随风飘落,电影质感画面,浅景深,4K画质。
4.3 第三步:生成与优化
固定种子值:锁定喜欢的构图Seed,微调提示词后再次生成。
负面提示词:在高级选项中填入 distorted, messy, low quality, blurred, extra fingers,减少画面崩坏。
5. 进阶技巧与最新玩法5.1 多镜头长叙事
Seedance 2.0 具备“编导思维”,可自动解析叙事逻辑,一次生成包含多个镜头的连贯视频,并保持角色、光影、风格一致。
提示词技巧:按时间线分段描述。
0-3秒:特写 @image1 的眼睛,眼神专注。4-8秒:中景,@image1 转身看向窗外,窗外是未来的城市。9-12秒:镜头拉远,@image1 坐在昏暗的房间里。
5.2 首尾帧控制
如果你有明确的开场和结尾画面,上传两张图片,AI将自动生成过渡过程,实现完美镜头衔接。
5.3 原生音效生成
在提示词中直接要求生成匹配画面的音效。
示例提示词:音效:脚步声,雨点拍打伞面滴答作响,远处传来汽车轰鸣声。
模型会自动生成与画面节奏对齐的音频输出。
5.4 AI分身与好友出境(即梦最新玩法)
即梦近期推出了AI分身和好友出境等社交化玩法。你可以通过真人认证制作自己的数字分身,然后邀请朋友(或使用名人的合规授权形象)一起生成同框视频。
6. 参数设置速查表(2026.02更新)
功能模块 参数/技巧 推荐设置/建议 说明
基础规格 分辨率 1080p(测试),2K(出片) 追求速度用1080p,最终输出可后期超分
时长 5s(测试),10-15s(成品) 测试时用短时长快速验证想法
画面比例 16:9 / 9:16 根据发布平台选择
核心控制 运动强度 5-7 过高易导致肢体扭曲变形
多模态参考 @image1, @video1, @audio1 必须与上传的文件对应
音画同步 自动生成/手动指定 2.0核心优势,可提示词描述音效
提示词 负面提示词 模糊,低质量,扭曲,多余手指 减少物理崩坏
东方美学 提示词加入“国风”、“水墨”等 模型训练了大量东方美学素材
故障排除 身份漂移 使用高清、正面的参考图 提示词强调“完全匹配@image1”
真人人脸限制 需真人认证 平台已加强反侵权策略
7. 开发者与企业用户:API即将开放
API上线时间:预计 2026年2月24日 通过火山引擎(Volcengine)和 BytePlus 正式开放。
预估价格:官方预估在 $0.10-0.80/分钟(根据分辨率不同)。
企业级能力:支持分镜脚本解析、多模态时序对齐、异构格式兼容(Figma/PR/达芬奇)等工业化功能。
8. 常见问题排查(2月最新)
Q: 为什么我上传真人人脸生成不了?
A: 平台已于2月15日加强反侵权策略,暂不支持未经验证的真人真人人脸参考。如需使用,必须通过真人认证流程。
Q: 生成的视频没有声音?
A: 检查是否开启了“生成原生音频”的选项,或者在提示词中显式要求描述音效。Seedance 2.0 原生支持音画同步生成。
Q: 角色一致性还是不够好?
A: 确保参考图清晰、光线好,并在提示词中明确使用 @image1 锁定身份。新版本在多主体一致性上仍有优化空间,官方表示将持续改进。
Q: 我是企业用户,怎么批量使用?
A: 可以关注火山引擎的API服务,预计2月24日上线,届时可通过API调用实现批量生成和业务集成
2026年02月16日 00点02分
1
在开始操作前,有几个昨天(2月15日)刚刚发布的重要信息值得你关注:
春晚首秀:Seedance 2.0 的首个客户是2026年总台春晚,深度参与了多个节目的视觉制作。模型在训练时使用了大量东方美学素材,因此在国风、传统文化内容的创作上表现尤为出色。
重要限制(必看):抖音集团副总裁李亮昨日提醒,出于反侵权策略,平台暂不支持真人人脸参考和知名IP形象(如迪士尼、熊出没等)的生成。如需使用真人素材作为主体参考,必须经过本人验证或取得授权。
马斯克点赞:特斯拉CEO埃隆·马斯克在X平台转发Seedance 2.0相关内容并感叹“发展速度太快了(It's happening fast)”。
2. 访问入口更新(截至2026.02.16)
目前,Seedance 2.0已全面接入字节系多款应用,形成“全家桶”式布局:
平台名称 访问方式 特点与费用参考
即梦 AI Web端访问 jimeng.jianying.com,或在App内手动切换模型至 Seedance 2.0。 字节官方平台,功能最完整。新用户可1元试用7天。
豆包 App 打开豆包App,点击下方“创作”按钮,进入“视频生成”功能。 综合AI助手,集成视频生成能力,日活用户基数大。
小云雀 App 下载App并使用抖音账号登录。 免费体验入口:新用户通常有3次免费生成机会,每日赠送120积分。
火山引擎 访问 volcengine.com 企业控制台。 面向企业用户的工作台试用,API预计在2月中下旬上线。
3. 核心功能升级:多模态联合生成
Seedance 2.0 采用了统一的多模态音视频联合生成架构,支持文字、图片、音频、视频四种模态混合输入。你可以同时上传:
图片(最多9张):定义角色长相、服装细节、场景风格。
视频(最多3段):参考运镜轨迹、舞蹈动作、复杂交互。
音频(最多3段):用于生成与画面节奏完美同步的原声音效、背景音乐或人物解说(音画同步是2.0的核心亮点之一)。
@标签系统(进阶控制)
在提示词中使用 @[文件类型][编号],精准告诉AI如何使用这些素材:
示例:@image1 作为主角,穿着 @image2 中的衣服,模仿 @video1 中的舞蹈动作。
应用场景:舞蹈复刻、多镜头叙事、角色一致性保持。
4. 基础操作流程(2026版)4.1 第一步:设定基础参数
时长:支持 4秒 到 15秒 的视频生成,满足短视频平台需求。
分辨率:最高支持 1080p 制作级输出,部分平台可通过后期进行2K超分。
比例:全面支持 16:9(横屏)、9:16(竖屏)、4:3、3:4、21:9 和 1:1。
运动强度:建议从5-7开始尝试,避免肢体扭曲。
4.2 第二步:结构化提示词
采用 “主体 + 动作 + 场景 + 镜头语言 + 灯光风格” 的描述方式,效果最佳。
示例:
一位身穿白色连衣裙的年轻女性在樱花树下翩翩起舞,镜头从远景缓缓推近至中景,柔和的自然光从左侧照射,花瓣随风飘落,电影质感画面,浅景深,4K画质。
4.3 第三步:生成与优化
固定种子值:锁定喜欢的构图Seed,微调提示词后再次生成。
负面提示词:在高级选项中填入 distorted, messy, low quality, blurred, extra fingers,减少画面崩坏。
5. 进阶技巧与最新玩法5.1 多镜头长叙事
Seedance 2.0 具备“编导思维”,可自动解析叙事逻辑,一次生成包含多个镜头的连贯视频,并保持角色、光影、风格一致。
提示词技巧:按时间线分段描述。
0-3秒:特写 @image1 的眼睛,眼神专注。4-8秒:中景,@image1 转身看向窗外,窗外是未来的城市。9-12秒:镜头拉远,@image1 坐在昏暗的房间里。
5.2 首尾帧控制
如果你有明确的开场和结尾画面,上传两张图片,AI将自动生成过渡过程,实现完美镜头衔接。
5.3 原生音效生成
在提示词中直接要求生成匹配画面的音效。
示例提示词:音效:脚步声,雨点拍打伞面滴答作响,远处传来汽车轰鸣声。
模型会自动生成与画面节奏对齐的音频输出。
5.4 AI分身与好友出境(即梦最新玩法)
即梦近期推出了AI分身和好友出境等社交化玩法。你可以通过真人认证制作自己的数字分身,然后邀请朋友(或使用名人的合规授权形象)一起生成同框视频。
6. 参数设置速查表(2026.02更新)
功能模块 参数/技巧 推荐设置/建议 说明
基础规格 分辨率 1080p(测试),2K(出片) 追求速度用1080p,最终输出可后期超分
时长 5s(测试),10-15s(成品) 测试时用短时长快速验证想法
画面比例 16:9 / 9:16 根据发布平台选择
核心控制 运动强度 5-7 过高易导致肢体扭曲变形
多模态参考 @image1, @video1, @audio1 必须与上传的文件对应
音画同步 自动生成/手动指定 2.0核心优势,可提示词描述音效
提示词 负面提示词 模糊,低质量,扭曲,多余手指 减少物理崩坏
东方美学 提示词加入“国风”、“水墨”等 模型训练了大量东方美学素材
故障排除 身份漂移 使用高清、正面的参考图 提示词强调“完全匹配@image1”
真人人脸限制 需真人认证 平台已加强反侵权策略
7. 开发者与企业用户:API即将开放
API上线时间:预计 2026年2月24日 通过火山引擎(Volcengine)和 BytePlus 正式开放。
预估价格:官方预估在 $0.10-0.80/分钟(根据分辨率不同)。
企业级能力:支持分镜脚本解析、多模态时序对齐、异构格式兼容(Figma/PR/达芬奇)等工业化功能。
8. 常见问题排查(2月最新)
Q: 为什么我上传真人人脸生成不了?
A: 平台已于2月15日加强反侵权策略,暂不支持未经验证的真人真人人脸参考。如需使用,必须通过真人认证流程。
Q: 生成的视频没有声音?
A: 检查是否开启了“生成原生音频”的选项,或者在提示词中显式要求描述音效。Seedance 2.0 原生支持音画同步生成。
Q: 角色一致性还是不够好?
A: 确保参考图清晰、光线好,并在提示词中明确使用 @image1 锁定身份。新版本在多主体一致性上仍有优化空间,官方表示将持续改进。
Q: 我是企业用户,怎么批量使用?
A: 可以关注火山引擎的API服务,预计2月24日上线,届时可通过API调用实现批量生成和业务集成