保姆级教程!用Seedance 2.0+ GPT2.0做爆款短剧

一个从没剪过视频的人,能做出一条有剧情、有台词、有镜头切换的 AI 短视频吗?

能,而且整个流程不超过半天。

这篇文章教你从:想一个故事 → 拆成分镜 → 生成视频 → 剪辑成片。

不需要任何基础,跟着做一遍,你会得到一条完整的 AI 短视频。

01
从想法到故事:AI 视频不是一句提示词生成的

很多人做 AI 视频的第一步是打开即梦,对着输入框发呆,不知道该写什么。打出几个字,生成出来的东西跟想象里差很远,然后开始怀疑是不是工具不好用,或者是不是自己不会写提示词。

比如说「我想做一个Biteye 小师妹重生在币圈当大佬」,这是一个想法,不是一个故事。

想法是一个方向,它告诉你大概要做什么。故事是一个结构,它告诉你每一个画面该拍什么。从想法到故事,中间有一段工作要做,这段工作就是脚本策划。

最简单的方式是打开任意的 LLM ,把你脑子里那个模糊的想法直接告诉它,让它帮你把故事撑起来。你不需要自己想清楚所有细节,你只需要提供一个方向,剩下的可以和它一起推导。

故事线确定之后,不要直接拆分镜,先按照叙事节奏把它切成几个大的段落,每个段落明确一件核心的事是什么。这一步是为了控制整体节奏,防止某一段太拖或者太仓促。

即梦单条视频最长 15 秒,实际操作中 12 秒以下是最稳定的,画面出问题的概率最低。1min 秒的成片,按照每个片段平均 10 秒计算,大概需要 5 个片段。

我们把的故事切成五个段落:

段落一:开场,核心任务是交代场景和角色。

段落二:穿越,核心任务是交代时间线。

段落三:展现角色从困惑到清醒的转变。

段落四:计算财富,把情绪推向高潮。

段落五:完成反转,与开场形成闭环。

保姆级教程!用Seedance 2.0+ GPT2.0做爆款短剧

段落确定之后,把每个段落进一步拆成具体的镜头描述。每个镜头写四个要素:画面主体、所在位置、正在做什么、拍摄角度。不要在分镜里写运动,只描述静止的瞬间。

将段落一的脚本复制到 AI 聊天框中,输入「帮我根据场景一的脚本,生成分镜描述」,得到的效果如下👇

保姆级教程!用Seedance 2.0+ GPT2.0做爆款短剧

02
从故事到画面:先锁定角色、场景和分镜

这一章是整个流程里最核心的一章,你在这里生成的图片质量,直接决定最终视频的质量上限。

先做三视图,锁定你的主角

在生成任何分镜图之前,第一件事是先把主角的三视图做出来。

三视图就是同一个角色的正面、侧面、背面三张图,目的是把这个人的外形固定下来,后面不管生成什么场景,都参考这三张图来保持角色一致。

跳过这一步直接生成分镜图的话,你会发现每次生成出来的角色都长得不一样,发型变了,脸型变了,这条视频就完全做不下去了。

打开ChatGPT,在对话框里输入:

「帮我生成一张Biteye 小师妹的三视图」

AI会生成一张图,里面有三个角度的同一个人物,如果生成出来的人和你想要的差距大,可以上传参考图。

三视图满意之后,把这张图下载下来,后面每次生成视频都要把它上传回去作为参考。

再做场景参考图,锁定你的背景

角色确定之后,同样的逻辑,把你的场景也先单独生成一张参考图,对话框输入「帮我生成一张办公室的图片」

保姆级教程!用Seedance 2.0+ GPT2.0做爆款短剧

在正式开始生成分镜图之前,需要先理解一个基础概念:镜头是视频最小的表达单位。

镜头也是会说话的,不同的镜头景别,传递的信息是不一样的,常见的景别有以下几种:

  • 全景:交代信息的,观众通过全景知道这个场景在哪里、有哪些角色。

  • 中景:推进剧情的,能看清楚动作和表情,是叙事里用得最多的景别。

  • 特写:制造情绪的,画面只拍脸、手、或者某个关键道具,放大细节,给观众强烈的情绪冲击。

理解单个镜头之后,还需要再往上走一层:一条视频不是一个镜头,而是多个镜头按照节奏组合在一起的结果。

在实际制作中,我们通常会用「四宫格」和「九宫格」来组织一段视频的镜头结构——也就是在一段视频里,安排 4 个或 9 个镜头完成一次完整表达。

四宫格和九宫格的选择,本质上是对节奏的控制:

  • 节奏慢的段落:比如开场交代环境、结尾情绪收口,用四宫格就够,四个镜头有足够的空间让每个画面呼吸。

  • 节奏快的段落:比如打斗高潮,镜头需要密集切换来制造紧张感,这时候用九宫格,九个镜头压在一段视频里,剪出来的感觉完全不一样。

理解了镜头和节奏之后,就可以开始进入实际制作:把抽象的故事,变成具体的画面。

人物三视图和场景参考图都准备好之后,接下来要做的,就是把前面写好的分镜描述,一张一张变成可视化的画面。原因很简单,AI 更擅长处理「确定的单帧」,而不是「连续变化的过程」,也能大大降低抽卡率。

具体做法是:

每次生成一个镜头,先把角色三视图和对应的场景参考图上传到 ChatGPT 对话里,然后输入刚刚分镜图的生成提示词。

「帮我根据故事梗概+分镜描述(附上前面与 AI 生成的分镜词)生成一张四宫格分镜图,附上场景图+人物图」

模型会根据你提供的分镜信息,把这段镜头拆成四个画面,并且保证人物和场景的一致性,效果如下:

保姆级教程!用Seedance 2.0+ GPT2.0做爆款短剧

💡小 Tips,文生图有几个高频坑,提前知道能省很多次数:

  1. 想生成人物拿手机打游戏的镜头,生成的手机屏幕会自动转向观众。AI 的逻辑是让「内容可读」,打游戏成为图片的污染源。正确做法是:「双手横向持手机,屏幕朝向人物面部,手机背面朝向镜头」。

  2. 职业名词会让 AI 联想出整套场景:写「护士」,AI 会联想出医院、写「厨师」,AI会联想出厨房。正确做法是:只描述你真正想要的服饰,不提职业名称。

  3. 文生图只能生成静止画面,「正在转头」没有对应的视觉状态。正确做法是:只描述这一帧存在的东西。

保姆级教程!用Seedance 2.0+ GPT2.0做爆款短剧

03
从画面到视频:提示词要写动作,不要重写画面

分镜图都准备好了,现在我们要把它们变成会动的视频。

🌟注册即梦

打开浏览器搜索「即梦AI」,进入官网。点击右上角登录,用抖音账号或者手机号注册都可以,国内可以直接访问。

新用户可免费生成一段 15 s 的视频,如果需要开头会员,Biteye小师妹也对比了全网多平台 Seedance 2.0 的价格,详情请看:《全网最低成本订阅 Seedance 2.0 攻略来啦!》。

🌟视频提示词怎么写?

这是这一步里最关键的地方,也是新手最容易写错的地方。

先把参考图都丢进去,即梦支持同时上传多张参考图,直接把图片拖到聊天框里就可以。你在上一章准备好的所有素材,角色三视图、场景参考图、四宫格或者九宫格分镜图,一次性全部拖进去,即梦会综合这些图片的信息来生成视频。

这里很多新手会犯一个错误,就是把画面里有什么重新描述一遍。即梦已经能看到你上传的图了,不需要你再告诉它画面里有什么。

提示词要写的是:画面里什么东西在动,怎么动,镜头自己有没有在运动,以及每一段时间里发生什么。

按照下面这个模板来写,每一行对应视频里的一个时间段:

「帮我参考以上分镜图,生成一段视频。

[起始秒到结束秒],[景别],[运镜方式],[角色或主体]+[具体动作],音效:[声音描述]。」

保姆级教程!用Seedance 2.0+ GPT2.0做爆款短剧

🌟声音描述是新手最容易忽略的部分,如果视频里有台词,光写「说话声」是不够的,模型会随机生成一个声音作为参考。要保证多段视频里角色声音一致,有两个方法:

1️⃣用第一段的音频做参考

先生成第一段视频,对生成结果满意之后,把这段视频的音频单独导出。后续每一段生成时,把这段音频作为声音参考上传,即梦会参考这个音色来生成后续片段的人声,保证声音一致性。

2️⃣用 Fish Audio 找参考音色

打开 Fish Audio,搜索符合角色气质的声音,试听之后下载一段作为参考音频。生成每一段视频时统一使用这个参考音频,全片声音保持一致。

🌟用标点控制 AI 配音的语气

给 AI 配音模型写台词,不是把文字打进去就完了。同样一句话,标点不同,发出来的语气可以完全不一样。

核心逻辑是:标点符号控制停顿,停顿决定情绪。

…… 省略号让声音断开但气息不断,适合思考、犹豫、话未说完的状态。

……! 组合使用,是压抑之后的突然爆发。

() 括号内的内容音量自动降低,变成气声,适合内心独白和自言自语。

*内容* 星号包围的词会变得更低、更慢、更重,用来强调关键信息。

[] 方括号里写指令而不是台词,比如 [深吸一口气]、[停顿1秒],模型会执行动作而不是念出来。

💡小 Tips:

  1. AI 没有方位意识,经常分不清左右,需要另外做「位置关系参考图」告诉AI 人物是怎么运动的,如下图一。还有简单的方法:用箭头来描述人物的运动轨迹,并在最后添加上「把箭头删除」。

  2. 写慢不写快。模型处理缓慢动作比快速动作稳定得多。需要快节奏的片段,优先用剪辑速度来实现,而不是让模型生成快动作。

  3. 每段视频都要上传参考图,不要只上传一次。模型没有跨段记忆,不上传参考图的那一段,角色外貌会偏移。

保姆级教程!用Seedance 2.0+ GPT2.0做爆款短剧

04
从片段到成片:剪辑决定视频最终质感

剪辑和后期是整个流程里画龙点睛的一步,前面生成的每一段素材都是独立的,色调可能有差异,节奏可能不连贯,声音也是分散的,剪辑的作用就是把这些碎片捏合成一个完整的故事。

视频加上音乐后,更能带动观众的情绪、加上字幕,台词更清晰了,同样的素材,剪得好和剪得差,最终呈现可以差一个量级。

做法分四步:排列素材 → 统一色调 → 加声音 → 加字幕,最后导出。

第一步:排列素材

打开剪映,把所有片段按场景顺序拖入时间轴。先不管色调和声音,把顺序确认好,整体看一遍节奏有没有问题,太长的片段在这一步剪掉多余的部分。

第二步:统一色调

不同时间生成的片段,色温和亮度可能有细微差异,放在一起会显得割裂。处理方法:全选所有片段,在「调节」里整体加一层滤镜,场景一用冷蓝色调,场景二之后切换暖黄,保持每个场景内部色调一致就够了。

第三步:加背景音乐和音效

对白声音在生成视频时已经处理好了,这一步主要补两类声音:背景音乐和环境音效。

背景音乐决定整体情绪基调,音量压到对白的 30% 以下,不要盖过人声。

第四步:加字幕

用剪映的「智能字幕」自动识别对白,识别完之后检查一遍错别字,统一字体和位置。旁白或自言自语的台词,建议和正常对白用不同样式区分,比如斜体或不同颜色。

05
从工具到表达:AI 视频真正改变了什么

在上一篇文章《GPT Image 2.0 加持 Seedance 2.0:人人可拍好莱坞大片》我们认为在 AI 时代:「拍视频」的门槛被降低了,以后人人都能排除好莱坞大片。

但门槛低,不代表你就能做出来。

工具都是公开的,教程也到处都有,但大多数人卡在同一个地方:从来没有完整跑通过一遍。

本篇文章 Biteye 已经带你从一个模糊的想法,一步步剪成一条完整的成片。

过去,这个过程需要一整套专业分工: 编剧、分镜、美术、摄影、剪辑,每一个环节都是一道门槛。

而现在,这些环节没有消失,只是被压缩进了一条流程里。

这意味着一件更底层的变化:视频不再是「生产能力」的产物,而开始变成「表达能力」的产物。

本文来自转载Biteye中文 ,不代表发现AI立场,如若转载,请联系原作者;如有侵权,请联系编辑删除。

(0)
教程组小编的头像教程组小编
DeepSeek终于能看图了!我第一时间用它算命
上一篇 1小时前
下一篇 1小时前

扫码关注我们,了解最新AI资讯~

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注