上传任何视频,瞬间生成专业的 AI 视频生成模型提示词,一键逆推!任何爆款视频,AI都能扒出提示词!每个模版都是完全独立、指令完整、12个维度全部展开的。你可以直接复制对应场景的全部文字发送给 AI。
一个AI视频的提示词通常包括6个部分:机位、运镜、角色、场景、动作、对白,
光线是视频的“情绪大师”! 柔和光线 (Soft Lighting):温馨、治愈。(例:柔和的暖光, 窗边) 电影光 (Cinematic Lighting):高级感,氛围感。(例:电影级打光, 侧逆光) 霓虹灯效 (Neon Lighting):赛博朋克、未来感。(例:霓虹灯效,) 逆光 (Backlight):剪影效果,神秘感。(例:唯美逆光) 丁达尔效应 (God Rays/Volumetric Lighting):光束穿透,神圣感。(例如:丁达尔效应, 森林深处)

最后用提示词再丢给AI,比如Sora生成视频。
请你扮演一位专业的电影分析师和顶尖的AI提示词工程师。你的核心任务是,基于我上传的视频文件,对其进行分镜解构,并为每个关键分镜逆向推导出对应的AI视频提示词。
在分析和逆推的过程中,你必须严格遵循以下维度作为你的分析框架和输出标准:
电影化镜头设计: 深度分析镜头类型与运动。识别是否存在 Speed Ramping (速度快慢放) 或 Impact Frames (冲击帧)。描述相机是否带有 Camera Shake (相机震动) 或 Orbital movement (轨道环绕),分析构图如何通过广角透视强化招式的压迫感。
主角塑造与叙事性动作: 识别主角的精细动作,如指法结印(Hand seals)、身体浮空状态。分析动作所承载的“神性”、“肃杀”或“毁灭感”叙事意图。捕捉角色蓄力时发丝的漂浮与瞳孔中的能量溢出。
世界构建与材质细节: 深度解构环境的交互反应。分析能量的物理形态(是液化流体、破碎晶体还是粒子束)。识别场景中的 Fractal Void (分形虚空)、Heat Haze (热浪扭曲)。描述地面因招式威压产生的放射状崩裂纹理与岩石碎片的物理悬浮。
风格锚点与光线物理: 识别并定义“风格锚点”。精准描述光线的具体表现:如 丁达尔效应 (God Rays) 穿透层云,或招式中心的 Emissive (自发光) 产生的 Bloom (光晕遮蔽)。分析光线在角色盔甲或周围环境上的 Secondary Lighting (二次投影)。
沉浸式音景: 分析声音的层次,包括超低频的震荡(Sub-bass drone)、万剑齐鸣的高频音、以及能量爆发瞬间产生的“音量真空”处理。
……
教程包含多个适用场景模版类型的详细逆推提示词!
如何选择匹配场景?
根据视频中最难被AI生成的那个核心元素来选:
看特效/能量(如发光、施法、爆炸) 模版一(玄幻)。
看材质/机械(如金属、赛车、机器人) 模版五(竞速)或模版三(赛博)。
看情绪/皮肤(如人物特写、微表情) 模版四(人像)。
看物理破坏(如倒塌、破碎) 模版二(灾难)。
1. AI生成为什么不能“百分之百一样”?
随机性种子 (Seed):AI 生成视频本质上是概率计算。即使提示词完全一致,每次生成的微观细节(比如每一片碎片的飞溅轨迹)都会有随机抖动。
模型训练偏差:如果你逆推的是《凡人修仙传》,而你使用的生成模型(如 Luma)在训练时没有见过这种特定的“东方结印逻辑”,它会用它理解的“手部动作”去替代。
2. 为什么这套“八维度指令”能做到“极高度还原”?
传统的简单提示词只能还原“皮毛”,而我们给你的指令是在锁定物理规则。
锁定镜头(不乱晃):普通指令只说“运镜”,我的指令要求识别“焦距、机位、变速流(Speed Ramping)”。这保证了生成的视频构图和节奏与原片一致。
锁定光影(不失真):通过强制 AI 识别“自发光对环境的二次投影(Global Illumination)”,能确保生成的能量大招不会像贴图,而是真的“照亮”了周围的建模。
锁定材质(不廉价):指令中要求的“次表面散射(SSS)”和“Pore-level Texture(毛孔级质感)”,能让 AI 放弃平庸的滤镜,转而调用最高精度的渲染算法。

