1
zjqzxc 2015-12-17 10:16:25 +08:00 1
NAS 上 raid ( raid 是关键)
很常见的需求 |
2
jasontse 2015-12-17 10:20:57 +08:00 via iPad 1
追求转码质量上多路 Intel Xeon E5 ,核心数和频率当然越高越好。
质量无多大要求纯速度就入几块 NVIDIA 的显卡组 SLI 用 CUDA 转码。 |
3
zjqzxc 2015-12-17 10:24:37 +08:00
tb 上各种卖影视非编设备的,具体的话直接跟他们提需求然后让他们推荐,不放心的话多问几家。
不知道素材一共多少,平均码率大概啥样以及工作强度多大。。 简单来说存储部分 raid5 不能满足的话就只能 raid10 了。 硬盘 wd 的红盘为佳,预算不够上紫盘;保修时间越长越好。 网络部分单千兆网卡跑满的话就双或者三千兆网卡然后绑定一下 cpu 这块常见的服务器 cpu 都扛得住,存储密集型不费 cpu |
4
luo362722353 2015-12-17 10:26:55 +08:00 via iPhone
媒体资源管理服务器…俗称…媒资… 非编剪辑方面的设备适合您
|
5
Strikeactor 2015-12-17 10:28:47 +08:00 1
|
6
future0906 2015-12-17 10:30:47 +08:00 1
关键不是在硬件配置,无论你上多高的硬件,只要有人做视频转码,必然会吃掉所有的硬件资源。增加硬件资源可以加快转码速度,也只能减少卡顿的几率。
真正要做的是限制视频转码时使用的 CPU 资源,留几个核给正常用户。 当然, E5 是必须的, CUDA 的话看你视频转码工具是否支持,支持的话,组三路 SLI 似乎比较划算 |
7
mhycy 2015-12-17 10:48:07 +08:00 1
楼上推荐各路转码方案的都忽略了一点:
这是个储存服务器,重负荷的多路随机大文件流读写传输需求。转码需求不再 因为一般非编转码都是本地完成的,如果需要服务器,也一般是另配一个工作站专用于输出。 低成本做法: 阵列上 RAID 10 、 50 、 60,不考虑 RAID 5\6 ,硬盘用 3T 东芝普盘,速度不够数量凑,阵列卡支持 SSD 缓存为佳。。 高成本做法: 上专业的媒体存储服务器 |
8
luo362722353 2015-12-17 10:59:56 +08:00 via iPhone
@mhycy 24 盘位阵列, 1:9 的高速读写区(缓冲池) 例如 9T 硬盘, 1T 内存 , 64 核芯 CPU ,然后异地备份(安全性),多网卡均衡负载(服务器和客户端,内外网逻辑隔绝),显卡就自带的集成显卡就可以了,用 CPU 处理转码问题
|
9
holystrike OP |
10
holystrike OP 我联系了一家本地供应商,给了一个这样的配置:
主板:超微 X10DAI 双路图形工作站专用主板*1 CPU : XEON E5 2620V3 : 1 6 核心+6 超线程处理器,最大可上两个 CPU 内存:金士顿 16G D4 ERCC : 2 图形专业显卡丽台 K2200 : 1 电源:航嘉 HK701 服务器电源: 1 塔式服务器机箱: 1 含税价格: 13500 硬件三年保修,一年保换 |
11
xmoiduts 2015-12-17 11:33:25 +08:00 via Android 1
youtube 上面的 up 主 linustechtips 用了一整个 42u 机架容纳了全部编辑设备,用来编辑,转码,剪辑,储存视频。包括存储服务器,归档服务器,渲染服务器,网络设备等。
|
12
jasontse 2015-12-17 11:45:59 +08:00 via iPad 1
|
13
winnie2012 2015-12-17 11:47:27 +08:00
我也在给一家影视公司做这个,不过我这边需求简单点。
1. 视频播放主要是带宽问题,千兆环境,并且服务器接入做多路网络融合,多人时播放带宽解决。 2. 服务器只做存储,剪接和转码都在本地进行。 3. 服务器提供互联网访问权限,上行带宽很重要, 8M 上行 两条。 |
14
holystrike OP |
15
mhycy 2015-12-17 12:02:21 +08:00
|
16
mhycy 2015-12-17 12:04:18 +08:00
首先给个预算吧
还有详细需求,例如空间需求多少,人数,视频码率,长度,体积,同时编辑的视频轨道数目。 渲染用服务器完成还是本地渲染 都列一下。。 不然大多数结果都不靠谱 |
17
mhycy 2015-12-17 12:04:48 +08:00
@luo362722353
太壕了! |
18
sivacohan 2015-12-17 12:10:13 +08:00 via Android
如果视频转码的话。 Intel 新出了一个加速卡。
支持 H.264 ,最高支持 8 路视频。售价 2000RMB 左右。 有需要我可以给你联系方式。 |
19
holystrike OP @mhycy 人数 10-15 人,处理 1080P , 12M 码率,预计需要 2T - 3T 磁盘空间(可以不作永久存储,成品输出后另存备份)
视频处理工作可能会包含以下几步: * 将 1 个小时的视频切成 10 分钟一个小短片 * 已有短片重新剪接 * 添加片头、片尾、转场等 * 添加字幕、贴花等 * 转码成 H.264 720P 或其他尺寸 现阶段少有涉及 4k ,最多也就是手机拍的给剪进去 存储方面,希望可以方便的扩展 如果能搞定让编辑们同时工作, 8 万块的预算可以一战 |
20
sgissb1 2015-12-17 14:49:08 +08:00
哥们,你这是非编吧?
非编的话,有专业非编软件,也有业余的。目前部分非编支持 gpu 加速,据说 n 卡的 cuda 支持的最好,其实我也不清楚。 如果你的非编软件支持显卡加速,那你就要配置一个快的独显。 另外非编软件还比较吃内存、 cpu 、交换页,部分非编软件需要将视频中的关键帧提取出来,提取出来后,可能会转换成一张张缩略图,或者其他形式的数据存在磁盘或者虚拟内存里面。 所以你要配一个大内存,快 cpu , ssd 或者比较快的硬盘做交换页面,作为持续性存储的,你用机械盘也无所谓。 至于独显的问题,在 windows 下, client 版本的系统对显卡计算这块有一定的优化(也只是听说!)。 server 版本的系统并不倾向于这块。你要做一机多用户同时登录,显然只能 server 版了。 另外你说是的视频是 h.264 720p ,其实比较含糊的。如果是广播级的话,可能有些非编软件的参数还很细一些。 所以,想快的话,或许给每个大侠配个好一点的电脑或许是不错的选择。我觉得 8w 总造价配给 10 个人应该是够了,除非你的非编软件很吃内存。 |
21
Eleutherios 2015-12-17 14:50:09 +08:00
@holystrike 8W 金都够拿 4 块 1T 的企业级 SSD 开 RAID10 阵列了吧?大文件持续读写速度 SSD 应该至少能比 HDD 快 3-4 倍才对。
在 SSD 里处理完,再转存入 HDD 阵列或者外部存储里。 嗯,我只是个外行。 |
22
Eleutherios 2015-12-17 14:52:09 +08:00
另外,这种问题去 PCEVA 问可能更合适一些。
|
23
holystrike OP @sgissb1 主要考虑到知识产权安全性,所有编辑均不能在本机编辑,所以搞 NB 配置的单机来处理的方案不能满足需求
目前我们是跑在一台不能上网的台式机 2008 系统上,已通过防火墙控制了只能内网 我们的视频都不走广电,都是网络传播,出来的成品会放到客户自己的服务器上,可能还需要加密 编辑们的软件都非常业余,都不是专业搞视频的,家用级别的视频编辑软件能用熟就谢天谢地了 |
25
msg7086 2015-12-17 15:09:07 +08:00 1
@Eleutherios 8 万,其实并不算很多。
===== 上面说的 2620v3 其实性能很一般,双路跑分 15766 的话充其量还不足 2 台 i7 的算力。(我会告诉你 5960X 就比这双路平台快了吗?) 32G 内存的话拿来非编用大概只够 6 、 7 个人同时跑东西,这还是假设他们都用得不多的情况。 硬盘如果要考虑成本的话 SSD Cached ,上层多路 SSD 下层用蓝盘 /希捷做 RAID10 ,中间让阵列卡负责 Cache ,否则全程 SSD 贡献给日常使用。存档另外搞 NAS 来跑。 你说的这些剪辑操作,如果让字幕组这边的人来跑的话, 8G 内存 i5 就能做,甚至弄台本子都能做,写完非编脚本 avs 喂给编码器跑一遍就好了。不过让「编辑」们来做的话,不开几个重量级的软件估计他们搞不定,这成本就不是一点点了。我只能说祝你好运…… |
26
msg7086 2015-12-17 15:10:48 +08:00
|
27
holystrike OP |
28
mhycy 2015-12-17 15:36:44 +08:00
|
29
holystrike OP |
30
mhycy 2015-12-17 15:46:56 +08:00
@holystrike
这样服务器就坑了。。 要是可以的话给下现在服务器的配置以及满负载时候的 CPU/磁盘占用率,以及相应的非编软件信息。 ( Windows 的资源监视器即可) 作为参考。。 说回来,现在的远程桌面使用的是什么方案? |
31
luo362722353 2015-12-17 16:09:32 +08:00 via iPhone
@MCVector 差别很大,如果 CPU 错了,会重新处理,如果是显卡处理的…那就不会报废重做…所以是 CPU 瓦片给力…
|
32
MCVector 2015-12-17 16:17:30 +08:00
@luo362722353 那应该也是代码实现的问题吧?和架构没有什么关系
|
33
luo362722353 2015-12-17 16:22:11 +08:00 via iPhone
@mhycy 看具体需求…不过按照此情况…估计得有工作站…存储。…在线渲染?直接租用云服务器 1000 台,最低的配置,所有硬件要求云服务器提供商统一,组成工作组,或者本地剪辑渲染,回传服务器,素材从服务器获取…如果想服务器带的动在线剪辑?估计 24 盘位阵列算少的…缓冲池是播控中心也得具备的,而且还是得有备用电的,防止掉电之后数据意外,并且异地定期备份也得必须的,素材丢失,犹如要命…多网卡防止单网卡调用负载多大,其他机器剪辑或者调用处理之类的给网卡压力…如果有外网需求还得逻辑或者物理隔绝…服务器配置解决。他就得解决用什么软件本地做了…本地肯定也得剪辑…不然全部在线剪辑…呵呵哒啊,至少专业非编还没谁去搞这种类似云剪辑,全部给服务器压力,或者直接租用 IBM system Z 系列吧…至少 ILM 工业光魔…有 IBM system Z 系列
|
34
luo362722353 2015-12-17 16:31:49 +08:00 via iPhone
@MCVector 有关系的,如果你渲染 4K ,显卡如果渲染出现计算错了。他不会和 CPU 一样有报废流程。他会一直从错误处一直错误下去的,而 CPU 相当于会纠错啊,比如以组来分,分为 10 组,例如第五组错了,他会重新处理第五组数据…如果你做过 dcp 打包。你可以去看看,显卡处理的,和 CPU 处理的,然后去全国八大院线播放看看…那就是差别
|
35
crazycen 2015-12-17 16:46:43 +08:00 via iPhone
图像处理对 cpu 主屏敏感!选高主频的!
|
36
luo362722353 2015-12-17 17:04:25 +08:00 via iPhone
@crazycen 关键要稳定,主频问题不是很大问题
|
37
luo362722353 2015-12-17 17:06:20 +08:00 via iPhone
@future0906 转码可以做成任务等待方式,或者服务器集群,联机渲染
|
38
mhycy 2015-12-17 17:15:37 +08:00 1
@luo362722353
按照题主的说法负载并不高,目测最终需求上双路 E5 即可完美解决,存储问题用 SSD 解决。 1T 的 SSD 并不慢,分几个盘都行。素材和成品另配存储服务器。 这点问题不大。。 现在问题是不知道运行环境应用软件。。 这才是问题所在。 |
39
luo362722353 2015-12-17 17:37:02 +08:00 via iPhone
@mhycy Windows 2008 题主已经告知,你总不能让他们跑 autodesk ifffs 吧… 简单粗暴点…`云端`安装一套正版 edius …然后剪辑好了…正版也就 7200 一年…
|
40
luo362722353 2015-12-17 17:37:20 +08:00 via iPhone
@mhycy 7200 元终身
|
41
twy2004 2015-12-17 17:42:40 +08:00
反正不能上游戏卡, quadro 什么样我不清楚,但是 geforce 的驱动有问题,远程桌面状态下,是无法访问显卡的( windows 的限制, linux 无此问题)。
之前做深度学习被这坑惨了,最后还是上 tesla ,用 nvidia 出的专门的驱动就可以了。 |
42
twy2004 2015-12-17 17:43:57 +08:00
其实也不是不能访问,只是同时只能有一个人访问显卡资源,另一个人直接无法找到显卡(设备管理器能看到,但是 cuda 程序找不到,驱动问题)
|
43
holystrike OP |
44
znoodl 2015-12-17 21:43:24 +08:00
这个有点了解,不过有两个问题想问楼主
1 、是十几个人同时使用一台服务器进行视频编辑?还是每个人使用自己的电脑,服务器只做视频文件存储服务器 2 、上面说的 1080P 12M 中的 12M 应该是 12MiB 吧,也就是 100Mbps 吧 |
45
odirus 2015-12-17 21:55:52 +08:00
可以做一个内网文件高速存储哇,映射到每个人电脑里面,断外网、封 USB 、购买一个文件加密软件方案,电脑上的资源即使拷贝出来了也无法解码,需要专人通过专用设备解码才行。
这满足你的需求不?央企都这样干,你还怕不安全? |
46
powergx 2015-12-17 22:07:28 +08:00 via iPhone
网络存储,随便弄个 2 块 1t 做缓存 ,随便搞 4 块 4t 组个 raid10 就有 8t 并且可以喂饱 万兆速度。 加起来么 1w 块钱。 zfs 配个 e3+32g 内存 。 lz 都说了只做存储。
|
47
luo362722353 2015-12-17 22:21:52 +08:00 via iPhone
@holystrike 那你可以教学一下, edius 多格式混编能力不错的
|
48
MCVector 2015-12-17 23:50:31 +08:00
@msg7086 GPU 并没有简化什么步骤,只是 SIMD 的架构更适合处理大量的数据。我做过流体模拟,之前是在 CPU 上写的,之后改写的到 CUDA 上了,精度没有任何损失。另外做过一个 机器学习算法,原型是用 matlab 做的,太慢在 Grid 上跑一个星期才出来几个结果。我用 CUDA 写了快了快 100 倍,结果完全一样没有。并没有说 GPU 不适合生产环境的说法。
|
49
Bardon 2015-12-18 00:00:16 +08:00
楼主都说了带编码的....
多弄几块 u 和 ssd 吧,用 cpu 去做,不要用显卡 编辑们的软件还不知道,估计内存也得往上堆, 10 多个编辑同时工作, 8 万配置搞不定的。 如果成本核死 8 万的话,每个人限资源吧 |
50
MCVector 2015-12-18 00:03:31 +08:00
@luo362722353 视频的渲染的算法不太清楚,有机会去看看。
|
51
hardware 2015-12-18 00:16:55 +08:00
ls 很多群众按照工业光魔的标准给楼主推荐 可楼主用的是绘声绘影 哈哈哈
|
52
msg7086 2015-12-18 03:58:29 +08:00
@MCVector 你没有理解我的意思吧?
我们回头看一眼聊天记录 >质量无多大要求纯速度就入几块 NVIDIA 的显卡组 SLI 用 CUDA 转码。 >> GPU 的质量应该和 CPU 是一样的吧 >>> GPU 还没有能达到 CPU 能做到的质量。 >>> 毕竟简化了太多的步骤,才换取的速度。 这里最开始说的就是用 CUDA 转码。转码当然是用软件转,那么转码的质量和速度当然就是软件设计出的质量和速度。 GPU 凭空又不能转码, GPU 和 CPU 一样都只是个计算单元而已。卡西欧计算器和任天堂掌机也是计算单元,如果有合适的软件当然也可以转码,问题是没有,所以自然不行。 那么你回复的内容自然应该理解成「跑在 GPU 上的软件质量应该和跑在 CPU 上的是一样的吧」。 我回复的内容则是「跑在 GPU 上的软件还没有能达到跑在 CPU 上软件能做到的质量,毕竟那些软件利用 GPU 的时候简化了太多的步骤,才换取的速度」。 不知道这样能不能让你理解对话的上下文。 |
53
holystrike OP @znoodl 要在服务器上远程桌面里编辑,然后输出成品。
@odirus 这样对编辑的单机限制太多,我们的做法就是不动单机,编辑们还是可以用自己的机器做任何事 @luo362722353 @hardware 哈哈,其实说白了,这些工作大部分都是体力活,想着遇到量大的时候,还要找在校生来做,只要打开远程桌面就能开工了 @Bardon 现阶段可以控制同时为 5-6 个人同时工作,其他的人可以不编辑视频,但是他们需要远程桌面连上之后播放视频。 |
54
sgissb1 2015-12-18 13:31:24 +08:00
@holystrike 那就是不需要很好的 gpu ,一个性能强劲的 cpu+大内存+ssd 做缓存将会快很多,然后编辑好的再搬运到机械盘即可
|
55
ztrt 2016-01-07 20:21:03 +08:00 via Android 1
你说的这些和我那朋友的很像,也是 10 来台工作站连 2008 服务器(服务器仅提供存储,工作站通过 edius 读取服务器数据直接编辑),不知道是不是就是他,就当是了,补充点资料吧:现在的服务器是 e5 16g ARC-1264 阵列卡 16 个 4T 7200 转企业盘组 RAID6 ,每个工作站通过 x520 万兆网卡直连服务器;服务器上 ATTO 测试写 1G 读 2G,本地拷本地 450MB 左右, IOPS 只有 80 ;工作站 ATTO 测试读写最高可达 1G , IOPS 300 多。当多台工作站运作时,轨道一多( 10 多轨以上)就会出现卡顿,不知道是单 RAID 控制器 IOPS 跟不上还是什么原因
|