虚拟演播室能让画面变得那么逼真,全靠在后面默默干活的跟踪系统。它要把现实摄像机的移动和虚拟场景的变化

虚拟演播室之所以能让画面变得那么逼真,全靠在后面默默干活的跟踪系统。它要把现实摄像机的移动和虚拟场景的变化拼在一起,就像玩拼图一样严丝合缝。摄像机稍微动一下,系统得在极短的时间内算出新的位置,然后把数据传给电脑,让虚拟摄像机也跟着动起来。如果延迟或者算错了位置,画面就会出现穿帮的情况,节目看起来就很假。 这种技术发展到现在经历了好几个阶段。最早的时候,是在摄像机下面放个机电基座,通过编码器来读取镜头的推拉和聚焦动作。这是在1994年到1995年的时候出现的,那时候大家还在二维世界里摸索。后来到了1995年,自由机器人底座登场了,它能升降和平移,让人们真正看到了全三维空间的样子。接下来的十几年里,精度越来越高,从0.1度提升到了0.001度。 现在市场上有三大主流技术。机电传感这种比较老的技术很稳定,但太笨重又贵,还怕环境不好;图像识别比较灵活也便宜,但不能用无限的蓝箱;红外传感开机就能校准覆盖范围大,但怕遮挡反光。很多高端演播室都会把这些技术组合在一起用,这样在直播的时候就多了一份保险。 机电传感的工作方式是在镜头和云台关键部位装上齿轮和编码器,把转动和平移的量都算出来。数据通过RS-232/422直接送到电脑里,延迟特别小是它最大的优势。不过安装成本很高,云台下面还得铺滑轨限制摄影师动作。日本的Chocotal还有英国的Ultimation都是这种技术的代表产品。 图像识别就是在蓝箱地板上铺特征格子,摄像机顶上再挂一个小摄像头来匹配格子形状大小来算出角度和距离。这种方法不需要额外的机械装置很灵活,但识别速度慢一点对网格清晰度要求高。解放军电视宣传中心以前就用红外摄像头来做实验。 红外传感是通过主动LED发射器发出光线到演播室顶和墙上来做三角测量定位的。这种方法开机就能校准覆盖范围大设备便宜但怕遮挡反光成本也高。 高端项目通常会把这三种技术的数据合并使用:机电负责保证安全稳定;图像负责保持创意灵活;红外负责提高效率速度快。再加上AI色键和实时云渲染虚拟演播室就能应对多机位大场景高机动的复杂情况保持画面不穿帮了。 以后技术肯定会越来越先进谁知道下一次的突破会在哪里呢?