图像光谱技术帮助两个会议报道了“第二场景”创新和智能应用
浏览:532 时间:2021-10-14

2020年的全国人民代表大会正在进行。在疫情期间,特别的两次会议,除了那些对中国未来的国民经济和人民生活重要的以外,吸引了很多关注。对于媒体来说,由于记者招待会的时间和与与会者直接面对面的互动大大减少,其内容的制作、制作和出口也受到了考验,媒体报道在内容和形式上的创新引起了全社会的高度关注。基于此,全国各地的各级媒体都有勇气去创新和努力。其中,中央政府重点新闻网站《人民日报》借助智能图像制作企业的智能图像制作技术,率先探索会议报道的可视化、智能化和落地化。在人工智能的祝福下,原本“人”较少参与的第一个会议站点,在“第二个站点”中实现了更丰富的参与感和互动性。两会期间,《人民日报》推出了《两会“云”客厅》等栏目,并设立了虚拟展示大厅,突破线下采访的限制。它由四个主要角色元素组成:主持人、嘉宾、班级代表和观众,并表演了另一个“现场直播”。在这个过程中,作为智能媒体的核心技术之一,智能图像制作技术是直接推动新闻内容更加立体化和智能化的关键因素。据了解,两会期间,电影光谱技术帮助人民网在人民日报展示馆开展了基于人工智能、图形图像识别、图形图像处理等技术的新闻报道智能创新。据相关负责人介绍,虚拟主持人智能广播应用首先将传统纸质报纸转化为电子视觉内容,然后结合语音分析和图像生成技术,将时序相关的音频数据转化为时序相关的对抗网络生成图像,获得连续的虚拟人物合成视频;最后,通过多媒体技术将生成的角色放置在虚拟演播室中,实现特定环境场景中虚拟角色的嘴唇动作、面部表情、身体姿势等具有真实感的虚拟角色的视频播放,并通过一体机终端进行智能交互。同时,实时交互一体机对真实物体进行虚拟化、数字化和客观化,然后利用像素分解、分析计算等技术和先进的多媒体融合技术,将目标物体融合到实时场景和特定位置,没有任何感觉。同时,利用人物动作的骨架识别,将时间手势序列关联起来,实现动作的精确区分和捕捉,并将捕捉到的动作转换成指令,触发实时场景中叠加对象的切换。最后,通过智能互动一体机实时采集互动场景图像,融合虚拟物体或道具而无感觉。体验者通过肢体运动控制虚拟物体或道具的切换,从而获得逼真的视觉体验。据了解,在2019年的两会上,电影技术还通过自主开发的技术,借助基于日本