icon传统企业信息化体系存在的问题icon
烟囱式架构
难以复用;难以迭代;重复建设;数据孤岛;难以扩展
高性能
商业软件套件:架构黑盒;迭代缓慢;价格昂贵
交钥匙化外包
割裂式建设;注重短期业务功能,忽略中长期演进
架构封闭
新技术难以引入,难以与现有设施对接(日志、监控等)
icon构建云原生容器平台驱动力icon
屏蔽底层设备差异
痛点:大量采购的IaaS,软硬件品类繁多,保护投资平滑入云
加快业务响应速度
痛点:基础资源交付周期长(>3个月)导致产品无法快速迭代
提升资源利用率
痛点:传统IT架构无法弹性应对高峰,资源利用率仅30%左右
IT运维自动化
痛点:大量手工配置,导致运维风险大,效率不高
iconTCS平台组成icon
icon容器平台基础能力icon
iconTCS容器平台部署架构icon
iconTCS容器平台优势icon
底层资源解耦能力
适配丰富异构IAAS设备,满足利旧需求
广泛适配兼容信创CPU/指令集/操作系统
应用编排能力增强
TAD-基于OAM标准的全栈编排能力
在离线混部能力
平台高可用和部署方案
运维运营能力
容器基础能力增强
计算——轻量级虚拟机;GPU虚拟化;弹性伸缩;
网络——自研高性能负载均衡;基于eBPF的高性能网络;跨集群统一服务发现;高性能Ingress;
集群管理——节点自愈;多集群管理;多集群应用治理;
容器安全——扫描;侵入;风险管理与评估。
icon底层资源解耦能力icon
icon计算-自研有状态管理控制器icon

StatefulSetPlus是一种Kubernetes CRD(Custom Resource Definition),它继承了Kubernete StatefulSet所有核心特性,核心特性包括:兼容StatefulSet所有特性。支持分批灰度更新和一键回滚,每个批次更新时,Pods是并发更新的。支持HPA(HPAPlus-Controller)。支持Node失联时,Pod的自动漂移(StatefulSet不支持)。支持容器原地升级。所谓原地升级,就是在应用升级过程中避免将整个 Pod 对象删除、新建,而是基于原有的 Pod对象升级其中某一个或多个容器的镜像版本。在原地升级的过程中,仅仅更新了原 Pod 对象中foo 容器的 image 字段来触发 foo 容器升级到新版本。而不管是 Pod 对象,还是 Node、IP 都没有发生变化,甚至 foo 容器升级的过程中 bar 容器还一直处于运行状态。在发布时配置各个批次更新副本的百分比,比如第一批10%,第二批30%, 第三批30%,第四批30%。StatefulSetPlus-Operator会根据Readyness探针完成情况,自动进行下一批次的更新。

icon计算-基于kubevirt的虚机资源管理icon
KubeVirt 具备在统一容器平台内对VM的调度和管理能力:
通过 VM / VMI 资源的创建、修改、删除实现对 VM 实例的管理,VMI 资源是虚拟机实例运行态的反映,VM 资源可以控制虚拟机实例的启动策略;通过对虚拟机实例 1:1 关系的 virt-launcher pod ,实现在容器集群中的调度,并且通过调用 libvirt 来管理虚拟机实例;支持虚拟机实例在线迁移,基于 RWX 访问模式的 PVC; KubeVirt镜像管理
Kubevirt网络和存储
Kubevirt监控
icon计算-GPU虚拟化icon
Kubernetes 对GPU等异构设备的支持
为了扩展k8s的资源管理能力,同时避免直接修改kubelet代码,k8s推出device plugin 框架解决异构资源管理问题,如:
设备发现 资源分配 设备映射 驱动库管理
社区版方案缺点
支持整块卡的分配,但不支持更细粒度的调度
不支持namespace 下的配额限制
不支持GPU拓扑感知
icon计算-腾讯vGPUicon
社区版方案缺点
支持整块卡的分配,但不支持更细粒度的调度
不支持namespace 下的配额限制
不支持GPU拓扑感知
vGPU
优点:
同时支持碎片和整卡调度,提高GPU资源利用率
支持同一张卡上容器间GPU和显存的使用隔离
基于拓扑感知,提供最优的调度策略
缺点:
驱动和加速库的兼容性依赖于厂商
存在约5%的性能损耗
不支持非cuda场景
icon计算-腾讯vGPUicon
cuda调用劫持
libcuda.so.major.minor 是用户态下最终会被调用的Driver API 库,是我们要封装的镜像。
我们做了如下操作:
实现了一个libvcuda.so 实现了所有libcuda.so里的接口。dlopen 加载libcuda.so.major.minor 的接口到内存,libvcuda.so的接口在转发函数调用给真实的cuda函数之前,进行流控和量控。 容器内部署时,用libvcuda.so重命名替换libcuda.so。linux 动态链接时,链接到我们实现的库,实际调用的是我们实现的接口。
icon计算-腾讯qGPUicon
qGPU 是腾讯云推出的 GPU 容器虚拟化产品,支持多个容器共享 GPU 卡并支持容器间算力和显存精细隔离,同时支持业界唯一的在离线混部能力,从而在精细切分 GPU 资源的基础上,在最大程度保证业务稳定的前提下,将 GPU 利用率压榨到极致,最终帮助客户大幅节约 GPU 资源成本。
灵活性:精细配置 GPU 算力占比和显存大小。强隔离:支持显存和算力的严格隔离。在离线:支持业界唯一在离线混部能力,GPU 利用率压榨到极致。覆盖度:支持覆盖主流卡 T4、V100 及 Ampere 架构 A10、A100 等 云原生:支持标准 Kubernetes 和 NVIDIA Docker。兼容性:业务不重编、CUDA 库不替换、业务无感。高性能:GPU 设备底层虚拟化,高效收敛,吞吐接近0损耗。
icon计算-Pod自动伸缩icon
icon网络-增强能力总览icon
东西向
POD间互访
Service ClusterIP(内部负载均衡)
南北向
NodePort
Loadbalance
Ingress路由
安全规则
支持Networkpolicy
icon网络-自研高性能负载均衡TCS LBicon

4层负载均衡:LVS 或 TCS-LB,7层负载均衡:Nginx。

利用 XDP 实现的高性能 4 层负载均衡
多种路由宣告方式
BGP、VRRP
支持多种转发模式
IPIP、FullNAT
无状态负载均衡
一致性哈希实现最小的连接中断
跨 AZ 高可用
优化营销活动方案
icon网络-TCS LBicon

用户通过 Yun API 或者 提交 Service 到集群中,YunAPI 和 service controller 会创建 LB CR。控制面组件 Watch 到 LB CR 创建时:Director Manager 中的 IPAM 组件会为 LB 分配 VIP,Tunnel Controller 为 RS 配置隧道。Director Daemon 中的 Health Checker 开始探测 RS 健康,健康的RS会被 Forwarder 配置转发规则到 BPF Map 中。

icon网络-TCS LB BGP宣告icon
LB 节点通过 BGP 对外宣告 VIP 地址,多个 LB 节点宣告相同地址,形成 ECMP 路由。
Client 访问 VIP,包到达 CORE 交换机,CORE 使用五元组哈希选择其中一台 LB。
包到达其中一台 LB 后,经由 XDP 处理,如果存在CT 表项,则从 CT 表中直接获取RS,否则基于一致性 Hash 选取 RS,通过 IPIP 隧道将包送到 realserver。
Realserver 上需要配置 IPIP 隧道和策略路由,解开 IPIP 包后交给应用处理,处理完后,再依据策略路由将包通过 IPIP隧道返回到 LB。
LB XDP 解开隧道包后做端口映射,回包给 Client。
icon网络-TCS LB IPIP模式icon
入包:
LB 根据5元组哈希从一致性哈希表中选取 RealServer,做端口映射并封装为 IPIP 包。
回包:
解开 RealServer 回的 IPIP 包,根据 vip+rsip+rsport 反查出 vport,修正 sport 后,发给 client。
icon网络-TCS LB 跨az高可用icon
 
每个 AZ 的 LB 都发布相同的 VIP,两个 AZ 都会学习到对端 AZ 发布的VIP,互为备份。
本 AZ 内的 client 访问 VIP,会优先走本 AZ 的 LB,就近访问。当本 AZLB 挂掉,经过路由收敛后走到另一个AZ。
如果 AZ1 中 VIP 的 realserver 在AZ2 时,回包从 AZ2 的 LB 出。
icon网络-基于ePBF的高性能转发icon
icon网络- ClusterMesh 跨集群服务发现和访问icon

可以将服务跨多个集群的部署,每个集群内运行相同的副本,一旦失败,请求转移到其他可用集群,该跨集群服务依旧可以通过相同的域名被正常访问。

icon网络- ClusterMesh 跨集群服务发现和访问icon

Overlay 网络场景下,由 cilium-router 负责本 Node 上建立到其他 Node 的 IPIP 路由规则。

icon网络- ClusterMesh 跨集群服务发现和访问icon

将 Global Service 的 EndpointSlice 同步回本集群,网络插件根据多个 EndpointSlice 来做 Service IP 的服务转发。

icon网络-高性能Ingressicon
如果集群中只安装包含一套 Ingress controller,所有的7层路由都通过这套 Nginx Ingress 服务器转发,对 流量隔离以及流量扩容能力支持较差,也无法基于多套 VIP 提供不同网络域的转发服务。引入 Ingress controller 的管理,TCS 用户可以通过平台自行管理多套 Ingress controller 服务,并通过ingress.class自行规划 Ingress 路由转发。
ingress-nginx reload 性能提升
当有新建删除 ingress、更新证书等操作时,ingress-nginx 会触发 nginx reload,reload 时 master重新读取渲染配置会耗费大量的 cpu,且 master 和 worker 可能会调度到同一个 cpu 上,这样 master 会压榨 worker 使用的 cpu,导致请求延迟突增。通过将 ingress-nginx controller、nginx master、nginx worker 的 cpu 隔离,来避免 nginx worker 处理请求时被管理进程影响来解决此问题。
icon网络-高性能Ingressicon
icon集群管理-节点异常监测与自愈icon

在Kubernetes日常运行过程中,会出现各种各样的问题,例如:1、节点docker daemon 夯死,导致节点上面的pod异常,影响在线服务。2、节点硬件故障比如CPU,内存,硬盘故障,导致在线服务异常。3、Pod所在节点的内核、CRI运行时等出现问题,无法支持Pod的运行,影响在线服务。4、节点系统内核死锁, ntp等服务异常,导致系统异常。这些问题 kubernetes 自身无法及时感知,在kubernetes集群上,通常我们只是管制集群本身以及容器的稳定运行。但是这些稳定性都是强依赖节点node的稳定的。可是node的管理,在kubernetes是比较弱的,因为可能对于kubernetes的初始设计来说,这些应该是IaaS的事。但是随着kubernetes的发展,它越来越变成了一个操作系统,它管理的内容将越来越多,所以对于node的管理也将纳入kuberntes里管理。

icon集群管理--Clusternet多集群应用治理(扩展)icon
集群注册和发现
提供了集群注册和集群发现的功能,集中管理多朵云集群的元数据,通过隧道技术打通了集群ApiServer 之间的网络,支持大规模、异构网络、边缘等多种场景。
Pull/Push/Dual
在支持两大经典集群应用管理模式 Pull 模式和Push 模式基础上,增加了Pull+Push 的 Dual 模式。
跨集群的服务发现及服务互访
在无专网通道的情况下,提供跨集群的访问路由。
完善的 RBAC 能力
支持以 RBAC 的方式访问任一纳管的子集群。
icon集群管理--Clusternet多集群应用治理(扩展)icon
完全兼容原生 K8S API
全兼容 K8S 的标准 API,
比如:Deployment,StatefulSet,DaemonSet,同时也包括用户自定义的 CRD 等,用户从单集群应用升级到多集群只需做简单的配置,无需学习复杂的多集群 API。
支持 Helm
支持 Helm chart 类型应用,包括 Chart 的分发、差异化配置、状态的汇聚等,和原生 K8S API 的能力一致。
丰富、灵活的配置管理
提供了多种类型的配置策略,用户可灵活的搭配这些配置来实现复杂的业务场景,比如多集群灰度发布。
addon 能力,架构简单
采用了 Aggegation ApiServer 的方式,且不依赖额外的存储,架构简单,便于部署,大大降低了运维复杂度。
icon容器安全icon

腾讯云容器安全服务(Tencent Container SecurityService, TCSS)提供容器资产管理、镜像安全、运行时入侵检测、安全基线等安全服务,保障容器从镜像生成、存储到运行时的全生命周期安全,帮助企业构建容器安全防护体系。

icon应用编排能力-TADicon

单个应用可以一次声明多次部署/一键部署,组件面向终态运维和管理,兼容容器化和非容器化应用部署。

icon应用编排能力-应用及TAD部署流程icon

用户先编辑TAD模板,然后按模板定义提交部署申请。部署申请提交后,应用中心将按模板定义自动完成应用的部署以及中间件的创建。

icon应用编排能力-应用模板编排及发布icon
icon应用编排能力-应用及TAD部署流程icon
icon应用编排能力-在离线混部icon

这两种类型的服务负载在分时复用、资源互补上存在极大的优化空间,使得它成为混部的首选场景。在离线混部:将在线服务和离线作业部署到同一个节点,以此来提高资源利用率,减少企业对与日俱增的离线计算资源的成本开支。在离线混部最重要的目标:在提高单机资源利用率的同时,保障在线服务和离线作业的服务 SLA。

icon应用编排能力-在离线混部挑战icon
资源保障
资源干扰:当资源紧张或流量突发时,在线业务的资源使用上会受到离线业务的干扰。
调度保障
资源复用。资源分时复用时间粒度过粗、资源无法弹性复用。调度增强。调度器发生资源冲突、原生Kubernetes仅支持在线业务的调度。
 
 
资源干扰
在线业务和离线业务被调度到了同一个物理核心的不同逻辑核上运行。
资源隔离
原生Cgroup在资源超售和离线场景下,CPU、内存、网络和磁盘IO都存在不同的挑战。流量突发时离线业务很难立即退出,引发在线业务抖动。CPU绑核。资源利用不足、并行度受影响。内存方面,原生操作系统对page cache是全局管理,存在无法及时释放的问题。
icon应用编排能力-在离线混部方案icon

方案概述:调度保障:采用快感知慢回退预测算法、离线大框、共享状态调度等手段,进行资源弹性复用,解决调度冲突。资源保障:通过应用优先级划分、内核增强、干扰检查、超线程避让等关键手段,保证应用间资源隔离。

icon应用编排能力-在离线混部调度保障icon

采取混部节点自动上报扩展的离线资源,离线服务通过离线 Cgroup 大框隔离的方式来保证资源的弹性复用和回收。首先,在资源复用的方式上,将空闲的在线资源进行精准预测,并通过扩展资源的方式,暴露给离线调度器,从而让离线调度器可以看到有多少离线资源是可以复用的,然后进行调度。其次,资源复用以后,需要能够有一层限制,限制离线负载不能过度使用宿主机的资源;在底层资源限制上,针对在线和离线业务,分别限制其在不同的 Cgroup 层级上:

icon应用编排能力-在离线混部调度增强icon

多调度器共享状态调度的模式,第一是解决在线资源的复用调度问题,第二是解决调度冲突、调度性能、可扩展性和可靠性。共享状态调度,无论从资源视图共享性,并发性,资源分配的灵活性以及对多调度器的灵活支持,都表现比较出色。因此,采用共享状态乐观并发的调度方式,该方案对协调器的性能和可靠性有较高要求,但是可以做到真实的资源共享,资源视图和全局一致性,同时还能支持部署多个不同的调度器来针对不同场景进行调度。设计和实现了 调度协调器,Kubernetes 调度器只需要在reserve 阶段,开发扩展插件,进行 reserve 的提交,即可完成共享状态并发。

icon应用编排能力-在离线混部快感知慢回退预测算法icon

在资源的预测和负载处理上,采用指数衰减滑动窗口算法,达到快速感应资源上升,慢速感应资源下降的目的,做到自动化,细粒度的分时复用目标。之所以需要快速感应到资源上升,是因为在线服务负载如果有上升,一般都是比较短暂的,此时需要快速感知,从而快速做出资源回收和离线退位。而在负载下降的过程中,一般不能立即就去减小在线服务的资源,而是要保证其运行一段时间,确认是负载真实的进入平稳状态,离线才能开始复用在线资源。

icon应用编排能力-在离线混部资源保障icon

在单机资源保障上,结合 TencentOS 内核,提供了全维度的资源保证;在 Kubernetes 和内核侧提供了强有力的资源隔离和保障机制。在优先级上,采用精细化的 cpuset 编排技术,根据不同类型的服务优先级,高优在线业务,将其进行 cpuset 绑核。中优在线业务,采用 Cgroup quota 和 cpushare 进行 CPU 资源共享。离线业务,则采用离线大框将所有离线业务划分在一个离线 Cgroup 资源池下,但是可以去使用所有的 CPU 核,也可以支持离线业务单独绑定在和高优在线业务完全互斥的 CPU 子集下。

icon应用编排能力-在离线混部资源保障icon

除了基于传统 Cgroup 限制与隔离,比如采用 CPU quota、CPU share 进行资源的限制和隔离,采用 cpuset 进行绑核等,也在内核层次上进行了充分的定制和优化,以适应云原生场景。在 CPU 方面,为了在微观层次应对突发流量以及超线程干扰,TencentOS 云原生内核支持选取 BT 调度类进行离线任务调度,从而能够实现在内核级快速减少离线任务干扰,同时能防止离线任务出现饥饿状态。在内存方面,TencentOS 内核拥有 Cgroup 级别的 cache 清理功能,及时释放某个容器的 cache, 比如离线业务完成以后,就可以将其 pod 触发的 page cache 进行及时清理。在网络和磁盘 IO 方面,云原生内核都进行了自研控制,接口都是标准 Cgroup 接口,充分利用相关 qos 进行容器的qos 保证。

icon应用编排能力-在离线混部干扰检查icon

业务的 SLO 干扰检查,一方面是系统层次的指标的干扰检查,另一方面是应用层次的指标的干扰检查。在系统层次,采集各种系统资源指标,比如感知指令集频率 CPI,感知系统调用等手段,获取系统指标干扰。在应用层次,允许在线业务设置自己的 SLO 干扰阈值,混部系统能够回调和检查业务的 SLO,一旦检查到业务真实的SLO 不符合预期,就会采取一系列措施进行干扰源消除;对于离线业务的 SLO,允许动态优先级调整以及弹性公有云的方式,避免离线业务长时间等待或者频繁驱逐,保证离线业务能够在规定时间内跑完。

icon应用编排能力-在离线混部业务价值icon
资源利用率提升
通过在离线混部,可以充分利用节点的空闲资源,从而提高资源利用率。据 Gartner 统计,全球数据中心平均使用率不足15%。造成资源效率低下的原因,主要是以下几点:1、业务流量周期性2、集群资源碎片3、在离线机房隔离
成本优化
通过混部提升资源利用率,可以获得可观的成本节省,获得规模效应下的巨大经济价值。当前各大中型互联网公司都有落地,比如谷歌已经将所有业务混部在Borg系统中,其资源利用率可以达到60%,每年可以节省上亿美金。
icon跨区域高可用能力icon
架构说明
支撑CSP对象存储集群,用于提供监控、日志、数据库备份、容器镜像的存储;采用跨区域高可用部署;每个区域中2个副本,合计4副本。支撑集群,用于提供PaaS云产品所需要的支撑数据库、ZK等组件,采用跨区域高可用部署,采用物理机部署。Global集群,用于提供管控容器集群的资源,采用跨区域高可用部署。业务集群,用于提供业务应用所需要的资源;采用跨区域高可用部署。
icon容器业务高可用部署方案icon
icon容器业务高可用部署方案1icon
icon容器业务高可用部署方案2icon
icon运营运维icon
icon运营运维-角色和项目管理icon

用户:Tencent TCS平台的使用者。用户有不同角色,不同角色的操作权限不同,按权限访问资源。项目:Tencent TCS上的一个对象管理集合。用于资源隔离和配额限制,提升协作和管理便捷性。应用:项目内部的部署单元,对应一组业务组件。集群:Tencent TCS上的一个Kubernetes容器集群。Global集群为Tencent TCS管控集群,其它为Tencent TCS业务集群。管控集群和业务集群可分可合。不支持项目跨集群。Tencent TCS角色定义:1、超级管理员-产生管理员2、管理员-所有资源的管理者3、观察员-所有资源只读4、审计员-操作日志审计

icon运营运维-角色和项目管理icon

用户:Tencent TCS平台的使用者。用户有不同角色,不同角色的操作权限不同,按权限访问资源。项目:Tencent TCS上的一个对象管理集合。用于资源隔离和配额限制,提升协作和管理便捷性。应用:项目内部的部署单元,对应一组业务组件。集群:Tencent TCS上的一个Kubernetes容器集群。Global集群为Tencent TCS管控集群,其它为Tencent TCS业务集群。管控集群和业务集群可分可合。不支持项目跨集群。Tencent TCS角色定义:1、超级管理员-产生管理员2、管理员-所有资源的管理者3、观察员-所有资源只读4、审计员-操作日志审计

icon运营运维-镜像仓库icon

TCS 提供镜像的安全扫描:在镜像仓库视图中可以对现有的镜像源中的镜像进行安全扫描,包含对镜像的漏洞检测、配置文件检查等(Clair 集成)。

icon运营运维-镜像仓库icon

可以在镜像仓库视图中查看镜像库中所选镜像的信息,可查看到镜像对应的DOCKERFILE文件信息,查看镜像分层的Layer信息。TCS 支持从镜像管理视角查找到镜像所在主机,以及基于此镜像所创建的容器。

icon运营运维-镜像仓库icon

可以在镜像仓库视图中查看镜像库中所选镜像的信息,可查看到镜像对应的DOCKERFILE文件信息,查看镜像分层的Layer信息。TCS 支持从镜像管理视角查找到镜像所在主机,以及基于此镜像所创建的容器。

icon运营运维-镜像仓库icon

TCS 支持从镜像管理视角查找到镜像所在主机,以及基于此镜像所创建的容器。

icon运营运维-镜像仓库icon

TCS提供跟进不同租户的多种权限层级的镜像仓库供用户选择,其中公共镜像仓库可以存放日常通用使用的基础镜像,而每个租户还可以创建私有仓库,私有镜像仓库默认只有创建人才能使用,而通过在私有镜像仓库上赋予用户权限,可以小团队范围内的共享镜像仓库。私有镜像仓库默认具有隔离权限,保证安全可靠,也可以通过共享镜像仓库,提供公共可用的镜像。

icon运营运维-监控icon

TCS 平台支持提供基于Prometheus监控工具和Grafana可视化平台的监控方案,能够对平台自身组件、应用以及服务提供全栈的监控。支持K8S机器的节点、pod、容器等各层的cpu、内网等利用率监控。支持节点、pod和master组件的状态监控。支持集群流量和存储qps/时延的监控。

icon运营运维-日志icon
日志分析服务为平台提供了Tencent TCS平台统一的日志数据管理平台,具有日志统一存储、实时检索、查询和分析、监控告警的能力,统一的日志平台可以集中管理企业日志,收集开发团队在开发过程中产生的日志,或者业务运行中的日志,帮助用户提升运维、运营效率,快速查找和定位问题,并持续挖掘日志数据价值。
icon运营运维-日志icon

TCS支持日志中心,包括日志的采集、索引、存储和分析,用户可以在日志中心基于loki语法进行各种组合搜索,并进行事件编排,同时也支持联动告警。

icon运营运维-告警通知icon

TCS 支持集中展示k8s集群告警策略。支持告警列表查询功能,支持按类型、告警对象、状态等过滤。告警详情支持展示告警对象、触发时间、告警等级等。支持告警屏蔽。TCS 支持将平台监控、告警、事件等信息以邮箱、短信、webhook、企业微信等形式发送给已配置好的通知发送人,支持给一个通知添加多个通知方式。

产品推荐 查看更多>>
    腾讯云移动游戏安全解决方案

    腾讯云手游安全服务为手游行业提供覆盖全场景的一站式安全解决方案,从游戏上线前的安全评审、漏洞挖掘、安全加固,到上线后的修改器对抗、变速器对抗和模拟器对抗,再到打金工作室监控与渠道反作弊保护,真正做到覆盖全生命周期的安全保护。

    最大程度降低事后外挂危害与外挂打击成本

    实现对作弊行为进行全面监控,进行反作弊保护

    以性能稳定为前提,为手游安全保驾护航

    腾讯云数据仓库PostgreSQL

    腾讯云数据仓库PostgreSQL是基于 MPP(大规模并行处理)架构的简单、快速、经济高效的云端数据仓库服务,兼容 Greenplum 开源生态, ,满足用户PB级海量数据分析的需求。

    支持海量数据高性能交互式多维分析

    覆盖OLAP及OLAP全领域

    提供对业务场景及分析场景统一支撑

    满足广告行业数据实时录入、实时查询等需求

    腾讯云金融虚拟营业厅

    腾讯云金融虚拟营业厅,通过混合云的部署方式,利用腾讯云强大的骨干网络和实时音视频技术,实现基于移动端的远程视频柜员支持服务,同时支持视频双录和双向传输,灵活对接业务场景,实现从文字—语音—视频的服务升级,同时提升网点服务的深度。

    基于移动端的远程视频柜员支持服务

    支持视频双录和双向传输

    灵活对接业务场景

    从文字—语音—视频的服务升级