上游棋牌

雷雷猪>热度>正文

春晚红包活动史上首次未出现宕机,百度始终稳健的服务和过硬的技术获点赞

2019-03-11 00:52:48 分享

  “除夕当晚,全球观众参与百度APP红包互动活动次数达208亿次”,这是作为本届春晚独家网络互动平台与红包互动平台的百度,刚刚公布的春晚红包活动数据。但与往年不同的是,发着史上最高金额红包的百度APP,竟然没有宕机,一些第三方应用商店却“瘫痪”了。苹果手机自带的应用下载工具也一度无法正常使用。

上游棋牌  据相关手机厂商反馈,“是因为大量用户下载百度系产品导致崩溃”。

  春晚和互联网公司合作的互动史上,百度成为第一个扛住巨大春晚流量冲击的公司。

  从主持人口播到摇一摇,再到红包入账,参与活动的数亿用户没有发现卡顿、没有白屏,用户体验像“丝滑一般”。这背后体现出了百度始终稳健的服务能力和过硬的技术实力。

  猪年春晚,百度提供了4轮9亿的红包。每轮活动,用户的任务都不相同,有的去摇一摇、有的去feed流中、还有进入小程序或小度商城。涉及百度数十个产品、百多种用户场景。再加上新增的AI玩法,这会给百度APP带来高并发、大流量,给百度云的服务器、带宽等基础设施带来巨大冲击。

  实际上,春晚抢红包对百度来说主要存在三大挑战:短期的机器资源和网络带宽资源需求量巨大;临时用户登录量极大;瞬间出现巨大流量峰值。

  但百度整个系统在除夕夜显示出了良好的弹性,全自动自如扩容缩容。数万台机器支持快速扩展,快速响应数亿网民的需求。当遇到流量洪峰时,系统会智能化调度,根据用户任务的不同,层层计算,匹配适应的容量,满足每秒亿级的服务请求,整个过程,就像有一个多层漏斗化解流量洪峰,优雅调控确保用户流程体验。

  在春节期间,中国网络还存在一个特殊的迁徙现象。很多网民会从一线城市回到三四线城市。这使得流量结构发生变化。百度春晚技术保障项目管理团队根据往年春节用户迁移路线,提前规划好了不同地区的所需要的网络资源。百度云的智能调度系统,能够分钟感知不同地区资源紧张程度,并进行相应的资源调度和补给。

  整个系统处理能力能够如此伸缩自如,依赖于百度早已成熟的网络架构。过去十多年,百度网络架构经历了百度自有业务规模快速增长和To B业务多样需求的考验,具有很好的高可扩展性和灵活性,可以快速调配服务器,支撑快速接入带宽资源,调度系统可以很好的支撑节点的快速扩容。

  在最短的时间内,用最少的资源满足数亿网民的需求,这是百度对本次春晚红包项目技术的另一个考验。

声明:本站部分资源来源于网络,版权归原作者或者来源机构所有,如作者或来源机构不同意本站转载采用,请通知我们,我们将第一时间删除内容。本站刊载文章出于传递更多信息之目的,所刊文章观点仅代表作者本人观点,并不意味着本站赞同作者观点或证实其描述,其原创性及对文章内容的真实性、完整性、及时性本站亦不作任何保证或承诺,请读者仅作参考。
编辑: