央视春晚红包就像拉门的手,门是未知的,侧门是自主创新。
2016年,手机微信成为春晚嘉宾,全员“抖”红包雨,让电子设备红包成为春节新习俗;
2017年,支付宝钱包成为央视春晚红包合作方。以前讨论什么新综艺。当年的话题讨论就是敬业和“咻”。
今年,百度“承包”了2019年央视春晚的红包,全球观众参与红包互动交流的频率高达208亿次。百度App成为2020年红包对决的大赢家。
今年的春晚也是对百度云的一次大练兵。之前从未经历过如此规模的最高总流量值。简单的“抢红包”背后有三个技术挑战:如何处理巨大的临时账号登录量,如何求解瞬时最大总流量值,如何在短期内解决巨大的资源需求?
在央视春晚四个多小时的全程中,一些第三方应用商店闻风而动。百度App没有出现服务器宕机,成为第一家守住央视春晚红包冲击的互联网公司。百度云在这场战争中走到了极端。
抢到红包的“顺利”感
在大量业务流程高并发的场景下,所有小问题都会成为大安全隐患,原生态的技术问题无疑是运维管理的底层。
与以往不同的是,百度还发布了新的AI玩法,如搜索视频、语音、与大牌明星合影、祭拜早年等。多元化的玩法也在磨练百度云的AI能力。好在央视春晚的整个过程中,百度App给人的感觉可以用“流畅”来形容:
晚上8点40分,当主持人喊出“抢红包刚开始”的动态口令时,参与“摇一摇”拿红包的用户迅速突破1亿,2亿元红包随即被抢光空。仅第一轮“摇一摇”红包,就有92亿人参与红包互动交流。
为了解决第一波总流量的高峰期,百度央视春晚技术支持部对落地时的内容加载进行了改进。针对抢红包主题活动中的瞬时总流量洪水,后台管理会自动识别变化,快速计算云计算服务器的需求,智能调度生产增加系统软件量,进行有效的带宽分配。此外,百度云在20天的新项目规划期内,短信承包能力至少提升了几十倍。与运营商合作,还在云上部署了一键登录功能,缓解了很多客户在第一轮登录系统上的工作压力。
晚上21点18分,第二轮短视频红包刚刚开始,互动交流频率随后增加到115亿,严重磨练了网络带宽。
为了保证短视频红包的客户体验,百度提前进行了两手准备:一是技术提升,完美还原视频和照片,最大限度降低网络带宽的工作压力;二是提前规划总体布局,共享基本建设资源。比如IDC和CDN三周就完成了相当于2018年全年的基建金额。此外,智能监控系统可以分分钟识别不同区域资源的焦虑程度,进行相对的资源生产调度和补充。
晚上22:40,第三轮搜索红包全面启动,此轮互动交流加入了语音控制的互动交流游戏。截止23:00,参与百度APP红包的全球观众互动交流总数已增至137亿次。
晚上23:30,最后一轮红包主题活动开启,客户主动性比第一轮有些弱,依然是50多亿次互动造成的。
最后,统计数据显示,除夕夜,百度呈现四轮9亿红包,全球受众参与互动交流活动频次208亿,APP最高DAU值增长2亿。
央视春晚红包无服务器宕机的背后,是百度央视春晚技术支持部提前一个多月精心的整体策划和准备。每项风险防控措施都配有相应的技术解决方案。
比如在拓展IT资源层面,要提前做好整体规划、合理布局和基本建设,实现资源共享。并且在时间紧、日常任务重的压力下,北京顺义华威主机房8小时完成万台网络服务器物理发布,16小时进行自动化技术发布和交付业务流程应用,创造了行业网络服务器交付率新纪录。除了整体技术实力,最能体现百度技术工程师的高效执行能力。
智能架构击败“网络爆炸”
从2016年春晚开始引入红包的游戏,基本上所有的互联网大佬都会争夺红包主题活动的举办权,但并不是所有的游戏玩家都像百度这么“幸运”。
央视春晚红包背后的“魔鬼”是服务器宕机,以至于有一种流传很广的说法:春晚做广告的最低门槛是一天花费一亿以上,否则网络服务器很可能瞬间崩溃。
早在2016年,手机微信与央视春晚合作期间,就出现过数次服务器宕机:当晚9点,手机微信出现短暂服务器宕机,央视春晚全程送出1.2亿红包。但也有不少网友在社交媒体上反映卡屏,信息无法接受,红包发不出去。
2017年,支付宝钱包获得央视春晚合作机会,除夕红包主题活动总参与人数达3245亿,是2016年央视春晚互动传播频率的29.5倍。与此同时,出现了服务器停机。
2018年央视春晚服务器宕机的恶性事件早已报警数次,合作方淘宝也提前算好了各自的极端,17年双11基本翻了三倍。于是,很多网友调侃无法注册用户,无法关联家庭号,无法在核心区抢红包等等。经历了来自双11诸多挑战的阿里云服务器,也在央视春晚的流量高峰面前倒下了。之后公布的数据信息显示,央视春晚最高总流量是17年双11的15倍。
服务器宕机的频繁发生,并不是因为滕循和阿里巴巴没有“一流的安全性”,而是反过来,通常需要花钱投入数百个技术保障小组。央视春晚红包是互联网大佬们的目标,也是云计算的春节竞技场。说白了,服务器宕机的历史也是云计算的进化史。
毫无疑问,阿里巴巴双11的故事在市场上广为流传,两年前的后台管理保障也被广泛称为“网络爆炸”的算计。比如2012年之前,IOE系统软件被互联网公司广泛使用,IBM的小服务器与Oracle数据库查询、EMC存储设备合作。以便从今年年初到年底提前准备一场双11考试。最后开云连合格的成绩都没有。
经历过双11的阿成徐苑,在一个运维管理全靠咆哮,扩张全靠“杀”非关键系统软件的时代,找回了自己的品牌形象:“双11那天,大家看着自己网络服务器的系统软件水位线,出了问题,尖叫起来。空的资源如何转移?之后音量不足,一些非关键系统软件被杀。”
好像百度云保证了2020年央视春晚,系统软件随时随地每秒响应百万请求,应用快速扩展应用大量请求解决。智能化取代了“网络爆炸”。百度的一些技术人员做了一个品牌形象的比喻,比如:“所有的管理系统都像一个有延展性的容器,自动膨胀,轻松收缩。遇到总流量洪水时,系统软件会智能调度生产,快速连接网络带宽资源,根据客户日常任务的不同,匹配整合量。”
另外,在基础设施建设方面,百度云的辉煌与百度长期以来的网络架构有关。过去十年,百度的网络架构经历了现有业务流程的不断增长和ToB业务流程各种要求的锤炼。具有非常好的扩展性和协调能力,可以快速准备网络服务器,其支撑点可以快速连接网络带宽资源。智能监控系统可以支持连接点的快速扩展,大大提高了服务项目的可用性和运维管理的高效性。
所有奇迹sf的出现都离不开背后的勤奋,央视春晚红包不在此列。
AI对B的一个小测试
每一次实战演练都是对互联网技术基础设施建设的一次检验,也是技术迭代更新的起点和跳板。
正如很多人所想,没有“黑五”产能过剩的云计算服务器,就没有亚马逊押宝云计算的信心,就没有双11、618这样的电商狂欢夜。或许云计算在中国的爆发还要再等两年。同样的例子也出现在云计算的春节竞技场上。率先挑战的百度云拿出了百分之十的试卷,印证了百度在云计算一线的影响力,也将百度的对话式检索、自然语言理解和解析等AI能力暴露在聚光灯下。
我觉得这里面的既得利益者不容易局限在百度App。2018年9月百度云志峰会上,宣布对外开放,发布了兼顾深度神经网络、对话式检索、自然语言理解和解析等全方位AI能力的AItoB服务平台根据云服务器架构集成在AI、互联网大数据、云计算方面的能力,帮助公司快速连接clouds空获取AI能力。
网络上有很多派别,百度恰好是技术派的典型,也就是说央视春晚不宕机红包把百度的技术能力展现到了极致。技术对抗的背后,一个央视春晚红包让百度云的AIToB小试牛刀,这毕竟是所有制造业的利益所在。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)