公关危机即公共关系危机,是公共关系学的一个较新的术语。它是指影响组织生产经营活动的正常进行,对组织的生存、发展构成威胁,从而使组织形象遭受损失的某些突发事件。
第一:舆情监测。
由专业机构运用技术手段,对互联网上的海量信息进行监测,掌握企业和产品自身、竞争对手以及行业的舆情状况,并重点关注负面声音,对其内容进行初步分析。
第二:内部研讨。
舆情监测更多是数据筛选,初步分析,要定期组织内部相关人员对舆情报告进行研讨,对于负面声音进行定性,并拟定应对计划。
第三:倾听外部意见领袖意见。
企业自身人员由于身在企业内部,有可能“不识庐山真面目,只缘身在此山中”,出现盲点,因此要注意倾听外部意见领袖的意见。这些意见领袖包括,医药领域的媒体、行业协会领导、行业资深人士、公关专家等。有他们对企业的舆论状况提出意见。
第四:制定危机预案。
通过前面的工作,对企业的舆情状况有了比较完整的了解,应该联合危机公关专家,制定本企业的危机预案,建立危机管理小组、进行明确的风险提示,给给出应对建议等。
第五:未雨绸缪,有针对性的解决某些问题。
预案只是系统性的指导,关键还是行动,把工作做在先。比如,进行必要的毒理学试验、临床试验、规范标示和说明书;此外,针对药品的高专业性特点,进行充分的科普也是非常重要,以科普的方式让媒体和消费者掌握必要的药品知识,避免因为专业知识的缺乏而误解。
第六:重要外部资源整合。
危机公关中单靠企业一方说话,权威性不足,需要各个方面的声音。企业应该在平时注意围绕公关危机整合重要外部资源,包括第三方研究机构、监测机构、政府主管部门、核心媒体、行业资深人士。需要注意的是,我所谓的整合资源并非是说拉关系,而是指在相关各方能够从各自专业和职能出发发出自己的声音,确保危机中,专业、理性的声音不被淹没。相反,相关方没有自己的专业立场,一味正在企业立场说话,反而适得其反。
扩展阅读——危机公关策划书1
一、市场分析
针对市场的宏观环境进而了解消费者,了解到市场上消费对于奔驰汽车的形象以及购买需求点。奔驰车的品牌形象,核心竞争力,对于消费者引导开发消费者需求,提升企业品牌。有针对性的市场分析。
(1)企业的宏观环境分析
卓越品质在为奔驰赢得诸多荣誉的同时,也赢得了客户的极大认可。在今年,德国汽车协会进行的第二次客户满意度调查中,德国汽车协会杂志《摩托世界》的读者将奔驰评为二级( “优秀” ) 。这充分表明了消费者对奔驰的信赖和喜爱。 可以预见,深受用户青睐的奔驰,在不断创新精神的推动之下,将继续屹立于豪华车的巅峰。
(2)竞争对手分析
宝马:作为运动性能、 *** 控性能最为突出的豪华轿车品牌,宝马的市场定位是喜欢享受驾驶乐趣的专业人士。得到了这部分用户的青睐。但是,由于进口车的高关税、高定价,长期以来,拥有宝马成了国内车迷们遥不可及的梦想,宝马在中国也成了奢侈品的代名词、身价的象征。加之宝马的品牌特性不太适合做公务车,其用户因而被狭隘地理解为高收入人群,甚至是低素质的暴富阶层。这种理解渐渐被固化,以至于我们身边的许多喜欢追求驾驶乐趣的高素质专业人士,即便有经济实力,也以“太扎眼”为由下不了买宝马的决心。这不但影响了宝马销量的扩大,而且直接导致宝马给人以缺乏亲和力的印象。
(3)企业公关现状 及消费者行为分析
因砸车事件导致 一时间“砸奔事件”在全国引起了轩然大波。从北京,武汉,山西……纷纷 传来了针对奔驰汽车的投诉,接下来奔驰公司便疲于应付来自各地的质量投诉, 和铺天盖地的媒体压力。
消费行为分析,根据市场细分,奔驰的购买人群,具有较高的经济能力一定的社会地位。对奔驰车出现的问题,反应非常敏感,带来群体效应较大,这部分人群,有社交领袖的作用。应该谨慎对待处理。
二、公关活动目标
挽回损失,摆脱窘境,消除在顾客心中的不良形象。保持奔驰一贯高端精品的品牌形象,赢得顾客的认可,解决 武汉森林野生动物园 的圆满满意。
三、公关活动主题
活动主题定为:奔驰汽车,德国品质。
四、公关活动对象
高层次消费人群,政府,团体机构。
五、公关活动时间地点
地点:北京 4S旗舰店。
时间:某年12 月 29 号
六、公关活动策划
一新闻发布会:邀请各大新闻门户网站。针对是事件予以澄清,维护奔驰汽车的品牌形象,发布告奔驰汽车同款车型的车主通知书。并在最后给予 武汉森林野生动物园 一定的补偿,再次都买奔驰车予以 29万的减免。
二4S 店同款车型试驾,体验奔驰超凡的舒适体验。并在活动现场竞猜车型,送汽车免费保养,维护。送汽车相关汽车使用品,征集“我与奔驰”主题征文,第一名奖励 10 万元购车款。
三邀请专业汽车杂志编辑参观奔驰汽车工厂,发表相关奔驰软文。
七、媒体宣传
在 《中国新闻出版报》、《中华读书报》、《出版参考》、《出版经济》、《参考消息、 北京参考》、《中国青年报》、《 21 世纪经济报道》 报纸上面刊登。在新浪、玩意、腾讯门户发布文章。
八、进程安排,物料 准备
1、活动为期一天。
2、北京 4S旗舰店,上午 9 点开始。 28 号 12 点开始布置场景。
3、12 月 29 号 12 点开始驾车活动体验,竞猜现场派奖。
4、同时各大门户网站发布详情。
5、12 月 30 号组织给汽车杂志编辑参观奔驰汽车工厂。
九、费用预算
项目
小组
经费
负责人
门户网站
网络公关组
十、效果评估
通过此次危机公关,有效的挽回了奔驰汽车在顾客心中的品牌形象,提升了奔驰汽车与顾客的体验距离,提升奔驰汽车的品牌形象,在面对误解和突发事件时候奔驰汽车对中国地区的重视,体现大公司风范。收到良好评价。
策划书2
一、恢复正常营业:
1、完善内部:
非常时期,建立公关应急小组并快速将合肥目前发生情况快速通报省内其他地市家乐福,收集抵制家乐福行动信息,将总部已经进行的公关活动政府定性,名人支持等有利信息,正面收集,与总部保持每天沟通。
2、外部部署
广泛外围部署,收集抵制活动信息,提前预警系统,关注竞争对手的举措,在价格上确保优势。
3、范围联盟
与一同受到打击的肯德基、麦当劳等企业保持联合,形成联盟,对于一线竞争的沃而玛、麦德隆形成某种意义的合作,一同向政府施加影响力。
4、有选择性开店
开放顺序离学校比较远相对安全的元一店、处于工大边上比较危险的马鞍山店、处于大学环绕非常危险的三里埯店。
5、政府和权威部门对事件进行定性,并组织保护和预防措施,高调定性、低调开业。
二、划清界限、消除影响
1、谨慎选择媒体
为了不变成q靶子,必须谨慎选择媒介,针对流传的不实报道重申公司的声明,不申辩、不讨论、不表态、不出面,对大众的情绪发泄表示理解,充分尊重媒介的伙伴,加强未来合作,短期减少广告投放。
2、高的更高、低的更低
高调划清界限、主流媒体声音统一,与分裂祖国划清、支持奥运。
低调经营,以受伤和无辜的形象出现,对中国普通百姓的情绪宣泄表示理解,由政府出面呼吁普通百姓克制、回归理性。
三、恢复形象
1、媒体软化政策
主流媒体的控制相对简单,长期被忽视的基层媒体和新兴媒体(很多是这次活动的组织者、核心目的是出名和引起关注)如网络论坛等等,与他们接触,并进行某种意义上在未来的合作,适当的影响几大主流网坛、就等于影响了网民这一群体的传播。
2、媒体形象的中国化
以第三方(权威)的方式肯定家乐福在中国的正面成绩,突出与世界同步接轨的购物环境和价格,并以立足合肥融入安徽为主题强调家乐福为所在地带来的就业和方便市民。
3、亲民形象
针对物价不断上涨,家乐福千方百计降低采购成本,以最优惠的价格帮助城市弱势群体!
四、扮猪(受害者)吃虎(市场份额)
1、猪,好哭的孩子多吃奶
由于政府进行了表态,法国部长也站出来进行慰问,有缓和的迹象,而家乐福作为此次抵制的重灾区,可以争取到更多政府支持,为进一步扩张做好准备。
以这次事件为契机考核产品供应商,保证供应商队伍的稳定,可以以此次事件,要求供应商提供更多的厂家支持。
2、武松打虎(5月促销)
全中国都知道51家乐福要笼络人心,要做大型的促销活动,一旦摘掉去家乐福购物不爱国的帽子,一直压制的消费冲动就会猛烈爆发。
五、祸水东引
1、如果事件继续扩大,可以将矛头指向活动的直接授意者,认为有人在 *** 纵这次活动,以大众被利用和愚弄的宣传策略为主,将矛头直接指向这次利益受惠者本地超市连锁。
2、在事件中,可以利用关系平台,有意识的将活动斗争的方向,从家乐福转移到其他地方,如抵制沃儿马等等。
3、在事件中,及时捕捉,如发生不好的事件,如暴力,则可以充分利用和扩大,达到祸水东引目的。
六、绝地反击
1、新闻策划
《菜价降了--超市惠民新招(压缩中间采购环节、降低价格)》
《家乐福-想说爱你不容易》(家乐福事件剖析,认定家乐福扮演出气筒的被冤枉的角色)
《奥运来了--家乐福举办迎奥运、优质服务月活动》
《家乐福事件--谁忽悠了谁,谁又爱上谁?》(矛头指向竞争对手,和利益既得者)
《理性爱国-做个务实的中国人》
《很家乐福、很爱国----家乐福工会主席XX谈~~事件》
2、51促销活动
3、家乐福奥运惠民计划
危机公关案例分析
在信息爆炸的互联网时代,危机公关能力强不强关系到企业的声誉和经营,如何快速正确应对来自互联网以及线下的危机,这对企业公关人员是一个巨大考验。危机公关在互联网时代显得特别的`重要,公关人员需要做到的就是以一种极为有效的沟通快速处理遇到的困境。沟通之前,需要快速去寻找和分析危机的源头,搜集信息,分析归类,做出决策。
一般来说,成功的危机公关案例一般具备以下特点:
1反应快速:面对危机,快速处理比推延了事更加有效。而且,应该态度诚恳主动承担相应责任。解释只会让危机恶化。
2多渠道发布公关文案
3富有趣味化的语言吸引关注:现代危机公关,不是官僚式的发布公文文件,直白无味的陈词让人感觉乏味,特别是在移动互联网时代,更加需要考虑网民的口味。
4放低身段,不傲娇。
5主动透明公开,让网民、公众看得见。
成功的危机公关案例分析有哪些?下面以511网易服务器危机事件是如何完美公关让用户满意同时还进一步提升用户对网易产品的关注和用户粘性的。
首先,让我们一起来回顾下事件经过,2015年5月11日晚上约21时,许多玩家发现网易旗下的游戏产品连接异常,无法正常登陆。除游戏产品之外,陆续有用户发现网易新闻客户端、网易云音乐、易信、有道云笔记等在内的数款产品无法连接服务器的情况。这到底是什么情况?数亿级别的用户都是满脑疑惑!
随后,有网友在微博发布了网易大厦着火的谣言(暂时不明动机),于是话题开始在微博发酵,网友开始通过微博搜索查看相关消息,也有众多网友通过百度搜索相关消息,网络上的谩骂和抱怨开始呈现上升态势。
网易到底该如何接招?是和一般常见的危机公关一样,发个声明就算了?这当然不是网易的态度!
从“网易新闻客户端VS新周刊”、“网易新闻客户端VS腾讯新闻客户端”等众多事件,想必很多人已经见识到了网易君的智慧,他时而是一个不卑不亢的君子,时而是一个风趣优雅的文艺青年,时而是搞怪顽皮的小孩。他到底是谁,他就是一个百变达人。
现在看来,分析此次网易危机公关的成功原因在于三点:
第一:反应迅速
在网易服务器连接不上之后,网易用户怨声载道,同时谣言遍地,但网易官微在21时42分发布声明,反应时间42分钟,低于1小时。
申明原文:尊敬的网易用户,2015年5月11日晚21点,因骨干网络遭受攻击,导致网易旗下部分服务暂时无法正常使用,技术人员正在抢修中,具体修复时间请关注稍后公告通知,给您带来的不便敬请谅解。关于网易大厦着火的新闻为谣言,网易公司保留追究法律责任的权利。
时间把控的非常到位。也许有朋友会说,42分钟,时间太长了吧,不就是发条微博吗?怎么那么费劲?但是,需要明白的是危机公关除了反应迅速外,更需要的是“准确、全面、一次性”地解决所有用户的疑惑。危机发生后,是需要一定的时间通过社交媒体去分析和判断舆论的源头和导向,弄清楚目前用户存在的误解和疑惑。如果只注重时效性,不花一定的时间去对目前的舆论做准确的判断。那么就会导致发出的声明不能干净利落地解决目前所有的问题,拖泥带水,危机依然存在。
第二:多渠道扩散
得益于网易的多产品战略,网易在游戏、资讯、社交、娱乐、电商、工具等产品上都有微博阵地,粉丝超亿,这些都是自有的发声渠道。另外,值得一起的是,各个产品并非单打独斗,而是有着紧密的沟通和配合。产品线以网易新闻客户端为中心,各产品助力信息扩散。如网易花田、网易云音乐等产品与网易新闻客户端信息出口一致,网易云阅读则转发扩散。当然,完全百分之百地信息一致难免显得有些单调乏味,网易考拉则独树一帜,发布了以下信息。
网易考拉公告原文:亲爱的网易考拉海购用户,2015年5月11日晚21点,因外星人袭击,导致考拉海购网站及app暂时无法登陆,复仇者联盟已经出动,具体修复时间请关注稍后公告通知,给您带来的不便敬请谅解。
网易云音乐与其趣味互动:你的公告为什么不按套路出牌?!场面十分有趣,引发了很多笑场。
第三:段子手趣味化扩散
想必大家都已经看到了段子手的调侃,不知道是否和我一样认同这是此次公关最为出彩的地方。
让我们舍身处地感受一下,当一个用户每天都在通过网易的服务器登录各个产品,这已经成为一种生活习惯的时候,突然有一天无法登录上去,他会是什么心情?相信那是一种焦急、不解和紧张。段子手们这种趣味化地表达,很好地分散了网易服务器被攻击这一事件的注意力。从“网易被黑出翔”到“网易被娱乐”,这完全引发了不同的效果。假如,网易只有一种被攻击、被黑的受害者身份,这是很难去引发普通粉丝的声援,反而会引发一些用户质疑网易的技术能力,甚至赌气去谩骂,最后形成从众效应。通过另一种被段子手娱乐的身份,则有效分散了注意力,甚至激发了网友的想象力和创造力,形成全民娱乐。
总之,相比痛苦,人们会更愿意记住那些有趣并让他们感受到快乐的事情。
让我们再一起欣赏其中段子手的创作:
@sky-le-lu:丁三石渡劫服务器被龙卷风卷走了是什么鬼啊哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈哈
@李铁根:急报:公元2015年5月11日,全宇宙知名boss哥斯拉攻击网易大厦,导致网易游戏全面断线。据消息人士介绍,哥斯拉喷火前曾大吼:“我如此Q萌,为什么不把我做进梦幻!我不服!”神情颇为幽怨。
@八卦_我实在是太CJ了:公元2015年5月11日,我们的记者直播网易大厦被攻击现场,由于哥斯拉入侵,导致网易游戏全面断线,只见哥斯拉对着网易大厦喷出愤怒之火:“网易游戏里跟我结婚的那位给我死出来!把我的蛋蛋还给我!!”
那么为什么要选择段子手去做这些事情?
那网易非常重要的一块业务网易游戏来说,2014年第四季度网易在线游戏服务收入为2863亿元人民币,平均每天收入311196万,平均每小时收入12966万。喜欢玩网游的朋友会非常清楚,晚上是游戏用户在线的高峰期。此次停电不仅是网易自身直接损失了超过千万收入,还会影响到海量游戏玩家的虚拟收入。如果处理不得当,会引发用户的强烈抱怨甚至索赔。段子手在社交媒体上粉丝巨大而且活跃度高,信息穿透力很强。他们将一件灾难性事件,通过娱乐化的表达,塑造成了一种全民娱乐,有助于消除用户和玩家的负面情绪,这样不仅是拯救了品牌,同时也避免了被集体诉讼,导致进一步的经济损失的局面。
当然,除此之外,网易还有其他一些补充动作,比如服务器在次日凌晨2:31恢复后,网易第一时间发布恢复消息,并向用户表达了歉意。
公告原文:经过工程师团队的紧急抢修,网易新闻客户端现在已满血复活,各位小主可以随时刷新使用了。此次故障给大家带来的不便我们深深的致歉!困难也鞭策我们要加倍努力!感谢大家的耐心守候和支持!
总之,我认为这次是一次态度、速度、尺度都十分到位的一次危机沟通案例,非常清晰地观察和判断了舆论导向,并做了极为有效的沟通,干净利落地解决了问题。无论是核心策略制定,内容策划和扩散方式都值得学习。
地球分为东西十二个区域,共计 24 个时区,以格林威治作为全球标准时间(即GMT 时间,0时区),东部时区以格林威治时区进行加法,而西时区则以格林威治时间作减法。但地球的轨道并非正圆,在加上自转速度逐年递减,时间会有误差。在计算时间的时,最准确是使用“原子震荡周期”所计算的物理时钟。这种时钟被称为标准时间,即UTC时间(Coordinated Universal Time)。UTC 的准确性毋庸置疑,美国的 NIST F-1 原子钟 2000 年才将产生 1 秒误差。
实际生产生活中,使用原子时钟这种准确的计时似乎缺少必要性,我们更多关注的是参与活动的各个个体在相同的时间环境下对话。例如,当我们说明天早上8:00开会的时候,我们并不在乎原子时钟真实的计时情况,只要参会的所有个体对“明天早上8:00”这个时间具有相同的认知即可。这里时间同步是个非常重要的概念,如果某位同仁手表慢了半小时,那它对“早上8:00”的理解就比其他人要慢半小时,最终会导致ta开会迟到。同样的道理,我们在影视剧中经常能看到特种作战小组在执行特别任务前一般都要先完成组员之间的时间同步,避免组员之间在时间上的认知差异给任务带来不必要的麻烦,甚至危及生命。
NTP(Network Time Protocol,网络时间协议)是由RFC 1305定义的时间同步协议,用于分布式设备(比如电脑、手机、智能手表等)进行时间同步,避免人工校时的繁琐和由此引入的误差,方便快捷地实现多设备时间同步。 NTP校时服务基于UDP传输协议进行报文传输,工作端口默认为123/udp 。
NTP的实现过程如图所示,假如设备A和设备B本地时间存在差异(设备A早上10点,设备B早上11点),现在设备A欲通过NTP和设备B在时间上保持同步:
这样可以轻松计算出来:
现假设设备A和设备B之间的时间差位 ,易得:
通过上式计算出
设备A就能根据 调整本地时间,实现和设备B的时间同步。
NTP的目的是在一个同步子网中,通过NTP协议将主时间服务器的时钟信息传送到其他二级时间服务器,实现二级时间服务器和主时间服务器的时钟同步。这些服务器按层级关系连接,每一级称为一个层数(stratum),如主时间服务器层数为 stratum 1,二级时间服务器层数为 stratum 2,以此类推。时钟层数越大,准确性越低。
注意:准确性指相对于主时间服务器而言。
在NTP网络结构中,有以下几个概念:
在正常情况下,同步子网中的主时间服务器和二级时间服务器呈现出一种分层主从结构。在这种分层结构中,主时间服务器位于根部,二级时间服务器向叶子节点靠近,层数递增,准确性递减,降低的程度取决于网络路径和本地时钟的稳定性。
NTP有两种不同类型的报文,一种是时钟同步报文,另一种是控制报文。控制报文仅用于需要网络管理的场合,它对于时钟同步功能来说并不是必需的,这里不做介绍。
时钟同步报文封装在UDP报文中,其格式如图所示:
各主要字段解释如下:
其中,NTP发送和接收的报文数据包类似,通常只需要前48个字节就能进行授时和校时服务。下面分别是抓包获取的NTP请求数据包和回复数据包示例(仅前48个字节):
收到数据包后,接收端本地再产生一个时间戳( )。
这里,每个返回数据前4字节为秒的整数部分,后4字节为秒的小数部分。
设备可以采用多种NTP工作模式进行时间同步:
单播C/S模式运行在同步子网层数较高的层级上,客户端需要预先知道时间服务器IP或域名并定期向服务器发送时间同步请求报文,报文中的 Mode字段设置为 3(客户模式)。服务器端收到报文后会自动工作在服务器模式,并发送应答报文,报文中的Mode字段设置为4(服务器模式)。客户端收到应答报文后,进行时钟过滤和选择,并同步到优选的服务器。客户端不管服务器端是否可达,也不管服务器端所在的层数。在这种模式下,客户端会同步到服务器,但不会修改服务器的时钟。服务器则在客户端发送请求之间无需保留任何状态信息。客户端根据本地情况自由管理发送报文的时间间隔。
对等体模式运行在同步子网较低层级上,主动对等体和被动对等体实现时钟相互同步。这里有两个概念:主动对等体和被动对等体。
如上图所示,对等体模式工作步骤如下:
1主动对等体和被动对等体首先交互Mode字段为3(客户端模式)和4(服务器模式)的NTP报文,这一步主要是获得通信时延。
主动对等体和被动对等体可以互相同步。如果双方的时钟都已经同步,则以层数小的时钟为准。
注意:对等体模式不需要用户手动设置,设备依据收到的NTP报文自动建立连接并设置状态变量。
广播模式应用在多台工作站和不需要很高精度的高速网络中。主要工作流程如图所示:
注意:在广播模式下,服务端只负责向外广播时钟信息,自身时钟不受客户端影响。
组播模式适用于有大量客户端分布在网络中的情况。通过在网络中使用 NTP 组播模式, NTP 服务器发送的组播消息包可以到达网络中所有的客户端,从而降低由于 NTP 报文过多而给网络造成的压力。主要工作流程如下:
注意:组播模式和广播模式类似,只是它是向特定的组播地址发送时钟同步广播报文。在组播模式下,服务端只负责向外广播时钟信息,自身时钟不受客户端影响。
多播模式适用于服务器分布分散的网络中。客户端可以发现与之最近的多播服务器,并进行同步。多播模式适用于服务器不稳定的组网环境中,服务器的变动不会导致整网中的客户端重新进行配置。其工作流程如下:
注意:为了防止多播模式下,客户端不断的向多播服务器发送 NTP 请求报文增加设备的负担,协议规定了最小连接数的概念。多播模式下,客户端每次和服务器时钟同步后,都会记录下此次同步过中建立的连接数,将调用最少连接的数量被称为最小连接数。以后当客户端调动的连接数达到了最小连接数且完成了同步,客户端就认为同步完成;同步完成后每过一个超时周期,客户端都会传送一个报文,用于保持连接。同时,为了防止客户端无法同步到服务器,协议规定客户端每发送一个 NTP 报文,都会将报文的生存时间 TTL(Time To Live)进行累加(初始为 1),直到达到最小连接数,或者 TTL 值达到上限(上限值为 255)。若 TTL 达到上限,或者达到最小连接数,而客户端调动的连接数仍不能完成同步过程,则客户端将停止一个超时周期的数据传输以清除所有连接,然后重复上述过程。
下面补充一些常用的NTP时钟服务器:
更多NTP授时服务器请查看:
假设你比较喜欢清华的服务并打算将 ntptunatsinghuaeducn 作为你的授时服务器。下面将简单介绍不同的 *** 作系统该如何 *** 作使得设备能够使用此服务器同步时间。
本部分以主流Windows 10 系统为例演示如何使用NTP服务同步系统时间。
来将此服务器设置为个人选择的时间服务器。
Linux发行版有两个主流程序支持ntp协议:ntpd和chrony。
具体使用和配置参考各自文档: ntpd doc 和 chrony doc
在“系统配置 > 日期与时间 > 自动设置日期与时间”一栏,填入 ntptunatsinghuaeducn 。
最近因为写论文的关系,泡知网、泡万方,发现了很多学术界对数据中心网络一些构想,发现里面不乏天才的想法,但日常我们沉迷在各个设备厂商调制好的羹汤中无法自拔,管中窥豹不见全局,还一直呼喊着“真香”,对于网工来说沉溺于自己的一方小小天地不如跳出来看看外界有哪些新的技术和思想,莫听穿林打叶声,何妨吟啸且徐行当前新的数据中心网络拓扑主要分为两类
1、以交换机为核心,网络连接和路由功能由交换机完成,各个设备厂商的“羹汤”全属于这个领域
2、以服务器为核心,主要互联和路由功能放在服务器上,交换机只提供简单纵横制交换功能
第一类方案中包含了能引发我回忆阴影的Fat-Tree,和VL2、Helios、c-Through、OSA等等,这些方案要么采用更多数量交换机,要么融合光交换机进行网络互联,对交换机软件和硬件要求比较高,第二类主要有DCell、Bcube、FiConn、CamCube、MDCube等等,主要推动者是微软,这类方案中服务器一版会通过多网卡接入网络,为了支持各种流量模型,会对服务器进行硬件和软件的升级。
除了这些网络拓扑的变化外,其实对数据中心网络传输协议TCP/IP、网络虚拟化、网络节能机制、DCI网络互联都有很多创新的技术和概念涌现出来。
FatTree 胖树,2008年由UCSD大学发表的论文,同时也是5年前工作中接触的第一种交换机为中心的网络拓扑,当时没有太理解,跟客户为这事掐的火星四溅,再来一次可能结论会有所改变,同时也是这篇论文引发了学术界对数据中心内部网络拓扑设计的广泛而深刻的讨论,他提出了一套组网设计原则来达成几个目的
1、全网采用低端商用交换机来组网、其实就是采用1U的接入交换机,取消框式设备
2、全网无阻塞
3、成本节省,纸面测算的话FatTree 可以降为常规模式组网成本的1/4或1/5
物理拓扑(按照4个pod设计)
FatTree 的设计原则如下
整个网络包含K个POD,每个POD有K/2个Edge和K/2个Agg 交换机,他们各有K的接口,Edge使用K/2个端口下联服务器,Agg适用K/2个端口上联CORE交换机
Edge使用K/2个端口连接服务器,每个服务器占用一个交换端口
CORE层由K/2K/2共计KK/4个K个端口交换机组成,分为K/2组,每组由K/2ge,第一组K/2台CORE交换机连接各个POD中Agg交换层一号交换机,第二组K/2的CORE交换机连接各POD中Agg的二号交换机,依次类推
K个POD,每个POD有K/2个Edge交换机,每个Edge有K/2端口,服务器总数为KK/2K/2=KKK/4
K取值4的话,服务器总数为16台
常规K取值48的话,服务器为27648台
FatTree的路由设计更加有意思,论文中叫两阶段路由算法,首先要说明的是如果使用论文中的算法是需要对交换机硬软件进行修改的,这种两阶段路由算法和交换设备及服务器的IP地址强相关,首先就是IP地址的编制,这里依然按照K=4来设计,规则如下
1、POD中交换机IP为10podswitch1,pod对应POD编号,switch为交换机所在POD编号(Edge从0开始由左至右到k/2-1,Agg从k/2至k-1)
2、CORE交换机IP为10kji ,k为POD数量,j为交换机在Core层所属组编号,i为交换机在该组中序号
3、服务器IP为10podswitchID,ID为服务器所在Edge交换机序号,交换机已经占用1,所以从2开始由左至右到k/2+1
设计完成后交换机和服务器的IP地址会如下分配
对于Edge交换机(以10201为例)第一阶段匹配10202和10203的32位地址,匹配则转发,没有匹配(既匹配0000/0)则根据目的地址后8位,也就是ID号,选择对应到Agg的链路,如目标地址为xxx2则选择到10221的链路,目标地址为xxx3则选择到10231的链路
对于Agg交换机(以10221为例)第一阶段匹配本POD中网段10200/24和10210/24,匹配成功直接转发对应Edge,没有匹配(既匹配0000/0)则根据目的地址后8位,也就是ID号确定对应到Core的链路,如目标地址为xxx2则选择到10411的链路,目标地址为xxx3则选择到10412的链路
对于Core交换机,只有一个阶段匹配,只要根据可能的POD网段进行即可,这里是10000/16~10300/16对应0、1、2、3四个口进行转发
容错方面论文提到了BFD来防止链路和节点故障,同时还有流量分类和调度的策略,这里就不展开了,因为这种两阶段路由算法要对交换机硬件进行修改,适应对IP后8位ID进行匹配,现实中没有看到实际案例,但是我们可以设想一下这种简单的转发规则再加上固定端口的低端交换机,对于转发效率以及成本的压缩将是极为可观的。尤其这种IP地址规则的设计配合路由转发,思路简直清奇。但是仔细想想,这种按照特定规则的IP编制,把每个二层限制在同一个Edge交换机下,注定了虚拟机是没有办法跨Edge来迁移的,只从这点上来看注定它只能存在于论文之中,但是顺着这个思路开个脑洞,还有什么能够编制呢?就是MAC地址,如果再配上集中式控制那就更好了,于是就有了一种新的一种路由方式PortLand,后续我们单独说。
如此看来FatTree 是典型的Scale-out模式,但是由于一般交换机端口通常为48口,如果继续增加端口数量,会导致成本的非线性增加,底层Edge交换机故障时,难以保障服务质量,还有这种拓扑在大数据的mapreduce模型中无法支持one-to-all和all-to-all模式。
把脑洞开的稍微小一些,我们能否用通用商业交换机+通用路由来做出来一种FatTree变种拓扑,来达到成本节省的目的呢,答案一定是确切的,目前能看到阿里已经使用固定48口交换机搭建自己的变种FatTree拓扑了。
以交换机为中心的网络拓扑如VL2、Helios不再多说,目前看到最好的就是我们熟知的spine-leaf结构,它没有设计成1:1收敛比,而且如果使用super层的clos架构,也可以支撑几万台或者百万台的服务器规模,但是FaTtree依靠网络拓扑取消掉了框式核心交换机,在一定规模的数据中心对于压低成本是非常有效的
聊完交换机为核心的拓扑设计后,再来看看服务器为核心的拓扑,同样这些DCell、Bcube、FiConn、CamCube、MDCube等,不会全讲,会拿DCell来举例子,因为它也是2008年由微软亚洲研究院主导,几乎和FatTree同时提出,开创了一个全新的思路,随后的年份里直到今天一直有各种改进版本的拓扑出现
这种服务器为核心的拓扑,主导思想是在服务器上增加网卡,服务器上要有路由转发逻辑来中转流量数据包,并且采用递推方式进行组网。
DCell的基本单元是DCell0,DCell0中服务器互联由一台T个端口的mini交换机完成,跨DCell的流量要通过服务器网卡互联进行绕转。通过一定数量的Dcell0组成一个DCell1,按照一定约束条件进行递推,组成DCell2以及DCellk
上图例中是一个DCell1的拓扑,包含5个Dcell0,每台服务器2个端口,除连接自己区域的mini交换机外,另一个端口会依次连接其他DCell0中的服务器,来组成全互联的结构,最终有20台服务器组成DCell1,所有服务器按照(m,n)坐标进行唯一标识,m相同的时候直接通过moni交换机交互,当m不同时经由mini交换机中继到互联服务器,例子中红色线为40服务器访问13服务器的访问路径。
DCell组网规则及递归约束条件如下:
DCellk中包含DCellk-1的数量为GK
DCellk中包含服务器为Tk个,每台服务器k+1块网卡,则有
GK=Tk-1+1
TK=Gk-1 ✕ Tk-1
设DCell0中有4台服务器
DCell1 中有5个DCell0 (G1=5)
Tk1=20台服务器(T1=20)
DCell2 中有21个DCell1 (G2=21)
Tk2=420台服务器(T2=420)
DCell3 中有421个DCell2 (G3=421)
Tk3=176820台服务器(T3=176820)
…
Tk6=3260000台服务器
经过测算DCell3中每台服务器的网卡数量为4,就能组建出包含17万台服务器的数据中心,同样DCell的缺点和优点一样耀眼,这种递归后指数增长的网卡需求量,在每台服务器上可能并不多,但是全量计算的话就太过于惊人了,虽然对比FatTree又再一次降低交换机的采购成本,但是天量的网卡可以想象对于运维的压力,还有关键的问题时高层次DCell间通信占用低层次DCell网卡带宽必然导致低层次DCell经常拥塞。最后还有一个实施的问题,天量的不同位置网卡布线对于施工的准确度以及未知的长度都是一个巨大的挑战。
DCell提出后,随后针对网卡数量、带宽抢占等一系列问题演化出来一批新的网络拓扑,思路无外乎两个方向,一个是增加交换机数量减少单服务网卡数量,趋同于spine-leaf体系,但是它一直保持了服务器多网卡的思路。另一种是极端一些,干脆消灭所有交换机,但是固定单服务器网卡数量,按照矩阵形式组建纯服务器互联结构,感兴趣的同学可以继续探索。
数据中心的路由框架涵盖范围和领域非常多,很多论文都选择其中的一个点进行讨论,比如源地址路由、流量调度、收敛、组播等等,不计划每个展开,也没有太大意义。但是针对之前FatTree的两阶段路由有一个更新的路由框架设计PortLand,它解决了两段路由中虚拟机无法迁移的问题,它的关键技术有以下几点
1、对于FatTree这种高度规范化的拓扑,PortLand设计为采用层次化MAC编址来支持大二层,这种路由框架中,除了虚拟机/物理机实际的MAC外(AMAC),还都拥有一个PortLand规范的伪MAC(PMAC),网络中的转发机制和PMAC强相关,PMAC的编址规则为
podpositionportvmid
pod (2字节) 代表虚拟机/服务器所在POD号,position(1字节)虚拟机/服务器所在Edge交换机在POD中编号,port(1字节)虚拟机/服务器连接Edge交换机端口的本地编号,vmid(2字节)服务器在Edge下挂以太网交换机编号,如果只有一台物理机vmid只能为1
2、虚拟机/服务器的编址搞定后,Edge、Aggregate、Core的编址呢,于是PortLand设计了一套拓扑发现机制LDP(location discovery protocol),要求交换机在各个端口上发送LDP报文LDM(location
discovery message)识别自己所处位置,LDM消息包含switch_id(交换机自身mac,与PMAC无关)pod(交换机所属pod号)pos(交换机在pod中的编号)level(Edge为0、Agg为1、Core为2)dir(上联为1,下联为-1),最开始的时候Edge角色会发现连接服务器的端口是没有LDM的,它就知道自己是Edge,Agg和Core角色依次收到LDM后会计算并确定出自己的leve和dir等信息。
3、设计一个fabric manager的集中PortLand控制器,它负责回答Edge交换机pod号和ARP解析,当Edge交换机学习到一个AMAC时,会计算一个PMAC,并把IP/AMAC/PMAC对应关系发送给fabric manager,后续有虚拟机/服务器请求此IP的ARP时,会回复PMAC地址给它,并使用这个PMAC进行通信。
4、由于PMAC的编址和pod、pos、level等信息关联,而所有交换机在LDM的交互过程中知晓了全网的交换机pod、pos、level、dir等信息,当数据包在网络中传播的时候,途径交换机根据PMAC进行解析可得到pod、pos这些信息,根据这些信息即可进行数据包的转发,数据包到达Edge后,Edge交换机会把PMAC改写为AMAC,因为它是知道其对应关系的。当虚拟机迁移后,由fabric manager来进行AMAC和PMAC对应更新和通知Edge交换机即可,论文中依靠虚拟机的免费ARP来触发,这点在实际情况中执行的效率要打一个问号。
不可否认,PortLand的一些设计思路非常巧妙,这种MAC地址重写非常有特色。规则设计中把更多的含义赋给PMAC,并且通过LDP机制设计为全网根据PMAC即可进行转发,再加上集中的控制平面fabric manager,已经及其类似我们熟悉的SDN。但是它对于转发芯片的要求可以看出要求比较低,但是所有的转发规则会改变,这需要业内对于芯片和软件的全部修改,是否能够成功也看市场驱动力吧,毕竟市场不全是技术驱动的。
除了我们熟悉的拓扑和路由框架方面,数据中心还有很多比较有意思的趋势在发生,挑几个有意思的
目前数据中心都是以太网有线网络,大量的高突发和高负载各个路由设架构都会涉及,但是如果使用无线是不是也能解决呢,于是极高频技术在数据中心也有了一定的研究(这里特指60GHZ无线),其吞吐可达4Gbps,通过特殊物理环境、波束成形、有向天线等技术使60GHZ部署在数据中心中,目前研究法相集中在无线调度和覆盖中,技术方案为Flyways,它通过合理的机柜摆放及无线节点空间排布来形成有效的整体系统,使用定向天线和波束成形技术提高连接速率等等新的技术,甚至还有一些论文提出了全无线数据中心,这样对数据中心的建设费用降低是非常有助力的。
数据中心目前应用的还是TCP,而TCP在特定场景下一定会遇到性能急剧下降的TCP incast现象,TCP的拥塞避免和慢启动会造成当一条链路拥塞时其承载的多个TCP流可能会同时触发TCP慢启动,但随着所有的TCP流流量增加后又会迅速达到拥塞而再次触发,造成网络中有时间流量很大,有时间流量又很小。如何来解决
数据中心还有很多应用有典型的组通信模式,比如分布式存储、软件升级等等,这种情况下组播是不是可以应用进来,但是组播在数据中心会不会水土不服,如何解决
还有就是数据中心的多路径,可否从TCP层面进行解决,让一条TCP流负载在不同的链路上,而不是在设备上依靠哈希五元组来对每一条流进行特定链路分配
对于TCPincast,一般通过减少RTO值使之匹配RTT,用随机的超时时间来重启动TCP传输。还有一种时设计新的控制算法来避免,甚至有方案抛弃TCP使用UDP来进行数据传输。
对于组播,数据中心的组播主要有将应用映射为网络层组播和单播的MCMD和Bloom Filter这种解决组播可扩展性的方案
对于多路径,提出多径TCP(MPTCP),在源端将数据拆分成诺干部分,并在同一对源和目的之间建立多个TCP连接进行传输,MPTCP对比传统TCP区别主要有
1、MPTCP建立阶段,要求服务器端向客户端返回服务器所有的地址信息
2、不同自流的源/目的可以相同,也可以不同,各个子流维护各自的序列号和滑动窗口,多个子流到达目的后,由接收端进行组装
3、MPTCP采用AIMD机制维护拥塞窗口,但各个子流的拥塞窗口增加与所有子流拥塞窗口的总和相关
还有部分针对TCP的优化,如D3协议,D3是针对数据中心的实时应用,通过分析数据流的大小和完成时间来分配传输速率,并且在网络资源紧张的时候可以主动断开某些预计无法完成传输的数据流,从而保证更多的数据流能按时完成。
这的数据中心节能不会谈风火水电以及液冷等等技术,从网络拓扑的角度谈起,我们所有数据中心拓扑搭建的过程中,主要针对传统树形拓扑提出了很多“富连接”的拓扑,来保证峰值的时候网络流量的保持性,但是同时也带来了不在峰值条件下能耗的增加,同时我们也知道数据中心流量多数情况下远低于其峰值设计,学术界针对这块设计了不少有脑洞的技术,主要分为两类,一类时降低硬件设备能耗,第二类时设计新型路由机制来降低能耗。
硬件能耗的降低主要从设备休眠和速率调整两个方面来实现,其难点主要时定时机制及唤醒速度的问题,当遇到突发流量交换机能否快速唤醒,人们通过缓存和定时器组合的方式进行。
节能路由机制,也是一个非常有特点的技术,核心思想是通过合理的选择路由,只使用一部分网络设备来承载流量,没有承载流量的设备进行休眠或者关闭。Elastic Tree提出了一种全网范围的能耗优化机制,它通过不断的检测数据中心流量状况,在保障可用性的前提下实时调整链路和网络设备状态,Elastic Tree探讨了bin-packer的贪心算法、最优化算法和拓扑感知的启发算法来实现节能的效果。
通过以上可以看到数据中心发展非常多样化,驱动这些技术发展的根本性力量就是成本,人们希望用最低的成本达成最优的数据中心效能,同时内部拓扑方案的研究已经慢慢成熟,目前设备厂商的羹汤可以说就是市场化选择的产物,但是数据中心网络传输协议、虚拟化、节能机制、SDN、服务链等方向的研究方兴未艾,尤其是应用定制的传输协议、虚拟网络带宽保障机制等等,这些学术方面的研究并不仅仅是纸上谈兵,对于我知道的一些信息来说,国内的阿里在它的数据中心网络拓扑中早已经应用了FatTree的变种拓扑,思科也把数据中心内部TCP重传的技术应用在自己的芯片中,称其为CONGA。
坦白来说,网络从来都不是数据中心和云计算的核心,可能未来也不会是,计算资源的形态之争才是主战场,但是网络恰恰是数据中心的一个难点,传统厂商、学术界、大厂都集中在此领域展开竞争,创新也层出不穷,希望能拓展我们的技术视野,能对我们有一些启发,莫听穿林打叶声、何妨吟啸且徐行~
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)