您现在的位置是:Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款 > 

04 年貨節時間節點及歷程(春晚難不倒京東云)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款2024-05-17 07:35:57【】9人已围观

简介的展示自己的互動能力和技術水平,才更是春晚的誘人之處。2015年,買粉絲登場春晚的這一年,中國網民不足6億。而京東搶下2022年虎年春晚時,中國網民數量已經穩破10億。交互的復雜性和規模的增長,與云計

的展示自己的互動能力和技術水平,才更是春晚的誘人之處。

2015年,買粉絲登場春晚的這一年,中國網民不足6億。而京東搶下2022年虎年春晚時,中國網民數量已經穩破10億。

交互的復雜性和規模的增長,與云計算等新一代數字技術的發展,誰跑贏誰?

而似乎為了給自己“增加難度”,2022虎年春晚,京東破天荒的加入了實物環節,這是自信還是自知?

1月31日20:00,雷峰網與此前溝通過的京東云、春晚項目IDC支持及資源運維管理負責人常亮核對一個交流細節,他只回了一句話,我在春晚值班……

這一天,“共赴春晚”的還有3000多個京東工程師,只不過他們的參與方式并非安閑的在臺下觀看,而是用互聯網和云計算的力量保障春晚紅包互動這一全球最大的網絡互動的活動……

根據不完全統計,2022年虎年春晚期間,全球華人參與京東APP紅包累計互動量達691億次;自年貨節啟動至春晚結束,京東云自主研發的京東智能客服言犀,累計買粉絲服務量達5.5億次,為16.5萬商家提供超1億次服務;京東 科技 核心交易系統持續不間斷能力超99.99%......

因此,京東云成功打贏了虎年春晚保衛戰!

回顧從備戰到春晚結束的歷程,有諸多故事頗為震撼,從京東云以 歷史 最短的19天備戰時間在不增加計算資源的情況下,依托云原生數字基礎設施和混合多云操作系統云艦,秒級調度近300萬個容器、超1000萬核算力資源,在春晚的7輪紅包互動中,實現春晚互動模式與“年貨春運”模式之間16次的無縫切換,讓用戶體驗流暢紅包互動的同時也暢享年貨云上購物。

虎年春晚,從技術備戰的角度來看,也是 歷史 上最具挑戰性的春晚之一。

1月5日,在中央廣播電視總臺2022年春節聯歡晚會獨家互動合作項目發布會上,官宣了京東成為2022年春晚獨家互動合作伙伴,該消息一出當即成為熱門話題。

自開啟了春晚攜手互聯網公司一起“看春晚”的先河,如今已經走過了7個年頭,諸多行業巨頭參與其中并且樂此不疲。

其實,我們都知道,隨著移動互聯網的發展,技術不斷升級的同時,春晚的交互玩法的創新需求也在不斷增加。然而這里面就有個問題,每增加一個新體驗、新玩法,在如此高流量、高并發的場景下,對任何互聯網公司而言,對技術硬實力都是嚴峻的考驗——然而,這也是互聯網大廠為何如此鐘情挑戰春晚的原因之一,世界上還有比這更檢驗和證明技術能力的舞臺么?

與以往不同的是,本屆春晚互動活動,除了有搶紅包的活動還將送出實物大獎,京東邀請全民分15億紅包和好物,同時活動從臘月二十二(1月24日)到元宵節(2月15日)將持續23天。

為什么說本屆春晚互動活動最具挑戰?其實可以從四個“最”來看:備戰時間最短、規模最大、場景最復雜、持續時間最長。

從1月5日官宣、啟動備戰、到1月24日春晚紅包互動預約活動開啟,虎年春晚留給京東云技術團隊只有短短的19天,這個時間比上屆的27天縮短了近30%,并且,活動持續到元宵節共23天,持續時間上也創造了 歷史 。

對比的場景是電商節大促,一般來說大促峰值差不多在一小時內,春晚有七輪口播則意味著有七次潮涌式超大峰值。根據預測數據顯示,春晚的流量峰值差不多是618、雙十一的數十倍。以去年的春晚為例,相關數據統計,全球約12.72億人觀看了春晚,期間累計產生紅包互動達700多億次,并且在數十秒內,有數十億甚至數百億人次(累計)參與互動點擊,形成數億級別的QPS流量洪峰,因此這非常考驗平臺的承載力和穩定性。

常規紅包互動的高并發已經是全球最大規模的網絡互動,更何況還疊加了京東的“年貨春運”,可謂是春晚史上的 歷史 性突破——這是第一次打破基于全程虛擬互動的春晚玩法,“從虛到實”的把線上線下場景結合進來——誠然,物流效率是京東無可比擬的絕對優勢,但在如此關鍵的時點,如此生猛的給自己加難度,還是讓人瞠目。

因為,這堪稱世界級的龐大而復雜的供應鏈應用場景,涉及了前端網站、訂單、結算、支付、搜索、推薦,還有后端的倉儲、配送、客服、售后等諸多業務系統,并且都需要依托京東云的技術支撐,每一個鏈路環節的增加,對春晚場景的復雜度和應對難度都是指數級的增長。

因此,2022年的虎年春晚,成為了全球規模最大、場景最復雜、周期最長,同時籌備時間又最短的活動之一。

多年以來,人們很少把京東和“技術”這個符號聯系在一起,雖然劉強東在2018年曾經喊話——未來,京東只有三樣東西:技術!技術!技術!

但是,這依舊讓人們擔心,京東的技術平臺是否能從支撐內部業務延展到能接下來春晚這個超大流量和復雜場景。

今年的春節期間,京東人忙壞了,要備戰春晚,還有年貨節以及冬奧期間的物流保障。而最大的挑戰,是如何在現有的資源配置下,應對4小時的春晚幾億觀眾同時參與的紅包、搶好貨的活動,再同時保證其他戰略級項目的絲滑運轉,要知道,總體備戰時間只有19天。

不重視顯然是不行的,由于整個春晚紅包互動項目任務急、挑戰大,場景復雜涉及的人員又多,京東拉通了數十個部門參與備戰,涉及京東零售、京東 科技 、京東物流等各BGBU。

更準確的說法是,京東集團技術體系有超3000名技術人員參與了春晚項目的技術攻關與保障工作,除夕當天參與一線值守的技術保障人員近2000人,超萬名技術人員協同作戰,支持跨度超過一個多月的年貨節、春晚等超級項目。

當然,到底是孤注一擲以贏得“技術京東”這塊金牌?還是早有把握渡過難關?筆者傾向于后者–—成功固然可喜可賀,但如果失敗則頗損美譽,京東輸不起也不能輸。

這里面的關鍵角色,是作為整個技術底座和動力引擎的京東云。

前段時間,京東云發布的業內首個混合多云操作系統云艦(JDOS),實現了更大規模異構基礎設施的統一化調度,而京東云依托云原生基礎設施、混合云操作系統云艦,能夠根據場景的不同,快速變身滿足不同的業務需求。

其實,如果真正說希望借助春晚打開市場,那京東瞄準的也絕不僅僅是紅包流量帶來的消費級市場,而是增量空間更大的云計算市場。這個市場的目前已經有巨頭林立,如果要進入賽道的第一序列,春晚紅包互動這塊最硬的“試金石“是京東云必須磕下的硬仗。

的確多年以來,京東都扛住了618、雙十一等大促下的高并發流量洪峰,但畢竟是體系內的戰斗。京東云希望春晚可以證明——經歷過高壓復雜的超級應用場景“大考”之后,京東云的實力認可度將不局限于服務京東生態,可以延伸到行業層面。

然而春晚這個場景京東是第一次遇到,只有19天的備戰時間讓搞定這場硬仗多了一些緊迫。

從技術方面來看,往屆合作廠商應對高并發場景的萬無一失的辦法是增加服務器做到超級冗余。但如果僅僅靠此拿下大考,則技術含量大打折扣,因此京東云內部有了一個戰略性決定:在零增加服務器資源的情況下獨自支持春晚,而整體方案的設計上,將計算資源在搖紅包和購物兩個場景間來回切換。

也就是說,在虎年春晚紅包互動活動中,京東云需要高度彈性的控制著近300萬的容器、超過千萬核的資源,在購物和紅包互動的場景中來回切換,一個場景結束后,需要馬上把部分資源釋放到下個場景的應用上,也就是在不影響常規業務的前提下,將底層空間騰出來重構。

京東云敢這樣做是有底氣的。

在多年618、雙十一大促的歷練下,京東云習慣了用“備戰常態化”來降低大型活動對IT計算資源的集中消耗。也就是,京東一直通過大促的技術標準來提高日常技術標準,逐漸縮短研發的備戰時長,提高備戰的效率,還能以更少的人力、資源,達到更好的科學備戰效果。

因此,京東不缺高并發的業務場景,而云艦又能幫助京東云在不需要購置大量服務器的前提,能實現敏捷調度、平穩運行和高效協同,最終,如果順利的話,京東云能采用快速通過積木拆解和重組的方式搭建基礎設施,進而讓業務得以快速研發和部署。

京東云的信心來源之一,是作為電商巨頭而擁有超過1000萬種自營商品、幾十萬品牌商和制造企業,并服務了超過5.5億消費者的超級供應鏈,已經實現了全棧式的數智化技術連接,因此此次備戰春晚,京東將依靠豐富的經驗和系列運營保障機制,主要依靠系統而并非人力來確保關鍵節點的穩定性。

“剛接到這個任務的時候,其實我們是非常激動的,都有點發抖”, 京東云云艦架構師趙建星回憶說,剛聽到要做春晚互動項目的時候,瞬間想起多年前京東大促各種告急的時候,當時大家接到消息后就直接跑到機房里保障各種業務。

的確,京東是在大促環節結結實實摔過幾跤的,而電商節大促不僅檢驗企業的 科技 實力,也在考驗技術團隊。

2011年11月1日,京東做圖書限時促銷的活動,“秒殺”活動讓流量瞬間達到每秒10萬單,然而系統癱瘓了,總指揮直接請來負責當時IT前端的和后端的兩位副總裁到辦公室“喝茶”。

其實,這個段子并不是真的,但對于相關的負責人,還是有批評但也有寬容的。

和當年比起來,京東無論技術、體量、規模、用戶群體和現在都不是一個等級,如今接到如此重磅的任務對趙建星來說,意味著升級了武器再挑戰終極BOSS,他內心的感觸頗深。

趙建星團隊的任務之一,是在不降低日常商城業務模式的前提,保障年貨節和冬奧期間物流配送的資源支持,從資源角度對京東云來說,是歷年挑戰最大,對底層的資源調度和分發的壓力也是巨大的。

整體活動來看,是隨著春晚搖紅包的節奏,將整個資源在購物應用和搖紅包之間來回做切換,而這個切換核心是云艦對底層資源調度的能力。而且調度方面,搖紅包時間上是一分鐘,而很多資源的調度要求秒級到位,而后又要釋放給其他應用,這涉及到隔離性和容器化管理的精準調度能力。

“京東所有的業務系統都跑在云艦上,都是容器化的。”趙建星說,“這是我們的底氣。”

云艦管理的這個超大資源池,要支持年貨春運購物交易系統,還有春晚紅包互動系統,也有冬奧期間物流保障系統,在這幾個系統來回做保障,當期的業務資源需求量相當大。而且春晚的每輪口播產生的搖紅包場景,都伴隨著潮汐式的上億級流量高峰,因此在備戰春晚的過程中,趙建星帶著團隊做了很多根據業務場景交替來回切換資源的技術保障。

也就是在零增加服務器的情況下,通過快速調度資源支持業務場景的切換,得以短暫且高效地為春晚提供資源保障。

由于資源有限,需要將京東的整個業務進行等級調整、劃分、保障,針對不同的優先級和業務場景,分別進行不同的調度,有的升級有的降級。

趙建星表示,團隊幾乎每兩天一次壓測,不停地擴充和保障資源,再根據業務的協同和整個項目組的溝通,保障資源來回按需降級和恢復正常。

以春晚口播這個場景為例,首先口播紅包業務場景的優先級是最高的。

“每次口播都會來回切換。”當口播紅包的頂峰流量下來后,再將這些資源歸還到正常的業務系統中去。因此,在調度的過程中業務系統數量相當龐大,調度的過程也需要針對所有的業務系統進行一些定級精致化的分類。

盡管多年618、雙十一大促的經驗下京東不缺高并發的場景,然而從來沒做過如此大規模、高密度、高精度的調度,同時需要在秒級完成調度,這無疑來說對京東云具有極高的挑戰。

“整體來說,規模量、快速調度的精準性、高密度隔離性,對我們來說都是極大的挑戰。”趙建星表示。

其中,穩定性是最高優先級,資源的騰挪必須高效,同時,各業務間還要

很赞哦!(186)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款的名片

职业:程序员,设计师

现居:河北省承德承德县

工作室:小组

Email:[email protected]