您现在的位置是:Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款 > 

02 年貨節時間節點及歷程(春晚難不倒京東云)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款2024-05-29 14:10:57【】1人已围观

简介時需要在秒級完成調度,這無疑來說對京東云具有極高的挑戰。“整體來說,規模量、快速調度的精準性、高密度隔離性,對我們來說都是極大的挑戰。”趙建星表示。其中,穩定性是最高優先級,資源的騰挪必須高效,同時,

時需要在秒級完成調度,這無疑來說對京東云具有極高的挑戰。

“整體來說,規模量、快速調度的精準性、高密度隔離性,對我們來說都是極大的挑戰。”趙建星表示。

其中,穩定性是最高優先級,資源的騰挪必須高效,同時,各業務間還要具有很高的隔離性。由于盡可能全部由自動化實現,總體超過80%的調度速度都在秒級,S級項目必須是秒極完成,所有預案都是分鐘級完成。

而趙建星帶著團隊,通過秒極完成全部資源的管理與統一調度,最終保障了春晚4小時互動項目里系統最穩、敏捷度最高、成本最優。

“京東云的春晚保障是想把人算做到極致,去迎接天算的考驗。”

常亮是京東云春晚項目組IDC基礎保障1號位,對于他們團隊來說,作為整個項目的基礎建設部分,從最前端到最后端都要做技術保障,所有的前中臺,包括云底座都會落在數據中心、網絡和硬件上這三大件上,“哪個部分發生一丁點的抖動,再精彩的內容都會受到影響。”

因此,京東要將所有的需求劃定在可控范圍內。

常亮回憶,1月13日團隊就確定不再承接新的需求,盡管資源不夠,但是需求已在可控范圍內,有了明確的邊界和框架和天花板,所有的工作就能被精準、精細地落地和執行下去了。因此,理論上每次的壓測結果和十次結果都一樣,用計算機學的術語就是系統越趨近于冪等性,所得的結果都可預期。

那么天算呢?

面對突發的未知情況,靠的是快速響應,同時需要兜底方案、需要預演,要靠一個完備的組織和決策機制,因為現實情況是,一號位、核心接口入場可能要在3-5分鐘這樣的極致時間里做決策,要通過這種方式應對各個環節發生的問題。

所以說,只要在需求確定的情況下,無論突發情況是什么,都可以應對自如。

比如,1月6日、1月7日,常亮帶領團隊開始做了第一次的壓測,直到1月22日進行了七次壓測,當時所有的流量模型都固定了,然而在23日預演的時候發現,有諸多需要修改的地方,這會給CDN帶來什么直接后果呢?此前做的流量模型全部作廢、重新做。

常亮表示,原始數據的由來,是將所有業務線,從前臺,包括從零售、 健康 、物流、 科技 等所有業務線的需求進行優先級和主次、分層圈定,因此一旦加了修改,首先遇到的問題就是,有些業務要犧牲了,舍誰保誰是個很大的問題。

常亮坦言,一旦出現涉及到資源的臨時需求,就要看能否人定勝天。具體來看,如果還有10天的時間,把相應的元素包全部替換、預置在手機里就行了,如果只有5天的時間,重做一款APP,審核時間是不可控的。

而為了更好地解決應急挑戰,京東也首創了“應急劇本預案”模式,重點排查和預防TOP 級困難。而整個劇本涉及了從前臺、中臺、后臺,包括安全,包括基礎設施三大塊,所有涉及到春晚支持的應急演練劇本。

常亮分享了一個有趣的故事,核心劇本里有個情節,就是流量峰值的時候,兩個機房間的網絡專線之間如果出現堵塞或中斷問題,系統會是什么樣子?

“當時我們的劇本很簡單,就是在這種場景下,誰是網絡組的負責人,誰做專線切換操作,要多少時間生效... ...”常亮表示,當時大家按照劇本是執行完了,結果每五分鐘出現一個掉坑,大家就不理解這種規律性抖動到底是怎么回事。

經過兩個小時的排查發現,其實是三個不同的原因恰好卡在了每五分鐘的一個時間點上,第一個坑因為網絡線路中斷引起了抖動,第二次因為中臺的容器在沒溝通的前提做了local DNS的切換演練,第三次是因為中臺在做壓力測試的時候,置換了一部分優惠券,所以也就是看起來像整個系統出現了規律的震蕩。

“當天晚上大家都長舒一口氣。”常亮回憶稱,整體來看這個劇本是有效的,“其實你只要演練一次就可以形成流水線式的操作。”常亮表示,沒演練劇本的話,遇到問題現溝通十來分鐘過去了,離下一輪口播還剩十來分鐘,怎么辦?所以,通過劇本演練,能向團隊真實地展現春晚場景,能對整個系統的情況有一個形象的預測認知,所以對于參與春晚的3000的研發人員來說,能得到整體的經驗提升。

關于劇本的撰寫,有了總體方向后,還要進行不止一次的評審環節。編輯的需求是劇本不能寫的太復雜,得讓大家看得懂。因此到最后,精簡下去就是三句話:誰、什么場景、多久恢復。第一輪劇本的評審環節,常亮記得特別清楚,基本沒幾個合格的,不是寫得多就是寫得不精準,逐漸打磨后就變成一眼就能看出來能執行的劇本,比如:宏飛、趕緊切、一分鐘。

常亮回憶,當時接到這個項目時候大家是驕傲的,有一份榮譽感、使命感,春晚當天大家打開APP一起參與搖紅包的那刻起,大家心底里都知道,這是身處技術底層的大家一起奮斗的結果。

從數據可以看到,春晚紅包的互動次數每年都在增加,2019年是208億次,2020年是639億次,2021年是703億次。

春晚紅包互動已經進入第7個年頭,見證了互聯網流量的興起和更迭,也從拼資源階發展到拼更高效敏捷的系統架構,目前迎來了越來越多實體經濟的身影。

2022年也是京東連續第十年的“春節也送貨”,在春晚流量的洪峰背后,還有龐大且繁雜的供應鏈,而此次備戰虎年春晚,對于諸多京東的技術人員來說,讓大家重燃起激情,激發出團隊追求極致的技術精神。

回到虎年春晚,這不僅是全球流量最聚集的場景,極具技術挑戰的背后,京東云用 科技 硬實力告訴大家,京東的技術體系可以迎接全球最大的互動場景以及年貨春運場景下的兩重大考,讓“ 科技 京東”帶領著全球的觀眾共享春晚的視覺盛宴,切身感受更快更好的配送體驗。

雷峰網雷峰網雷峰網

春晚難不倒京東云

“看春晚搶紅包”不僅是千家萬戶生活的一部分,一定程度上來說,也是各大互聯網公司技術展示的第一舞臺。

其實,對于參加春晚量級的互聯網公司來說,一次春晚能帶動的短期數據增長并不那么“誘人”,完整的展示自己的互動能力和技術水平,才更是春晚的誘人之處。

2015年,買粉絲登場春晚的這一年,中國網民不足6億。而京東搶下2022年虎年春晚時,中國網民數量已經穩破10億。

交互的復雜性和規模的增長,與云計算等新一代數字技術的發展,誰跑贏誰?

而似乎為了給自己“增加難度”,2022虎年春晚,京東破天荒的加入了實物環節,這是自信還是自知?

1月31日20:00,雷峰網與此前溝通過的京東云、春晚項目IDC支持及資源運維管理負責人常亮核對一個交流細節,他只回了一句話,我在春晚值班……

這一天,“共赴春晚”的還有3000多個京東工程師,只不過他們的參與方式并非安閑的在臺下觀看,而是用互聯網和云計算的力量保障春晚紅包互動這一全球最大的網絡互動的活動……

根據不完全統計,2022年虎年春晚期間,全球華人參與京東APP紅包累計互動量達691億次;自年貨節啟動至春晚結束,京東云自主研發的京東智能客服言犀,累計買粉絲服務量達5.5億次,為16.5萬商家提供超1億次服務;京東 科技 核心交易系統持續不間斷能力超99.99%......

因此,京東云成功打贏了虎年春晚保衛戰!

回顧從備戰到春晚結束的歷程,有諸多故事頗為震撼,從京東云以 歷史 最短的19天備戰時間在不增加計算資源的情況下,依托云原生數字基礎設施和混合多云操作系統云艦,秒級調度近300萬個容器、超1000萬核算力資源,在春晚的7輪紅包互動中,實現春晚互動模式與“年貨春運”模式之間16次的無縫切換,讓用戶體驗流暢紅包互動的同時也暢享年貨云上購物。

虎年春晚,從技術備戰的角度來看,也是 歷史 上最具挑戰性的春晚之一。

1月5日,在中央廣播電視總臺2022年春節聯歡晚會獨家互動合作項目發布會上,官宣了京東成為2022年春晚獨家互動合作伙伴,該消息一出當即成為熱門話題。

自開啟了春晚攜手互聯網公司一起“看春晚”的先河,如今已經走過了7個年頭,諸多行業巨頭參與其中并且樂此不疲。

其實,我們都知道,隨著移動互聯網的發展,技術不斷升級的同時,春晚的交互玩法的創新需求也在不斷增加。然而這里面就有個問題,每增加一個新體驗、新玩法,在如此高流量、高并發的場景下,對任何互聯網公司而言,對技術硬實力都是嚴峻的考驗——然而,這也是互聯網大廠為何如此鐘情挑戰春晚的原因之一,世界上還有比這更檢驗和證明技術能力的舞臺么?

與以往不同的是,本屆春晚互動活動,除了有搶紅包的活動還將送出實物大獎,京東邀請全民分15億紅包和好物,同時活動從臘月二十二(1月24日)到元宵節(2月15日)將持續23天。

為什么說本屆春晚互動活動最具挑戰?其實可以從四個“最”來看:備戰時間最短、規模最大、場景最復雜、持續時間最長。

從1月5日官宣、啟動備戰、到1月24日春晚紅包互動預約活動開啟,虎年春晚留給京東云技術團隊只有短短的19天,這個時間比上屆的27天縮短了近30%,并且,活動持續到元宵節共23天,持續時間上也創造了 歷史 。

對比的場景是電商節大促,一般來說大促峰值差不多在一小時內,春晚有七輪口播則意味著有七次潮涌式超大峰值。根據預測數據顯示,春晚的流量峰值差不多是618、雙十一的數十倍。以去年的春晚為例,相關數據統計,全球約12.72億人觀看了春晚,期間累計產生紅包互動達700多億次,并且在數十秒內,有數十億甚至數百億人次(累計)參與互動點擊,形成數億級別的QPS流量洪峰,因此這非常考驗平臺的承載力和穩定性。

常規紅包互動的高并發已經是全球最大規模的網絡互動,更何況還疊加了京東的“年貨春運”,可謂是春晚史上的 歷史 性突破——這是第一次打破基于全程虛擬互動的春晚玩法,“從虛到實”的把線上線下場景結合進來——誠然,物流效率是京東無可比擬的絕對優勢,但在如此關鍵的時點,如此生猛的給自己加難度,還是讓人瞠目。

因為,這堪稱世界級的龐大而復雜的供應鏈應用場景,涉及了前端網站、訂單、結算、支付、搜索、推薦,還有后端的倉儲、配送、客服、售后等諸多業務系統,并且都需要依托京東云的技術支撐,每一個鏈路環節的增加,對春晚場景的復雜度和應對難度都是指數級的增長。

因此,2022年的虎年春晚,成為了全球規模最大、場景最復雜、周期最長,同時籌備時間又最短的活動之一。

多年以來,人們很少把京東和“技術”這個符號聯系在一起,雖然劉強東在2018年曾經喊話——未來,京東只有三樣東西:技術!技術!技術!

但是,這依舊讓人們擔心,京東的技術平臺是否能從支撐內部業務延展到能接下來春晚這個超大流量和復雜場景。

今年的春節期間,京東人忙壞了,要備戰春晚,還有年貨節以及冬奧期間的物流保障。而最大的挑戰,是如何在現有的資源配置下,應對4小時的春晚幾億觀眾同時參與的紅包、搶好貨的活動,再同時保證其他戰略級項目的絲滑運轉,要知道,總體備戰時間只有19天。

不重視顯然是不行的,由于整個春晚紅包互動項目任務急、挑戰大,場景復雜涉及的人員又多,京東拉通了數十個部門參與備戰,涉及京東零售、京東 科技 、京東物流等各BGBU。

更準確的說法是,京東集團技術體系有超3000名技術人員參與了春晚項目的技術攻關與保障工作,除夕當天參與一線值守的技術保障人員近2000人,超萬名技術人員協同作戰,支持跨度超過一個多月的年貨節、春晚等超級項目。

當然,到底是孤注一擲以贏得“技術京東”這塊金牌?還是早有把握渡過難關?筆者傾向于后者–—

很赞哦!(45418)

Instagram刷粉絲, Ins買粉絲自助下單平台, Ins買贊網站可微信支付寶付款的名片

职业:程序员,设计师

现居:河北省承德承德县

工作室:小组

Email:[email protected]