第十屆中國系統(tǒng)架構(gòu)師大會以“十年架構(gòu),成長之路”為主題,在北京海淀永泰福朋喜來登酒店舉行,大會云集了國內(nèi)CTO、研發(fā)總監(jiān)、高級系統(tǒng)架構(gòu)師、開發(fā)工程師和IT經(jīng)理等技術(shù)人群,與會規(guī)模超千人。三天傳統(tǒng)技術(shù)大會演講,兩天深度主題培訓,SACC十年磨礪,涅槃起航!
在第二天上午,基礎(chǔ)架構(gòu)設(shè)計:云架構(gòu)與CDN加速專題,迎來了四位重量級嘉賓,他們分別是愛奇藝科學家鄭樹新、阿里巴巴資深SA段繼剛、騰訊音樂娛樂集團高級工程師 段繼剛、新浪網(wǎng)系統(tǒng)開發(fā)技術(shù)專家 李曉棟,他們從多個角度進行技術(shù)分享,專場參會者爆滿!
愛奇藝科學家 鄭樹新- 愛奇藝CDN系統(tǒng)服務(wù)化管理
愛奇藝科學家鄭樹新
鄭樹新現(xiàn)任愛奇藝科學家,主要從事愛奇藝CDN系統(tǒng)的基礎(chǔ)架構(gòu)工作,具有大型系統(tǒng)的設(shè)計與研發(fā)能力,擅長高性能網(wǎng)絡(luò)通信及服務(wù)器架構(gòu)設(shè)計;曾任263企業(yè)通信首席架構(gòu)師、和訊網(wǎng)絡(luò)高級架構(gòu)師等工作。
愛奇藝CDN系統(tǒng)是一個龐大復雜的網(wǎng)絡(luò),承載著愛奇藝視頻數(shù)據(jù)的分發(fā)、回源等核心業(yè)務(wù);愛奇藝CDN節(jié)點遍布全國、服務(wù)器數(shù)量巨大,如何有效地管理、維護部署在這些服務(wù)器上的眾多應(yīng)用服務(wù)模塊是一個巨大的挑戰(zhàn);愛奇藝CDN團隊基于Acl服務(wù)器框架開發(fā)了一套服務(wù)化管理平臺,在實踐中獲得了良好的效果,如:核心服務(wù)模塊實時監(jiān)控、服務(wù)運行問題預(yù)警、模塊占用資源管控等。本文從服務(wù)管理角度介紹愛奇藝CDN系統(tǒng)基于Acl服務(wù)器框架的工程實踐。主要內(nèi)容有:
1. Acl服務(wù)器框架的特點;
2. 愛奇藝服務(wù)化平臺介紹;
3. 愛奇藝CDN系統(tǒng)中運行在服務(wù)化管理平臺上的應(yīng)用服務(wù);
4. 愛奇藝服務(wù)化平臺在生產(chǎn)中的價值。
段繼剛-Alibaba OPSX-Making open source closer and easier
阿里巴巴資深SA段繼剛
段繼剛作為阿里巴巴資深SA,云產(chǎn)品運維專家,于2012年至今負責電商云平臺“聚石塔”的運維工作,著有《linux軟件管理平臺設(shè)計與實現(xiàn)》一書。他從三個方面進行了分享,首先介紹了阿里巴巴開源鏡像站,阿里云給全球ECS用戶提供軟件安裝和升級服務(wù),同時為互聯(lián)網(wǎng)用戶提供OS下載和軟件安裝服務(wù)。
隨后分享了阿里巴巴開源鏡像站的技術(shù)架構(gòu),對于云上用戶,內(nèi)網(wǎng)單元化和緩存機制,減少同步和回源的架構(gòu)優(yōu)化。對于互聯(lián)網(wǎng)用戶:CDN加速,提供同城最快的系統(tǒng)&軟件安裝服務(wù)。 為了提高用戶體驗,做了一系列工作,包括高級搜索,熱點倉庫保證。
最后分享了 基于鏡像站的開原生態(tài)構(gòu)建,計劃提供“代碼托管 - 開放文檔 - 自動構(gòu)建 - 內(nèi)容分發(fā) - 技術(shù)交流 - 青年開源軟件聯(lián)盟建設(shè)” 生態(tài)鏈建設(shè)。段繼剛表示,截止目前目前我們做到了 1)開源代碼托管 2)文檔中心 3)Git自動構(gòu)建服務(wù) 4)私有軟件倉庫,下一階段我們將會舉行開源技術(shù)沙龍,并組件青年開源軟件聯(lián)盟, 鼓勵大學生,年輕人參與中國開源生態(tài)建設(shè)。“
騰訊音樂娛樂集團高級工程師 陳文武:全民K歌直播消息服務(wù)高可用實踐
騰訊音樂娛樂集團高級工程師 陳文武
陳文武,2014年畢業(yè)加入騰訊,參與了全民K歌從0開始的發(fā)展歷程,主要從事海量后臺服務(wù)架構(gòu)的搭建與優(yōu)化工作,作為伴奏信息服務(wù),UGC作品動態(tài)服務(wù),虛擬禮物體系,直播消息服務(wù)等核心基礎(chǔ)服務(wù)的負責人。
全民K歌作為騰訊的名品堂產(chǎn)品,DAU達到5kw以上,直播作為全民K歌的主營業(yè)務(wù),直播中的消息影響著觀眾的觀感以及與主播的互動效果,直接影響項目的營收,每一次故障都會帶來很大損失。陳文武表示,我們搭建了一個高可用性的系統(tǒng)來支撐整個服務(wù),日請求量達到數(shù)百億次,我們主要是從基礎(chǔ)網(wǎng)絡(luò)設(shè)施,網(wǎng)絡(luò)接入層,業(yè)務(wù)邏輯層,存儲層等多個方面去介紹服務(wù)的高可用,會著重介紹業(yè)務(wù)的隔離設(shè)計方案,流控策略,多地的讀容災(zāi)方案,同城雙園區(qū)的寫容災(zāi)方案,過載保護方案,以及立體化監(jiān)控指標,解決了實現(xiàn)過程中5大難題。
五大難題包括了,1. 熱點問題,熱門直播大量觀眾人數(shù)以及大量消息擴散帶來巨大的帶寬和負載壓力;2. 低時延,互動消息延遲容忍性差,需要盡可能快速收發(fā)消息完成互動;3. 消息到達率,關(guān)鍵消息(送禮,信令)要求可靠觸達,很多關(guān)鍵操作依賴消息進行同步;
4. 不確定性,互動引發(fā)的峰值,例如主播PK、禮包、運營活動等帶來的在線人數(shù)和流量的突發(fā)上漲;5. 多地容災(zāi),多地接入對流量和時延帶來的挑戰(zhàn)。
李曉棟:點直播場景下的CDN多云調(diào)度系統(tǒng)實戰(zhàn)
新浪網(wǎng)系統(tǒng)開發(fā)技術(shù)專家李曉棟
李曉棟在數(shù)據(jù)中心基礎(chǔ)架構(gòu)、流量接入與調(diào)度、CDN、系統(tǒng)優(yōu)化等領(lǐng)域有近15年的研發(fā)和運維經(jīng)驗。在新浪期間曾先后負責過 網(wǎng)絡(luò)設(shè)備研發(fā)、自動化運維、操作系統(tǒng)及內(nèi)核優(yōu)化、CDN研發(fā)、云存儲、流量接入等多個團隊;并曾任樂視云CDN調(diào)度系統(tǒng)的團隊負責人,實際操盤過10Tbps+ 規(guī)模的調(diào)度系統(tǒng)。
以“熱門影視劇、短視頻、大型賽事直播、UGC/PGC 直播” 這4種典型場景為例,深度剖析如何設(shè)計調(diào)度系統(tǒng),來實現(xiàn)海量帶寬在多家CDN云廠商(含自研CDN) 之間的彈性分配,助力實現(xiàn)高畫質(zhì)、低卡頓、低成本的播放體驗。同時,也會探討機器學習在CDN調(diào)度系統(tǒng)上的應(yīng)用。
演講亮點:
1. 從終端用戶、CDN云廠商、CDN云客戶、自研CDN 4個不同的視角進行全方位透視;
2. 將保障 新浪、微博、十二強/亞冠/英超/中超等賽事直播 以及 服務(wù)多家CDN商業(yè)客戶 的技術(shù)經(jīng)驗進行了融合。