提高 web 應用的性能從來沒有比現(xiàn)在更重要過。網(wǎng)絡經(jīng)濟的比重一直在增長;全球經(jīng)濟超過 5% 的價值是在因特網(wǎng)上產(chǎn)生的(數(shù)據(jù)參見下面的資料)。這個時刻在線的超連接世界意味著用戶對其的期望值也處于歷史上的最高點。如果你的網(wǎng)站不能及時的響應,或者你的 app 不能無延時的工作,用戶會很快的投奔到你的競爭對手那里。
舉一個例子,一份亞馬遜十年前做過的研究可以證明,甚至在那個時候,網(wǎng)頁加載時間每減少100毫秒,收入就會增加1%。另一個最近的研究特別強調(diào)一個事實,即超過一半的網(wǎng)站擁有者在調(diào)查中承認它們會因為應用程序性能的問題流失用戶。
網(wǎng)站到底需要多快呢?對于頁面加載,每增加1秒鐘就有4%的用戶放棄使用。頂級的電子商務站點的頁面在第一次交互時可以做到1秒到3秒加載時間,而這是提供最高舒適度的速度。很明顯這種利害關(guān)系對于 web 應用來說很高,而且在不斷的增加。
想要提高效率很簡單,但是看到實際結(jié)果很難。為了在你的探索之旅上幫助到你,這篇文章會給你提供10條最高可以提升10倍網(wǎng)站性能的建議。
Tip #1: 通過反向代理來提高性能和增加安全性
如果你的 web 應用運行在單個機器上,那么這個辦法會明顯的提升性能:只需要換一個更快的機器,更好的處理器,更多的內(nèi)存,更快的磁盤陣列,等等。然后新機器就可以更快的運行你的 WordPress 服務器, Node.js 程序, Java 程序,以及其它程序。(如果你的程序要訪問數(shù)據(jù)庫服務器,那么解決方法依然很簡單:添加兩個更快的機器,以及在兩臺電腦之間使用一個更快的鏈路。)
問題是,機器速度可能并不是問題。web 程序運行慢經(jīng)常是因為計算機一直在不同的任務之間切換:通過成千上萬的連接和用戶交互,從磁盤訪問文件,運行代碼,等等。應用服務器可能會抖動thrashing-比如說內(nèi)存不足、將內(nèi)存數(shù)據(jù)交換到磁盤,以及有多個請求要等待某個任務完成,如磁盤I/O。
你可以采取一個完全不同的方案來替代升級硬件:添加一個反向代理服務器來分擔部分任務。反向代理服務器 位于運行應用的機器的前端,是用來處理網(wǎng)絡流量的。只有反向代理服務器是直接連接到互聯(lián)網(wǎng)的;和應用服務器的通訊都是通過一個快速的內(nèi)部網(wǎng)絡完成的。
使用反向代理服務器可以將應用服務器從等待用戶與 web 程序交互解放出來,這樣應用服務器就可以專注于為反向代理服務器構(gòu)建網(wǎng)頁,讓其能夠傳輸?shù)交ヂ?lián)網(wǎng)上。而應用服務器就不需要等待客戶端的響應,其運行速度可以接近于優(yōu)化后的性能水平。
添加反向代理服務器還可以給你的 web 服務器安裝帶來靈活性。比如,一個某種類型的服務器已經(jīng)超載了,那么就可以輕松的添加另一個相同的服務器;如果某個機器宕機了,也可以很容易替代一個新的。
因為反向代理帶來的靈活性,所以反向代理也是一些性能加速功能的必要前提,比如:
負載均衡 (參見 Tip #2) – 負載均衡運行在反向代理服務器上,用來將流量均衡分配給一批應用。有了合適的負載均衡,你就可以添加應用服務器而根本不用修改應用。
緩存靜態(tài)文件 (參見 Tip #3) – 直接讀取的文件,比如圖片或者客戶端代碼,可以保存在反向代理服務器,然后直接發(fā)給客戶端,這樣就可以提高速度、分擔應用服務器的負載,可以讓應用運行的更快。
網(wǎng)站安全 – 反向代理服務器可以提高網(wǎng)站安全性,以及快速的發(fā)現(xiàn)和響應攻擊,保證應用服務器處于被保護狀態(tài)。
NGINX 軟件為用作反向代理服務器而專門設計,也包含了上述的多種功能。NGINX 使用事件驅(qū)動的方式處理請求,這會比傳統(tǒng)的服務器更加有效率。NGINX plus 添加了更多高級的反向代理特性,比如應用的健康度檢查,專門用來處理請求路由、高級緩沖和相關(guān)支持。
Tip #2: 添加負載平衡
添加一個負載均衡服務器 是一個相當簡單的用來提高性能和網(wǎng)站安全性的的方法。與其將核心 Web 服務器變得越來越大和越來越強,不如使用負載均衡將流量分配到多個服務器。即使程序?qū)懙牟缓?,或者在擴容方面有困難,僅是使用負載均衡服務器就可以很好的提高用戶體驗。
負載均衡服務器首先是一個反向代理服務器(參見Tip #1)——它接受來自互聯(lián)網(wǎng)的流量,然后轉(zhuǎn)發(fā)請求給另一個服務器。特別是負載均衡服務器支持兩個或多個應用服務器,使用分配算法將請求轉(zhuǎn)發(fā)給不同服務器。最簡單的負載均衡方法是輪轉(zhuǎn)法round robin,每個新的請求都會發(fā)給列表里的下一個服務器。其它的復制均衡方法包括將請求發(fā)給活動連接最少的服務器。NGINX plus 擁有將特定用戶的會話分配給同一個服務器的能力。
負載均衡可以很好的提高性能是因為它可以避免某個服務器過載而另一些服務器卻沒有需要處理的流量。它也可以簡單的擴展服務器規(guī)模,因為你可以添加多個價格相對便宜的服務器并且保證它們被充分利用了。
可以進行負載均衡的協(xié)議包括 HTTP、HTTPS、SPDY、HTTP/2、WebSocket、FastCGI、SCGI、uwsgi、 memcached 等,以及幾種其它的應用類型,包括基于 TCP 的應用和其它的第4層協(xié)議的程序。分析你的 web 應用來決定你要使用哪些以及哪些地方性能不足。
相同的服務器或服務器群可以被用來進行負載均衡,也可以用來處理其它的任務,如 SSL 末端服務器,支持客戶端的 HTTP/1.x 和 HTTP/2 請求,以及緩存靜態(tài)文件。
Tip #3: 緩存靜態(tài)和動態(tài)的內(nèi)容
緩存可以通過加速內(nèi)容的傳輸速度來提高 web 應用的性能。它可以采用以下幾種策略:當需要的時候預處理要傳輸?shù)膬?nèi)容,保存數(shù)據(jù)到速度更快的設備,把數(shù)據(jù)存儲在距離客戶端更近的位置,或者將這幾種方法結(jié)合起來使用。
有兩種不同類型數(shù)據(jù)的緩沖:
靜態(tài)內(nèi)容緩存。不經(jīng)常變化的文件,比如圖像(JPEG、PNG) 和代碼(CSS,JavaScript),可以保存在外圍服務器上,這樣就可以快速的從內(nèi)存和磁盤上提取。
動態(tài)內(nèi)容緩存。很多 web 應用會針對每次網(wǎng)頁請求生成一個新的 HTML 頁面。在短時間內(nèi)簡單的緩存生成的 HTML 內(nèi)容,就可以很好的減少要生成的內(nèi)容的數(shù)量,而且這些頁面足夠新,可以滿足你的需要。
舉個例子,如果一個頁面每秒會被瀏覽10次,你將它緩存 1 秒,90%請求的頁面都會直接從緩存提取。如果你分開緩存靜態(tài)內(nèi)容,甚至新生成的頁面可能都是由這些緩存構(gòu)成的。
下面由是 web 應用發(fā)明的三種主要的緩存技術(shù):
1.縮短數(shù)據(jù)與用戶的網(wǎng)絡距離。把一份內(nèi)容的拷貝放的離用戶更近的節(jié)點來減少傳輸時間。
2.提高內(nèi)容服務器的速度。內(nèi)容可以保存在一個更快的服務器上來減少提取文件的時間。
3.從過載服務器上移走數(shù)據(jù)。機器經(jīng)常因為要完成某些其它的任務而造成某個任務的執(zhí)行速度比測試結(jié)果要差。將數(shù)據(jù)緩存在不同的機器上可以提高緩存資源和非緩存資源的性能,而這是因為主機沒有被過度使用。
對 web 應用的緩存機制可以在 web 應用服務器內(nèi)部實現(xiàn)。首先,緩存動態(tài)內(nèi)容是用來減少應用服務器加載動態(tài)內(nèi)容的時間。其次,緩存靜態(tài)內(nèi)容(包括動態(tài)內(nèi)容的臨時拷貝)是為了更進一步的分擔應用服務器的負載。而且緩存之后會從應用服務器轉(zhuǎn)移到對用戶而言更快、更近的機器,從而減少應用服務器的壓力,減少提取數(shù)據(jù)和傳輸數(shù)據(jù)的時間。
改進過的緩存方案可以極大的提高應用的速度。對于大多數(shù)網(wǎng)頁來說,靜態(tài)數(shù)據(jù),比如大圖像文件,構(gòu)成了超過一半的內(nèi)容。如果沒有緩存,那么這可能會花費幾秒的時間來提取和傳輸這類數(shù)據(jù),但是采用了緩存之后不到1秒就可以完成。
舉一個在實際中緩存是如何使用的例子, NGINX 和 NGINX Plus 使用了兩條指令來設置緩存機制:proxy_cache_path 和 proxy_cache。你可以指定緩存的位置和大小、文件在緩存中保存的最長時間和其它一些參數(shù)。使用第三條(而且是相當受歡迎的一條)指令 proxy_cache_use_stale,如果提供新鮮內(nèi)容的服務器忙碌或者掛掉了,你甚至可以讓緩存提供較舊的內(nèi)容,這樣客戶端就不會一無所得。從用戶的角度來看這可以很好的提高你的網(wǎng)站或者應用的可用時間。
NGINX plus 有個高級緩存特性,包括對緩存清除的支持和在儀表盤上顯示緩存狀態(tài)信息。
注意:緩存機制分布于應用開發(fā)者、投資決策者以及實際的系統(tǒng)運維人員之間。本文提到的一些復雜的緩存機制從 DevOps 的角度來看很具有價值,即對集應用開發(fā)者、架構(gòu)師以及運維操作人員的功能為一體的工程師來說可以滿足它們對站點功能性、響應時間、安全性和商業(yè)結(jié)果(如完成的交易數(shù))等需要。
Tip #4: 壓縮數(shù)據(jù)
壓縮是一個具有很大潛力的提高性能的加速方法。現(xiàn)在已經(jīng)有一些針對照片(JPEG 和PNG)、視頻(MPEG-4)和音樂(MP3)等各類文件精心設計和高壓縮率的標準。每一個標準都或多或少的減少了文件的大小。
文本數(shù)據(jù) —— 包括HTML(包含了純文本和 HTML 標簽),CSS 和代碼,比如 Javascript —— 經(jīng)常是未經(jīng)壓縮就傳輸?shù)摹嚎s這類數(shù)據(jù)會在對應用程序性能的感覺上,特別是處于慢速或受限的移動網(wǎng)絡的客戶端,產(chǎn)生更大的影響。
這是因為文本數(shù)據(jù)經(jīng)常是用戶與網(wǎng)頁交互的有效數(shù)據(jù),而多媒體數(shù)據(jù)可能更多的是起提供支持或者裝飾的作用。智能的內(nèi)容壓縮可以減少 HTML,Javascript,CSS和其它文本內(nèi)容對帶寬的要求,通??梢詼p少 30% 甚至更多的帶寬和相應的頁面加載時間。
如果你使用 SSL,壓縮可以減少需要進行 SSL 編碼的的數(shù)據(jù)量,而這些編碼操作會占用一些 CPU 時間而抵消了壓縮數(shù)據(jù)減少的時間。
壓縮文本數(shù)據(jù)的方法很多,舉個例子,在 HTTP/2 中,小說文本的壓縮模式就特別調(diào)整了頭部數(shù)據(jù)。另一個例子是可以在 NGINX 里打開使用 GZIP 壓縮。你在你的服務里預先壓縮文本數(shù)據(jù)之后,你就可以直接使用 gzip_static 指令來處理壓縮過的 .gz 版本。
Tip #5: 優(yōu)化 SSL/TLS
安全套接字(SSL) 協(xié)議和它的下一代版本傳輸層安全(TLS)協(xié)議正在被越來越多的網(wǎng)站采用。SSL/TLS 對從原始服務器發(fā)往用戶的數(shù)據(jù)進行加密提高了網(wǎng)站的安全性。影響這個趨勢的部分原因是 Google 正在使用 SSL/TLS,這在搜索引擎排名上是一個正面的影響因素。
盡管 SSL/TLS 越來越流行,但是使用加密對速度的影響也讓很多網(wǎng)站望而卻步。SSL/TLS 之所以讓網(wǎng)站變的更慢,原因有二:
任何一個連接第一次連接時的握手過程都需要傳遞密鑰。而采用 HTTP/1.x 協(xié)議的瀏覽器在建立多個連接時會對每個連接重復上述操作。
數(shù)據(jù)在傳輸過程中需要不斷的在服務器端加密、在客戶端解密。
為了鼓勵使用 SSL/TLS,HTTP/2 和 SPDY(在下一章會描述)的作者設計了新的協(xié)議來讓瀏覽器只需要對一個瀏覽器會話使用一個連接。這會大大的減少上述第一個原因所浪費的時間。然而現(xiàn)在可以用來提高應用程序使用 SSL/TLS 傳輸數(shù)據(jù)的性能的方法不止這些。
web 服務器有對應的機制優(yōu)化 SSL/TLS 傳輸。舉個例子,NGINX 使用 OpenSSL 運行在普通的硬件上提供了接近專用硬件的傳輸性能。NGINX 的 SSL 性能 有詳細的文檔,而且把對 SSL/TLS 數(shù)據(jù)進行加解密的時間和 CPU 占用率降低了很多。
Tip #6: 使用 HTTP/2 或 SPDY
對于已經(jīng)使用了 SSL/TLS 的站點,HTTP/2 和 SPDY 可以很好的提高性能,因為每個連接只需要一次握手。而對于沒有使用 SSL/TLS 的站點來說,從響應速度的角度來說 HTTP/2 和 SPDY 將讓遷移到 SSL/TLS 沒有什么壓力(原本會降低效率)。
Google 在2012年開始把 SPDY 作為一個比 HTTP/1.x 更快速的協(xié)議來推薦。HTTP/2 是目前 IETF 通過的標準,是基于 SPDY 的。SPDY 已經(jīng)被廣泛的支持了,但是很快就會被 HTTP/2 替代。
SPDY 和 HTTP/2 的關(guān)鍵是用單一連接來替代多路連接。單個連接是被復用的,所以它可以同時攜帶多個請求和響應的分片。
通過使用單一連接,這些協(xié)議可以避免像在實現(xiàn)了 HTTP/1.x 的瀏覽器中一樣建立和管理多個連接。單一連接在對 SSL 特別有效,這是因為它可以最小化 SSL/TLS 建立安全鏈接時的握手時間。
SPDY 協(xié)議需要使用 SSL/TLS,而 HTTP/2 官方標準并不需要,但是目前所有支持 HTTP/2 的瀏覽器只有在啟用了 SSL/TLS 的情況下才能使用它。這就意味著支持 HTTP/2 的瀏覽器只有在網(wǎng)站使用了 SSL 并且服務器接收 HTTP/2 流量的情況下才會啟用 HTTP/2。否則的話瀏覽器就會使用 HTTP/1.x 協(xié)議。
作為支持這些協(xié)議的一個樣例,NGINX 已經(jīng)從一開始就支持了 SPDY,而且大部分使用 SPDY 協(xié)議的網(wǎng)站都運行的是 NGINX。NGINX 同時也很早對 HTTP/2 的提供了支持,從2015 年9月開始,開源版 NGINX 和 NGINX Plus 就支持它了。
經(jīng)過一段時間,我們 NGINX 希望更多的站點完全啟用 SSL 并且向 HTTP/2 遷移。這將會提高安全性,同時也會找到并實現(xiàn)新的優(yōu)化手段,簡化的代碼表現(xiàn)的會更加優(yōu)異。
Tip #7: 升級軟件版本
一個提高應用性能的簡單辦法是根據(jù)軟件的穩(wěn)定性和性能的評價來選在你的軟件棧。進一步說,因為高性能組件的開發(fā)者更愿意追求更高的性能和解決 bug ,所以值得使用最新版本的軟件。新版本往往更受開發(fā)者和用戶社區(qū)的關(guān)注。更新的版本往往會利用到新的編譯器優(yōu)化,包括對新硬件的調(diào)優(yōu)。
穩(wěn)定的新版本通常比舊版本具有更好的兼容性和更高的性能。一直進行軟件更新,可以非常簡單的保持軟件保持最佳的優(yōu)化,解決掉 bug,以及提高安全性。
一直使用舊版軟件也會阻止你利用新的特性。比如上面說到的 HTTP/2,目前要求 OpenSSL 1.0.1。在2016 年中期開始將會要求1.0.2 ,而它是在2015年1月才發(fā)布的。
NGINX 用戶可以開始遷移到 NGINX 最新的開源軟件 或者 NGINX Plus;它們都包含了最新的能力,如 socket 分割和線程池(見下文),這些都已經(jīng)為性能優(yōu)化過了。然后好好看看的你軟件棧,把它們升級到你能升級到的最新版本吧。
Tip #8: Linux 系統(tǒng)性能調(diào)優(yōu)
Linux 是大多數(shù) web 服務器使用的操作系統(tǒng),而且作為你的架構(gòu)的基礎,Linux 顯然有不少提高性能的可能。默認情況下,很多 Linux 系統(tǒng)都被設置為使用很少的資源,以符合典型的桌面應用使用。這就意味著 web 應用需要一些微調(diào)才能達到最大效能。
這里的 Linux 優(yōu)化是專門針對 web 服務器方面的。以 NGINX 為例,這里有一些在加速 Linux 時需要強調(diào)的變化:
緩沖隊列。如果你有掛起的連接,那么你應該考慮增加 net.core.somaxconn 的值,它代表了可以緩存的連接的最大數(shù)量。如果連接限制太小,那么你將會看到錯誤信息,而你可以逐漸的增加這個參數(shù)直到錯誤信息停止出現(xiàn)。
文件描述符。NGINX 對一個連接使用最多2個文件描述符。如果你的系統(tǒng)有很多連接請求,你可能就需要提高sys.fs.file_max ,以增加系統(tǒng)對文件描述符數(shù)量整體的限制,這樣才能支持不斷增加的負載需求。
臨時端口。當使用代理時,NGINX 會為每個上游服務器創(chuàng)建臨時端口。你可以設置net.ipv4.ip_local_port_range 來提高這些端口的范圍,增加可用的端口號。你也可以減少非活動的端口的超時判斷來重復使用端口,這可以通過 net.ipv4.tcp_fin_timeout 來設置,這可以快速的提高流量。
Tip #9: web 服務器性能調(diào)優(yōu)
無論你是用哪種 web 服務器,你都需要對它進行優(yōu)化來提高性能。下面的推薦手段可以用于任何 web 服務器,但是一些設置是針對 NGINX 的。關(guān)鍵的優(yōu)化手段包括:
訪問日志。不要把每個請求的日志都直接寫回磁盤,你可以在內(nèi)存將日志緩存起來然后批量寫回磁盤。對于NGINX 來說,給指令 access_log 添加參數(shù) buffer=size 可以讓系統(tǒng)在緩存滿了的情況下才把日志寫到磁盤。如果你添加了參數(shù) flush=time ,那么緩存內(nèi)容會每隔一段時間再寫回磁盤。
緩存。緩存會在內(nèi)存中存放部分響應,直到滿了為止,這可以讓與客戶端的通信更加高效。內(nèi)存放不下的響應會寫回磁盤,而這就會降低效能。當 NGINX 啟用了緩存機制后,你可以使用指令 proxy_buffer_size 和 proxy_buffers 來管理緩存。
客戶端?;睢1;钸B接可以減少開銷,特別是使用 SSL/TLS 時。對于 NGINX 來說,你可以從 keepalive_requests 的默認值 100 開始增加最大連接數(shù),這樣一個客戶端就可以在一個指定的連接上請求多次,而且你也可以通過增加 keepalive_timeout 的值來允許保活連接存活更長時間,這樣就可以讓后來的請求處理的更快速。
上游?;睢I嫌蔚倪B接——即連接到應用服務器、數(shù)據(jù)庫服務器等機器的連接——同樣也會受益于連接?;?。對于上游連接來說,你可以增加 keepalive,即每個工人進程的空閑保活連接個數(shù)。這就可以提高連接的復用次數(shù),減少需要重新打開全新連接的次數(shù)。
限制。限制客戶端使用的資源可以提高性能和安全性。對于 NGINX 來說,指令 limit_conn 和 limit_conn_zone 限制了給定來源的連接數(shù)量,而 limit_rate 限制了帶寬。這些限制都可以阻止合法用戶扒取資源,同時也避免了攻擊。指令 limit_req 和 limit_req_zone 限制了客戶端請求。對于上游服務器來說,可以在 upstream 的配置塊里的 server 指令使用 max_conns 參數(shù)來限制連接到上游服務器的連接數(shù)。 這樣可以避免服務器過載。關(guān)聯(lián)的 queue 指令會創(chuàng)建一個隊列來在連接數(shù)抵達 max_connS 限制時在指定長度的時間內(nèi)保存特定數(shù)量的請求。
工人進程。工人進程負責處理請求。NGINX 采用事件驅(qū)動模型和操作系統(tǒng)特定的機制來有效的將請求分發(fā)給不同的工人進程。這條建議推薦設置 worker_processes 為每個 CPU 一個 。worker_connections 的最大數(shù)(默認512)可以在大部分系統(tǒng)上根據(jù)需要增加,實驗性地找到最適合你的系統(tǒng)的值。
套接字分割。通常一個套接字*會把新連接分配給所有工人進程。套接字分割會為每個工人進程創(chuàng)建一個套接字*,這樣一來以當套接字*可用時,內(nèi)核就會將連接分配給它。這可以減少鎖競爭,并且提高多核系統(tǒng)的性能,要啟用套接字分隔需要在 listen 指令里面加上 reuseport 參數(shù)。
線程池。計算機進程可能被一個單一的緩慢的操作所占用。對于 web 服務器軟件來說,磁盤訪問會影響很多更快的操作,比如計算或者在內(nèi)存中拷貝。使用了線程池之后慢操作可以分配到不同的任務集,而主進程可以一直運行快速操作。當磁盤操作完成后結(jié)果會返回給主進程的循環(huán)。在 NGINX 里有兩個操作——read() 系統(tǒng)調(diào)用和 sendfile() ——被分配到了線程池
技巧。當改變?nèi)魏尾僮飨到y(tǒng)或支持服務的設置時,一次只改變一個參數(shù)然后測試性能。如果修改引起問題了,或者不能讓你的系統(tǒng)更快,那么就改回去。
Tip #10: 監(jiān)視系統(tǒng)活動來解決問題和瓶頸
在應用開發(fā)中要使得系統(tǒng)變得非常高效的關(guān)鍵是監(jiān)視你的系統(tǒng)在現(xiàn)實世界運行的性能。你必須能通過特定的設備和你的 web 基礎設施上監(jiān)控程序活動。
監(jiān)視活動是最積極的——它會告訴你發(fā)生了什么,把問題留給你發(fā)現(xiàn)和最終解決掉。
監(jiān)視可以發(fā)現(xiàn)幾種不同的問題。它們包括:
服務器宕機。
服務器出問題一直在丟失連接。
服務器出現(xiàn)大量的緩存未命中。
服務器沒有發(fā)送正確的內(nèi)容。
應用的總體性能監(jiān)控工具,比如 New Relic 和 Dynatrace,可以幫助你監(jiān)控到從遠程加載網(wǎng)頁的時間,而 NGINX 可以幫助你監(jiān)控到應用交付端。當你需要考慮為基礎設施添加容量以滿足流量需求時,應用性能數(shù)據(jù)可以告訴你你的優(yōu)化措施的確起作用了。
為了幫助開發(fā)者快速的發(fā)現(xiàn)、解決問題,NGINX Plus 增加了應用感知健康度檢查 ——對重復出現(xiàn)的常規(guī)事件進行綜合分析并在問題出現(xiàn)時向你發(fā)出警告。NGINX Plus 同時提供會話過濾功能,這可以阻止當前任務完成之前接受新的連接,另一個功能是慢啟動,允許一個從錯誤恢復過來的服務器追趕上負載均衡服務器群的進度。當使用得當時,健康度檢查可以讓你在問題變得嚴重到影響用戶體驗前就發(fā)現(xiàn)它,而會話過濾和慢啟動可以讓你替換服務器,并且這個過程不會對性能和正常運行時間產(chǎn)生負面影響。下圖就展示了內(nèi)建的 NGINX Plus 模塊實時活動監(jiān)視的儀表盤,包括了服務器群,TCP 連接和緩存信息等 Web 架構(gòu)信息。
總結(jié): 看看10倍性能提升的效果
這些性能提升方案對任何一個 web 應用都可用并且效果都很好,而實際效果取決于你的預算、你能花費的時間、目前實現(xiàn)方案的差距。所以你該如何對你自己的應用實現(xiàn)10倍性能提升?
為了指導你了解每種優(yōu)化手段的潛在影響,這里是上面詳述的每個優(yōu)化方法的關(guān)鍵點,雖然你的情況肯定大不相同:
反向代理服務器和負載均衡。沒有負載均衡或者負載均衡很差都會造成間歇的性能低谷。增加一個反向代理,比如 NGINX ,可以避免 web 應用程序在內(nèi)存和磁盤之間波動。負載均衡可以將過載服務器的任務轉(zhuǎn)移到空閑的服務器,還可以輕松的進行擴容。這些改變都可以產(chǎn)生巨大的性能提升,很容易就可以比你現(xiàn)在的實現(xiàn)方案的最差性能提高10倍,對于總體性能來說可能提高的不多,但是也是有實質(zhì)性的提升。
緩存動態(tài)和靜態(tài)數(shù)據(jù)。如果你有一個負擔過重的 web 服務器,那么毫無疑問肯定是你的應用服務器,只通過緩存動態(tài)數(shù)據(jù)就可以在峰值時間提高10倍的性能。緩存靜態(tài)文件可以提高幾倍的性能。
壓縮數(shù)據(jù)。使用媒體文件壓縮格式,比如圖像格式 JPEG,圖形格式 PNG,視頻格式 MPEG-4,音樂文件格式 MP3 可以極大的提高性能。一旦這些都用上了,然后壓縮文件數(shù)據(jù)可以將初始頁面加載速度提高兩倍。
優(yōu)化 SSL/TLS。安全握手會對性能產(chǎn)生巨大的影響,對它們的優(yōu)化可能會對初始響應產(chǎn)生2倍的提升,特別是對于大量文本的站點。優(yōu)化 SSL/TLS 下媒體文件只會產(chǎn)生很小的性能提升。
使用 HTTP/2 和 SPDY。當你使用了 SSL/TLS,這些協(xié)議就可以提高整個站點的性能。
對 Linux 和 web 服務器軟件進行調(diào)優(yōu)。比如優(yōu)化緩存機制,使用?;钸B接,分配時間敏感型任務到不同的線程池可以明顯的提高性能;舉個例子,線程池可以加速對磁盤敏感的任務近一個數(shù)量級。
申請創(chuàng)業(yè)報道,分享創(chuàng)業(yè)好點子。點擊此處,共同探討創(chuàng)業(yè)新機遇!