欧美激情综合一区二区三区,青柠影院免费观看电视剧高清8,无码人妻精品一区二区蜜桃老年人,亚洲最大成人网站,亚洲中文字幕无码一区在线

新聞中心

EEPW首頁 > 嵌入式系統 > 設計應用 > 基于FPGA的TCP粘合設計與實現

基于FPGA的TCP粘合設計與實現

——
作者:程文青,曾鳴,黃建 (華中科技大學 電子與信息工程系,湖北 武漢 430074) 時間:2007-01-26 來源:《電子技術應用》

傳統的數據分流一般基于三層、四層交換,不能在應用層解析數據,導致數據在后端服務器解析后還要相互重新分發,增加了服務數據傳輸的開銷,為解決該問題,可以在客戶端與服務器之間采用應用級代理服務器,利用該服務器專門對數據包進行解析分發,但是該方式下,數據要進入tcp/ip協議棧,處理速度慢,同時代理服務器還需要與客戶端、服務器雙方通信,需要處理的數據量非常大,因此在集群應用中,特別是大規模負載平衡集群系統中很少使用應用級代理。

在應用級代理的基礎上,為進一步提高數據處理的速度,提出了tcp粘合技術[1]。該技術在通信雙方建立通信之處對雙方的握手信號以及通信原語進行分析,獲取必要的信息,決定數據的流向,一旦雙方開始通信,該代理就不再對數據進行分析,而僅起到了一個透明網關的作用,從而提高了代理的系統性能。

tcp粘合技術采用軟件處理方式時,由于大量數據包不需要上層解析,因此提高了系統性能,但是受軟件處理速度的限制,該技術能很難應用于大規模的集群系統,本文提出了一種基于fpga的tcp粘合技術的高速實現機制,利用硬件的高速處理特性和流水線的技術來適應高速網絡傳輸的需要。

1 現存的tcp粘合技術

tcp粘合原理如下:(1)監聽客戶端的連接請求,并在客戶端發出連接請求后(從syn開始),建立客戶端到均衡器之間的連接(通過tcp的三次握手協議完成),(2)在隨后的請求報文中分析數據并決定真正被訪問的服務節點。(3)與服務節點建立性一個連接,將兩個連接粘合在一起(splicing)。其tcp粘合原理示意圖如圖1所示[2]。

本文引用地址://tjguifa.cn/article/21524.htm


2 tcp粘合技術的硬件實現

tcp粘合技術的關鍵在于,當客戶端發起連接請求時,系統并不是立即將該請求發給后端服務器,而是偽裝成服務器與客戶端建立連接,取得用戶的get數據包,通過對url的匹配來找到信息在后端服務器的位置,然后再在客戶端與服務器之間建立連接通信。

2.1 系統架構

tcp粘合系統結構如圖2所示。

該系統中首先由客戶數據接收端對接收到的http報文進行解析,發現數據包為一個發起連接的syn數據包時,傳給地址管理單元,地址管理就為該連接分配一個地址空間,同時通過映射單元告訴客戶數據發送端與客戶端完成三次握手,建立連接。

當客戶數據接收端收到get數據包時,將該數據包發送給字符串匹配表,該表會將信息在后端服務器的位置返回給地址管理單元,地址管理單元將該信息送給數據包映射單元,映射單元將該信息寫入相應的ssram空間中,同時通知服務器發送端與后端服務器建立連接,這樣就完成了一個tcp的粘合過程。

在客戶端與服務器的通信過程中,數據包映射單元通過雙方sip、dip信息從ssarm中查找出對應的替換信息,完成雙方數據包的映射。

在客戶端通信結束時,由地址管理單元對雙方使用的地址空間進行回收;同時為防止通過過程中的異常中斷,地址管理單元內部采用了定時器機制對地址空間進行監測,根據定時器返回結果回收過時地址,防止過時信息被查用。

2.2 設計實現

在該系統中,為完成tcp粘合并且保證tcp通信的可靠性,必須能夠正確識別接收到的數據包類型,同時由于實際網絡數據傳輸的延時,在一個客戶端通信過程中可能會插入很多其他客戶端發起的新的連接請求,系統內部根據對cam查找返回的地址來區分不同的數據流,因此要對內部地址空間進行有效的釋放回收,為處理網絡通信異常中斷而導致內部地址無法回收而引入定時器機制,在數據發送部分,客戶端數據發送模塊偽裝成服務器與客戶端完成tcp三次握手協議,服務器數據發送模塊則偽裝成客戶端與服務器完成tcp三次握手協議,雙方在通信過程中轉發對方的數據包。

2.2.1 數據收發

對于系統的發送接口來說,所有發送數據包的轉發由數據包映射單元完成,因此發送接口僅完成簡單的數據包轉發功能,而當系統接收到數據包時,要對數據包進行協議解析從而決定數據包后端處理得方式,在接收部分主要對三種數據包進行區分:(1)雙方發起連接的syn數據包。這表示一個新連接的發起,因此交給地址管理單元,為它分配一個新的地址空間,同時要求發送端返回一個ack數據包;(2)客戶端發送來的get數據包中含有客戶端所需信息的url地址,將該數據包送給字符串匹配表以獲得該信息所在后端服務器的位置;(3)雙方通信的普通數據包,該數據包交給數據包映射單元實現雙發的通信,具體接收的狀態轉換圖如圖3所示。

2.2.2 地址管理單元

在地址管理的方式上,在此處利用一個地址鏈表進行管理,如圖4所示。

每次地址管理單元接收到新的請求連接就從鏈表的頭部取出該可用地址空間,將新請求的sip、dip信息寫入該地址的can中,同時在該地址對應的ssram的頁面中寫入相關的信息。假設鏈表中取出地址為n,頁面大小為m,則ssram中對應的頁面起始地址l為:

l=n×m

 當地址管理單元接收到字符串匹配表返回的后端服務器位置信息時,首先通過該數據包的sip、dip從cam中查找該數據流對應的地址、通過上述計算公式找出ssarm中對應的頁面,寫入返回信息。

對于地址空間的回收,為防止通信異常中斷而無法回收地址,在系統中采用定時器機制,即在一段時間后對ssram中的定時器標志位進行檢測,一旦發現該標志位過時則通知地址管理單元回收地址,地址管理單元收到某一地址過時的信息后,將該地址掛在地址管理鏈表尾部,同時清除該地址cam中的sip、dip信息,這樣當同一ip發起新的連接時就不會查找到過時信息。

2.2.3 數據包映射單元

為完成數據包的映射,該部分需要實現兩個功能:ack序列號轉換和雙方轉換信息的存儲。

在tcp粘合過程中,由于tcp粘合系統送給客戶端的ack序列號和后端服務器送給客戶端的ack序列號不相同,因此要進行ack序列號的轉換,同時要重新計算數據包的tcp/ip校驗和。

現假設客戶端發送了請求連接的syn數據包,而客戶端返回給客戶端的syn序列號為地址管理單元分配給該連接的地址a0,而當系統和服務器建立鏈接時服務器端返回的syn序列號為a1,則根據這兩個序列號可計算差值a為:a=a0-a1。

以后通信的過程中,只要將服務器發送給系統的序列號加上a就能夠轉換成為系統送給客戶端的序列號,這樣就完成了服務器端向客戶端發送數據的轉換,反之就可以完成客戶端向服務器發送數據的轉換。

對于數據包的校驗和轉換而言,由于校驗和本質上是加法運算,所以只需要在原來的校驗和基礎上加上序列號之差(或減去一個差值)即可完成校驗和的轉換。

在同一個通信過程中,ack序列號轉換、校驗和的轉換、發起連接的syn、get數據包和定時器標志位等信息都需要存儲,由于每個數據流需要存儲的內容較多,單一的地址已經無法滿足存儲要求,此處存儲管理采用頁面式的管理方式,將整個存儲空間若干頁面,每個數據流信息存入一個頁面中,ssram的存儲格式如圖5所示。

3 性能分析

該架構已在試驗系統上實現,接收端為兩個ge口,相對于采用tcp粘合的應用代理服務器來說(其中代理服務器cpu pentium iv 2ghz),具體的性能對比如表1所示。

從上表可以看出在最大連接數方面,在本系統中采用一個18mbit的cam,它能夠提供的最大地址空間為288k×144bit,只能支持288k的連接數,對于服務器的最大連接數來說,syn和get數據包需要經過軟件協議解析,因此當最大連接數達到582k時cpu的利用率將達到90%以上[3]。無法再處理新的連接,從上述分析中可以看出,由于受硬件資源的限制,硬件系統可以支持的最大連接數小于代理服務器,但是在實際的網絡傳輸過程中,一個http連接持續的時間一般為幾百個毫秒,在硬件系統達到每秒21k的連接數時,能夠承受的一個http最大持續時間為13秒,遠遠大于實際http連接的持續時間,因此硬件系統支持的最大連接數是夠用的,當代理服務器采用千兆網卡來接收數據時,由于數據需要經過上層協議解析,因此實際能夠接收的數據量只能達到300mbps,假設每次平均請求512b,則代理服務器能夠支持的最大每秒連接數大約為7k,而當硬件系統工作在133mhz,內部采用32bit總線傳輸時,整個系統的帶寬達到4gbit,同時系統內部采用流水線方式,能夠線速處理1gbps數據的接收,假設平均每次請求512b,則硬件系統能夠處理的每秒最大連接數達到21k,因此在單位時間內能夠處理的連接數量會高于代理服務器。

隨著http訪問量的不斷增大,對于訪問數據包的分流力度要求越來越細,本文提出的基于硬件實現的tcp粘合系統,在tcp粘合技術的基礎上,利用硬件的高速處理特性,可以達到2個ge口收發(2gbps)的線速處理性能,同時能夠較好的基于內容來區分數據流,從而避免了后端服務器數據的重新分發。


關鍵詞:

評論


相關推薦

技術專區

關閉