我在上面写了一个客户端-服务器,并在TCPpython上写了一个小协议,以便更方便地发送消息
from json import dumps
def receive(socket):
data = socket.recv(1024).decode('utf8')
length = int(data[:16])
data = data[16:]
while length - 1:
data += socket.recv(1024).decode('utf8')
length -= 1
return data
def send(socket, data):
if type(data) == dict:
data = chunk_string(dumps(data), 1000 - 16)
else:
data = chunk_string(str(data), 1000 - 16)
length = len(data)
data[0] = str(length).zfill(16) + data[0]
for chunk in data:
socket.send(bytes(chunk, encoding='utf8'))
def chunk_string(string, chunk_size):
return [string[i:i + chunk_size] for i in range(0, len(string), chunk_size)]
发送时,数据被切割成每块 1000 个字符的块,块的数量被添加到前 16 个字符中。
原则上一切正常,但有一个问题:
多字节 unicode 字符。有时因为它们而receive崩溃UnicodeDecodeError: 'utf-8' codec can't decode bytes in position 1022-1023: unexpected end of data(字节的位置不完全是 1022-1023,在块的大小不是 1000 之前)
如何避免这个问题?现在,我设法发送普通字符,避免使用多字节字符,但是,当然,我也希望能够发送它们
TCP是流。在级别上,
socket包的概念并没有在其中定义。这意味着如果套接字 A 执行两个发送操作:然后套接字 B 可以通过一个或多个接收操作接收此数据,例如:
abc123ora,bc123orabc,123- 任何组合都是可能的。接收方必须在缓冲区中积累数据,只有在可能的情况下才进行解析,即所有信息都已收到。怎么做 - 为此,您需要开发一个协议,一个基于 TCP 的附加组件。最常见(但不是唯一)的方法是在每个逻辑包的开头发送它的长度。在缓冲区中累积数据(可能来自一个或多个接收),并且仅在接收到完整数据包时进行解析。