variables coding 变量和编码
Table of Contents

变量

定义

Variables are used to store information to be referenced and manipulated in a computer program. They also provide a way of labeling data with a descriptive name, so our programs can be understood more clearly by the reader and ourselves. It is helpful to think of variables as containers that hold information. Their sole purpose is to label and store data in memory. This data can then be used throughout your program.

命名规则

编码

ASCII

ASCII(American Standard Code for Information Interchange,美国标准信息交换代码)是基于拉丁字母的一套电脑编码系统,主要用于显示现代英语和其他西欧语言,其最多只能用 8 位来表示(一个字节),即:2**8 = 256,所以,ASCII码最多只能表示 256 个符号。

img

非 ASCII 编码

英语用128个符号编码就够了,但是用来表示其他语言,128个符号是不够的。比如,在法语中,字母上方有注音符号,它就无法用 ASCII 码表示。于是,一些欧洲国家就决定,利用字节中闲置的最高位编入新的符号。比如,法语中的é的编码为130(二进制10000010)。这样一来,这些欧洲国家使用的编码体系,可以表示最多256个符号。

但是,这里又出现了新的问题。不同的国家有不同的字母,因此,哪怕它们都使用256个符号的编码方式,代表的字母却不一样。比如,130在法语编码中代表了é,在希伯来语编码中却代表了字母Gimel (ג),在俄语编码中又会代表另一个符号。但是不管怎样,所有这些编码方式中,0--127表示的符号是一样的,不一样的只是128--255的这一段。

中文

至于亚洲国家的文字,使用的符号就更多了,汉字就多达10万左右。一个字节只能表示256种符号,肯定是不够的,就必须使用多个字节表达一个符号。比如,简体中文常见的编码方式是 GB2312,使用两个字节表示一个汉字,所以理论上最多可以表示 256 x 256 = 65536 个符号。

为了处理汉字,程序员设计了用于简体中文的GB2312和用于繁体中文的big5

GB2312(1980年)一共收录了7445个字符,包括6763个汉字和682个其它符号。汉字区的内码范围高字节从B0-F7,低字节从A1-FE,占用的码位是72*94=6768。其中有5个空位是D7FA-D7FE。

GB2312 支持的汉字太少。1995年的汉字扩展规范GBK1.0收录了21886个符号,它分为汉字区和图形符号区。汉字区包括21003个字符。2000年的 GB18030是取代GBK1.0的正式国家标准。该标准收录了27484个汉字,同时还收录了藏文、蒙文、维吾尔文等主要的少数民族文字。现在的PC平台必须支持GB18030,对嵌入式产品暂不作要求。所以手机、MP3一般只支持GB2312。

从ASCII、GB2312、GBK 到GB18030,这些编码方法是向下兼容的,即同一个字符在这些方案中总是有相同的编码,后面的标准支持更多的字符。在这些编码中,英文和中文可以统一地处理。区分中文编码的方法是高字节的最高位不为0。按照程序员的称呼,GB2312、GBK到GB18030都属于双字节字符集 (DBCS)。

有的中文Windows的缺省内码还是GBK,可以通过GB18030升级包升级到GB18030。不过GB18030相对GBK增加的字符,普通人是很难用到的,通常我们还是用GBK指代中文Windows内码。

Unicode

世界上存在着多种编码方式,同一个二进制数字可以被解释成不同的符号。因此,要想打开一个文本文件,就必须知道它的编码方式,否则用错误的编码方式解读,就会出现乱码。为什么电子邮件常常出现乱码?就是因为发信人和收信人使用的编码方式不一样。

Unicode(统一码、万国码、单一码)是一种在计算机上使用的字符编码。Unicode 是为了解决传统的字符编码方案的局限而产生的,它为每种语言中的每个字符设定了统一并且唯一的二进制编码,规定虽有的字符和符号最少由 16 位来表示(2个字节),即:2 **16 = 65536

将世界上所有的符号都纳入其中。每一个符号都给予一个独一无二的编码,那么乱码问题就会消失。

Unicode 的问题

需要注意的是,Unicode 只是一个符号集,它只规定了符号的二进制代码,却没有规定这个二进制代码应该如何存储。

比如,汉字的 Unicode 是十六进制数4E25,转换成二进制数足足有15位(100111000100101),也就是说,这个符号的表示至少需要2个字节。表示其他更大的符号,可能需要3个字节或者4个字节,甚至更多。

这里就有两个严重的问题,第一个问题是,如何才能区别 Unicode 和 ASCII ?计算机怎么知道三个字节表示一个符号,而不是分别表示三个符号呢?第二个问题是,我们已经知道,英文字母只用一个字节表示就够了,如果 Unicode 统一规定,每个符号用三个或四个字节表示,那么每个英文字母前都必然有二到三个字节是0,这对于存储来说是极大的浪费,文本文件的大小会因此大出二三倍,这是无法接受的。

utf-8

UTF-8 就是在互联网上使用最广的一种 Unicode 的实现方式。

其他实现方式还包括 UTF-16(字符用两个字节或四个字节表示)和 UTF-32(字符用四个字节表示),不过在互联网上基本不用。

UTF-8(8-bit Unicode Transformation Format)是一种针对Unicode的可变长度字符编码,它可以使用1~4个字节表示一个符号,根据不同的符号而变化字节长度,当字符在ASCII码的范围时,就用一个字节表示,所以是兼容ASCII编码的。

UTF-8 的编码规则很简单,只有二条:

1)对于单字节的符号,字节的第一位设为0,后面7位为这个符号的 Unicode 码。因此对于英语字母,UTF-8 编码和 ASCII 码是相同的。

2)对于n字节的符号(n > 1),第一个字节的前n位都设为1,第n + 1位设为0,后面字节的前两位一律设为10。剩下的没有提及的二进制位,全部为这个符号的 Unicode 码。

声明字符编码

如果.py文件中包含中文字符(严格的说是含有非anscii字符),则需要在第一行或第二行指定编码声明:

#-*- coding=utf-8 -*- 或者 # encoding=utf-8

即文件编码为utf-8, 但py文件内的变量是Unicode

bytes

由于Python的字符串类型是str,在内存中以Unicode表示,一个字符对应若干个字节。如果要在网络上传输,或者保存到磁盘上,就需要把str变为以字节为单位的bytes

Bytes类型可以是ASCII范围内的字符和其他十六进制形式字符数据,但不能用中文等非ASCII字符表示

encode(encoding='utf-8', errors='strict') -> bytes
bytes.decode(encoding='utf-8', errors='strict') -> str
等价于
string.encode()

可以使用b前缀定义

只能使用基本的ASCII形式 b"abc9"
使用16进制表示 b"\x41\x61"

切片

In [56]: b'xuxuehua.com'[-10:-4:1]
Out[56]: b'xuehua'

bytearray

字节数组

有序的可变序列

bytearray.decode(encoding='utf-8', errors='strict') -> str

切片

In [57]: bytearray(b'xuxuehua.com')[-10:-4:1]
Out[57]: bytearray(b'xuehua')

Python3 bytes string 转换

Python 3版本中,字符串是以Unicode编码的

str能表示Unicode 字符集中的所有字符

str是一种高层对象。bytes是一种底层的东西。

如果需要在高层处理,那么就全部使用str。

在与外部通信的时候,比如保存文件,socket通信,使用bytes。

img

字符编码与转码

在py3中encode,在转码的同时还会把string 变成bytes类型,decode在解码的同时还会把bytes变回string

img

默认系统编码为ascii (Python2)

string(中文) 转 unicode

>>> import sys
>>> sys.getdefaultencoding()
'ascii'
>>> '你好'.decode('gbk')
u'\u6d63\u72b2\u30bd'
>>> print(u'\u6d63\u72b2\u30bd'.encode('gbk'))
你好

string(英文) 转 unicode

无论是什么平台什么编码格式都能转换为unicode格式

Python 2

#-*- coding:utf-8 -*-

import sys
print('system default encoding: ', sys.getdefaultencoding())

s = "你好"
s_to_unicode = s.decode('utf-8')
print('s_to_unicode', type(s_to_unicode))
print(s_to_unicode)

s_to_gbk = s_to_unicode.encode('gbk')
print(s_to_gbk)


gbk_to_utf8 = s_to_gbk.decode('gbk').encode('utf-8')
print(gbk_to_utf8)
>>>
('system default encoding: ', 'ascii')
('s_to_unicode', <type 'unicode'>)
你好
���
你好

GBK 转 utf-8

GBK 先decode 变成Unicode,然后再encode变成utf-8

utf-8 转 GBK

utf-8 先decode 变成unicode,然后再encode 变成GBK

默认编码集为utf-8

默认系统编码为utf-8 (Python3)

In [19]: import sys

In [20]: sys.getdefaultencoding()
Out[20]: 'utf-8'

str 转 bytes

In [29]: 'ABC'.encode('ascii')
Out[29]: b'ABC'

In [30]: 'ABC'.encode('utf-8')
Out[30]: b'ABC'

In [31]: '你好'.encode('ascii')
---------------------------------------------------------------------------
UnicodeEncodeError                        Traceback (most recent call last)
<ipython-input-31-539ec64f1dbf> in <module>()
----> 1 '你好'.encode('ascii')

UnicodeEncodeError: 'ascii' codec can't encode characters in position 0-1: ordinal not in range(128)

In [32]: '你好'.encode('utf-8')
Out[32]: b'\xe4\xbd\xa0\xe5\xa5\xbd'

纯英文的str可以用ASCII编码为bytes,内容是一样的,含有中文的str可以用UTF-8编码为bytes。含有中文的str无法用ASCII编码,因为中文编码的范围超过了ASCII编码的范围,Python会报错。

bytes 转 str

In [33]: b'ABC'.decode('ascii')
Out[33]: 'ABC'

In [34]: b'ABC'.decode('utf-8')
Out[34]: 'ABC'

In [35]: b'\xe4\xb8\xad\xe6\x96\x87'.decode('utf-8')
Out[35]: '中文'

In [36]: b'\xe4\xb8\xad\xe6\x96\x87'.decode('ascii')
---------------------------------------------------------------------------
UnicodeDecodeError                        Traceback (most recent call last)
<ipython-input-36-5b063d2fad44> in <module>()
----> 1 b'\xe4\xb8\xad\xe6\x96\x87'.decode('ascii')

UnicodeDecodeError: 'ascii' codec can't decode byte 0xe4 in position 0: ordinal not in range(128)

如果bytes中只有一小部分无效的字节,可以传入errors='ignore'忽略错误的字节:

In [37]: b'\xe4\xb8\xad\xff'.decode('utf-8')
---------------------------------------------------------------------------
UnicodeDecodeError                        Traceback (most recent call last)
<ipython-input-37-cd8de1b11dcd> in <module>()
----> 1 b'\xe4\xb8\xad\xff'.decode('utf-8')

UnicodeDecodeError: 'utf-8' codec can't decode byte 0xff in position 3: invalid start byte

In [38]: b'\xe4\xb8\xad\xff'.decode('utf-8', errors='ignore')
Out[38]: '中'

unicode 转 gbk

In [41]: s = u'中国'

In [42]: s.encode('gbk')
Out[42]: b'\xd6\xd0\xb9\xfa'

gbk 转 unicode

In [47]: s = u'中国'

In [48]: s_utf8 =  s.encode('UTF-8')

In [49]: s_utf8.decode('utf-8')
Out[49]: '中国'

Unicode码对应的中文

如果type(text) is bytes,那么

text.decode('unicode_escape')

如果type(text) is str,那么

text.encode('latin-1').decode('unicode_escape')