python 学习之 基础篇二 字符编码
声明: 博文参考1:https://blog.csdn.net/wdjndy/article/details/79711426
博文参考2:https://www.cnblogs.com/schut/p/8407258.html
(1)为什么要用字符编码(参照:https://blog.csdn.net/wdjndy/article/details/79711426)
早期的计算机使用的是通电与否的特性的真空管,如果通电就是1,没有通电就是0,后来沿用至今我们称这种只有0/1的环境为
二进制制,英文称为binary。但是二进制数据(0/1)怎么能表示我们所熟知的英文,数字,字符,汉字呢?所以就有了各种编码,因
为开始计算机只在美国用。八位的字节一共可以组合出256(2的8次方)种不同的状态。(可以涵盖美国人使用的字母,数字和特殊符
号。)所以他们把其中的编号从0开始的32种状态分别规定了特殊的用途,一但终端、打印机遇上约定好的这些字节被传过来时,
就要做一些约定的动作:
遇上0×10, 终端就换行;
遇上0×07, 终端就向人们嘟嘟叫;
遇上0x1b, 打印机就打印反白的字,或者终端就用彩色显示字母。
他们看到这样很好,于是就把这些0×20以下的字节状态称为”控制码”。他们又把所有的空 格、标点符号、数字、大小写字母分
别用连续的字节状态表示,一直编到了第127号,这样计算机就可以用不同字节来存储英语的文字了。大家看到这样,都感觉很好
,于是大家都把这个方案叫做 ansi 的”ascii”编码(american standard code for information interchange,美国信息互换标
准代码)。当时世界上所有的计算机都用同样的ascii方案来保存英文文字。
后来,就像建造巴比伦塔一样,世界各地都开始使用计算机,但是很多国家用的不是英文,他们的字母里有许多是ascii里没
有的,为了可以在计算机保存他们的文字,他们决定采用 127号之后的空位来表示这些新的字母、符号,还加入了很多画表格时需
要用下到的横线、竖线、交叉等形状,一直把序号编到了最后一个状态255。从128 到255这一页的字符集被称”扩展字符集“。从此
之后,贪婪的人类再没有新的状态可以用了,美帝国主义可能没有想到还有第三世界国家的人们也希望可以用到计算机吧!
等中国人们得到计算机时,已经没有可以利用的字节状态来表示汉字,况且有6000多个常用汉字需要保存呢。但是这难不倒智
慧的中国人民,我们不客气地把那些127号之后的奇异符号们直接取消掉, 规定:一个小于127的字符的意义与原来相同,但两个大
于127的字符连在一起时,就表示一个汉字,前面的一个字节(他称之为高字节)从0xa1用到0xf7,后面一个字节(低字节)从
0xa1到0xfe,这样我们就可以组合出大约7000多个简体汉字了。在这些编码里,我们还把数学符号、罗马希腊的字母、日文的假
名们都编进去了,连在 ascii 里本来就有的数字、标点、字母都统统重新编了两个字节长的编码,这就是常说的”全角”字符,而原
来在127号以下的那些就叫”半角”字符了。中国人民看到这样很不错,于是就把这种汉字方案叫做“gb2312“。gb2312 是对 ascii
的中文扩展。
因为当时各个国家都像中国这样搞出一套自己的编码标准,结果互相之间谁也不懂谁的编码,谁也不支持别人的编码,连大陆
和*这样只相隔了150海里,使用着同一种语言的兄弟地区,也分别采用了不同的 dbcs 编码方案——当时的中国人想让电脑显
示汉字,就必须装上一个”汉字系统”,专门用来处理汉字的显示、输入的问题,像是那个*的愚昧封建人士写的算命程序就必须
加装另一套支持 big5 编码的什么”倚天汉字系统”才可以用,装错了字符系统,显示就会乱了套!这怎么办?而且世界民族之林中
还有那些一时用不上电脑的穷苦人民,他们的文字又怎么办?真是计算机的巴比伦塔命题啊!
正在这时,大天使加百列及时出现了——一个叫 iso(国际标谁化组织)的国际组织决定着手解决这个问题。他们采用的方法
很简单:废了所有的地区性编码方案,重新搞一个包括了地球上所有文化、所有字母和符号的编码!他们打算叫它”universal
multiple-octet coded character set”,简称 ucs, 俗称“unicode“。
unicode开始制订时,计算机的存储器容量极大地发展了,空间再也不成为问题了。于是 iso 就直接规定必须用两个字节,也
就是16位来统一表示所有的字符,对于ascii里的那些“半角”字符,unicode包持其原编码不变,只是将其长度由原来的8位扩展为
16位,而其他文化和语言的字符则全部重新统一编码。由于”半角”英文符号只需要用到低8位,所以其高8位永远是0,因此这种大
气的方案在保存英文文本时会多浪费一倍的空间。
这时候,从旧社会里走过来的程序员开始发现一个奇怪的现象:他们的 strlen 函数靠不住了,一个汉字不再是相当于两个字符
了,而是一个!是的,从unicode开始,无论是半角的英文字母,还是全角的汉字,它们都是统一的”一个字符“!同时,也都是统一
的”两个字节“,请注意”字符”和”字节”两个术语的不同,“字节”是一个8位的物理存贮单元,而“字符”则是一个文化相关的符号。在
unicode中,一个字符就是两个字节。一个汉字算两个英文字符的时代已经快过去了。
unicode同样也不完美,这里就有两个的问题,一个是,如何才能区别unicode和ascii?计算机怎么知道三个字节表示一个符号
,而不是分别表示三个符号呢?第二个问题是,我们已经知道,英文字母只用一个字节表示就够了,如果unicode统一规定,每个
符号用三个或四个字节表示,那么每个英文字母前都必然有二到三个字节是0,这对于存储空间来说是极大的浪费,文本文件的大
小会因此大出二三倍,这是难以接受的。
unicode在很长一段时间内无法推广,直到互联网的出现,为解决unicode如何在网络上传输的问题,于是面向传输的众多 utf
(ucstransfer format)标准出现了,顾名思义,utf-8就是每次8个位传输数据,而utf-16就是每次16个位。utf-8就是在互
联网上使用最广的一种unicode的实现方式,这是为传输而设计的编码,并使编码无国界,这样就可以显示全世界上所有文化的字
符了。utf-8最大的一个特点,就是它是一种变长的编码方式。它可以使用1~4个字节表示一个符号,根据不同的符号而变化字节
长度,当字符在ascii码的范围时,就用一个字节表示,保留了ascii字符一个字节的编码做为它的一部分,注意的是unicode一个
中文字符占2个字节,而utf-8一个中文字符占3个字节)。
从unicode到utf-8并不是直接的对应,而是要过一些算法和规则来转换。
7 7 e 5
0111 0111 1110 0101 二进制的77e5
--------------------------
0111 011111 100101 按规则重组后的二进制77e5
1110xxxx 10xxxxxx 10xxxxxx 套用utf-8模版(固定化模版)
11100111 10011111 10100101 代入模版
e 7 9 f a 5
最后简单总结一下:
中国人民通过对 ascii 编码的中文扩充改造,产生了 gb2312 编码,可以表示6000多个常用汉字。
汉字实在是太多了,包括繁体和各种字符,于是产生了 gbk 编码,它包括了 gb2312 中的编码,同时扩充了很多。
中国是个多民族国家,各个民族几乎都有自己独立的语言系统,为了表示那些字符,继续把 gbk 编码扩充为 gb18030 编码。
每个国家都像中国一样,把自己的语言编码,于是出现了各种各样的编码,如果你不安装相应的编码,就无法解释相应编码想
表达的内容。
终于,有个叫 iso 的组织看不下去了。他们一起创造了一种编码 unicode ,这种编码非常大,大到可以容纳世界上任何一
个文字和标志。所以只要电脑上有 unicode 这种编码系统,无论是全球哪种文字,只需要保存文件的时候,保存成 unicode 编
码就可以被其他电脑正常解释。
unicode 在网络传输中,出现了两个标准 utf-8 和 utf-16,分别每次传输 8个位和 16个位。于是就会有人产生疑问,
utf-8 既然能保存那么多文字、符号,为什么国内还有这么多使用 gbk 等编码的人?因为 utf-8 等编码体积比较大,占电脑空间
比较多,如果面向的使用人群绝大部分都是中国人,用 gbk 等编码也可以。
(2)字符在硬盘上的存储(参照:https://www.cnblogs.com/schut/p/8407258.html)
首先要明确的一点就是,无论以什么编码在内存里显示字符,存到硬盘上都是2进制(0b是说明这段数字是二进制,0x表示是
16进制。0x几乎所有的编译器都支持,而支持0b的并不多)。理解这一点很重要。
比如:
ascii编码(美国):
l 0b1101100
o 0b1101111
v 0b1110110
e 0b1100101
gbk编码(中国):
老 0b11000000 0b11001111
男 0b11000100 0b11010000
孩 0b10111010 0b10100010
还要注意的一点是:存到硬盘上时是以何种编码存的,再从硬盘上读出来时,就必须以何种编码读(开头声明或转换),要不然就乱了。
(3)编码转换
虽然有了unicode and utf-8 ,但是由于历史问题,各个国家依然在大量使用自己的编码,比如中国的windows,默认编码依然
是gbk,而不是utf-8。
基于此,如果中国的软件出口到美国,在美国人的电脑上就会显示乱码,因为他们没有gbk编码。
所以该怎么办呢?
还记得我们讲unicode其中一个功能是其包含了跟全球所有国家编码的映射关系,这时就派上用场了。
无论你以什么编码存储的数据,只要你的软件在把数据从硬盘读到内存里,转成unicode来显示,就可以了。
由于所有的系统、编程语言都默认支持unicode,那你的gbk软件放到美国电脑上,加载到内存里,变成了unicode,
中文就可以正常展示啦
python3执行过程
1、解释器找到代码文件,把代码字符串按文件头定义的编码加载到内存,转成unicode 2、把代码字符串按照语法规则进行解释 3、所有的变量字符都会以unicode编码声明
在py3上把你的代码以utf-8编写,保存,然后在windows上执行。
发现可以正常执行!
其实utf-8编码之所以能在windows gbk的终端下显示正常,是因为到了内存里python解释器把utf-8转成了unicode , 但是这
只是python3, 并不是所有的编程语言在内存里默认编码都是unicode,比如万恶的python2 就不是,它是ascii(龟叔当初设计
python时的一点缺陷),想写中文,就必须声明文件头的coding为gbk or utf-8, 声明之后,python2解释器仅以文件头声明的
编码去解释你的代码,加载到内存后,并不会主动帮你转为unicode,也就是说,你的文件编码是utf-8,加载到内存里,你的变
量字符串就也是utf-8, 这意味着什么?意味着,你以utf-8编码的文件,在windows是乱码。
其实乱是正常的,不乱才不正常,因为只有2种情况,你的windows上显示才不会乱。
1、字符串以gbk格式显示 2、字符串是unicode编码
python2并不会自动的把文件编码转为unicode存在内存里。
所以我们只有手动转,python3 自动把文件编码转为unicode必定是调用了什么方法,这个方法就是,decode(解码) 和encode
(编码)
方法如下:
utf-8/gbk --> decode 解码 --> unicode
unicode --> encode 编码 --> gbk / utf-8
例如:
#!/usr/bin/env python3 #-*- coding:utf-8 -*- # write by congcong s = '匆匆' print(s) s1 = s.decode("utf-8") # utf-8 转成 unicode,decode(解码)需要注明当前编码格式 print(s1,type(s1)) s2 = s1.encode("gbk") # unicode 转成 gbk,encode(编码)需要注明生成的编码格式 print(s2,type(s2)) s3 = s1.encode("utf-8") # unicode 转成 utf-8,encode(编码)注明生成的编码格式 print(s3,type(s3))
文件在 python2 和 python3 环境下运行结果的区别,如下所示:
#coding:utf-8 s = "你好,中国!" print(s) # python2输出乱码,python3正常输出 print(type(s)) # 均输出 <type 'str'> #解码成unicode s1 = s.decode("utf-8") print(s1) # python2中输出 “你好,中国!”,python3显示'str'对象没有属性'decode' print(type(s1)) # python2中输出 <type 'unicode'> python3中输出 <class 'str'> #编码成gbk 或 utf-8 s2 = s1.encode('gbk') print(s2) # python2中输出 “你好,中国!” print(type(s2)) # python2中输出 <type 'str'> s3 = s1.encode('utf-8') print(s3) # python2输出乱码, print(type(s3)) # 输出 <type 'str'>
编码相互转换的规则如下:
(4)如何验证编码转对了呢?
1、查看数据类型,python 2 里有专门的unicode 类型
2、查看unicode编码映射表
unicode字符是有专门的unicode类型来判断的,但是utf-8,gbk编码的字符都是str,你如果分辨出来的当前的字符串数据是
何种编码的呢?
有人说可以通过字节长度判断,因为utf-8一个中文占3字节,gbk一个占2字节。
看输出的字节个数,也能大体判断是什么类型。精确的验证一个字符的编码呢,就是拿这些16进制的数跟编码表里去匹配。
关于 unicode 与 gbk 等编码对应关系(以中文“路”为例):
完整的编码对应表可到这个网站下载:unicode与gbk的映射表 http://www.unicode.org/charts/
(5)python byte类型
把8个二进制一组称为一个byte,用16进制来表示。为的就是让人们看起来更可读。我们称之为bytes类型,即字节类型。
python2的字符串其实更应该称为字节串。 通过存储方式就能看出来, 但python2里还有一个类型是bytes呀,难道又叫bytes
又叫字符串?
嗯 ,是的,在python2里,bytes == str , 其实就是一回事。
除此之外呢, python2里还有个单独的类型是unicode , 把字符串解码后,就会变成unicode。
>>> s '\xe8\xb7\xaf\xe9\xa3\x9e' #utf-8 >>> s.decode('utf-8') u'\u8def\u98de' #unicode 在unicode编码表里对应的位置 >>> print(s.decode('utf-8')) 路飞 #unicode 格式的字符
python2的默认编码是ascii码,当后来大家对支持汉字、日文、法语等语言的呼声越来越高时,python于是准备引入
unicode,但若直接把默认编码改成unicode的话是不现实的, 因为很多软件就是基于之前的默认编码ascii开发的,编码一换
,那些软件的编码就都乱了。所以python 2就直接搞了一个新的字符类型,就叫unicode类型,比如你想让你的中文在全球
所有电脑上正常显示,在内存里就得把字符串存成unicode类型。
>>> s = "路飞" >>> s '\xe8\xb7\xaf\xe9\xa3\x9e' >>> s2 = s.decode("utf-8") >>> s2 u'\u8def\u98de' >>> type(s2) <type 'unicode'>
注意:
python3 除了把字符串的编码改成了unicode, 还把str 和bytes 做了明确区分, str 就是unicode格式的字符, bytes就是单
纯二进制啦。
在py3里看字符,必须得是unicode编码,其它编码一律按bytes格式展示。
python只要出现各种编码问题,无非是哪里的编码设置出错了
常见编码错误的原因有以下这些:
python解释器的默认编码
python源文件文件编码
terminal使用的编码
操作系统的语言设置
最后总结一下:
python3:文件默认编码是utf-8 , 字符串编码是 unicode以utf-8 或者 gbk等编码的代码,加载到内存,会自动转为unicode
正常显示。
python2:文件默认编码是ascii , 字符串编码也是 ascii , 如果文件头声明了是gbk,那字符串编码就是gbk。以utf-8 或者 gbk
等编码的代码,加载到内存,并不会转为unicode,编码仍然是utf-8或者gbk等编码。