欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

python 字符编码

程序员文章站 2023-08-14 08:15:38
python 编码转换 了解字符编码的知识储备 文本编辑器存取文件的原理(nodepad++,pycharm,word) 打开编辑器就打开了启动了一个进程,是在内存中的,所以在编辑器编写的内容也都是存放与内存中的,断电后数据丢失,因而需要保存到硬盘上,点击保存按钮,就从内存中把数据刷到了硬盘上。在这 ......

python 编码转换

了解字符编码的知识储备

  • 文本编辑器存取文件的原理(nodepad++,pycharm,word)

   打开编辑器就打开了启动了一个进程,是在内存中的,所以在编辑器编写的内容也都是存放与内存中的,断电后数据丢失,因而需要保存到硬盘上,点击保存按钮,就从内存中把数据刷到了硬盘上。在这一点上,我们编写一个py文件(没有执行),跟编写其他文件没有任何区别,都只是在编写一堆字符而已。

  即:在没有点击保存时,我们所写的内容都是写入内存。注意这一点,很重要!!当我们点击保存,内容才被刷到硬盘。

  上面做了两件事:写内容到内存,从内存将内存刷到硬盘。这是两个过程。

  • python解释器执行py文件的原理 ,例如python test.py

​ 第一阶段:python解释器启动,此时就相当于启动了一个文本编辑器

  第二阶段:python解释器相当于文本编辑器,去打开test.py文件,从硬盘上将test.py的文件内容读入到内存中

  第三阶段:python解释器解释执行刚刚加载到内存中test.py的代码

  python解释器执行py文件分为两个步骤:1.将文件读到内存,2.解释执行内容。

  • 字符编码简介

   编码/解码本质上是一种映射(对应关系),比如‘a’用ascii编码则是65,计算机中存储的就是00110101,但是显示的时候不能显示00110101,还是要显示'a',但计算机怎么知道00110101是'a'呢,这就需要解码,当选择用ascii解码时,当计算机读到00110101时就到对应的ascii表里一查发现是'a',就显示为'a'

​ 编码:真实字符与二进制串的对应关系,真实字符→二进制串

​ 解码:二进制串与真实字符的对应关系,二进制串→真实字符

​ 要搞清楚字符编码,首先要解决的问题是:什么是字符编码?

  我们都知道,计算机要想工作必须通电,也就是说‘电’驱使计算机干活,而‘电’的特性,就是高低电平(高低平即二进制数1,低电平即二进制数0),也就是说计算机只认识数字(010101).如果我们想保存数据,首先得将我们的数据进行一些处理,最终得转换成010101才能让计算机识别。

  所以必须经过一个过程:

  字符--------(翻译过程)------->数字

  这个过程实际就是一个字符如何对应一个特定数字的标准,这个标准称之为字符编码。

  那么问题就来了?作为一种编码方案,还得解决两个问题:

    a.字节是怎么分组的,如8 bits或16 bits一组,这也被称作编码单元。

    b.编码单元和字符之间的映射关系。例如,在ascii码中,十进制65映射到字母a上。

  ascii码是上个世纪最流行的编码体系之一,至少在西方是这样。下图显示了ascii码中编码单元是怎么映射到字符上的。

​ 随着计算机越来越流行,厂商之间的竞争更加激烈,在不同的计算机体系间转换数据变得十分蛋疼,人们厌烦了这种自定义造成的混乱。最终,计算机制造商一起制定了一个标准的方法来描述字符。他们定义使用一个字节的低7位来表示字符,并且制作了如上图所示的对照表来映射七个比特的值到一个字符上。例如,字母a是65,c是99,~是126等等, ascii码就这样诞生了。原始的ascii标准定义了从0到127 的字符,这样正好能用七个比特表示。

  为什么选择了7个比特而不是8个来表示一个字符呢?我并不关心。但是一个字节是8个比特,这意味着1个比特并没有被使用,也就是从128到255的编码并没有被制定ascii标准的人所规定,这些美国人对世界的其它地方一无所知甚至完全不关心。其它国家的人趁这个机会开始使用128到255范围内的编码来表达自己语言中的字符。例如,144在阿拉伯人的ascii码中是گ,而在俄罗斯的ascii码中是ђ。ascii码的问题在于尽管所有人都在0-127号字符的使用上达成了一致,但对于128-255号字符却有很多很多不同的解释。你必须告诉计算机使用哪种风格的ascii码才能正确显示128-255号的字符。

  总结:ascii,一个bytes代表一个字符(英文字符/键盘上的所有其他字符),1bytes=8bit,8bit可以表示0-2**8-1种变化,即可以表示256个字符,ascii最初只用了后七位,127个数字,已经完全能够代表键盘上所有的字符了(英文字符/键盘的所有其他字符),后来为了将拉丁文也编码进了ascii表,将最高位也占用了。

阶段二:为了满足中文,中国人定制了gbk

  gbk:2bytes代表一个字符;为了满足其他国家,各个国家纷纷定制了自己的编码。日本把日文编到shift_jis里,韩国把韩文编到euc-kr里

阶段三:万国码unicode编码

  后来,有人开始觉得太多编码导致世界变得过于复杂了,让人脑袋疼,于是大家坐在一起拍脑袋想出来一个方法:所有语言的字符都用同一种字符集来表示,这就是unicode。

unicode统一用2bytes代表一个字符,2**16-1=65535,可代表6万多个字符,因而兼容万国语言.但对于通篇都是英文的文本来说,这种编码方式无疑是多了一倍的存储空间(英文字母只需要一个字节就足够,用两个字节来表示,无疑是浪费空间).于是产生了utf-8,对英文字符只用1bytes表示,对中文字符用3bytes.utf-8是一个非常惊艳的概念,它漂亮的实现了对ascii码的向后兼容,以保证unicode可以被大众接受。

在utf-8中,0-127号的字符用1个字节来表示,使用和us-ascii相同的编码。这意味着1980年代写的文档用utf-8打开一点问题都没有。只有128号及以上的字符才用2个,3个或者4个字节来表示。因此,utf-8被称作可变长度编码。于是下面字节流如下:

    0100100001000101010011000100110001001111

  这个字节流在ascii和utf-8中表示相同的字符:hello

  至于其他的utf-16,这里就不再叙述了。

  总结一点:unicode:简单粗暴,所有字符都是2bytes,优点是字符----->数字的转换速度快,缺点是占用空间大。

       utf-8:精准,对不同的字符用不同的长度表示,优点是节省空间,缺点是:字符->数字的转换速度慢,因为每次都需要计算出字符需要多长的bytes才能够准确表示。

  因此,内存中使用的编码是unicode,用空间换时间(程序都需要加载到内存才能运行,因而内存应该是尽可能的保证快);硬盘中或者网络传输用utf-8,网络i/o延迟或磁盘i/o延迟要远大与utf-8的转换延迟,而且i/o应该是尽可能地节省带宽,保证数据传输的稳定性。

  所有程序,最终都要加载到内存,程序保存到硬盘不同的国家用不同的编码格式,但是到内存中我们为了兼容万国(计算机可以运行任何国家的程序原因在于此),统一且固定使用unicode,这就是为何内存固定用unicode的原因,你可能会说兼容万国我可以用utf-8啊,可以,完全可以正常工作,之所以不用肯定是unicode比utf-8更高效啊(uicode固定用2个字节编码,utf-8则需要计算),但是unicode更浪费空间,没错,这就是用空间换时间的一种做法,而存放到硬盘,或者网络传输,都需要把unicode转成utf-8,因为数据的传输,追求的是稳定,高效,数据量越小数据传输就越靠谱,于是都转成utf-8格式的,而不是unicode。

python 字符编码

不管是哪种类型的文件,只要记住一点:文件以什么编码保存的,就以什么编码方式打开.

  下面我们来看看python中关于编码出现的问题:

  如果不在python文件指定头信息#--coding:utf-8--,那就使用默认的python2中默认使用ascii,python3中默认使用utf-8

  读取已经加载到内存的代码(unicode编码的二进制),然后执行,执行过程中可能会开辟新的内存空间,比如x="hello"

  内存的编码使用unicode,不代表内存中全都是unicode编码的二进制,在程序执行之前,内存中确实都是unicode编码的二进制,比如从文件中读取了一行x="hello",其中的x,等号,引号,地位都一样,都是普通字符而已,都是以unicode编码的二进制形式存放与内存中的.但是程序在执行过程中,会申请内存(与程序代码所存在的内存是俩个空间),可以存放任意编码格式的数据,比如x="hello",会被python解释器识别为字符串,会申请内存空间来存放"hello",然后让x指向该内存地址,此时新申请的该内存地址保存也是unicode编码的hello,如果代码换成x="hello".encode('utf-8'),那么新申请的内存空间里存放的就是utf-8编码的字符串hello了.

  python 字符编码

  浏览网页的时候,服务器会把动态生成的unicode内容转换为utf-8再传输到浏览器

      python 字符编码

  如果服务端encode的编码格式是utf-8, 客户端内存中收到的也是utf-8编码的二进制

 python3 除了把字符串的编码改成了unicode, 还把str 和bytes 做了明确区分, str 就是unicode格式的字符, bytes就是单纯二进制。

  在py3里看字符,必须得是unicode编码,其它编码一律按bytes格式展示。

#在python3中也有两种字符串类型str和bytes

#str类型变为unicode类型

#coding:utf-8
s='林' #当程序执行时,无需加u,'林'也会被以unicode形式保存新的内存空间中,

#s可以直接encode成任意编码格式
s.encode('utf-8')
s.encode('gbk')

print(type(s)) #<class 'str'>

#bytes类型

#coding:utf-8
s='林' #当程序执行时,无需加u,'林'也会被以unicode形式保存新的内存空间中,

#s可以直接encode成任意编码格式
s1=s.encode('utf-8')
s2=s.encode('gbk')

print(s) #林
print(s1) #b'\xe6\x9e\x97' 在python3中,是什么就打印什么
print(s2) #b'\xc1\xd6' 同上

print(type(s)) #<class 'str'>
print(type(s1)) #<class 'bytes'>
print(type(s2)) #<class 'bytes'>

python3 文件默认编码是utf-8,字符串编码是unicode,以utf-8或者gbk等代码,加载到内存,会自动转为unicode正常显示。