asp.net URL编码与解码
程序员文章站
2024-03-06 13:03:25
例如url参数字符串中使用key=value键值对这样的形式来传参,键值对之间以&符号分隔,如/s?q=abc&ie=utf-8。如果你的value字符串中包含了=或者&,...
例如url参数字符串中使用key=value键值对这样的形式来传参,键值对之间以&符号分隔,如/s?q=abc&ie=utf-8。如果你的value字符串中包含了=或者&,那么势必会造成接收url的服务器解析错误,因此必须将引起歧义的&和=符号进行转义,也就是对其进行编码。
又如,url的编码格式采用的是ascii码,而不是unicode,这也就是说你不能在url中包含任何非ascii字符,例如中文。否则如果客户端浏览器和服务端浏览器支持的字符集不同的情况下,中文可能会造成问题。
url编码的原则就是使用安全的字符(没有特殊用途或者特殊意义的可打印字符)去表示那些不安全的字符。
预备知识:uri是统一资源标识的意思,通常我们所说的url只是uri的一种。典型url的格式如上面所示。下面提到的url编码,实际上应该指的是uri编码。
foo://example.com:8042/over/there?name=ferret#nose
\_/ \______________/ \________/\_________/ \__/
scheme authority path query fragment
哪些字符需要编码
rfc3986文档规定,url中只允许包含英文字母(a-za-z)、数字(0-9)、-_.~4个特殊字符以及所有保留字符。rfc3986文档对url的编解码问题做出了详细的建议,指出了哪些字符需要被编码才不会引起url语义的转变,以及对为什么这些字符需要编码做出了相应的解释。
us-ascii字符集中没有对应的可打印字符:url中只允许使用可打印字符。us-ascii码中的10-7f字节全都表示控制字符,这些字符都不能直接出现在url中。同时,对于80-ff字节(iso-8859-1),由于已经超出了us-acii定义的字节范围,因此也不可以放在url中。
保留字符:url可以划分成若干个组件,协议、主机、路径等。有一些字符(:/?#[]@)是用作分隔不同组件的。例如:冒号用于分隔协议和主机,/用于分隔主机和路径,?用于分隔路径和查询参数,等等。还有一些字符(!$&'()*+,;=)用于在每个组件中起到分隔作用的,如=用于表示查询参数中的键值对,&符号用于分隔查询多个键值对。当组件中的普通数据包含这些特殊字符时,需要对其进行编码。
rfc3986中指定了以下字符为保留字符:! * ' ( ) ; : @ & = + $ , / ? # [ ]
不安全字符:还有一些字符,当他们直接放在url中的时候,可能会引起解析程序的歧义。这些字符被视为不安全字符,原因有很多。
空格:url在传输的过程,或者用户在排版的过程,或者文本处理程序在处理url的过程,都有可能引入无关紧要的空格,或者将那些有意义的空格给去掉。
引号以及<>:引号和尖括号通常用于在普通文本中起到分隔url的作用
#:通常用于表示书签或者锚点
%:百分号本身用作对不安全字符进行编码时使用的特殊字符,因此本身需要编码
{}|\^[]`~:某一些网关或者传输代理会篡改这些字符
需要注意的是,对于url中的合法字符,编码和不编码是等价的,但是对于上面提到的这些字符,如果不经过编码,那么它们有可能会造成url语义的不同。因此对于url而言,只有普通英文字符和数字,特殊字符$-_.+!*'()还有保留字符,才能出现在未经编码的url之中。其他字符均需要经过编码之后才能出现在url中。
但是由于历史原因,目前尚存在一些不标准的编码实现。例如对于~符号,虽然rfc3986文档规定,对于波浪符号~,不需要进行url编码,但是还是有很多老的网关或者传输代理会。
如何对url中的非法字符进行编码
url编码通常也被称为百分号编码(url encoding,also known as percent-encoding),是因为它的编码方式非常简单,使用%百分号加上两位的字符——0123456789abcdef——代表一个字节的十六进制形式。url编码默认使用的字符集是us-ascii。例如a在us-ascii码中对应的字节是0x61,那么url编码之后得到的就是%61,我们在地址栏上输入http://g.cn/search?q=%61%62%63,实际上就等同于在google上搜索abc了。又如@符号在ascii字符集中对应的字节为0x40,经过url编码之后得到的是%40。
对于非ascii字符,需要使用ascii字符集的超集进行编码得到相应的字节,然后对每个字节执行百分号编码。对于unicode字符,rfc文档建议使用utf-8对其进行编码得到相应的字节,然后对每个字节执行百分号编码。如"中文"使用utf-8字符集得到的字节为0xe4 0xb8 0xad 0xe6 0x96 0x87,经过url编码之后得到"%e4%b8%ad%e6%96%87"。
如果某个字节对应着ascii字符集中的某个非保留字符,则此字节无需使用百分号表示。例如"url编码",使用utf-8编码得到的字节是0x55 0x72 0x6c 0xe7 0xbc 0x96 0xe7 0xa0 0x81,由于前三个字节对应着ascii中的非保留字符"url",因此这三个字节可以用非保留字符"url"表示。最终的url编码可以简化成"url%e7%bc%96%e7%a0%81" ,当然,如果你用"%55%72%6c%e7%bc%96%e7%a0%81"也是可以的。
由于历史的原因,有一些url编码实现并不完全遵循这样的原则,下面会提到。
javascript中的escape,encodeuri和encodeuricomponent的区别
javascript中提供了3对函数用来对url编码以得到合法的url,它们分别是escape / unescape,encodeuri / decodeuri和encodeuricomponent / decodeuricomponent。由于解码和编码的过程是可逆的,因此这里只解释编码的过程。
这三个编码的函数——escape,encodeuri,encodeuricomponent——都是用于将不安全不合法的url字符转换为合法的url字符表示,它们有以下几个不同点。
安全字符不同:
下面列出了这三个函数的安全字符(即函数不会对这些字符进行编码)
escape(69个):*/@+-._0-9a-za-z
encodeuri(82个):!#$&'()*+,/:;=?@-._~0-9a-za-z
encodeuricomponent(71个):!'()*-._~0-9a-za-z
兼容性不同:escape函数是从javascript1.0的时候就存在了,其他两个函数是在javascript1.5才引入的。但是由于javascript1.5已经非常普及了,所以实际上使用encodeuri和encodeuricomponent并不会有什么兼容性问题。
对unicode字符的编码方式不同:这三个函数对于ascii字符的编码方式相同,均是使用百分号+两位十六进制字符来表示。但是对于unicode字符,escape的编码方式是%uxxxx,其中的xxxx是用来表示unicode字符的4位十六进制字符。这种方式已经被w3c废弃了。但是在ecma-262标准中仍然保留着escape的这种编码语法。encodeuri和encodeuricomponent则使用utf-8对非ascii字符进行编码,然后再进行百分号编码。这是rfc推荐的。因此建议尽可能的使用这两个函数替代escape进行编码。
适用场合不同:encodeuri被用作对一个完整的uri进行编码,而encodeuricomponent被用作对uri的一个组件进行编码。从上面提到的安全字符范围表格来看,我们会发现,encodeuricomponent编码的字符范围要比encodeuri的大。我们上面提到过,保留字符一般是用来分隔uri组件(一个uri可以被切割成多个组件,参考预备知识一节)或者子组件(如uri中查询参数的分隔符),如:号用于分隔scheme和主机,?号用于分隔主机和路径。由于encodeuri操纵的对象是一个完整的的uri,这些字符在uri中本来就有特殊用途,因此这些保留字符不会被encodeuri编码,否则意义就变了。
组件内部有自己的数据表示格式,但是这些数据内部不能包含有分隔组件的保留字符,否则就会导致整个uri中组件的分隔混乱。因此对于单个组件使用encodeuricomponent,需要编码的字符就更多了。
表单提交
当html的表单被提交时,每个表单域都会被url编码之后才在被发送。由于历史的原因,表单使用的url编码实现并不符合最新的标准。例如对于空格使用的编码并不是%20,而是+号,如果表单使用的是post方法提交的,我们可以在http头中看到有一个content-type的header,值为application/x-www-form-urlencoded。大部分应用程序均能处理这种非标准实现的url编码,但是在客户端javascript中,并没有一个函数能够将+号解码成空格,只能自己写转换函数。还有,对于非ascii字符,使用的编码字符集取决于当前文档使用的字符集。例如我们在html头部加上
<meta http-equiv="content-type" content="text/html; charset=gb2312" />
这样浏览器就会使用gb2312去渲染此文档(注意,当html文档中没有设置此meta标签,则浏览器会根据当前用户喜好去自动选择字符集,用户也可以强制当前网站使用某个指定的字符集)。当提交表单时,url编码使用的字符集就是gb2312。
之前在使用aptana(为什么专指aptana下面会提到)遇到一个很迷惑的问题,就是在使用encodeuri的时候,发现它编码得到的结果和我想的很不一样。下面是我的示例代码:
<!doctype html public "-//w3c//dtd xhtml 1.0 transitional//en" "http://www.w3.org/tr/xhtml1/dtd/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<meta http-equiv="content-type" content="text/html; charset=gb2312" />
</head>
<body>
<script type="text/javascript">
document.write(encodeuri("中文"));
</script>
</body>
</html>
运行结果输出%e6%b6%93%ee%85%9f%e6%9e%83。显然这并不是使用utf-8字符集进行url编码得到的结果(在google上搜索"中文",url中显示的是%e4%b8%ad%e6%96%87)。
所以我当时就很质疑,难道encodeuri还跟页面编码有关,但是我发现,正常情况下,如果你使用gb2312进行url编码也不会得到这个结果的才是。后来终于被我发现,原来是页面文件存储使用的字符集和meta标签中指定的字符集不一致导致的问题。aptana的编辑器默认情况下使用utf-8字符集。也就是说这个文件实际存储的时候使用的是utf-8字符集。但是由于meta标签中指定了gb2312,这个时候,浏览器就会按照gb2312去解析这个文档,那么自然在"中文"这个字符串这里就会出错,因为"中文"字符串用utf-8编码过后得到的字节是0xe4 0xb8 0xad 0xe6 0x96 0x87,这6个字节又被浏览器拿gb2312去解码,那么就会得到另外三个汉字"涓枃"(gbk中一个汉字占两个字节),这三个汉字在传入encodeuri函数之后得到的结果就是%e6%b6%93%ee%85%9f%e6%9e%83。因此,encodeuri使用的还是utf-8,并不会受到页面字符集的影响。
对于包含中文的url的处理问题,不同浏览器有不同的表现。例如对于ie,如果你勾选了高级设置"总是以utf-8发送url",那么url中的路径部分的中文会使用utf-8进行url编码之后发送给服务端,而查询参数中的中文部分使用系统默认字符集进行url编码。为了保证最大互操作性,建议所有放到url中的组件全部显式指定某个字符集进行url编码,而不依赖于浏览器的默认实现。
另外,很多http监视工具或者浏览器地址栏等在显示url的时候会自动将url进行一次解码(使用utf-8字符集),这就是为什么当你在firefox中访问google搜索中文的时候,地址栏显示的url包含中文的缘故。但实际上发送给服务端的原始url还是经过编码的。你可以在地址栏上使用javascript访问location.href就可以看出来了。在研究url编解码的时候千万别被这些假象给迷惑了。
又如,url的编码格式采用的是ascii码,而不是unicode,这也就是说你不能在url中包含任何非ascii字符,例如中文。否则如果客户端浏览器和服务端浏览器支持的字符集不同的情况下,中文可能会造成问题。
url编码的原则就是使用安全的字符(没有特殊用途或者特殊意义的可打印字符)去表示那些不安全的字符。
预备知识:uri是统一资源标识的意思,通常我们所说的url只是uri的一种。典型url的格式如上面所示。下面提到的url编码,实际上应该指的是uri编码。
复制代码 代码如下:
foo://example.com:8042/over/there?name=ferret#nose
\_/ \______________/ \________/\_________/ \__/
scheme authority path query fragment
哪些字符需要编码
rfc3986文档规定,url中只允许包含英文字母(a-za-z)、数字(0-9)、-_.~4个特殊字符以及所有保留字符。rfc3986文档对url的编解码问题做出了详细的建议,指出了哪些字符需要被编码才不会引起url语义的转变,以及对为什么这些字符需要编码做出了相应的解释。
us-ascii字符集中没有对应的可打印字符:url中只允许使用可打印字符。us-ascii码中的10-7f字节全都表示控制字符,这些字符都不能直接出现在url中。同时,对于80-ff字节(iso-8859-1),由于已经超出了us-acii定义的字节范围,因此也不可以放在url中。
保留字符:url可以划分成若干个组件,协议、主机、路径等。有一些字符(:/?#[]@)是用作分隔不同组件的。例如:冒号用于分隔协议和主机,/用于分隔主机和路径,?用于分隔路径和查询参数,等等。还有一些字符(!$&'()*+,;=)用于在每个组件中起到分隔作用的,如=用于表示查询参数中的键值对,&符号用于分隔查询多个键值对。当组件中的普通数据包含这些特殊字符时,需要对其进行编码。
rfc3986中指定了以下字符为保留字符:! * ' ( ) ; : @ & = + $ , / ? # [ ]
不安全字符:还有一些字符,当他们直接放在url中的时候,可能会引起解析程序的歧义。这些字符被视为不安全字符,原因有很多。
空格:url在传输的过程,或者用户在排版的过程,或者文本处理程序在处理url的过程,都有可能引入无关紧要的空格,或者将那些有意义的空格给去掉。
引号以及<>:引号和尖括号通常用于在普通文本中起到分隔url的作用
#:通常用于表示书签或者锚点
%:百分号本身用作对不安全字符进行编码时使用的特殊字符,因此本身需要编码
{}|\^[]`~:某一些网关或者传输代理会篡改这些字符
需要注意的是,对于url中的合法字符,编码和不编码是等价的,但是对于上面提到的这些字符,如果不经过编码,那么它们有可能会造成url语义的不同。因此对于url而言,只有普通英文字符和数字,特殊字符$-_.+!*'()还有保留字符,才能出现在未经编码的url之中。其他字符均需要经过编码之后才能出现在url中。
但是由于历史原因,目前尚存在一些不标准的编码实现。例如对于~符号,虽然rfc3986文档规定,对于波浪符号~,不需要进行url编码,但是还是有很多老的网关或者传输代理会。
如何对url中的非法字符进行编码
url编码通常也被称为百分号编码(url encoding,also known as percent-encoding),是因为它的编码方式非常简单,使用%百分号加上两位的字符——0123456789abcdef——代表一个字节的十六进制形式。url编码默认使用的字符集是us-ascii。例如a在us-ascii码中对应的字节是0x61,那么url编码之后得到的就是%61,我们在地址栏上输入http://g.cn/search?q=%61%62%63,实际上就等同于在google上搜索abc了。又如@符号在ascii字符集中对应的字节为0x40,经过url编码之后得到的是%40。
对于非ascii字符,需要使用ascii字符集的超集进行编码得到相应的字节,然后对每个字节执行百分号编码。对于unicode字符,rfc文档建议使用utf-8对其进行编码得到相应的字节,然后对每个字节执行百分号编码。如"中文"使用utf-8字符集得到的字节为0xe4 0xb8 0xad 0xe6 0x96 0x87,经过url编码之后得到"%e4%b8%ad%e6%96%87"。
如果某个字节对应着ascii字符集中的某个非保留字符,则此字节无需使用百分号表示。例如"url编码",使用utf-8编码得到的字节是0x55 0x72 0x6c 0xe7 0xbc 0x96 0xe7 0xa0 0x81,由于前三个字节对应着ascii中的非保留字符"url",因此这三个字节可以用非保留字符"url"表示。最终的url编码可以简化成"url%e7%bc%96%e7%a0%81" ,当然,如果你用"%55%72%6c%e7%bc%96%e7%a0%81"也是可以的。
由于历史的原因,有一些url编码实现并不完全遵循这样的原则,下面会提到。
javascript中的escape,encodeuri和encodeuricomponent的区别
javascript中提供了3对函数用来对url编码以得到合法的url,它们分别是escape / unescape,encodeuri / decodeuri和encodeuricomponent / decodeuricomponent。由于解码和编码的过程是可逆的,因此这里只解释编码的过程。
这三个编码的函数——escape,encodeuri,encodeuricomponent——都是用于将不安全不合法的url字符转换为合法的url字符表示,它们有以下几个不同点。
安全字符不同:
下面列出了这三个函数的安全字符(即函数不会对这些字符进行编码)
escape(69个):*/@+-._0-9a-za-z
encodeuri(82个):!#$&'()*+,/:;=?@-._~0-9a-za-z
encodeuricomponent(71个):!'()*-._~0-9a-za-z
兼容性不同:escape函数是从javascript1.0的时候就存在了,其他两个函数是在javascript1.5才引入的。但是由于javascript1.5已经非常普及了,所以实际上使用encodeuri和encodeuricomponent并不会有什么兼容性问题。
对unicode字符的编码方式不同:这三个函数对于ascii字符的编码方式相同,均是使用百分号+两位十六进制字符来表示。但是对于unicode字符,escape的编码方式是%uxxxx,其中的xxxx是用来表示unicode字符的4位十六进制字符。这种方式已经被w3c废弃了。但是在ecma-262标准中仍然保留着escape的这种编码语法。encodeuri和encodeuricomponent则使用utf-8对非ascii字符进行编码,然后再进行百分号编码。这是rfc推荐的。因此建议尽可能的使用这两个函数替代escape进行编码。
适用场合不同:encodeuri被用作对一个完整的uri进行编码,而encodeuricomponent被用作对uri的一个组件进行编码。从上面提到的安全字符范围表格来看,我们会发现,encodeuricomponent编码的字符范围要比encodeuri的大。我们上面提到过,保留字符一般是用来分隔uri组件(一个uri可以被切割成多个组件,参考预备知识一节)或者子组件(如uri中查询参数的分隔符),如:号用于分隔scheme和主机,?号用于分隔主机和路径。由于encodeuri操纵的对象是一个完整的的uri,这些字符在uri中本来就有特殊用途,因此这些保留字符不会被encodeuri编码,否则意义就变了。
组件内部有自己的数据表示格式,但是这些数据内部不能包含有分隔组件的保留字符,否则就会导致整个uri中组件的分隔混乱。因此对于单个组件使用encodeuricomponent,需要编码的字符就更多了。
表单提交
当html的表单被提交时,每个表单域都会被url编码之后才在被发送。由于历史的原因,表单使用的url编码实现并不符合最新的标准。例如对于空格使用的编码并不是%20,而是+号,如果表单使用的是post方法提交的,我们可以在http头中看到有一个content-type的header,值为application/x-www-form-urlencoded。大部分应用程序均能处理这种非标准实现的url编码,但是在客户端javascript中,并没有一个函数能够将+号解码成空格,只能自己写转换函数。还有,对于非ascii字符,使用的编码字符集取决于当前文档使用的字符集。例如我们在html头部加上
<meta http-equiv="content-type" content="text/html; charset=gb2312" />
这样浏览器就会使用gb2312去渲染此文档(注意,当html文档中没有设置此meta标签,则浏览器会根据当前用户喜好去自动选择字符集,用户也可以强制当前网站使用某个指定的字符集)。当提交表单时,url编码使用的字符集就是gb2312。
之前在使用aptana(为什么专指aptana下面会提到)遇到一个很迷惑的问题,就是在使用encodeuri的时候,发现它编码得到的结果和我想的很不一样。下面是我的示例代码:
复制代码 代码如下:
<!doctype html public "-//w3c//dtd xhtml 1.0 transitional//en" "http://www.w3.org/tr/xhtml1/dtd/xhtml1-transitional.dtd">
<html xmlns="http://www.w3.org/1999/xhtml">
<head>
<meta http-equiv="content-type" content="text/html; charset=gb2312" />
</head>
<body>
<script type="text/javascript">
document.write(encodeuri("中文"));
</script>
</body>
</html>
运行结果输出%e6%b6%93%ee%85%9f%e6%9e%83。显然这并不是使用utf-8字符集进行url编码得到的结果(在google上搜索"中文",url中显示的是%e4%b8%ad%e6%96%87)。
所以我当时就很质疑,难道encodeuri还跟页面编码有关,但是我发现,正常情况下,如果你使用gb2312进行url编码也不会得到这个结果的才是。后来终于被我发现,原来是页面文件存储使用的字符集和meta标签中指定的字符集不一致导致的问题。aptana的编辑器默认情况下使用utf-8字符集。也就是说这个文件实际存储的时候使用的是utf-8字符集。但是由于meta标签中指定了gb2312,这个时候,浏览器就会按照gb2312去解析这个文档,那么自然在"中文"这个字符串这里就会出错,因为"中文"字符串用utf-8编码过后得到的字节是0xe4 0xb8 0xad 0xe6 0x96 0x87,这6个字节又被浏览器拿gb2312去解码,那么就会得到另外三个汉字"涓枃"(gbk中一个汉字占两个字节),这三个汉字在传入encodeuri函数之后得到的结果就是%e6%b6%93%ee%85%9f%e6%9e%83。因此,encodeuri使用的还是utf-8,并不会受到页面字符集的影响。
对于包含中文的url的处理问题,不同浏览器有不同的表现。例如对于ie,如果你勾选了高级设置"总是以utf-8发送url",那么url中的路径部分的中文会使用utf-8进行url编码之后发送给服务端,而查询参数中的中文部分使用系统默认字符集进行url编码。为了保证最大互操作性,建议所有放到url中的组件全部显式指定某个字符集进行url编码,而不依赖于浏览器的默认实现。
另外,很多http监视工具或者浏览器地址栏等在显示url的时候会自动将url进行一次解码(使用utf-8字符集),这就是为什么当你在firefox中访问google搜索中文的时候,地址栏显示的url包含中文的缘故。但实际上发送给服务端的原始url还是经过编码的。你可以在地址栏上使用javascript访问location.href就可以看出来了。在研究url编解码的时候千万别被这些假象给迷惑了。