Python实现的检测web服务器健康状况的小程序方法详情
f=urllib.urlopen("xxxxxx")
print f.getcode() #这就是获取返回的状态码 404 200等
python 服务器状态探测3种方法 1、关键字分析import os #https网站加-k cmd = ''' (curl --no-keepalive --connect-timeout 18 --stderr - '''+urls[i]+''' | grep '''+urls[i+1]+''' >/dev/null) && echo 'ok' ''' os.popen3(cmd)
2、 http head状态测试
import urllib2 try: urllib2.urlopen(urls[i],context=context) except Exception, e: ...
3、端口探测
import os cmd="nmap -sT -n -p 80,3389 --max-rtt-timeout 1 --max-scan-delay 1ms --host-timeout 2 " + server (si, so, se) = os.popen3(cmd) t=so.readlines()
if line.find('80')>=0 and line.find('open')>=0: ...
Python中获取网页状态码的两个方法
第一种是用urllib模块,下面是例示代码:
复制代码 代码如下:import urllib
status=urllib.urlopen("http://www.jb51.net").code
print status
第二章是用requests模块,下面是例示代码:
复制代码 代码如下:import requests
code=requests.get("http://www.jb51.net").status_code
print code
对web服务器做健康检查,一般我们都是用curl库(不管是php,perl的还是shell的),大致的方法一致:
代码如下:curl -I -s www.qq.com |head -1|awk '{ health = $2=="200"?"server is ok":"server is bad"}END{print health}'
server is ok
说白了这些方式都是封装了curl库的,另外还有一些关于http的模块,例如perl的LWP,python的httplib,urllib或者urllib2 也可以去实现,今天就走的比较低级一些,就使用socket方式来进行一次检测:
? 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 #!/usr/bin/env python #coding=utf8 """ 使用socket方式来检查服务器的监控状况 """ from optparse import OptionParser import socket import sys import re from StringIO import StringIO class check_server: """ 该类主要是利用socket建立一个连接以后,发送一个http请求,然后根据返回的状态码,判断主机的健康状况 """ def __init__(self,address,port,resource): self.address = address self.port = port self.resource = resource def check(self): """ 该方法也是该类的主要方法,包括构建请求资源,解析返回结果等 """ if not self.resource.startswith('/'): self.resource = '/' + self.resource request = "GET %s HTTP/1.1\r\nHost:%s\r\n\r\n" %(self.resource,self.address) #建立一个socket连接 s = socket.socket() #设置连接超时时间 s.settimeout(10) print "现在开始对 %s 上的 %s 端口连接......" %(self.address,self.port) try: s.connect((self.address,self.port)) print "连接 %s 上端口 %s 成功" %(self.address,self.port) s.send(request) response = s.recv(100) except socket.error,e: print "连接%s 上端口 %s 失败 ,原因为:%s" %(self.address,self.port,e) return False finally: print "关闭连接" s.close() line = StringIO(response).readline() try: (http_version,status,messages) = re.split(r'\s+',line,2) except ValueError: print "分割响应码失败" return False print "返回的状态码是%s" %(status) if status in ['200','301','302']: print "服务器的监控状况良好" else: print "乖乖,赶快上线看看,咋回事" if __name__ == '__main__': """ 处理参数 """ parser =OptionParser() parser.add_option("-a","--address",dest="address" ,default='localhost',help="要检查主机的地址或者主机名") parser.add_option('-p','--port',dest="port",type=int,default=80,help="要检查主机的端口") parser.add_option('-r','--resource',dest="resource",default="/",help="要检查的资源,比如") (options,args) = parser.parse_args() #开始检测鸟 checks = check_server(options.address,options.port,options.resource) checks.check()看下效果
如对本文有疑问,请提交到交流社区,广大热心网友会为你解答!! 点击进入社区
使用python批量检查url的有效性因为工作需要,之前用python写了一些批量校验url有效性的小脚本,但并不全面,健壮性较差,现把之整理一下,代码如下:
[python] view plain copy
#!/usr/bin/python
# -*- coding:utf-8 -*-
import urllib2
from urllib2 import URLError
result_url=[]
count=0
not_200=0
f=open("img1.txt","r")
img_not_200=open("img_not_200.txt","w+")
for line in f:
count+=1
print "on scanning ",count
try:
response=urllib2.urlopen(line)
except URLError, e:
if hasattr(e,'reason'): #stands for URLError
print "can not reach a server,writing..."
result_url.append(line)
not_200+=1
img_not_200.write(line)
print "write url success!"
elif hasattr(e,'code'): #stands for HTTPError
print "find http error, writing..."
result_url.append(line)
not_200+=1
img_not_200.write(line)
print "write url success!"
else: #stands for unknown error
print "unknown error, writing..."
result_url.append(line)
not_200+=1
img_not_200.write(line)
print "write url success!"
else:
#print "url is reachable!"
#else 中不用再判断 response.code 是否等于200,若没有抛出异常,肯定返回200,直接关闭即可
response.close()
finally:
pass
print "scanning over,total",count,"; did not response 200:",not_200
f.close()
img_not_200.close()
对这段代码解析如下:
如果url有效,则可以正常通过urlopen取到response,并且response.getcode()等于200;
但若url无效,无论是无法找到服务器还是其他http错误,都无法通过urlopen返回response。这个时候,就需要通过返回的错误类型来判断错误到底是url错误还是http错误。上面的程序是通过错误类型所拥有的属性来判断的。如果错误类型有“code”属性,则代表错误是HTTPError;如果属性有“reason”,则代表是URLError错误。
当然,也可以在except中分别指定抛出的错误类型,进而进行不同的处理。所要注意的是,因为HTTPError是URLError的子类,所以必须在第一个except中指定捕获HTTPError,第二个except中指定捕获URLError,否则的话,你懂的。。
上一篇: CSS居中布局的简单方法
下一篇: HTML开发入门教程之基本标签解析