本站首页    管理页面    写新日志    退出


«January 2026»
123
45678910
11121314151617
18192021222324
25262728293031


公告
 本博客在此声明所有文章均为转摘,只做资料收集使用。

我的分类(专题)

日志更新

最新评论

留言板

链接

Blog信息
blog名称:
日志总数:1304
评论数量:2242
留言数量:5
访问次数:7693790
建立时间:2006年5月29日




[Python]Python 学习笔记 (1)
软件技术

lhwork 发表于 2007/2/1 9:08:55

1、获取网页的方法 mport urllib # GETparams = urllib.urlencode({'spam': 1, 'eggs': 2, 'bacon': 0}) f = urllib.urlopen("http://www.musi-cal.com/cgi-bin/query?%s" % params) print f.read()# POSTparams = urllib.urlencode({'spam': 1, 'eggs': 2, 'bacon': 0}) f = urllib.urlopen("http://www.musi-cal.com/cgi-bin/query", params) print f.read() 2、Cookie import cookielib,urllib2cookie = cookielib.CookieJar()opener = urllib2.build_opener(urllib2.HTTPCookieProcessor(cookie ))urllib2.install_opener(opener)urllib2.urlopen( url_string, param ) 3、保存变量到文件,并从文件恢复 from pickle import dump,load# dumpfp = open( 'userlist.pck', 'w')dump( user_list,fp )fp.close() # loadfp = open( 'userlist.pck', 'r')user_list = load(fp)fp.close() 4、正则表达式 .*? 为非贪婪匹配模式,而.*为贪婪匹配模式() 用来匹配时分组 import recontent  = re.search(r'友情链接.*?</tr>.*?<tr>(.*?)</tr>',\    page,re.M|re.S|re.I).group(1)links = re.compile( r'href=\'(.*)\'' ).findall( content ) 5、意外处理 try:  ...except KeyboardInterrupt:else:   raise Exception


阅读全文(2234) | 回复(0) | 编辑 | 精华
 



发表评论:
昵称:
密码:
主页:
标题:
验证码:  (不区分大小写,请仔细填写,输错需重写评论内容!)



站点首页 | 联系我们 | 博客注册 | 博客登陆

Sponsored By W3CHINA
W3CHINA Blog 0.8 Processed in 0.050 second(s), page refreshed 144824194 times.
《全国人大常委会关于维护互联网安全的决定》  《计算机信息网络国际联网安全保护管理办法》
苏ICP备05006046号