mechanize模拟浏览器行为使用总结

简介:     mechanize是对urllib2的部分功能的替换,能够更好的模拟浏览器行为,在web访问控制方面做得更全面。结合beautifulsoup和re模块,可以有效的解析web页面,我比较喜欢这种方法。

    mechanize是对urllib2的部分功能的替换,能够更好的模拟浏览器行为,在web访问控制方面做得更全面。结合beautifulsoup和re模块,可以有效的解析web页面,我比较喜欢这种方法。

    下面主要总结了使用mechanize模拟浏览器的行为和几个例子(谷歌搜索,百度搜索和人人网登录等)

1.初始化并建立一个浏览器对象

    如果没有mechanize需要easy_install安装,以下代码建立浏览器对象并作了一些初始化设置,实际使用过程可以按需开关。其实只用默认的设置也可以完成基本任务。

  1. #!/usr/bin/env python
  2. import sys,mechanize

  3. #Browser
  4. br = mechanize.Browser()

  5. #options
  6. br.set_handle_equiv(True)
  7. br.set_handle_gzip(True)
  8. br.set_handle_redirect(True)
  9. br.set_handle_referer(True)
  10. br.set_handle_robots(False)

  11. #Follows refresh 0 but not hangs on refresh > 0
  12. br.set_handle_refresh(mechanize._http.HTTPRefreshProcessor(), max_time=1)

  13. #debugging?
  14. br.set_debug_http(True)
  15. br.set_debug_redirects(True)
  16. br.set_debug_responses(True)

  17. #User-Agent (this is cheating, ok?)
  18. br.addheaders = [('User-agent', 'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.1) Gecko/2008071615 Fedora/3.0.1-1.fc9 Firefox/3.0.1')]


2.模拟浏览器行为

    浏览器对象建立并初始化完毕之后即可使用了,下面给出几个例子(代码承接以上部分)

获取web网页

    分行打印可以逐个查看详细信息,就不赘述

  1. r = br.open(sys.argv[1])
  2. html = r.read()
  3. print html
  4. print br.response().read()
  5. print br.title()
  6. print r.info()


模拟谷歌和百度查询

    打印和选择forms,然后填写相应键值,通过post提交完成操作

  1. for f in br.forms():
  2.     print f

  3. br.select_form(nr=0)
    谷歌查询football

  1. br.form['q'] = 'football'
  2. br.submit()
  3. print br.response().read()


    百度查询football

  1. br.form['wd'] = 'football'
  2. br.submit()
  3. print br.response().read()
 
    相应键值名,可以通过打印查出


回退(Back)

    非常简单的操作,打印url即可验证是否回退

# Back
br.back()
print br.geturl()

3.http基本认证

br.add_password('http://xxx.com', 'username', 'password')
br.open('http://xxx.com')

4.form认证

    以登陆人人网为例,打印forms可以查出用户名和密码键信息

br.select_form(nr = 0)
br['email'] = username
br['password'] = password
resp = self.br.submit()


5.cookie支持

    通过导入cookielib模块,并设置浏览器cookie,可以在需要认证的网络行为之后不用重复认证登陆。通过保存session cookie即可重新访问,Cookie Jar完成了该功能。

  1. #!/usr/bin/env python
  2. import mechanize, cookielib

  3. br = mechanize.Browser()
  4. cj = cookielib.LWPCookieJar()
  5. br.set_cookiejar()


6.proxy设置

设置http代理


  1. #Proxy
  2. br.set_proxies({"http":"proxy.com:8888"})
  3. br.add_proxy_password("username", "password")

  4. #Proxy and usrer/password
  5. br.set_proxies({"http":"username:password@proxy.com:8888"})


相关文章
|
7月前
|
存储 搜索推荐 数据挖掘
使用selenium库模拟浏览器行为,获取网页的cookie值
使用selenium库模拟浏览器行为,获取网页的cookie值
|
9月前
|
Web App开发 Java Apache
如何在Selenium自动化Chrome浏览器中模拟用户行为和交互?
Selenium是一个用于自动化Web应用程序测试的工具,它可以模拟真实的用户在浏览器中进行各种操作,如点击、输入、滚动等。Selenium支持多种浏览器,如Chrome、Firefox、Edge等,但是每种浏览器都需要相应的驱动程序才能与Selenium进行通信。本文将介绍如何在Selenium中使用Chrome浏览器,并且设置代理服务器来避免被目标网站识别。
248 0
如何在Selenium自动化Chrome浏览器中模拟用户行为和交互?
|
12月前
|
JavaScript 前端开发
浏览器行为
浏览器行为
52 0
|
Web App开发 JavaScript 前端开发
JavaScript停止冒泡和阻止浏览器默认行为
JavaScript停止冒泡和阻止浏览器默认行为
77 0
|
Web App开发 JavaScript 前端开发
JavaScript停止冒泡和阻止浏览器默认行为
原文链接:http://caibaojian.com/javascript-stoppropagation-preventdefault.html 事件兼容 function myfn(e){ var evt = e ? e:window.
759 0
|
Web App开发 JavaScript 前端开发

热门文章

最新文章