使用浏览器渲染引擎.直接用浏览器在显示网页时解析HTML,应用CSS样式并执行JavaScript的语句. 这方法在爬虫过程中会打开一个浏览器,加载该网页,自动操作浏览器浏览各个网页,顺便把数据抓下来.用一句简单而通俗的话说,使用浏览器渲染方法,爬取动态网页变成了爬取静态网页. 我们可以用Python的selenium库模拟浏览器完成抓取.Selenium是一个用于Web应用程序测试的工具.Selenium测试直接运行在浏览器中,浏览器自动按照脚本代码做出点击,输入,打开,验证等操作,就像真正的…