静态网页
是指存放在服务器文件系统中实实在在的HTML文件。当用户在浏览器中输入页面的URL,然后回车,浏览器就会将对应的HTML文件下载、渲染并呈现在窗口中。早期的网站通常都是由静态页面制作的。
**注意:**
JavaScript是一种属于网络的脚本语言,已经被广泛用于Web应用开发,常用来为网页添加各式各样的动态功能,为用户提供更流畅美观的浏览效果。通常JavaScript脚本是通过嵌入在HTML中来实现自身的功能的。
可以在网页源代码的标签里看到,比如:
<script type="text/javascript" src="https://statics.huxiu.com/w/mini/static_2015/js/sea.js?v=201601150944"></script>
JavaScript可以动态地创建HTML内容,这些内容只有在JavaScript代码执行之后才会产生和显示如果使用传统的方法采集页面内容,就只能获得JavaScript代码执行之前页面上的内容。
JQuery是一个快速、简洁的JavaScript框架,它封装JavaScript常用的功能代码,提供一种简便的JavaScript设计模式,优化HTML文档操作、事件处理、动画设计和Ajax交互。一个网站使用 JQuery 的特征, 就是源代码里包含了 JQuery 入口,比如:
<script type="text/javascript" src="https://statics.huxiu.com/w/mini/static_2015/js/jquery-1.11.1.min.js?v=201512181512"></script>
如果一个网站网页源码中出现了 jQuery,那么采集这个网站数据的时候要格外小心。因为jQuery可以动态地创建HTML内容,这些内容只有在JavaScript代码执行之后才会产生和显示。如果使用传统的方法采集页面内容,就只能获得JavaScript代码执行之前页面上的内容。
使用动态加载的网站,用 Python 解决有如下几种途径:
JavaScript
代码里采集内容。既然浏览器能拿到数据,那么,可以模拟一个浏览器,从浏览器中拿到数据。也就是用程序控制浏览器,从而达到数据采集的目的。
如图所示,通过 Python 来控制 Selenium,然后让 Selenium 控制浏览器,操纵浏览器,这样就实现了使用Python 间接的操控浏览器。
Selenium 支持多种浏览器,最常见的就是 火狐 和 谷歌 浏览器。首先在电脑上下载浏览器,浏览器版本不宜过新。
安装 selenium 模块,python借助这个模块驱动浏览器,使用如下命令行安装这个模块即可
# 下载安装 selenium
pip install selenium
Selenium具体怎么就能操纵浏览器呢?这要归功于 浏览器驱动 ,Selenium可以通过API接口实现和浏览器驱动的交互,进而实现和浏览器的交互。所以要配置浏览器驱动。
火狐驱动下载地址:
http://npm.taobao.org/mirrors/geckodriver/
谷歌驱动下载地址:
https://npm.taobao.org/mirrors/chromedriver/
新版本的驱动下载地址:
https://googlechromelabs.github.io/chrome-for-testing/#stable
将下载好的浏览器驱动解压,将解压出的 exe
文件放到Python的安装目录下,也就是和python.exe
同目录即可。
"""
驱动配置方式:
1. 查找到浏览器对应的驱动下载: https://npm.taobao.org/mirrors/chromedriver/
2. 使用:
方式1: 驱动放到项目目录中<建议>
方式2: 放python解释器目录, 全局配置
"""
# pip install selenium --user 安装指令
from selenium import webdriver # 浏览器功能, 导入部分功能
# 1. 创建一个浏览器对象(打开一个浏览器)
driver = webdriver.Chrome()
# 2. 使用浏览器对象请求网址
driver.get('https://www.baidu.com')
# 3. 自动操作页面
# 4. 退出浏览器
input('阻塞浏览器的退出')
driver.quit() # 退出浏览器
"""
一旦咱们通过浏览器请求到页面以后
咱们后续的一系列操作, 和找你们平常操作页面的顺序大致是一样的
咱们的代码逻辑和浏览器的操作顺序大致一致
"""
import time
from selenium import webdriver # 浏览器功能, 导入部分功能
driver = webdriver.Chrome()
# get() 通过driver对象请求指定的网页
driver.get('https://www.baidu.com')
# save_screenshot('百度.png') 截取页面的图片, 括号内部指定路片保存路径
driver.save_screenshot('百度.png')
# page_source 查看浏览器渲染以后的数据,
# 此方式得到的数据和真实浏览器得到的数据可能会有出入
# 在真实浏览器中看到的数据和用selenium工具得到的数据页可能会有出入
# 一切数据以代码获取的数据为准
print(driver.page_source)
# with open('a.html', mode='w', encoding='utf-8') as f:
# f.write(driver.page_source)
# get_cookies() 查看页面请求以后的cookies
print(driver.get_cookies())
# 查看当前页面的url地址
print(driver.current_url)
# 最大化浏览器
driver.maximize_window()
time.sleep(3)
# 最小化浏览器
driver.minimize_window()
input('阻塞浏览器的退出')
driver.quit() # 退出浏览器
# 默认情况下代码操作的浏览器是一个全新无缓存数据的浏览器
from selenium import webdriver
from selenium.webdriver.common.by import By # 定位器功能
driver = webdriver.Chrome()
driver.get('https://www.douban.com/')
"""解析数据"""
# 根据标签的id属性值定位标签元素, 提取出来都是标签对象 --> <selenium.webdriver.remote.webelement.WebElement (
result = driver.find_element(By.ID, 'anony-reg-new')
print(result)
# 根据标签的name属性值做定位
result2 = driver.find_element(By.NAME, 'description')
print(result2)
# 根据标签class属性值做定位
result3 = driver.find_element(By.CLASS_NAME, 'wrapper')
print(result3)
# 根据标签包含的文本提取标签对象<精确匹配>
result4 = driver.find_element(By.LINK_TEXT, '下载豆瓣 App')
print(result4)
# 根据标签包含的文本提取标签对象<模糊匹配>
result5 = driver.find_elements(By.PARTIAL_LINK_TEXT, '豆瓣')
print(result5)
print(len(result5))
# 根据标签名字定位标签
result6 = driver.find_elements(By.TAG_NAME, 'div')
print(result6)
print(len(result6))
"""css选择器和xpath在selenium中也能使用一次提取和二次提取, 规则一样"""
# 根据css语法做定位, 只能定位, 不能用属性提取
result6 = driver.find_element(By.CSS_SELECTOR, '.app>a')
print(result6)
# 根据css语法做定位, 只能定位, 不能用属性提取
result7 = driver.find_element(By.XPATH, '//div[@class="app"]/a')
print(result7)
input()
driver.quit()
"""
find_element 提取符合条件的第一个标签
find_elements 提取符合条件的所有标签
"""
from selenium import webdriver
from selenium.webdriver.common.by import By # 定位器功能
driver = webdriver.Chrome()
driver.get('https://www.douban.com/')
"""
text 属性
可以提取到标签对象包含的文本内容, 支持链式调用
使用css选择器或者xpath只能定位标签, 不能写提取标签属性的解析语法, 在selenium中不支持
"""
# result6 = driver.find_element(By.CSS_SELECTOR, '.app>a')
# contend = result6.text
# print(contend)
# css选择器和xpath在selenium中也能使用一次提取和二次提取, 语法规则一样
result6 = driver.find_element(By.CSS_SELECTOR, '.app>a').text
print(result6)
result6 = driver.find_element(By.CSS_SELECTOR, '.app>a')
contend = result6.get_attribute('href')
print(contend)
"""
如果标签对象是输入框
send_keys('指定输入的字符串')
支持链式调用
"""
input_label = driver.find_element(By.CSS_SELECTOR, '.inp>input')
input_label.send_keys('消失的她')
"""
.click() 点击标签对象, 支持链式调用
"""
search_label = driver.find_element(By.CSS_SELECTOR, '.bn')
search_label.click()
input()
driver.quit()
import time
from selenium import webdriver
driver = webdriver.Chrome()
driver.get('https://github.com/')
# 隐式等待: 括号内部设置隐式等待时间, 单位秒;
# 是一个智能化等待, 一旦页面在设置的时间之前加载完了, 那么不会死等下去
# 超过了隐式等待时间, 报错
# 在一个项目中, 隐式等待只需要设置一次, 后续的页面都沿用这个隐式等待规则
driver.implicitly_wait(10)
# 强制等待, 死等, ajax页面渲染需要死等
time.sleep(3)
input()
driver.quit()
import time
from selenium import webdriver
driver = webdriver.Chrome()
driver.get('https://www.baidu.com/')
time.sleep(3)
driver.get('https://news.baidu.com/')
time.sleep(3)
driver.back() # 后退到上一级页面
time.sleep(3)
driver.forward() # 前进到上一个页面
time.sleep(3)
# 页面的前进和后退, 会导致页面元素过期
# 需要刷新重新获取页面元素
driver.refresh()
input()
driver.quit()
import time
from selenium import webdriver
from selenium.webdriver.common.by import By
driver = webdriver.Chrome()
driver.get('https://www.douban.com/')
time.sleep(2)
# 点击 "读书"
driver.find_element(By.CSS_SELECTOR, '.lnk-book').click()
# driver.window_handles 获取当前浏览器窗口句柄
# 如果打开多个页面, 默认情况窗口句柄为第一个窗口
print(driver.window_handles)
time.sleep(3)
driver.switch_to.window(driver.window_handles[0]) # 切换窗口句柄
# 关闭当前页面
# driver.close()
input()
driver.quit()
import time
from selenium import webdriver
from selenium.webdriver.common.by import By
driver = webdriver.Chrome()
driver.get('https://gitee.com/')
driver.implicitly_wait(10)
driver.maximize_window()
# 点击右上角登录
driver.find_element(By.LINK_TEXT, '登录').click()
"""填写用户名密码"""
driver.find_element(By.CSS_SELECTOR, '#git-login>input').send_keys('用户名')
time.sleep(2)
driver.find_element(By.CSS_SELECTOR, '#user_password').send_keys('密码')
time.sleep(2)
# 点击登录按钮
driver.find_element(By.NAME, 'commit').click()
# cookies可以用在requests请求里面
print(driver.get_cookies()) # 登录以后可以获取到登录后的cookies
input()
driver.quit()
"""
目标网址: https://www.ku6.com/detail/71
作业要求:
1.用 selenium 采集所需要的数据
2.需要数据如下所示
title 视频的标题
img_url 视频图片对应的url地址
detail_url 视频详情页url地址
3.保存为csv数据
请在下方编写代码
"""
# 浏览器安装路径-->默认装C盘-->自动识别安装路径
from selenium import webdriver
from selenium.webdriver.common.by import By
driver = webdriver.Chrome()
driver.get('https://www.ku6.com/detail/71') # GET POST
print(driver.page_source)
divs = driver.find_elements(By.XPATH, '//*[@class="video-item"]')
print(len(divs))
for div in divs:
title = div.find_element(By.XPATH, './/h3/a').text
img_url = div.find_element(By.XPATH, './/a[@class="video-image-warp"]/img').get_attribute('src')
derail_url = div.find_element(By.XPATH, './/a[@class="video-image-warp"]').get_attribute('href')
print(title, img_url, derail_url, sep='|')
input()
driver.quit()
"""
目标网址: https://github.com/login 模拟登录
作业要求:
1.用 selenium 模拟登录GitHub(首先自己注册一个账号)
温馨提示:
这个网站加载速度很慢, 最好设置时间长一点的等待
请在下方编写代码
"""
import time
from selenium import webdriver
from selenium.webdriver.common.by import By
driver = webdriver.Chrome()
driver.execute_cdp_cmd("Page.addScriptToEvaluateOnNewDocument", {
"source": """
Object.defineProperty(navigator, 'webdriver', {
get: () => undefined
})
"""
})
driver.get('https://github.com/login')
driver.implicitly_wait(10)
with open('a.html', mode='w', encoding='utf-8') as f:
f.write(driver.page_source)
driver.find_element(By.CSS_SELECTOR, '#login_field').send_keys('hjx_edu')
time.sleep(2)
driver.find_element(By.NAME, 'password').send_keys('qingdeng123')
time.sleep(2)
# 点击登录
driver.find_element(By.NAME, 'commit').click()
input()
driver.quit()