Python 简单爬虫程序及其工作原理

发布时间:2024年01月04日

前言

网络中包含大量的数据,这些数据对于我们来说是非常有价值的,因此编写一个爬虫程序,自动从网页中获取所需的数据,对于信息收集和分析是非常有帮助的。Python 是一种高效而灵活的编程语言,它提供了强大的库和框架来编写爬虫程序。

工作原理

一个简单的爬虫程序的工作原理通常包括以下几个步骤:

发送请求:使用 Python 的 requests 库来发送 HTTP 请求并获取网页的响应。这里可以使用 get() 或 post() 方法,根据需要传递参数和头部信息以获取所需的网页内容。

import requests

proxy = {
? ? 'http': 'http://127.0.0.1:8080', ?# 替换为你的代理IP地址和端口号
? ? 'https': 'http://127.0.0.1:8080' ?# 替换为你的代理IP地址和端口号
}

url = 'https://www.example.com' ?# 替换为你要访问的网址

response = requests.get(url, proxies=proxy)

print(response.text)

解析页面:得到网页的内容后,爬虫程序需要从中提取所需的数据。这可以通过使用 Python 的库来解析 HTML 或 XML。常用的库包括 BeautifulSoup 和 lxml,它们提供了遍历和搜索网页结构的功能,以便于提取出所需的数据。

import requests
from bs4 import BeautifulSoup

url = 'https://www.example.com'  # 替换为你要解析的网址

# 发送请求并获取页面内容
response = requests.get(url)
html = response.text

# 使用BeautifulSoup解析页面
soup = BeautifulSoup(html, 'html.parser')

# 示例:提取页面标题和第一个段落的文本
title = soup.title.text
paragraph = soup.find('p').text

# 输出结果
print('标题:', title)
print('段落:', paragraph)

存储数据:获取所需的数据后,爬虫程序通常需要将其存储起来以备后续使用。可以将数据保存在文件中,或将其存储在数据库中。Python 中的 sqlite3 模块提供了连接和操作 SQLite 数据库的功能。

import sqlite3

# 连接到数据库
conn = sqlite3.connect('data.db')

# 创建表
conn.execute('CREATE TABLE IF NOT EXISTS users (id INT PRIMARY KEY, name TEXT, age INT)')

# 插入数据
conn.execute('INSERT INTO users (id, name, age) VALUES (1, "John", 25)')

# 查询数据
cursor = conn.execute('SELECT * FROM users')
for row in cursor:
    print(row)

# 关闭数据库连接
conn.close()

循环遍历:如果需要爬取多个网页的数据,爬虫程序可以使用循环来遍历不同的网页并重复上述步骤。

fruits = ['apple', 'banana', 'orange']

for fruit in fruits:
    print(fruit)

示例程序

下面是一个使用 Python 编写的简单爬虫程序的示例,该程序通过爬取百度新闻页面并提取新闻标题和链接来演示爬虫的基本流程。

import requests
from bs4 import BeautifulSoup

def get_page(url):
? ? response = requests.get(url)
? ? return response.text

def get_links(html):
? ? soup = BeautifulSoup(html, 'html.parser')
? ? links = []
? ? for link in soup.find_all('a', {'class': 'title-link'}):
? ? ? ? links.append({
? ? ? ? ? ? 'title': link.text,
? ? ? ? ? ? 'url': link['href']
? ? ? ? })
? ? return links

def main():
? ? url = 'https://news.baidu.com/'
? ? html = get_page(url)
? ? links = get_links(html)

? ? for link in links:
? ? ? ? print(link['title'], link['url'])

if __name__ == '__main__':
? ? main()

上述代码中,首先使用 `get_page` 函数获取百度新闻的网页内容,然后使用 `get_links` 函数从网页内容中提取新闻标题和链接。最后,在 `main` 函数中将提取到的新闻标题和链接打印出来。

总结

简单的爬虫程序可以帮助我们从网页中自动获取所需的数据,避免了手动复制粘贴的繁琐工作。Python 提供了强大的库和框架来编写爬虫程序,如 requests、BeautifulSoup 等。在编写爬虫程序时,我们需要遵守网站的爬虫规则,并尊重网站的隐私和使用条款。爬虫程序不仅可以用来抓取网页数据,还可以用来监控网站的变化、分析竞争对手等。在使用爬虫程序时,我们需要注意合法使用,并且对不能公开的数据要有尊重和保护的意识。

文章来源:https://blog.csdn.net/wq10_12/article/details/135385979
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。