Python爬虫是一种用于自动抓取互联网数据的程序。它们通过模拟用户浏览网页的行为,自动解析网页HTML代码并提取所需的数据。Python爬虫在数据挖掘、数据分析、API开发等领域有广泛的应用。
Python爬虫主要通过HTTP请求来获取网页内容,常见的库包括requests、BeautifulSoup和Scrapy等。其中,requests库用于发送HTTP请求,BeautifulSoup用于解析HTML代码,Scrapy则是一个完整的爬虫框架,提供了丰富的功能和工具。
Python爬虫的基本流程包括目标网站分析、请求处理、数据提取、数据清洗和数据存储等步骤。在实现爬虫时,需要对目标网站进行分析,了解其结构、URL格式和数据存放位置等信息。然后,通过发送HTTP请求来获取网页内容,使用BeautifulSoup或正则表达式等技术来提取所需的数据。最后,将提取到的数据清洗、去重和存储到数据库中。
需要注意的是,Python爬虫的使用需要遵守相关法律法规和网站的使用协议,尊重网站的数据安全和隐私保护,避免对目标网站造成不必要的负担或干扰。同时,在使用Python爬虫时,也需要考虑到数据的质量和可靠性,采取相应的策略和技术来确保数据的一致性和准确性。
JSON(JavaScript Object Notation)是一种轻量级的数据交换格式,易于人阅读和编写,同时也易于机器解析和生成。它基于ECMAScript(欧洲计算机协会制定的js规范)的一个子集,采用完全独立于编程语言的文本格式来存储和表示数据。简洁和清晰的层次结构使得JSON成为理想的数据交换语言,并有效地提升网络传输效率。
JSON对象是一个无序的“名称/值”对集合,以“{”(左括号)开始,“}”(右括号)结束。每个“名称”后跟一个“:”(冒号);“名称/值”对之间使用“,”(逗号)分隔。
JSON数组是一个有序的“值”集合,以“[”(左括号)开始,“]”(右括号)结束,值之间使用“,”(逗号)分隔。JSON对象、JSON数组可以嵌套。
JSON的语法规则包括:
JSON在许多领域都有广泛的应用,例如数据交换、配置文件、API请求等。它比XML更加轻量级,易于阅读和编写,也易于机器解析和生成。同时,由于其基于JavaScript语言规范,使得JSON成为Web开发中的重要组成部分。
小潮院长,B站知名UP,粉丝破千万,bilibili 2022百大UP主、2022年度弹幕人气奖UP主、知名UP主
打开:小潮院长主页
找个文件连接比较相近,因此打开看看,通过对比主页可知,二者相近。
https://api.bilibili.com/x/space/wbi/arc/search?mid=5970160&pn=1&ps=25&index=1&order=pubdate&order_avoided=true&platform=web&web_location=1550101&dm_img_list=[%7B%22x%22:2381,%22y%22:913,%22z%22:0,%22timestamp%22:189,%22type%22:0%7D,%7B%22x%22:3531,%22y%22:2723,%22z%22:21,%22timestamp%22:452,%22type%22:0%7D]&dm_img_str=V2ViR0wgMS4wIChPcGVuR0wgRVMgMi4wIENocm9taXVtKQ&dm_cover_img_str=QU5HTEUgKEludGVsLCBJbnRlbChSKSBIRCBHcmFwaGljcyA2MzAgKDB4MDAwMDU5MUIpIERpcmVjdDNEMTEgdnNfNV8wIHBzXzVfMCwgRDNEMTEpR29vZ2xlIEluYy4gKEludGVsKQ&w_rid=ce10f44fa085afd94f87f8723a5d93b1&wts=1703590453
import requests
import json
import time
import re
import datetime
headers = {
'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/1'
}
url = 'https://api.bilibili.com/x/polymer/web-space/home/seasons_series?mid=5970160&page_num=1&page_size=10'
file = requests.get(url, headers=headers).json()
series_list = file['data']['items_lists']['series_list']
print(series_list)
for i in range(5):
dict = series_list[i]
meta = dict['meta']
archives = dict['archives']
recent_aids = dict['recent_aids']
name = meta['name']
print(name)
time.sleep(1)
for a in range(len(archives)):
arch = archives[a]
title = arch['title']
aid = arch['aid']
ctime = arch['ctime']
view = arch['stat']['view']
# view_new = num_to_chinese(view)
# timestape = time_date(ctime)
pic = arch['pic']
print('{} {} {} {}\n'.format(title,ctime, view,pic))
通过爬取发现,日期是时间戳,访问量也不是页面上看到的那样,因此需要格式化代码
封装两个函数即可,在需要的地方调用
# 转化为中文显示方式
def num_to_chinese(num):
num = (num/10000)
num_round = round(num,2)
num_new = str(num_round)+'万'
return num_new
# 时间戳转化为日期格式
def time_date(time):
# 假设你有一个时间戳,单位为秒
timestamp = time # 这是一个示例,你需要替换为你的实际时间戳
# 将时间戳转换为datetime对象
dt_object = datetime.datetime.fromtimestamp(timestamp)
# 将datetime对象格式化为所需的日期格式
# formatted_date = dt_object.strftime('%Y-%m-%d %H:%M:%S')
formatted_date = dt_object.strftime('%Y-%m-%d')
# print(formatted_date)
return formatted_date
再尝试代码输出:
是我们需要的样子了
import requests
import json
import time
import re
import datetime
headers = {
'User-agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/1'
}
url = 'https://api.bilibili.com/x/polymer/web-space/home/seasons_series?mid=5970160&page_num=1&page_size=10'
file = requests.get(url, headers=headers).json()
series_list = file['data']['items_lists']['series_list']
# 转化为中文显示方式
def num_to_chinese(num):
num = (num/10000)
num_round = round(num,2)
num_new = str(num_round)+'万'
return num_new
# 时间戳转化为日期格式
def time_date(time):
# 假设你有一个时间戳,单位为秒
timestamp = time # 这是一个示例,你需要替换为你的实际时间戳
# 将时间戳转换为datetime对象
dt_object = datetime.datetime.fromtimestamp(timestamp)
# 将datetime对象格式化为所需的日期格式
# formatted_date = dt_object.strftime('%Y-%m-%d %H:%M:%S')
formatted_date = dt_object.strftime('%Y-%m-%d')
# print(formatted_date)
return formatted_date
for i in range(5):
dict = series_list[i]
meta = dict['meta']
archives = dict['archives']
recent_aids = dict['recent_aids']
name = meta['name']
print(name)
time.sleep(1)
for a in range(len(archives)):
arch = archives[a]
title = arch['title']
aid = arch['aid']
ctime = arch['ctime']
view = arch['stat']['view']
view_new = num_to_chinese(view)
timestape = time_date(ctime)
pic = arch['pic']
print('{} {} {} {}\n'.format(title,view_new, timestape,pic))