JSON(JavaScript Object Notation)是一种轻量级的数据交换格式,它基于ECMAScript(欧洲计算机协会制定的js规范)的一个子集,采用完全独立于编程语言的文本格式来存储和表示数据。
JSON具有以下特点:
JSON对象:对象是一个无序的"名称/值"对集合。一个对象以"{(“开始,”}(“结束。每个"名称"后跟一个”:“(冒号);“名称/值"对之间使用”,”(逗号)分隔。
JSON数组:数组是一个有序的"值"集合,一个数组以"[(“开始,”](“结束,值之间使用”,"(逗号)分隔。JSON对象、JSON数组可以嵌套。
JSON的应用非常广泛,包括但不限于数据交换、配置文件、API请求等场景。由于其易于读写、解析和生成的特点,使得JSON成为了一种理想的数据交换格式。
当然可以,Python是一种广泛使用的编程语言,可以用于各种不同的任务,包括数据分析和处理。Python有许多库和工具可以用于处理JSON数据,其中最常用的是json模块。
在Python中,range()是一个内置函数,用于生成一个整数序列。它通常用于循环结构(如for循环)中,以控制循环的迭代次数。
range()函数可以接受1到3个参数:
此外,还可以使用range()函数与切片操作结合使用,以生成指定范围的序列。例如:
# 从1到5(包含5)
numbers = list(range(1, 6)) # 结果:[1, 2, 3, 4, 5]
# 从0开始,每次加2,直到10(包含10)
even_numbers = list(range(0, 11, 2)) # 结果:[0, 2, 4, 6, 8, 10]
Python的random模块提供了一系列的函数用于生成随机数。下面是一些最常用的random模块方法:
import random
print(random.random()) # 输出类似于0.123456789的随机数
import random
print(random.randint(1, 10)) # 输出1到10之间的随机整数,包括1和10
import random
print(random.randrange(1, 10, 2)) # 输出1到9之间的随机奇数
import random
my_list = [1, 2, 3, 4, 5]
print(random.choice(my_list)) # 从my_list中随机选择一个元素并输出
import random
my_list = [1, 2, 3, 4, 5]
random.shuffle(my_list)
print(my_list) # 输出类似于[2, 1, 5, 3, 4]的随机排序列表
import random
print(random.uniform(1.0, 2.0)) # 输出1.0到2.0之间的随机浮点数,包括1.0和2.0
import random
random.seed(1) # 设置种子值为1,确保每次运行程序时生成的随机数序列相同
print(random.random()) # 输出相同的随机数,因为种子值固定了随机数生成器的起始状态
time.sleep() 是 Python 标准库中 time 模块的一个方法,用于使程序暂停执行指定的秒数。
示例:
import time
print("开始")
time.sleep(2) # 暂停2秒
print("结束")
输出:
开始
(程序会暂停2秒)
结束
with open(文件地址,‘a’ ,newline = '',encoding='utf-8-sig') as f:
本文尝试使用的是【google】
选择【Fetch/XHR】点击做上交的按钮,清空管理台。
清空管理台
打开网址,滑倒下面分页,选择【2】点击,发现左侧出现一个文件。
点开找个文件,发现是JSon数据。
将它在新标签页中打开。
在新页面中打开。复制一下网址。
返回到分页处,点【3】,发现右侧又出现一个文件。
同理,在新标签页中打开,并复制网址。
同样的方法复制页码【1】的网址。
页码【1】https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=0&pageSize=24¬icestate=1
页码【2】https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=1&pageSize=24¬icestate=1
页码【3】https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=2&pageSize=24¬icestate=1
由以上分析可知,只有pageNo
不同,并据此可推断出,第N页的网址应该是pageNo=N-1
,到此为止,我们已经推断出来网址的规律。另外两个参数是什么?
由上小结的页码一为例:页码【1】https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=0&pageSize=24¬icestate=1
网址包括
点击页码【2】,查看右侧的json文件网址:
https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=1&pageSize=24¬icestate=1
返回网页:切换到以下选项
同样选择【2】,点开右侧json文件,查看网址。
https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=1&pageSize=24¬icestate=2
将以上两个网址放在一起比较:
进行中:https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=1&pageSize=24¬icestate=1
全部:https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=1&pageSize=24¬icestate=2
有分析可知:二者变量为:【全部/进行中】,网址区别为【noticestate=1/2】在此可以猜测,【noticestate】参数控制【全部/进行中】。为进一步确认推测是否正确,可以根据json文件数据和原网页进行对比。对比结果可知,二者是一致的。
回顾三个参数
由上小结的页码一为例:页码【1】https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=0&pageSize=24¬icestate=1
网址包括
url:https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=0&pageSize=24¬icestate=2
import requests
import random
import json
import time
now_time = int(time.time())
timeStamp = now_time*1000
url = 'https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo={}&pageSize=24¬icestate=2'.format(a)
headers = {
"User-Agent":'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'
}
response = requests.get(url = url.format(timeStamp),headers = headers)
print(response.content.decode('utf-8'),type(response.content.decode('utf-8')))
代码解释:
运行文件,显示如下,表示已经获取json数据,接下来就是对这些数据进行处理。
1、存入数据字典
#爬取腾讯招聘网站
import requests
import json
import time
now_time = int(time.time())
timeStamp = now_time*1000
url = 'https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=0&pageSize=24¬icestate=2'
headers = {
"User-Agent":'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'
}
response = requests.get(url = url.format(timeStamp),headers = headers)
# print(response.content.decode('utf-8'),type(response.content.decode('utf-8')))
content = response.content.decode('utf-8')
#需要将content(json.str)--->python对象的(json-dict)
content_dict = json.loads(content)
print(type(content_dict))
由打印可知,content_dict 的类型为【dict】字典类型
2、获取数据
主体数据保存在【content】中,那么怎么获取到这里的数据呢?
很简单,目前为止,已经获取到全部的数据,并将数据存到字典中【content_dict】
post_list = content_dict['result']['content']
#爬取腾讯招聘网站
import requests
import json
import time
now_time = int(time.time())
timeStamp = now_time*1000
url = 'https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=0&pageSize=24¬icestate=2'
headers = {
"User-Agent":'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'
}
response = requests.get(url = url.format(timeStamp),headers = headers)
# print(response.content.decode('utf-8'),type(response.content.decode('utf-8')))
content = response.content.decode('utf-8')
#需要将content(json.str)--->python对象的(json-dict)
content_dict = json.loads(content)
# print(type(content_dict))
post_list = content_dict['result']['content']
print(post_list)
目前已经获取到【post_list】,可以对数据进行循环获取每一个数据的值。
需要获取的数据有:
#爬取腾讯招聘网站
import requests
import json
import time
now_time = int(time.time())
timeStamp = now_time*1000
url = 'https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=0&pageSize=24¬icestate=2'
headers = {
"User-Agent":'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'
}
response = requests.get(url = url.format(timeStamp),headers = headers)
content = response.content.decode('utf-8')
#需要将content(json.str)--->python对象的(json-dict)
content_dict = json.loads(content)
# print(type(content_dict))
post_list = content_dict['result']['content']
print(post_list)
# #将字典中的每一个dict都迭代出来
for value_dict in post_list:
# # # #公司名:-pubcomname
pubcomname = value_dict['pubcomname']
# # # #公告类型-noticetype
noticetype = value_dict['noticetype']
# # # #项目类型-catalogname
catalogname = value_dict['catalogname']
# # 项目名称-noticetitle
noticetitle = value_dict['noticetitle']
# # 发布时间-pubtime
pubtime = value_dict['pubtime']
# # 截止时间-exptime
exptime = value_dict['exptime']
# # # #print看看是否有打印出来
print(pubcomname,noticetype,catalogname,noticetitle,pubtime,exptime)
运行可知,打印了第一页所需要的内容
1、公告改进
由输出结果可知,公告类型不是页面中的文字,而是数字代替。经过分析可知
noticetype = value_dict['noticetype']
if noticetype=='1' :
newNoticetype='询价公告'
elif noticetype=='2' :
newNoticetype='采购/招标公告'
elif noticetype=='4' :
newNoticetype='竞价公告'
elif noticetype=='5' :
newNoticetype='中标公示'
elif noticetype=='6' :
newNoticetype='竞争性谈判'
else :
newNoticetype=noticetype
2、日期改进
日期显示的格式 2023-12-23T14:29:03.000+0000
,我们可以只取年月日,这样就需要对数据进行截取。
# # 发布时间-pubtime
pubtime = value_dict['pubtime'][0:10]
# # 截止时间-exptime
exptime = value_dict['exptime'][0:10]
代码:
#爬取腾讯招聘网站
import requests
import json
import time
now_time = int(time.time())
timeStamp = now_time*1000
url = 'https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo=0&pageSize=24¬icestate=2'
headers = {
"User-Agent":'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'
}
response = requests.get(url = url.format(timeStamp),headers = headers)
content = response.content.decode('utf-8')
#需要将content(json.str)--->python对象的(json-dict)
content_dict = json.loads(content)
post_list = content_dict['result']['content']
# #将字典中的每一个dict都迭代出来
for value_dict in post_list:
# # # #公司名:-pubcomname
pubcomname = value_dict['pubcomname']
# # # #公告类型-noticetype
noticetype = value_dict['noticetype']
if noticetype=='1' :
newNoticetype='询价公告'
elif noticetype=='2' :
newNoticetype='采购/招标公告'
elif noticetype=='4' :
newNoticetype='竞价公告'
elif noticetype=='5' :
newNoticetype='中标公示'
elif noticetype=='6' :
newNoticetype='竞争性谈判'
else :
newNoticetype=noticetype
# # # #项目类型-catalogname
catalogname = value_dict['catalogname']
# # 项目名称-noticetitle
noticetitle = value_dict['noticetitle']
# # 发布时间-pubtime
pubtime = value_dict['pubtime'][0:10]
# # 截止时间-exptime
exptime = value_dict['exptime'][0:10]
# # # #print看看是否有打印出来
print(pubcomname,newNoticetype,catalogname,noticetitle,pubtime,exptime)
1、循环
在最开始加上下面代码。
for a in range(3):
2、为了爬取的安全性,在获取一次请求之后,休眠1-3秒
引入:import random
在第二层循环中加上以下代码
time.sleep(random.randrange(1,3))
1、首先引入import csv
2、在第二层循环中加上
in_fo_list =[pubcomname,newNoticetype,catalogname,noticetitle,pubtime,exptime]
with open('E:/langchao.csv','a',newline = '',encoding='utf-8-sig') as f:
writer = csv.writer(f)
writer.writerow(in_fo_list)
-in_fo_list 表示暂时的存储序列
-encoding 表示存储的编码类型
#爬取爱购云网站
import requests
import random
import json
import csv
import time
now_time = int(time.time())
timeStamp = now_time*1000
for a in range(3):
url = 'https://www.igoyun.cn/igo-cloud-bizdiscovery/espurbid/fineespurbid?&pageNo={}&pageSize=24¬icestate=2'.format(a)
headers = {
"User-Agent":'Mozilla/5.0 (Macintosh; Intel Mac OS X 10_13_6) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.131 Safari/537.36'
}
response = requests.get(url = url.format(timeStamp),headers = headers)
# response = requests.get(url = url,headers = headers)
# print(response.content.decode('utf-8'),type(response.content.decode('utf-8')))
content = response.content.decode('utf-8')
#需要将content(json.str)--->python对象的(json-dict)
content_dict = json.loads(content)
# print(content_dict,type(content_dict))
post_list = content_dict['result']['content']
# print(post_list)
#将字典中的每一个dict都迭代出来
time.sleep(random.randrange(1,3))
print(a)
for value_dict in post_list:
# # #公司名:-pubcomname
pubcomname = value_dict['pubcomname']
# # #公告类型-noticetype
noticetype = value_dict['noticetype']
if noticetype=='1' :
newNoticetype='询价公告'
elif noticetype=='2' :
newNoticetype='采购/招标公告'
elif noticetype=='4' :
newNoticetype='竞价公告'
elif noticetype=='5' :
newNoticetype='中标公示'
elif noticetype=='6' :
newNoticetype='竞争性谈判'
else :
newNoticetype=noticetype
# # #项目类型-catalogname
catalogname = value_dict['catalogname']
# 项目名称-noticetitle
noticetitle = value_dict['noticetitle']
# 发布时间-pubtime
pubtime = value_dict['pubtime'][0:10]
# 截止时间-exptime
exptime = value_dict['exptime'][0:10]
# # #print看看是否有打印出来
# print(pubcomname,newNoticetype,catalogname,noticetitle,pubtime,exptime)
# # #由于我们是要保存在CSV格式中,所以我们先把数据转化成列表模式.
in_fo_list =[pubcomname,newNoticetype,catalogname,noticetitle,pubtime,exptime]
with open('E:/langchao.csv','a',newline = '',encoding='utf-8-sig') as f:
writer = csv.writer(f)
writer.writerow(in_fo_list)
根据路径打开文件:
爬取成功!