温馨提示:文末有 CSDN 平台官方提供的学长 QQ 名片 :)?
????????本项目利用网络爬虫技术从XX点评APP采集北京市的餐饮商铺数据,利用数据挖掘技术对北京美食的分布、受欢迎程度、评价、评论、位置等情况进行了深入分析,方便了解城市美食店铺的运营状况、消费者需求、市场趋势和竞争格局等。 本系统利用 Flask 搭建 web 后端分析服务,利用 Bootstrap 和 Echarts 等搭建交互式可视化分析系统。
? ? ? ? 利用Python网络爬虫技术,采集某点评网站的北京市各地区餐饮美食店铺数据:
# 。。。。。
# 省略其他代码
# 采集的商铺数量
total_shop_count = 0
# 批量插入数据的数组
batch_insert_datas = []
for a_link in a_links:
if 'http' not in a_link['href']:
continue
cate = a_link.text.strip()
base_url = a_link['href']
print(f'采集 `{cate}` 类别的美食数据,{base_url}')
for page in range(1, 26):
url = base_url + 'p{}'.format(page)
print(f'>采集:{url}')
headers['Referer'] = referer_url
resp = requests.get(url, headers=headers)
resp.encoding = 'utf8'
referer_url = url
soup = BeautifulSoup(resp.text, 'lxml')
shop_list = soup.find('div', id='shop-all-list')
if shop_list is None:
print("没有找到符合条件的商户~")
continue
shops = shop_list.find_all('li')
for shop_li in shops:
try:
# 商铺链接
href = shop_li.find('div', class_='tit').a['href']
# 商铺图片
# 。。。。。
# 省略其他代码
shop_info = (name, image_url, href, star, review_num, mean_price, food_type, addr, recommend_food)
batch_insert_datas.append(shop_info)
except:
print(page)
print(shop_li)
continue
if len(batch_insert_datas) % 10 == 0:
sql = "INSERT INTO meishi_info (name, image_url, href, star, review_num, mean_price, food_type, addr, recommend_food) VALUES (?,?,?,?,?,?,?,?,?);"
cursor.executemany(sql, batch_insert_datas)
conn.commit()
total_shop_count += len(batch_insert_datas)
print(f'已采集和解析商铺数量:{total_shop_count}')
batch_insert_datas.clear()
# 。。。。。
# 省略其他代码
????????本项目利用网络爬虫技术从XX点评APP采集北京市的餐饮商铺数据,利用数据挖掘技术对北京美食的分布、受欢迎程度、评价、评论、位置等情况进行了深入分析,方便了解城市美食店铺的运营状况、消费者需求、市场趋势和竞争格局等。 本系统利用 Flask 搭建 web 后端分析服务,利用 Bootstrap 和 Echarts 等搭建交互式可视化分析系统。
??欢迎大家点赞、收藏、关注、评论啦 ,由于篇幅有限,只展示了部分核心代码。技术交流、源码获取认准下方?CSDN 官方提供的学长 QQ 名片 :)
精彩专栏推荐订阅: