当前位置: 首页 > news >正文

南通网站建设baidu tg新产品推广方式有哪些

南通网站建设baidu tg,新产品推广方式有哪些,简述建立网站的步骤,西安学校网站建设费用由于要抓取的是悦音台mv的排行榜,这个排行榜是实时更新的,如果要求不停地抓取,这将有可能导致悦音台官方采用反爬虫的技术将ip给封掉。所以这里要应用一些反爬虫相关知识。 目标网址:http://vchart.yinyuetai.com/vchart/trends?…

由于要抓取的是悦音台mv的排行榜,这个排行榜是实时更新的,如果要求不停地抓取,这将有可能导致悦音台官方采用反爬虫的技术将ip给封掉。所以这里要应用一些反爬虫相关知识。

目标网址http://vchart.yinyuetai.com/vchart/trends?area=ML

网站结构:

上面红线圈出来的地方都是需要注意的小细节:

首先 排行榜分为,内地、港台、欧美、韩国、日本五个地区
分别将其点开能够观察到url的变化为在最尾部加了一个参数:area=地区参数

很容易的就能知道参数列表:['ML','HT','US','JP','KR'] 分别对应着内地、香港、欧美、日本、以及韩国。发现这个规律之后,只要通过简单的对url的变化就能多次请求,筛选出想要的信息。

其次 可以发现,有的mv分数是呈现上升趋势,有的mv的分数是成下降趋势,这在网页的代码结构稍有不同。

最后,可以看到 这里mv的排行榜数据是实时更新的,所以爬虫程序要不停的在后台运行才能保证获得的数据是最新的,这样就会引起官方人员的注意,他们的反爬虫技术有可能就会将爬虫的IP封掉。

完整代码:

import requests
from bs4 import BeautifulSoup
import randomdef get_html(url):try:r = requests.get(url,timeout=30)r.raise_for_statusr.encoding = 'utf-8'return r.textexcept:return 'error'def get_agent():'''模拟header的user-agent字段,返回一个随机的user-agent字典类型的键值对'''agents = ['Mozilla/5.0 (compatible; MSIE 9.0; Windows NT 6.1; Trident/5.0;','Mozilla/5.0 (Macintosh; Intel Mac OS X 10.6; rv,2.0.1) Gecko/20100101 Firefox/4.0.1','Opera/9.80 (Macintosh; Intel Mac OS X 10.6.8; U; en) Presto/2.8.131 Version/11.11','Mozilla/5.0 (Macintosh; Intel Mac OS X 10_7_0) AppleWebKit/535.11 (KHTML, like Gecko) Chrome/17.0.963.56 Safari/535.11','Mozilla/4.0 (compatible; MSIE 7.0; Windows NT 5.1; 360SE)']fakeheader = {}fakeheader['User-agent'] = agents[random.randint(0, len(agents))]return fakeheaderdef get_proxy():'''简单模拟代理池返回一个字典类型的键值对,'''proxy = ["http://116.211.143.11:80","http://183.1.86.235:8118","http://183.32.88.244:808","http://121.40.42.35:9999","http://222.94.148.210:808"]fakepxs = {}fakepxs['http'] = proxy[random.randint(0, len(proxy))]return fakepxsdef get_content(url):# 先打印一下表头if url[-2:] == 'ML':print('内地排行榜')elif url[-2:] == 'HT':print('香港排行榜')elif url[-2:] == 'US':print('欧美排行榜')elif url[-2:] == 'KR':print('韩国排行榜')else:print('日本排行榜')html = get_html(url)soup = BeautifulSoup(html,'lxml')li_list = soup.find_all('li',class_='vitem J_li_toggle_date ')for li in li_list:content = {}try:# 判断分数升降if li.find('h3',class_='desc_score'):content['分数'] = li.find('h3',class_='desc_score').textelse:content['分数'] = li.find('h3',class_='asc_score').textcontent['排名'] = li.find('div',class_='top_num').textcontent['名字'] = li.find('a',class_='mvname').textcontent['发布时间'] = li.find('p',class_='c9').text[5:]content['歌手'] = li.find('a',class_='special').textexcept:return Noneprint(content)def main():base_url = 'http://vchart.yinyuetai.com/vchart/trends?area='suffix = ['ML','HT','US','JP','KR']for suff in suffix:url = base_url + suffprint()get_content(url)if __name__ == '__main__':main()

输出结果:

转载于:https://www.cnblogs.com/Lovebugs/p/7244682.html

http://www.hkea.cn/news/216340/

相关文章:

  • 建站城企业邮箱怎么开通注册
  • html做动态网站cms
  • 一个网站建设需要多少钱百度seo排名优化公司
  • 网站做app的软件友博国际个人中心登录
  • 做网站用什么代码编写可口可乐软文营销案例
  • 宜昌网站建设哪家好厦门百度广告开户
  • 网站做二级域名外链
  • 网站建设服务费属于哪个大类电商seo搜索优化
  • 12380网站建设情况的报告网络seo首页
  • 个人如何在百度上做广告网站seo什么意思
  • java做网站编程合肥seo快排扣费
  • 做律师网站公司google play下载
  • 网站怎么做详情页北京网站制作建设公司
  • 广告网站模板下载不了东莞排名优化团队
  • 网站建设人员培训纲要河北seo网络推广
  • jsp网站开发实例视频教程各大网站的网址
  • 手机网站设计要素推广竞价
  • 久久医药网seo推广培训费用
  • 网站做301顶级域名需要绑定网站排名掉了怎么恢复
  • wordpress app 源码合肥seo整站优化网站
  • 建立网站基本步骤安仁网络推广
  • 网页建设方案怎么写网站seo优化心得
  • 还没有做网站可以先备案域名吗seo怎么提升关键词的排名
  • 做网站原型图软件优化设计七年级下册语文答案
  • 2023年舆情分析报告seo优化宣传
  • 武汉网站建设 熊掌号最佳磁力引擎吧
  • 教育平台网站开发品牌运营
  • 91人才网赣州招聘网安卓优化大师app下载安装
  • 合肥网页模板建站营业推广策划
  • 网站做301根目录在哪教育培训机构平台