当前位置: 首页 > news >正文

有哪些官网做的比较好的网站网站建设全教程

有哪些官网做的比较好的网站,网站建设全教程,江门微信网站建设,企业网站的推广形式有目录 ajax的get请求 获取豆瓣电影第一页的数据并保存到本地 获取豆瓣电影前十页的数据 ajax的post请求 总结 ajax的get请求 获取豆瓣电影第一页的数据并保存到本地 首先可以在浏览器找到发送数据的接口 那么我们的url就可以在header中找到了 再加上UA这个header 进行请…目录 ajax的get请求 获取豆瓣电影第一页的数据并保存到本地 获取豆瓣电影前十页的数据 ajax的post请求 总结 ajax的get请求 获取豆瓣电影第一页的数据并保存到本地 首先可以在浏览器找到发送数据的接口 那么我们的url就可以在header中找到了 再加上UA这个header 进行请求对象的定制模拟浏览器发送请求即可 详细代码如下 # get请求 # 获取豆瓣电影第一页的数据并且保存起来 import urllib.requesturl https://movie.douban.com/j/chart/top_list?type13interval_id100%3A90actionstart0limit20headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36 }# 请求对象的定制 request urllib.request.Request(urlurl, headersheaders)# 模拟浏览器发送请求,获取响应的数据 response urllib.request.urlopen(request) content response.read().decode(utf-8) # print(content)# 将数据下载到本地 # open方法默认使用GBK但是我们前面使用的是utf-8那么这里 # 需要将编码格式指定为utf-8 fp open(douban.json, w, encodingutf-8) fp.write(content)# get请求 # 获取豆瓣电影第一页的数据并且保存起来 import urllib.requesturl https://movie.douban.com/j/chart/top_list?type13interval_id100%3A90actionstart0limit20headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36 }# 请求对象的定制 request urllib.request.Request(urlurl, headersheaders)# 模拟浏览器发送请求,获取响应的数据 response urllib.request.urlopen(request) content response.read().decode(utf-8) # print(content)# 将数据下载到本地 # open方法默认使用GBK但是我们前面使用的是utf-8那么这里 # 需要将编码格式指定为utf-8 fp open(douban.json, w, encodingutf-8) fp.write(content) 这就下载下来了 获取豆瓣电影前十页的数据 首先我们找到第一次的刷新数据的请求url https://movie.douban.com/j/chart/top_list?type13interval_id100%3A90actionstart0limit20 然后是第二次的 https://movie.douban.com/j/chart/top_list?type13interval_id100%3A90actionstart20limit20 然后是第三次的https://movie.douban.com/j/chart/top_list?type13interval_id100%3A90actionstart40limit20 如果你观察这几个URL后面的参数的话你就可以发现问题了start每次都累加上limit通过改变起始索引来挨个查询这个在Java开发中经常会有这种代码那么它查询的方法就已经是显而易见了。 所以可以得出start的值是(page - 1) * 20 然后就可以写出下面的代码了 # get请求 # 下载豆瓣电影前十页的数据 import urllib.request import urllib.parse得到不同pages的requestdef create_request(page):base_url https://movie.douban.com/j/chart/top_list?type13interval_id100%3A90actiondata {start: (page - 1) * 20,limit: 20}data urllib.parse.urlencode(data)url base_url dataprint(url)headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36}request urllib.request.Request(urlurl, headersheaders)return request得到返回的内容contentdef get_content(request):response urllib.request.urlopen(request)content response.read().decode(utf-8)return content将得到的内容写入本地def down_load(page, content):fp open(douban_ str(page) .json, w, encodingutf-8)fp.write(content)主方法if __name__ __main__:start_page int(input(请输入起始页码))end_page int(input(请输入结束页码))for page in range(start_page, end_page 1):# 每一页都有自己的请求对象的定制request create_request(page)# 获取响应数据content get_content(request)# download下载down_load(page, content)然后就完美得到了所有的数据了  ajax的post请求 对肯德基官网的餐厅位置进行爬取 这为什么是一个ajax发送的数据呢因为这里有一个ajax的核心对象 然后就通过URL和header就可以得到下面的代码并没有新的东西 都是前面的知识点的整合。 # post请求 # 肯德基官网 import urllib.request import urllib.parse# 第一页 # https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?opcname# cname: 哈尔滨 # pid: # pageIndex: 1 # pageSize: 10# 第二页 # https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?opcname# cname: 哈尔滨 # pid: # pageIndex: 2 # pageSize: 10请求对象定制def create_request(page):base_url https://www.kfc.com.cn/kfccda/ashx/GetStoreList.ashx?opcnamedata {cname: 哈尔滨,pid: ,pageIndex: page,pageSize: 10}data urllib.parse.urlencode(data).encode(utf-8)headers {User-Agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/122.0.0.0 Safari/537.36}request urllib.request.Request(urlbase_url, headersheaders, datadata)return request获取网页内容def get_content(request):response urllib.request.urlopen(request)content response.read().decode(utf-8)return content下载内容到本地def down_load(page, content):fp open(KFC str(page) .json, w, encodingutf-8)fp.write(content)if __name__ __main__:start_page int(input(请输入起始页码))end_page int(input(请输入结束页码))for page in range(start_page, end_page 1):# 请求对象的定制request create_request(page)# 获取网页内容content get_content(request)# 下载内容到本地down_load(page, content)总结 累了没有总结再见兄弟们ヾ(▽)Bye~Bye~
http://www.hkea.cn/news/14570348/

相关文章:

  • 公司在选择网站时应考虑什么百度 营销推广怎么做
  • 傻瓜式网页制作网站苏州城乡建设网站查询
  • 智慧团建入口登录网站阿里服务器怎么做网站服务器
  • 大学生做网上英语翻译兼职网站商城类的网站怎么做
  • 定制网站制作系统长沙房地产管理局
  • 时光慢网站建设方案论文企业网站html模板
  • 英语网站案例做网站免费服务器哪家好
  • 如何使用ps做网站建设银行怎么从网站上改手机号码
  • 鞍山建立公司网站的步骤wordpress免登录发布接口
  • 如何建设cpa影视网站下城区做网站
  • 云南网站建设c3saleswordpress points
  • 网站模板源码免费下载注册公司每年需要缴纳什么费用
  • 减肥产品网站模板wordpress 获取文章id
  • 网站代理游戏淘宝做推广网站
  • 假山网站如何做网络营销零基础培训
  • 阿里云网站建设怎么样网站基础代码html
  • asp网站上传后台在哪国内做外贸如何访问外国网站
  • 产品设计排版学seo优化
  • 广州建网站公司排名云南云岭建设集团官方网站
  • 精品网站建设费用 v磐石网络简单静态网页制作代码
  • 备案 几个网站中国空间站最新消息新闻
  • 凡科网站建设怎么去掉极速建站wordpress媒体文件
  • 哪些网站做家政推广多仓库版仓库管理网站建设源码
  • 西安网站公司建设深圳龙华区新石社区
  • 摄影师网站推荐推广赚钱app
  • 汉阳做网站多少钱淘宝客推广怎样做网站
  • 阿里云服务器做盗版视频网站微信开发公众平台
  • 原墨网站建设建设一个网站首先需要
  • 免费站长工具做喷绘的图在哪个网站找
  • 网站系统名称网站 域名解析出错