当前位置: 首页 > news >正文

用织梦系统怎么做网站做网站 不是计算机专业

用织梦系统怎么做网站,做网站 不是计算机专业,汕头市住建局,wordpress 角色权限虽说现在大环境不太好#xff0c;很多人面临着失业再就业风险#xff0c;包括企业则面临着招人人#xff0c;找对口专业难得问题。想要找到适合自己公司的人员#xff0c;还要得通过爬虫获取筛选简历才能从茫茫人海中找到公司得力干将。废话不多说#xff0c;直接开整。 1…虽说现在大环境不太好很多人面临着失业再就业风险包括企业则面临着招人人找对口专业难得问题。想要找到适合自己公司的人员还要得通过爬虫获取筛选简历才能从茫茫人海中找到公司得力干将。废话不多说直接开整。 1、导入所需的库 import requests from bs4 import BeautifulSoup import re这行代码导入了requests库该库用于向网站发出HTTP请求BeautifulSoup库该库用于解析HTML文档re库该库用于处理正则表达式。 2、设置代理信息 proxy_host www.duoip.cn proxy_port 8000 proxy {http: http://{}:{}.format(proxy_host, proxy_port),https: https://{}:{}.format(proxy_host, proxy_port)获取免费ipjshk.com.cn/mb/reg.asp?kefuxjycsdn) }这行代码定义了代理的主机名和端口号并将它们存储在proxy字典中。然后我们使用format()函数将这些值拼接为代理URL。 3、发出HTTP请求 response requests.get(https://www.zhaopin.com/, proxiesproxy)这行代码使用requests.get()函数向www.zhaopin.com发送GET请求。 proxies参数指定了代理服务器。 4、解析HTML文档 soup BeautifulSoup(response.text, html.parser)这行代码使用BeautifulSoup库解析response.text即HTTP响应的文本内容。 5、获取招聘信息的HTML元素 job_info soup.find_all(div, attrs{class: job-item})这行代码使用BeautifulSoup库的find_all()函数查找所有class为’job-item’的div元素即招聘信息的HTML元素。 6、循环遍历招聘信息 for info in job_info:job_title info.find(h2, attrs{class: job-title}).textcompany_name info.find(span, attrs{class: company}).textlink info.find(a)[href]print(职位名称, job_title)print(公司名称, company_name)print(链接, link)print(-------------------------)这行代码循环遍历job_info列表中的每一个元素并使用find()函数查找职位名称、公司名称和链接。text参数用于获取元素的文本内容而[‘href’]参数用于获取链接。然后我们打印出这些信息。 7、整个爬虫程序的运行 if __name__ __main__:proxy_host www.duoip.cnproxy_port 8000proxy {http: http://{}:{}.format(proxy_host, proxy_port),https: https://{}:{}.format(proxy_host, proxy_port)}response requests.get(https://www.zhaopin.com/, proxiesproxy)soup BeautifulSoup(response.text, html.parser)job_info soup.find_all(div, attrs{class: job-item})for info in job_info:job_title info.find(h2, attrs{class: job-title}).textcompany_name info.find(span, attrs{class: company}).textlink info.find(a)[href]print(职位名称, job_title)print(公司名称, company_name)print(链接, link)print(-------------------------)这行代码为整个爬虫程序的入口。当程序运行时它会首先设置代理信息然后发出HTTP请求解析HTML文档获取招聘信息的HTML元素循环遍历招聘信息并打印出这些信息。 以上就是爬取智联、无忧简历采集系统内容的Python代码。请注意这只是一个基本的爬虫程序实际的爬虫程序需要处理更多的复杂情况例如处理网站的反爬虫策略、处理可能存在的网页结构变化、处理可能存在的错误等。因此在编写实际的爬虫程序时需要根据实际情况进行适当的调整和优化。 上面就是有关爬虫获取招聘信息的一些简易的代码虽说过程很复杂一旦跑通了使用还是非常的方便。如果各位大佬有更好的建议欢迎评论区交流讨论。
http://www.hkea.cn/news/14351261/

相关文章:

  • 如何做一个网站推广自己的产品网站不提交表单
  • 网站开发前后端配比在线设计logo图片
  • 有电脑网站怎样建手机项目概述
  • 网站建设到本地品牌网站建设工作室
  • 自己做产品网站济南网络科技有限公司
  • 登封网站制作网站建设网站更换空间后排名消失 首页被k
  • 网站备案管局中国域名根服务器
  • 织梦 网站模板分类目录网站做谷歌联盟
  • 订阅号栏目里做微网站建筑工程网上联合报审
  • 莆田市荔城区建设局网站flashfxp 网站
  • ui作品集 网站怎么做网站建设与维护下载
  • 自己做了一个网站如何将图床作为wordpress的插件
  • 如何做网站alexa排名佛山网站快速排名提升
  • 做系统网站提醒有风险北京ui设计app制作公司
  • 车网站建设策划sae网站备案
  • 最好的响应式网站淘宝 网站开发 退货
  • 网站cms系统排名wordpress install.php 空白
  • 一个阿里云怎么做两个网站吗商业网站建设定位
  • 那里做网站好十大暴利小型加工厂
  • 老板让做公司网站设计海外购物网站大全
  • 长春网站建设加q479185700网站建设的主要功能及定位
  • 网站title 在哪里设置建电子商务网站需要多少钱
  • 网站建设怎么外包好中小企业网上申报系统
  • 企业注册百家号可以做网站吗嵌入式开发工程师
  • 典当网站九江网站建设优化
  • 漯河市源汇区建设局网站11月70款国产网络游戏获批
  • 企业网站如何进行定位wordpress 加速会
  • 网站页面太多怎么做网站地图吉林省高等级公路建设局死人网站
  • 广东智能网站建设配件店面设计薪酬
  • 南城网站建设公司策划上海网站排名优化公司