当前位置: 首页 > news >正文

打电话推销好还是做网站推广好网站地图的使用

打电话推销好还是做网站推广好,网站地图的使用,wordpress 空行,重新安装了个wordpress前言: 效果图: 对于网络上的一些免费代理ip,http的有效性还是不错的;但是,https的可谓是凤毛菱角; 正巧,有一个web可以用http访问,于是我就想到不如直接拿着免费的HTTP代理去做这个! 思路: 1.单页获取ipporttime (获取time主要是为了后面使用的时候,依照时效可以做文章) 2.整…前言: 效果图: 对于网络上的一些免费代理ip,http的有效性还是不错的;但是,https的可谓是凤毛菱角; 正巧,有一个web可以用http访问,于是我就想到不如直接拿着免费的HTTP代理去做这个! 思路: 1.单页获取ipporttime (获取time主要是为了后面使用的时候,依照时效可以做文章) 2.整页验证(一个page里面可能有N个ip,通过验证判断有多少个有效ip可以使用)----这里需要使用多线程进行验证;否则,光验证那么多ip都要耗掉不少时间! import logging from bs4 import BeautifulSoup from datetime import datetime, timedelta import time import requests from concurrent.futures import ThreadPoolExecutor# 配置日志记录器 logging.basicConfig(levellogging.ERROR, format%(asctime)s - %(levelname)s - %(message)s,filenameget_ip_error.log)time_threshold 15 # 录入IP的时间和当前时间差阈值小于等于15分钟时进行检查 page_valid 3 # 当每次超过X个有效IP时返回url_kuai http://www.kuaidaili.com/free/inha/ #请求头 headers {user-agent: Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/119.0.0.0 Safari/537.36, }def check_proxy(p):多线程检查代理IP的有效性:param p: 代理IP列表[]:return: 有效的代理IP列表url http://httpbin.org/ip # 用于测试代理IP有效性的网站valid_proxies []def check_single_proxy(proxy):proxies {http: fhttp://{proxy[ip]}:{proxy[port]},# https: fhttps://{proxy[ip]}:{proxy[port]}}try:response requests.get(url, proxiesproxies, timeout1.5)if response.ok:valid_proxies.append(proxy)except requests.exceptions.RequestException as e:pass# 开启多线程检查with ThreadPoolExecutor() as executor:executor.map(check_single_proxy, p)return valid_proxiesdef get_kuaidaili(page):获取89ip的代理IP列表:param page: 页码:return: 有效的代理IP列表和页码try:valid_ip_list []while page 25:#在这里,只有当有效ip数量3的时候,他才会停止;否则,就会不停增加page去爬取;full_url url_kuaistr(page) # 根据页码构建URLprint(当前正在爬取网页---, full_url)response requests.get(full_url,headersheaders)if response.ok:html response.textsoup BeautifulSoup(html, html.parser)table soup.find(table, class_table table-b table-bordered table-striped)tbody table.find(tbody)# if time_diff(tbody,6): #如果时间差在XX分钟以内,就开始检验ip(第6个td是时间) 他更新不快,所以不能用时间去筛选valid_proxies tbody_add_proxy(tbody,6) # 获取tbody的数据(time的位置6)if valid_proxies is not None and len(valid_proxies) 0:valid_ip_list.extend(valid_proxies)if len(valid_ip_list) page_valid: # 有效 IP 数量大于等于 page_valid 就停止爬取breakpage 1else:page0#当page25的时候,page1重新开始return valid_ip_list, pageexcept requests.exceptions.RequestException as e:print(f爬取异常: {e})return valid_ip_list, pagedef time_diff(table,much):查询当前页的IP更新时间判断是否小于等于阈值 time_threshold若是返回True:param table: IP表格:return: 时间是否小于等于阈值rows table.find_all(tr)given_time datetime.strptime(rows[0].find_all(td)[much].text.strip(), %Y/%m/%d %H:%M:%S)current_time datetime.now()time_difference current_time - given_timereturn time_difference timedelta(minutestime_threshold)def tbody_add_proxy(tbody,much):提取代理IP和端口信息并将其构建为列表形式:param tbody: 表格内容:return: 代理IP和端口的列表proxy_list []rows tbody.find_all(tr)for row in rows:proxy {}cells row.find_all(td)proxy[ip] cells[0].text.strip()proxy[port] cells[1].text.strip()proxy[time] cells[much].text.strip()proxy_list.append(proxy)return check_proxy(proxy_list) #返回有效的ip[(list)] 3.存入redis(我需要考虑的是:ip是否重复了?ip提取的时候什么时候进行补充?) import redis import json# 创建连接池 pool_config {host: localhost,port: 6379,db: 0,max_connections: 10,decode_responses: True,encoding: utf-8 }# 创建redis连接池 pool redis.ConnectionPool(**pool_config)def add_to_sorted_set(ip):将IP添加到有序集合中确保唯一性:param ip: IP信息的字典r redis.Redis(connection_poolpool)ip_de json.dumps(ip)# 判断IP在有序集合中是否已存在if not r.zscore(valid, ip_de):r.zadd(valid, {ip_de: 0})def find_valid_ip():获取当前Redis中有效IP的数量:return: 有效IP的数量r redis.Redis(connection_poolpool)count r.zcard(valid) #因为是有序集合,所以需要用zcardif count is None:return 0return countdef pop_from_sorted_set():从有序集合中弹出一个元素按添加顺序:return: 弹出的IP信息字典r redis.Redis(connection_poolpool)ip_de r.zrange(valid, 0, 0)[0]# 从有序集合中移除已弹出的元素r.zrem(valid, ip_de)return json.loads(ip_de) 4.如何合理去运行ip的爬取? from redis_task import redis_task as redis,get_ipimport time import requests# 配置日志记录器import timedef ip_control():1.检查redis里面是否有足够的有效ip(10)- 足够- 达到目标数量例如 20后停止更新- 休眠一段时间后再继续更新- 不足够- 开始从 check_url(url_parse_dict) 获取新的有效ip- 新的ip如果与现有的 redis ip 重复则不放入- 不重复则放入直到 redis 有效 ip 数量达到目标数量target_count 20 # 目标有效 IP 数量current_page 1 # 保存当前页码while True:count redis.find_valid_ip()print(*******************************************************************)print(f目前redis里面有{count}个有效ip)if count target_count:valid_ips, page get_ip.get_kuaidaili(current_page) # 使用 current_pageprint(f当前返回的页码{page})if valid_ips:print(f有效代理IP有{len(valid_ips)})redis.add_to_sorted_set(valid_ips) #必须添加有序集合,确保唯一性 以及后期提取时可以自动移除current_page page1 # 更新 current_page使其递增else:#此时是redis内的有效ip没达到20个print(此时没有达到20个,怎么办?)else:print(f已经达到目标数量{target_count}30秒后再更新)time.sleep(10)ip_control() 最后: 当然,此时的快代理已经有点不行了.经过我的测试,1~25page 平局只有 8个左右ip有效!  于是需要添加其他的网站------那么什么是好的免费ip网站呢?  就是一小时内,他的免费ip会更新的,一般都是比较不错的网站!!!     把这代码搞懂了,需要素材的可以私
http://www.hkea.cn/news/14510212/

相关文章:

  • 苏州网站建站推广网站群发推广软件
  • 网站开发所要达到的目标网站策划书范文模板
  • 北京wap网站建设网站违法和做网站得有关系
  • 如何查看一个网站的所有二级域名wordpress悬浮小工具的插件
  • 企业应该如何进行网站建设衡阳seo优化报价
  • 平面设计师常用网站网站建设勹金手指下拉
  • 汽车网站案例网页设计软件开发工程师学校
  • 金山网站建设关键词排名新浪网站是什么程序做的
  • 做散热网站地方门户网站有哪些
  • 织梦 网站无法显示该页面珠海网站建站模板
  • 做手机网站用什么济南优化官网公司
  • 门户网站底部简单网站制作软件
  • 记事本做网站背景色怎么弄濮阳网络电视直播
  • 凤城网站建设天津建设部网站首页
  • 国内军事新闻最新消息厦门优化网站排名
  • 网站做计算功能企业信用信息查询公示系统年审
  • 西安做网站哪里价格低上海开发公司
  • 做网站淘宝条形码在柬埔寨做网站开发
  • 用ps做网站还是wd网站会员充值做哪个分录
  • 沈阳网站制作系统建站平台详细教程
  • 青岛建设局网站首页生产企业网站模板
  • 天津整站网站建设比选文件
  • 小型企业网站建设旅游景点网论文学校宣传片视频如何制作
  • 大连网站开发招聘长宁青岛网站建设
  • 某企业网站网页设计模板深圳华强北在哪个区
  • wordpress win8信阳搜索引擎优化
  • 微信文章转网站wordpress自建网站怎么做二级页跳转
  • 爱建站小程序特点那种软件
  • 博达软件网站建设做网站张家口
  • 网站建设需要下载哪些软件怎么破解别人做的付费网站