建站之星设计师,阳江城乡建设部网站首页,成都设计院待遇,南宁网络#x1f389; 本系列为Python基础学习#xff0c;原稿来源于 30-Days-Of-Python 英文项目#xff0c;大奇主要是对其本地化翻译、逐条验证和补充#xff0c;想通过30天完成正儿八经的系统化实践。此系列适合零基础同学#xff0c;或仅了解Python一点知识#xff0c;但又没… 本系列为Python基础学习原稿来源于 30-Days-Of-Python 英文项目大奇主要是对其本地化翻译、逐条验证和补充想通过30天完成正儿八经的系统化实践。此系列适合零基础同学或仅了解Python一点知识但又没有系统学习的使用者。总之如果你想提升自己的Python技能欢迎加入《挑战30天学完Python》 Day 22 Python爬虫 第22天练习 Day 22
Python爬虫
什么是数据抓取
互联网上充满了大量的数据可以应用于不同的目的。为了收集这些数据我们需要知道如何从一个网站抓取这些数据。
网络抓取本质上是从网站中提取和收集数据并将其存储在本地机器或数据库中的过程。
在本节中我们将使用 beautifulsoup 和 requests 包来抓取数据。
友情提醒数据抓取不合法本篇内容请仅用于测试和学习用。
如果你的Python环境中还没如下两个库请用pip进行安装。
pip install requests
pip install beautifulsoup4要从网站抓取数据需要对HTML标记和CSS选择器有基本的了解。我们使用HTML标签类或id定位来自网站的内容。
首先导入 requests 和 BeautifulSoup 模块
import requests
from bs4 import BeautifulSoup接着将需要抓取的网页地址赋值给一个url变量以下我们以手机新浪首页为例子。 import requests
from bs4 import BeautifulSoup
url http://wap.sina.cn/# 让我们使用网络请求url获取返回的数据
response requests.get(url)
# 检查返回状态200表示正常
status response.status_code
print(status)200使用 beautifulSoup 解析页面内容。
import requests
import re
from bs4 import BeautifulSoup
url http://wap.sina.cn/response requests.get(url)
# 获取请求页面的所有内容
content response.content
# 加载成beautiful对象
soup BeautifulSoup(content, html.parser)
#解析标题并打印
print(soup.title)
# 获取标题里内容
print(《 soup.title.get_text() 》)
# 网站整个页面
# print(soup.body)
# 寻找要闻片段通过网页右键查看源代码
yaowen soup.find(idyaowen_defense)
# 要闻对象中查找所有H2标签并循环获取概要标题
for h2 in yaowen.find_all(h2):print(h2.contents[0])如果运行这段代码可以看到提取到了所有的新闻标题。
本节只是抛砖隐喻并不是python基础学习中核心部分。不过多展开更多参考官方文档 beautifulsoup documentation 你如此有能力每一天都在进步挑战还剩余8天加油本篇内容虽少但练习不能少。 第22天练习
抓取豆瓣电影排行版中电影前10个电影的基本信息 https://movie.douban.com/chart。从Python网络爬虫靶场 http://www.spiderbuf.cn/ 选择任意一个无反扒的网站进行表数据获取。
练习参考22_exercise.py CONGRATULATIONS ! Day 21 | Day 23