当前位置: 首页 > news >正文

css里网站颜色营销网站建设选择原则

css里网站颜色,营销网站建设选择原则,莱芜都市网官网,百度里面企业网站怎么建设BeautifulSoup 是一个用于解析 HTML 和 XML 文档的 Python 库,它为开发者提供了一种简单的方式来查找、遍历和修改文档树。BeautifulSoup 特别擅长处理不规则或格式不佳的标记语言,可以自动更正无效的 HTML,因此在网页抓取(Web Sc…

BeautifulSoup 是一个用于解析 HTML 和 XML 文档的 Python 库,它为开发者提供了一种简单的方式来查找、遍历和修改文档树。BeautifulSoup 特别擅长处理不规则或格式不佳的标记语言,可以自动更正无效的 HTML,因此在网页抓取(Web Scraping)中非常受欢迎。

【1】基本介绍

主要特点

  • 易于使用:提供了直观的方法来导航、搜索和修改解析树。
  • 容错性强:能够处理有缺陷的 HTML,并尝试生成最可能的解析结果。
  • 多种解析器:支持 Python 标准库中的 HTML 解析器,以及第三方解析器如 lxml 和 html5lib。
  • 链式调用:可以通过连续调用方法来构建查询,使得代码更加简洁和易读。

安装

你可以通过 pip 安装 BeautifulSoup:

pip install beautifulsoup4

如果需要安装额外的解析器,比如 lxml 或 html5lib,也可以通过 pip 安装:

pip install lxml
pip install html5lib

【2】 基本用法

下面是一个简单的例子,展示如何使用 BeautifulSoup 来解析 HTML 内容并提取信息:

<!DOCTYPE html>
<html lang="en">
<head><meta charset="UTF-8"><title>Title</title>
</head>
<body><div><ul><li id="l1">张三</li><li id="l2">李四</li><li>王五</li><a href="" id="" class="a1">尚硅谷</a><span>嘿嘿嘿</span></ul></div><a href="" title="a2">百度</a><div id="d1"><span>哈哈哈</span></div><p id="p1" class="p1">呵呵呵</p>
</body>
</html>

lxml内核解析本地文件:

# 默认打开的文件的编码格式是gbk 所以在打开文件的时候需要指定编码
soup = BeautifulSoup(open('1.html',encoding='utf-8'),'lxml')

lxml内核解析网络文件:

url = 'https://www.starbucks.com.cn/menu/'
response = urllib.request.urlopen(url)
content = response.read().decode('utf-8')
soup = BeautifulSoup(content,'lxml')

BeautifulSoup 提供了多种方法来寻找文档中的元素:

  • find_all(name, attrs, recursive, string, limit, **kwargs):查找所有符合条件的标签。
  • find(name, attrs, recursive, string, **kwargs):查找第一个符合条件的标签。
  • select(selector):使用 CSS 选择器来查找元素。
  • find_parent(name, attrs, **kwargs)find_parents(name, attrs, **kwargs):向上查找父级标签。
  • find_next_sibling(name, attrs, **kwargs)find_next_siblings(name, attrs, **kwargs):查找后面的兄弟标签。
  • find_previous_sibling(name, attrs, **kwargs)find_previous_siblings(name, attrs, **kwargs):查找前面的兄弟标签。
from bs4 import BeautifulSoup
# 默认打开的文件的编码格式是gbk 所以在打开文件的时候需要指定编码
soup = BeautifulSoup(open('1.html',encoding='utf-8'),'lxml')
# 根据标签名查找节点
# 找到的是第一个符合条件的数据
# print(soup.a)
# 获取标签的属性和属性值
# print(soup.a.attrs)

① find

# 返回的是第一个符合条件的数据
# print(soup.find('a'))# 根据title的值来找到对应的标签对象
# print(soup.find('a',title="a2"))# 根据class的值来找到对应的标签对象  注意的是class需要添加下划线
# print(soup.find('a',class_="a1"))

② find_all

返回的是一个列表 并且返回了所有的a标签

# print(soup.find_all('a'))# 如果想获取的是多个标签的数据 那么需要在find_all的参数中添加的是列表的数据
# print(soup.find_all(['a','span']))# limit的作用是查找前几个数据
# print(soup.find_all('li',limit=2))

③ select(推荐)

# select方法返回的是一个列表  并且会返回多个数据
# print(soup.select('a'))# 可以通过.代表class  我们把这种操作叫做类选择器
# print(soup.select('.a1'))# print(soup.select('#l1'))

属性选择器—通过属性来寻找对应的标签

# 查找到li标签中有id的标签
# print(soup.select('li[id]'))# 查找到li标签中id为l2的标签
# print(soup.select('li[id="l2"]'))

层级选择器/后代选择器

# 找到的是div下面的li
# print(soup.select('div li'))# 子代选择器
#  某标签的第一级子标签
# 注意:很多的计算机编程语言中 如果不加空格不会输出内容  但是在bs4中 不会报错 会显示内容
# print(soup.select('div > ul > li'))# 找到a标签和li标签的所有的对象
# print(soup.select('a,li'))

获取节点内容

# obj = soup.select('#d1')[0]
# print(obj.string)
# print(obj.get_text())

如果标签对象中 只有内容 那么string和get_text()都可以使用,如果标签对象中 除了内容还有标签 那么string就获取不到数据 ,而get_text()是可以获取数据

我们一般情况下 推荐使用get_text()。

节点的属性

# obj = soup.select('#p1')[0]
# name是标签的名字
# print(obj.name)
# 将属性值左右一个字典返回
# print(obj.attrs)# 获取节点的属性
obj = soup.select('#p1')[0]print(obj.attrs.get('class'))
print(obj.get('class'))
print(obj['class'])
http://www.zhongyajixie.com/news/14548.html

相关文章:

  • 酒店网站素材活动软文怎么写
  • 泉州网站建设seo推广教学
  • 鉴定手表网站网站优化查询代码
  • 金华专业做网站怎么投放网络广告
  • 网页制作工具中优化推广方案
  • 苏州建站公司优搜苏州聚尚网络网站和网页的区别
  • 辅助wordpress 页面编辑seo北京公司
  • 焦作会计做继续教育在哪个网站谷歌seo查询
  • 做网站 备案sem推广软件
  • 公司宣传单页模板seo职位要求
  • 湘潭整站优化网络推广费用高吗
  • 备案空壳网站什么是seo?
  • 个人网站类型网络营销效果评估
  • 福州高端网站建设服务网络公司seo独立站
  • 政治工作网站管理建设央视新闻
  • 有没有接单做加工的网站小学生班级优化大师
  • 深圳外贸营销型网站建设长沙靠谱的关键词优化
  • 大连能做网站的公司有seo技术培训唐山
  • 网站开发设计工程师职责简介阿里巴巴指数查询
  • 重庆网站策划网站优化排名
  • 用狐狸做logo的网站网站页面关键词优化
  • wordpress朗读句子插件百度网站优化排名
  • 北京公司建设网站2021最火关键词
  • 江北网站建设价格网络营销的概念
  • 简书 wordpress深圳高端seo外包公司
  • 广州市开发区建设局官方网站北京网站制作400办理多少钱
  • 什么网站上做奥数题软文发布平台媒体
  • 沈阳专业网站制作公司谷歌推广怎么操作
  • 湘西网站建设吧搜索引擎营销推广方案
  • 用手机做网站的app推广网址