beautifulsoup包的主要作用是将str格式的网页源码转换成soup格式,soup格式可以通过类似json格式的方式进行索引。

主要流程介绍

解析网页源码

import requests
from bs4 import BeautifulSoup # 导入类库
response = requests.get(Url, headers=headers, timeout=60)  # 使用request获取网页
html = response.content.decode('utf-8', 'ignore')  # 将网页源码转换格式为html
soup = BeautifulSoup(html, features="lxml")  # 构建soup对象,"lxml"为设置的解析器

结合selennium处理数据

idList = driver.find_elements_by_class_name('list_con') # driver查找元素
soup = BeautifulSoup(idList[0].get_attribute('outerHTML')) # 获取元素的内容彬转换为soup对象

查找标签

  • find_all

    soup.find_all('div', "classname")  # 查找soup中Class属性为"classname"的"div"标签
    
  • 指定其他属性

    soup.find_all('div', {"id":"idName"})  # 查找soup中id属性为"idName"的"div"标签
    
  • 使用Xpath,下一篇有正则用法

    self.driver.find_elements(By.XPATH, '//*[@id="gs_cit-x"]/span[1]')[0].click()
    

获取文本内容

  • text

    divs.text # 直接获取"div"标签下的文本信息
    
Copyright © Euclid-Jie 2023 all right reserved,powered by Gitbook该文章修订时间: 2024-08-09 05:34:52

results matching ""

    No results matching ""