一、強(qiáng)大的BeautifulSoup:BeautifulSoup是一個(gè)可以從html或xml文件中提取數(shù)據(jù)的Python庫(kù)。它能夠通過(guò)你喜歡的轉(zhuǎn)換器實(shí)現(xiàn)慣用的文檔導(dǎo)航、查找、修改文檔的方式。在Python開(kāi)發(fā)中,主要用的是BeautifulSoup的查找提取功能,修改功能很少使用 1、安裝BeautifulSoup pip3 install beautifulsoup4 2、安裝第三方html解析器lxml pip3 install lxml 3、安裝純Python實(shí)現(xiàn)的html5lib解析器 pip3 install html5lib 1、導(dǎo)入bs4庫(kù) from bs4 import BeautifulSoup #導(dǎo)入bs4庫(kù) 2、創(chuàng)建包含html代碼的字符串 html_str = """ <html><head><title>The Dormouse's story</title></head> <body> <p class="title"><b>The Dormouse's stopy</b></p> <p class="story">Once upon a time there were three little sisters;and their names where <a href="http:///elsie" class="sister" id="link1"><!--Elsie--></a> """ 3、創(chuàng)建BeautifulSoup對(duì)象 (1)直接通過(guò)字符串方式創(chuàng)建 soup = BeautifulSoup(html_str,'lxml') #html.parser是解析器,也可是lxml print(soup.prettify()) ------>輸出soup對(duì)象的內(nèi)容
(2)通過(guò)已有的文件來(lái)創(chuàng)建 soup = BeautifulSoup(open('/home/index.html'),features='html.parser')#html.parser是解析器,也可是lxml 4、BeautifulSoup對(duì)象的種類(lèi):BeautifulSoup將復(fù)雜HTML文檔轉(zhuǎn)換成一個(gè)復(fù)雜的樹(shù)形結(jié)構(gòu),每個(gè)節(jié)點(diǎn)都是Python對(duì)象 (1)BeautifulSoup:表示的是一個(gè)文檔的全部?jī)?nèi)容。大部分時(shí)候,可以把它當(dāng)作Tag對(duì)象,是一個(gè)特殊的Tag,因?yàn)?/span>BeautifulSoup對(duì)象并不是真正的HTML和XML,所以沒(méi)有name和attribute屬性 (2)Tag:與XML或HTML原生文檔中的Tag相同,通俗講就是標(biāo)記 如: 抽取title:print(soup.title) 抽取a : print(soup.a) 抽取p:print(soup.p) Tag中有兩個(gè)重要的屬性:name和attributes。每個(gè)Tag都有自己的名字,通過(guò).name來(lái)獲取 print(soup.title.name) 操作Tag屬性的方法和操作字典相同 如:<p class=’p1’>Hello World</p> print(soup.p[‘class’]) 也可以直接“點(diǎn)”取屬性,如 .attrs 獲取Tag中所有屬性 print(soup.p.attrs) (3)NavigableString:獲取標(biāo)記內(nèi)部的文字.string BeautifulSoup用 NavigableString類(lèi)來(lái)封裝Tag中的字符串,一個(gè) NavigableString字符串與Python中的Unicode字符串相同,通過(guò)unicode()方法可以直接將 NavigableString對(duì)象轉(zhuǎn)換成Unicode字符串 如:u_string = unicode(soup.p.string) (4)Comment:對(duì)于一些特殊對(duì)象,如果不清楚這個(gè)標(biāo)記.string的情況下,可能造成數(shù)據(jù)提取混亂。因此在提取字符串時(shí),可以判斷下類(lèi)型: if type(soup.a.string) == bs4.element.Comment: print(soup.a.string) 5、遍歷文檔 (1)子節(jié)點(diǎn): A、對(duì)于直接子節(jié)點(diǎn)可以通過(guò) .contents 和 .children來(lái)訪(fǎng)問(wèn) .contents ---->將Tag子節(jié)點(diǎn)以列表的方式輸出 print(soup.head.contents) .children ----->返回一個(gè)生成器,對(duì)Tag子節(jié)點(diǎn)進(jìn)行循環(huán) for child in soup.head.children: print(child) B、獲取子節(jié)點(diǎn)的內(nèi)容 .string ---> 如果標(biāo)記里沒(méi)有標(biāo)記了,則返回內(nèi)容;如果標(biāo)記里只有一個(gè)唯一的標(biāo)記,則返回最里面的內(nèi)容;如果包含多個(gè)子節(jié)點(diǎn),Tag無(wú)法確定.string方法應(yīng)該返回哪個(gè)時(shí),則返回None .strings ---->主要應(yīng)用于Tag中包含多個(gè)字符串的情況,可以進(jìn)行循環(huán)遍歷 for str in soup.strings: print(repr(str))
.stripped_string ----->可以去掉字符串中包含的空格或空行 for str in soup.stripped_strings: print(repr(str)) (2)父節(jié)點(diǎn) A、通過(guò).parent屬性來(lái)獲取某個(gè)元素的父節(jié)點(diǎn),如: print(soup.title.parent) B、通過(guò).parents屬性可以遞歸得到元素的所有父輩節(jié)點(diǎn) for parent in soup.a.parents: if parent is None: print(parent) else: print(parent.name) (3)兄弟節(jié)點(diǎn) . next_sibling ----->獲取該節(jié)點(diǎn)的下一個(gè)兄弟節(jié)點(diǎn) . previous_sibling ----->獲取該節(jié)點(diǎn)的上一個(gè)兄弟節(jié)點(diǎn) (4)前后節(jié)點(diǎn) . next_elements ----->獲得該節(jié)點(diǎn)前面的所有節(jié)點(diǎn) . previous_elements ----->獲得該節(jié)點(diǎn)后面的所有節(jié)點(diǎn)
6、搜索文檔樹(shù) (1)find_all(name,attrs,recursive,text,**kwargs) A、name參數(shù):查找名字為name的標(biāo)記 print(soup.find_all(‘‘’’b)) B、text參數(shù):查找文檔中字符串的內(nèi)容 C、 recursive參數(shù):檢索當(dāng)前Tag的所有子孫節(jié)點(diǎn)時(shí),若只想找直接子節(jié)點(diǎn), 該參數(shù)設(shè)置為False
7、CSS選擇器:使用soup.select()函數(shù) (1)通過(guò)標(biāo)記名查找 print(soup.select("title")) (2)通過(guò)Tag的class屬性值查找 print(soup.select(".sister")) (3)通過(guò)Tag的id屬性值查找 print(soup.select("#sister")) (4)通過(guò)是否存在某個(gè)屬性查找 print(soup.select("a[href]")) (5)通過(guò)屬性值查找 print(soup.select('a[href="http://"]'))
|
|
來(lái)自: 看見(jiàn)就非常 > 《待分類(lèi)》