python爬蟲有什么用,python爬蟲--爬取豆瓣top250電影名

 2023-11-19 阅读 26 评论 0

摘要:關于模擬瀏覽器登錄的header,可以在相應網站按F12調取出編輯器,點擊netwook,如下: 以便于不會被網站反爬蟲拒絕。 ? 1 import requests 2 from bs4 import BeautifulSoup 5 def get_movies(): 6 headers = { 7 'user-agent': 'M

關于模擬瀏覽器登錄的header,可以在相應網站按F12調取出編輯器,點擊netwook,如下:

以便于不會被網站反爬蟲拒絕。

?

 1 import requests
 2 from bs4 import BeautifulSoup
 5 def get_movies():
 6     headers = {
 7         'user-agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/52.0.2743.82 Safari/537.36',
 8         'Host': 'movie.douban.com'
 9     }
10     movie_list = []                                                       #定義序列
11     for i in range(0, 10):
12         link = 'https://movie.douban.com/top250?start=' + str(i * 25)     #通過循環,下載第二頁,第三頁
13         r = requests.get(link, headers=headers, timeout=10)               #timeout=10,響應時長
14         print(str(i + 1), "頁響應狀態碼:", r.status_code)                   #顯示狀態碼,返回200,請求成功
15 
16         soup = BeautifulSoup(r.text, "lxml")
17         div_list = soup.find_all('div', class_='hd')                     #如下圖顯示,電影名字在div標簽之后
18         for each in div_list:
19             movie = each.a.span.text.strip()                              #span后的文本
20             movie_list.append(movie)                                      #append(movie),在movie_list中添加movie序列
21 return movie_list
24 movies = get_movies()
25 print(movies)

python爬蟲有什么用?

?

轉載于:https://www.cnblogs.com/leon507/p/7614345.html

版权声明:本站所有资料均为网友推荐收集整理而来,仅供学习和研究交流使用。

原文链接:https://hbdhgg.com/3/181467.html

发表评论:

本站为非赢利网站,部分文章来源或改编自互联网及其他公众平台,主要目的在于分享信息,版权归原作者所有,内容仅供读者参考,如有侵权请联系我们删除!

Copyright © 2022 匯編語言學習筆記 Inc. 保留所有权利。

底部版权信息