pythone实现爬虫的三个实例
时间:2018-09-21
本文章向大家介绍pythone实现爬虫的三个实例,需要的朋友可以参考一下
贴吧爬取
写代码前,构思需要的功能块;写代码时,把各个功能模块名提前写好
初始化
初始化必要参数,完成基础设置 爬取百度贴吧lol吧:爬取地址中的get参数须传递(可以指定不同主题的贴吧和页码)
- 主题名
- 初始网址
- 请求头
生成网址
生成每一页的路由地址
- 根据列表生成式生成多个页面的地址
下载
get请求给每一页的地址,爬取页面
保存
保存爬取结果到文件中,把每一页爬取结果写入到对应名字的文件中
控制流程
将以上爬取操作封装到run函数中,方便外部对象调用,以后会在此添加多线程
- 生成要爬取的每一页的路由地址
- 通过for循环遍历每一个路由地址
- 对每个路由地址进行爬取和获取页码操作,并进行保存
源码
1 import requests 2 3 class TiebaSpider: 4 def __init__(self, tieba_name_crawl): 5 """ 6 初始化必要参数,完成基础设置 7 爬取百度贴吧lol吧:爬取地址中的get参数须传递(可以指定不同主题的贴吧和页码) 8 """ 9 self.tieba_name = tieba_name_crawl 10 self.url_base = 'https://tieba.baidu.com/f?kw=' + tieba_name_crawl + '&ie=utf-8&pn={}' 11 self.headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0'} 12 13 def make_url(self): 14 """ 15 生成每一页的路由地址 16 :return:(列表生成式) 17 """ 18 return [self.url_base.format(i) for i in range(4)] 19 20 def download_url(self, url_str): 21 """ 22 get请求给每一页的地址,爬取页面 23 :param url_str: 每一页的路由地址 24 :return: 爬取的结果 25 """ 26 result = requests.get(url_str, headers=self.headers) 27 return result.text 28 29 def save_result(self, result, page_num): 30 """ 31 保存爬取结果到文件中 32 :param result: 每一页的爬取结果 33 :param page_num: 页码,方便分类保存 34 :return: 把每一页爬取结果写入到对应名字的文件中 35 """ 36 # with open('./download/lol' + str(page_num) + '.html', 'ab') as f: 37 # f.write(result.encode('utf-8')) 38 file_path = './download/{}~第{}页.html'.format(self.tieba_name,page_num) 39 with open(file_path,'wb') as f: 40 f.write(result.encode('utf-8')) 41 42 def run(self): 43 """ 44 将以上爬取操作封装到run函数中,方便外部对象调用,以后会在此添加多线程 45 · 生成要爬取的每一页的路由地址 46 · 通过for循环遍历每一个路由地址 47 · 对每个路由地址进行爬取和获取页码操作,并进行保存 48 :return: 49 """ 50 url_lists = self.make_url() 51 for url_str in url_lists: 52 result_str = self.download_url(url_str) 53 p_num = url_lists.index(url_str) + 1 54 self.save_result(result=result_str,page_num=p_num) 55 56 if __name__ == '__main__': 57 tieba_spider = TiebaSpider('lol') 58 tieba_spider.run()
爬取糗事百科
1 import requests 2 from bs4 import BeautifulSoup 3 import lxml.html 4 5 class QiushiSpider: 6 def __init__(self): 7 """ 8 初始化必要参数,完成基础设置 9 """ 10 # self.tieba_name = qiushi_name_crawl 11 # https: // www.qiushibaike.com / 8 12 # hr / page / 2 / 13 self.url_base = 'https://www.qiushibaike.com/8hr/page/{}/' 14 # self.url_base = 'https://tieba.baidu.com/f?kw=' + qiushi_name_crawl + '&ie=utf-8&pn={}' 15 self.headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0'} 16 17 def make_url(self): 18 return [self.url_base.format(i) for i in range(4)] 19 20 def download_url(self, url_str): 21 result = requests.get(url_str, headers=self.headers) 22 #---------- 23 # html = lxml.html.fromstring(result.text) 24 # html_data = html.xpath('//div[@class="content"]/span[1]/text()') 25 # data_all = [] 26 # # for h in html_data: 27 # # data_all.append(h) 28 # return html_data 29 #----------- 30 return result.text 31 32 def save_result(self, result, page_num): 33 with open('./download/qiushi' + str(page_num) + '.html', 'ab') as f: 34 f.write(result.encode('utf-8')) 35 36 37 # qiushi = QiushiSpider() 38 # qiushi_url = qiushi.make_url() 39 # j = 1 40 # for i in qiushi_url: 41 # qiushi_text = qiushi.download_url(url_str=i) 42 # qiushi.save_result(result=qiushi_text, page_num=j) 43 # j += 1
爬取国家信息
BeautifulSoup方式
1 import requests 2 from bs4 import BeautifulSoup 3 class CountrySoup: 4 def __init__(self,country_name): 5 self.country_name = country_name 6 self.url_base = 'http://example.webscraping.com/places/default/view/{}'.format(self.country_name) 7 self.headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0',} 8 9 def download_url(self): 10 result = requests.get(self.url_base,headers=self.headers) 11 soup = BeautifulSoup(result.text,'lxml') 12 tr = soup.find(attrs={'id':"places_country__row"}) 13 print(tr,type(tr)) 14 td = tr.find(attrs={'class':"w2p_fw"}) 15 print(td,type(td)) 16 17 print(td.text)
lxml方式
1 class CountrySpider: 2 def __init__(self,country_name): 3 self.country_name = country_name 4 self.url_base = 'http://example.webscraping.com/places/default/view/{}'.format(self.country_name) 5 self.headers = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0',} 6 7 def download_url(self,url_str): 8 result = requests.get(url_str,headers=self.headers) 9 html = lxml.html.fromstring(result.text) 10 data_country = html.xpath('//tr[@id="places_country__row"]/td[@class="w2p_fw"]/text()') 11 data_capital = html.xpath('//tr[@id="places_capital__row"]/td[@class="w2p_fw"]/text()') 12 data_area = html.xpath('//tr[@id="places_area__row"]/td[@class="w2p_fw"]/text()') 13 data_all = ['国家:'+data_country[0],'首都:'+data_capital[0],'国土面积:'+data_area[0]] 14 return data_all 15 # print(html_data) 16 17 def save_result(self,result): 18 print(type(result),result) 19 for r in result: 20 r = r + 'n' 21 with open('./country.txt','ab') as f: 22 f.write(r.encode('utf-8')) 23 # with open('./country.txt','ab') as f: 24 # f.writelines(result) 25 def run(self): 26 result = self.download_url(self.url_base) 27 self.save_result(result) 28 29 30 if __name__ == '__main__': 31 # c = CountrySpider('Bolivia-27') 32 # c.run() 33 s = CountrySoup('Bolivia-27') 34 s.download_url()
- 梯度下降法快速教程 | 第二章:冲量(momentum)的原理与Python实现
- Java 序列化与反序列化
- Percona Toolkit 常用工具使用介绍
- 深入浅出Redis-redis哨兵集群
- Spring-Blog:个人博客(一)-Mybatis 读写分离
- Spring-boot:5分钟整合Dubbo构建分布式服务
- MYSQL5.6优化器的一个新特性MMR
- Mysql聚集索引和非聚集索引
- Spring-Boot:6分钟掌握SpringBoot开发
- Zookeeper-5分钟快速掌握分布式应用程序协调服
- Mysql索引长度计算
- Spring-Boot:Spring Cloud构建微服务架构
- Python-WXPY实现微信监控报警
- MySQL InnoDB Lock(一)
- JavaScript 教程
- JavaScript 编辑工具
- JavaScript 与HTML
- JavaScript 与Java
- JavaScript 数据结构
- JavaScript 基本数据类型
- JavaScript 特殊数据类型
- JavaScript 运算符
- JavaScript typeof 运算符
- JavaScript 表达式
- JavaScript 类型转换
- JavaScript 基本语法
- JavaScript 注释
- Javascript 基本处理流程
- Javascript 选择结构
- Javascript if 语句
- Javascript if 语句的嵌套
- Javascript switch 语句
- Javascript 循环结构
- Javascript 循环结构实例
- Javascript 跳转语句
- Javascript 控制语句总结
- Javascript 函数介绍
- Javascript 函数的定义
- Javascript 函数调用
- Javascript 几种特殊的函数
- JavaScript 内置函数简介
- Javascript eval() 函数
- Javascript isFinite() 函数
- Javascript isNaN() 函数
- parseInt() 与 parseFloat()
- escape() 与 unescape()
- Javascript 字符串介绍
- Javascript length属性
- javascript 字符串函数
- Javascript 日期对象简介
- Javascript 日期对象用途
- Date 对象属性和方法
- Javascript 数组是什么
- Javascript 创建数组
- Javascript 数组赋值与取值
- Javascript 数组属性和方法
- 关于linux服务器hosts文件配置详解
- android中Glide实现加载图片保存至本地并加载回调监听
- CentOS8部署LNMP环境之编译安装mysql8.0.29的教程详解
- Android获取内置sdcard跟外置sdcard路径
- Android简易电话拨号器实例详解
- Linux 为特定的用户或用户组启用或禁用 SSH的方法
- Android 中IntentFilter的匹配规则实例详解
- Android VideoCache视频缓存的方法详解
- Android标题栏最右边添加按钮的实例
- Ubuntu18.04系统安装、配置Redis及phpredis扩展操作详解
- Android电话拨号器实例详解
- Android获取App内存使用情况的方法
- linux后台运行的几种方式(小结)
- Android 实现ListView的点击变色的实例
- Android播放音乐案例分享