使用虚拟环境,搭建python3+scrapy

时间:2022-05-08
本文章向大家介绍使用虚拟环境,搭建python3+scrapy,主要内容包括使用虚拟环境、scrapy的搭建、创建scrapy、目录介绍、genspider 命令、基本概念、基础应用、原理机制和需要注意的事项等,并结合实例形式分析了其使用技巧,希望通过本文能帮助到大家理解应用这部分内容。

使用虚拟环境

查看当前的虚拟环境 wokon

workon

选择自己用的 wokon xxx

workon article_spider

scrapy的搭建

在安装好scrapy的前前提下进行

创建scrapy

scrapy startproject ArticleSpider

scrapy创建

创建完成后

目录介绍

目录结构

scrapy大量的借鉴了django的设计理念

scrapy.cfg 配置文件 类似django settings.py 配置文件 工程,module(路径) pipelines.py 数据存贮 middlewares.py items.py from 定义数据保存的一种格式 比django简单 spiders 写爬虫的目录,默认是空的

genspider 命令

scrapy genspider jobbole blog.jobbole.com 执行成功后,会在spiders目录下生成jobbole.py文件

import scrapy


class JobboleSpider(scrapy.Spider):
    name = 'jobbole'
    allowed_domains = ['blog.jobbole.com']
    start_urls = ['http://blog.jobbole.com/']

    def parse(self, response):
        pass

修改settings.py中的 ROBOTSTXT_OBEY = False