Python scrapy 命令行传参 以及发送post请求payload参数

枫铃3年前 (2021-09-30)Python193
class SciencedirectspiderSpider(scrapy.Spider):
    name = 'sciencedirectspider'
    allowed_domains = ['sciencedirect.com']
    start_urls = ['https://www.sciencedirect.com/search?qs=kidney%20stone']
   # 在初始化这里进行
    def __init__(self, year='', search='', **kwargs):
        self.year = year
        self.search = search
        self.urls = 'https://www.sciencedirect.com/search?qs=' + search + '&years=' + year + '&sortBy=date'
        self.browser = webdriver.Chrome(chrome_options=chorme_options)
        super().__init__()

    def start_requests(self):
        # //*[@id="srp-pagination"]/li[1]/text()[4]

        url = "https://www.sciencedirect.com/search?qs=kidney%20stone"
        response = scrapy.Request(self.urls, callback=self.page, meta={'url': self.urls})
        yield response

执行命令:scrapy crawl sciencedirectspider --nolog -a "search=kidney stone" -a "year=2019"

注意一个-a一个参数

main执行语句:

from scrapy.cmdline import execute
# execute(['scrapy', 'crawl', 'sciencedirectspider','--nolog'])  # 不打印日志
execute(['scrapy', 'crawl', 'sciencedirectspider','--nolog','-a','search=kidney stone','-a','year=2019'])  # 不打印日志

post请求payload参数

'''
遇到问题没人解答?小编创建了一个Python学习交流QQ群:778463939
寻找有志同道合的小伙伴,互帮互助,群里还有不错的视频学习教程和PDF电子书!
'''
class IeeexplorespiderSpider(scrapy.Spider):
    name = 'ieeexplorespider'
    allowed_domains = ['ieeexplore.ieee.org']
    start_urls = ['http://ieeexplore.ieee.org/']
    headers = {
        "Content-Type": "application/json",
        "Host": "ieeexplore.ieee.org",
        "Origin": "https://ieeexplore.ieee.org",
        "User-Agent": "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/86.0.4240.75 Safari/537.36"
    }

    def start_requests(self):
        # url = "https://ieeexplore.ieee.org/search/searchresult.jsp?newsearch=true&queryText=Security%20Analytics"
        url = "https://ieeexplore.ieee.org/rest/search"
        data = {
            "highlight": True,
            "matchPubs": True,
            "newsearch": True,
            "pageNumber": "1",
            "queryText": "Security Analytics",
            "returnFacets": ["ALL"],
            "returnType": "SEARCH"
        }

        response = scrapy.Request(url=url, body=json.dumps(data), method='POST', callback=self.parse,
                                  headers=self.headers)

        yield response


    def parse(self, response):
        print(123)
        print(response.text)

相关文章

利用python同步windows和linux文件

写python脚本的初衷,每次在windows编辑完文件后,想同步到linux上去,只能够登录服务器,...

爬虫基本原理

爬虫基本原理 一、爬虫是什么? 百度百科和维基百科对网络爬虫的定义:简单来说爬虫就是抓取目标网站内容的工具,一般是根据定义的行...

Django 函数和方法的区别

函数和方法的区别 1、函数要手动传self,方法不用传 2、如果是一个函数,用类名去调用,如果是一个方法...

Django 知识补漏单例模式

单例模式:(说白了就是)创建一个类的实例。在 Python 中,我们可以用多种方法来实现单例模式&#x...

Django基础知识MTV

Django简介 Django是使用Python编写的一个开源Web框架。可以用它来快速搭建一个高性能的网站。 Django也是一个MVC框架。但是在Dj...

Python mysql 索引原理与慢查询优化

一 介绍 为何要有索引? 一般的应用系统,读写比例在10:1左右,而且插入操作和一般的更新操作很少出现性能问题,...

发表评论

访客

看不清,换一张

◎欢迎参与讨论,请在这里发表您的看法和观点。