python实现Scrapy爬取网易新闻

2021-03-22 0 710

1. 新建项目

在命令行窗口下输入scrapy startproject scrapytest, 如下

python实现Scrapy爬取网易新闻

然后就自动创建了相应的文件,如下

python实现Scrapy爬取网易新闻

2. 修改itmes.py文件

打开scrapy框架自动创建的items.py文件,如下

# Define here the models for your scraped items
#
# See documentation in:
# https://docs.scrapy.org/en/latest/topics/items.html

import scrapy


class ScrapytestItem(scrapy.Item):
 # define the fields for your item here like:
 # name = scrapy.Field()
 pass

编写里面的代码,确定我要获取的信息,比如新闻标题,url,时间,来源,来源的url,新闻的内容等

class ScrapytestItem(scrapy.Item):
 # define the fields for your item here like:
 # name = scrapy.Field()

 title = scrapy.Field()
 timestamp = scrapy.Field()
 category = scrapy.Field()
 content = scrapy.Field()
 url = scrapy.Field()
 
 pass

3. 定义spider,创建一个爬虫模板

3.1 创建crawl爬虫模板

在命令行窗口下面 创建一个crawl爬虫模板(注意在文件的根目录下面,指令检查别输入错误,-t 表示使用后面的crawl模板),会在spider文件夹生成一个news163.py文件

scrapy genspider -t crawl codingce news.163.com

然后看一下这个‘crawl\’模板和一般的模板有什么区别,多了链接提取器还有一些爬虫规则,这样就有利于我们做一些深度信息的爬取

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule


class CodingceSpider(CrawlSpider):
 name = \'codingce\'
 allowed_domains = [\'163.com\']
 start_urls = [\'http://news.163.com/\']

 rules = (
  Rule(LinkExtractor(allow=r\'Items/\'), callback=\'parse_item\', follow=True),
 )

 def parse_item(self, response):
  item = {}
  #item[\'domain_id\'] = response.xpath(\'//input[@id=\"sid\"]/@value\').get()
  #item[\'name\'] = response.xpath(\'//div[@id=\"name\"]\').get()
  #item[\'description\'] = response.xpath(\'//div[@id=\"description\"]\').get()
  return item

3.2 补充知识:selectors选择器

支持xpath和css,xpath语法如下

/html/head/title

/html/head/title/text()

//td (深度提取的话就是两个/)

//div[@class=‘mine\']

3.3. 分析网页内容

在谷歌chrome浏览器下,打在网页新闻的网站,选择查看源代码,确认我们可以获取到itmes.py文件的内容(其实那里面的要获取的就是查看了网页源代码之后确定可以获取的)

确认标题、时间、url、来源url和内容可以通过检查和标签对应上,比如正文部分

主体

python实现Scrapy爬取网易新闻

标题

python实现Scrapy爬取网易新闻

时间

python实现Scrapy爬取网易新闻

分类

python实现Scrapy爬取网易新闻

4. 修改spider下创建的爬虫文件

4.1 导入包

打开创建的爬虫模板,进行代码的编写,除了导入系统自动创建的三个库,我们还需要导入news.items(这里就涉及到了包的概念了,最开始说的?init?.py文件存在说明这个文件夹就是一个包可以直接导入,不需要安装)

注意:使用的类ExampleSpider一定要继承自CrawlSpider,因为最开始我们创建的就是一个‘crawl\'的爬虫模板,对应上

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from scrapytest.items import ScrapytestItem


class CodingceSpider(CrawlSpider):
 name = \'codingce\'
 allowed_domains = [\'163.com\']

 start_urls = [\'http://news.163.com/\']

 rules = (
  Rule(LinkExtractor(allow=r\'.*\\.163\\.com/\\d{2}/\\d{4}/\\d{2}/.*\\.html\'), callback=\'parse\', follow=True),
 )

 def parse(self, response):
  item = {}
  content = \'<br>\'.join(response.css(\'.post_content p::text\').getall())
  if len(content) < 100:
   return

  return item

Rule(LinkExtractor(allow=r\’..163.com/\\d{2}/\\d{4}/\\d{2}/..html\’), callback=‘parse\’, follow=True), 其中第一个allow里面是书写正则表达式的(也是我们核心要输入的内容),第二个是回调函数,第三个表示是否允许深入

最终代码

from datetime import datetime
import re

import scrapy
from scrapy.linkextractors import LinkExtractor
from scrapy.spiders import CrawlSpider, Rule
from scrapytest.items import ScrapytestItem


class CodingceSpider(CrawlSpider):
 name = \'codingce\'
 allowed_domains = [\'163.com\']

 start_urls = [\'http://news.163.com/\']

 rules = (
  Rule(LinkExtractor(allow=r\'.*\\.163\\.com/\\d{2}/\\d{4}/\\d{2}/.*\\.html\'), callback=\'parse\', follow=True),
 )

 def parse(self, response):
  item = {}
  content = \'<br>\'.join(response.css(\'.post_content p::text\').getall())
  if len(content) < 100:
   return

  title = response.css(\'h1::text\').get()

  category = response.css(\'.post_crumb a::text\').getall()[-1]
  print(category, \"=======category\")
  time_text = response.css(\'.post_info::text\').get()
  timestamp_text = re.search(r\'\\d{4}-\\d{2}-\\d{2} \\d{2}:\\d{2}:\\d{2}\', time_text).group()
  timestamp = datetime.fromisoformat(timestamp_text)
  print(title, \"=========title\")
  print(content, \"===============content\")
  print(timestamp, \"==============timestamp\")
  print(response.url)
  return item

python实现Scrapy爬取网易新闻

到此这篇关于python实现Scrapy爬取网易新闻的文章就介绍到这了,更多相关python Scrapy爬取网易新闻内容请搜索自学编程网以前的文章或继续浏览下面的相关文章希望大家以后多多支持自学编程网!

遇见资源网 Python python实现Scrapy爬取网易新闻 http://www.ox520.com/28373.html

常见问题

相关文章

发表评论
暂无评论
官方客服团队

为您解决烦忧 - 24小时在线 专业服务