天涯论坛

 找回密码
 立即注册
搜索
查看: 61|回复: 3

python爬虫入门,10分钟就够了,这可能是我见过最简单的基本教育

[复制链接]

2966

主题

144

回帖

9912万

积分

论坛元老

Rank: 8Rank: 8

积分
99129182
发表于 2024-8-17 12:02:42 | 显示全部楼层 |阅读模式

1、基本入门

1.1什么是爬虫

爬虫(spider,又网络爬虫),指的是向网站/网络发起请求,获取资源后分析并提取有用数据的程序。

从技术层面来讲便是 经过程序模拟浏览器请求站点的行径,把站点返回的HTML代码/JSON数据/二进制数据(照片、视频) 爬到本地,从而提取自己必须的数据,存放起来运用

想要学习Python又缺少系统化学习方法伴侣能够关注并私信“01”免费领取系统化的Python学习资料...愿大众都能在编程这条路,越走越远。

1.2爬虫基本流程

用户获取网络数据的方式:

方式1:浏览器提交请求--->下载网页代码--->解析成页面

方式2:模拟浏览器发送请求(获取网页代码)->提取有用的数据->存放于数据库或文件中

爬虫要做的便是方式2。

1

发起请求

运用http库向目的站点发起请求,即发送一个Request

Request包括:请求头、请求体等

Request模块缺陷:不可执行JS 和CSS 代码

2

获取响应内容

倘若服务器能正常响应,则会得到一个Response

Response包括:html,json,照片,视频等

3

解析内容

解析html数据:正则表达式(RE模块)、xpath(重点运用)、beautiful soup、css

解析json数据:json模块

解析二进制数据:以wb的方式写入文件

4

保留数据

数据库(MySQL,Mongdb、Redis)或 文件的形式。

1.3http协议 请求与响应

http协议

Request:用户将自己的信息经过浏览器(socket client)发送给服务器(socket server)

Response:服务器接收请求,分析用户发来的请求信息,而后返回数据(返回的数据中可能包括其他链接,如:照片,js,css等)

ps:浏览器在接收Response后,会解析其内容来表示给用户,而爬虫程序在模拟浏览器发送请求而后接收Response后,是要提取其中的有用数据。

1.3.1

request

(1) 请求方式

平常的请求方式:GET / POST

(2)请求的URL

url全世界统一资源定位符,用来定义互联网上一个独一的资源 例如:一张照片、一个文件、一段视频都能够用url唯一确定

(3)请求头

User-agent:请求头中倘若user-agent客户端配置,服务端可能将你当做一个违法用户host;

cookies:cookie用来保留登录信息

重视通常做爬虫都会加上请求头。

请求头必须重视的参数:

Referrer:拜访源至哪里来(有些大型网站,会经过Referrer 做防盗链策略;所有爬虫重视模拟)User-Agent:拜访的浏览器(要加上否则会被当成爬虫程序) cookie:请求头重视携带

(4)请求体

请求体 倘若是get方式,请求体内容 (get请求的请求体放在 url后面参数中,直接能看到) 倘若是post方式,请求体是format data

ps:1、登录窗口,文件上传等,信息都会被附加到请求身体 2、登录,输入错误的用户名秘码而后提交,就能够看到post,正确登录后页面一般没法捉捕到post

1.3.2

response

(1)响应状态码

200:表率成功301:表率404:文件不存在403:无权限拜访502:服务器错误

(2)response header

响应头必须重视的参数:Set-Cookie:BDSVRTM=0; path=/:可能有多个,是来告诉浏览器,把cookie保留下来

(3)preview便是网页源代码

json数据

如网页html,照片

二进制数据等

02

2、基本模块

2.1requests

requests是python实现的简单易用的HTTP库,是由于urllib的升级而来。

开源位置

https://github.com/kennethreitz/requests

中文API:

http://docs.python-requests.org/zh_CN/latest/index.html

2.2re 正则表达式

在 Python 中运用内置的 re 模块来运用正则表达式。

缺点:处理数据不稳定、工作量大

2.3XPath

Xpath(XML Path Language) 是一门在 XML 文档中查询信息的语言,可用来在 XML 文档中对元素和属性进行遍历。

在python中重点运用 lxml 库来进行xpath获取(在框架中不运用lxml,框架内直接运用xpath就可

lxml 是 一个HTML/XML的解析器,重点的功能是怎样解析和提取 HTML/XML 数据。

lxml和正则同样是用 C 实现的,是一款高性能的 Python HTML/XML 解析器,咱们能够利用之前学习的XPath语法,来快速的定位特定元素以及节点信息。

2.4BeautifulSoup

和 lxml 同样,Beautiful Soup 是一个HTML/XML的解析器,重点的功能怎样解析和提取 HTML/XML 数据。

运用BeautifulSoup必须导入bs4库

缺点:相对正则和xpath处理速度慢

优点:运用简单

2.5Json

JSON(JavaScript Object Notation) 是一种轻量级的数据交换格式,它使得人们很容易的进行阅读和编写。同期方便了设备进行解析和生成。适用于进行数据交互的场景,例如网站前台与后台之间的数据交互。

在python中重点运用 json 模块来处理 json数据。Json解析网站:

https://www.sojson.com/simple_json.html

2.6threading

运用threading模块创建线程,直接从threading.Thread继承,而后重写__init__办法和run办法

03

3、办法实例

3.1get办法实例

demo_get.py

3.2post办法实例

demo_post.py

3.3添加代理

demo_proxies.py

3.4获取ajax类数据实例

demo_ajax.py

3.5运用多线程实例

demo_thread.py

04

4、爬虫框架

4.1Srcapy框架

Scrapy是用纯Python实现一个为了爬取网站数据、提取结构性数据而编写的应用框架,用途非常广泛。Scrapy 运用了 Twisted[twɪstɪd](其重点对手是Tornado)异步网络框架来处理网络通讯,能够加快咱们的下载速度,不消自己去实现异步框架,并且包括各样中间件接口,能够灵活的完成各样需求。

4.2Scrapy架构图

4.3Scrapy重点组件

Scrapy Engine(引擎): 负责Spider、ItemPipeline、Downloader、Scheduler中间的通讯,信号、数据传递等。Scheduler(调度器): 它负责接受引擎发送过来的Request请求,并根据必定的方式进行整理摆列,入队,当引擎必须时,交还给引擎。Downloader(下载器):负责下载Scrapy Engine(引擎)发送的所有Requests请求,并将其获取到的Responses交还给Scrapy Engine(引擎),由引擎交给Spider来处理,Spider(爬虫):它负责处理所有Responses,从中分析提取数据,获取Item字段必须的数据,并将必须跟进的URL提交给引擎,再次进入Scheduler(调度器),Item Pipeline(管道):它负责处理Spider中获取到的Item,并进行进行后期处理(仔细分析、过滤、存储等)的地区.Downloader Middlewares(下载中间件):你能够当作是一个能够自定义扩展下载功能的组件。Spider Middlewares(Spider中间件):你能够理解为是一个能够自定扩展和操作引擎和Spider中间通信的功能组件(例如进入Spider的Responses;和从Spider出去的Requests)

4.4Scrapy的运作流程

引擎:Hi!Spider, 你要处理哪一个网站?Spider:老大要我处理xxxx.com。引擎:你把第1必须处理的URL给我吧。Spider:给你,第1个URL是xxxxxxx.com。引擎:Hi!调度器,我这有request请求你帮我排序入队一下。调度器:好的,正在处理你等一下。引擎:Hi!调度器,把你处理好的request请求给我。调度器:给你,这是我处理好的request引擎:Hi!下载器,你根据老大的下载中间件的设置帮我下载一下这个request请求下载器:好的!给你,这是下载好的东西。(倘若失败:sorry,这个request下载失败了。而后引擎告诉调度器,这个request下载失败了,你记录一下,咱们待会儿再下载)引擎:Hi!Spider,这是下载好的东西,并且已然根据老大的下载中间件处理过了,你自己处理一下(重视!这儿responses默认是交给def parse()这个函数处理的)Spider:(处理完毕数据之后针对必须跟进的URL),Hi!引擎,我这儿有两个结果,这个是我必须跟进的URL,还有这个是我获取到的Item数据。引擎:Hi !管道 我这儿有个item你帮我处理一下!调度器!这是必须跟进URL你帮我处理下。而后从第四步起始循环,直到获取完老大必须所有信息。管道``调度器:好的,此刻就做!

4.5制作Scrapy爬虫4步曲

1新建爬虫项目scrapy startproject mySpider2知道目的 (编写items.py)打开mySpider目录下的items.py3制作爬虫 (spiders/xxspider.py)scrapy genspider gushi365 "gushi365.com"4存储内容 (pipelines.py)设计管道存储爬取内容

05

5、常用工具

5.1fidder

fidder是一款抓包工具,重点用于手机抓包。

5.2XPath Helper

xpath helper插件是一款免费的chrome爬虫网页解析工具。能够帮忙用户处理在获取xpath路径时没法正常定位等问题。

谷歌浏览器插件xpath helper 的安装和运用

https://jingyan.baidu.com/article/1e5468f94694ac484861b77d.html

06

6、分布式爬虫

6.1scrapy-redis

Scrapy-redis是为了更方便地实现Scrapy分布式爬取,而供给有些以redis为基本的组件(pip install scrapy-redis)

github网站:https://github.com/rolando/scrapy-redis

6.2分布式策略

Master端(核心服务器) :搭建一个Redis数据库,不负责爬取,只负责url指纹判重、Request的分配,以及数据的存储Slaver端(爬虫程序执行端) :负责执行爬虫程序,运行过程中提交新的Request给Master




上一篇:2024年短期出国访学有道理吗?
下一篇:1天学会用Python写爬虫
回复

使用道具 举报

3089

主题

3万

回帖

9909万

积分

论坛元老

Rank: 8Rank: 8

积分
99098770
发表于 2024-9-25 18:20:48 | 显示全部楼层
谢谢、感谢、感恩、辛苦了、有你真好等。
回复

使用道具 举报

3061

主题

3万

回帖

9913万

积分

论坛元老

Rank: 8Rank: 8

积分
99139052
发表于 2024-10-6 09:31:29 | 显示全部楼层
论坛的成功是建立在我们诚恳、务实、高效、创新和团结合作基础上,我们要把这种精神传递下去。
回复

使用道具 举报

3089

主题

3万

回帖

9909万

积分

论坛元老

Rank: 8Rank: 8

积分
99098770
发表于 2024-11-1 08:09:18 | 显示全部楼层
一看到楼主的气势,我就觉得楼主同在社区里灌水。
回复

使用道具 举报

您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

站点统计|Archiver|手机版|小黑屋|天涯论坛 ( 非经营性网站 )|网站地图

GMT+8, 2024-11-23 05:10 , Processed in 0.127659 second(s), 21 queries .

Powered by Discuz! X3.4

Copyright © 2001-2023, Tencent Cloud.