首页 >> 大全

小红书很难爬?最新爬取方法教给你啦~

2023-08-18 大全 30 作者:考证青年

点击上方“Python爬虫与数据挖掘”,进行关注回复“书籍”即可获赠Python从入门到进阶共10本电子书
今日鸡汤莫学武陵人,暂游桃源里。

Python进击者
第184篇原创文章

前言

大家好,我是Kuls。

之前写的那篇App抓包软件的配置说过,超过30在看,马上更下一篇。有读者问我怎么爬App,我手把手教了他(多图警告)

所以加班加点给大家写了今天这篇文章。

本文将会带着大家完完整整的爬取小红书的全过程

小红书

需要做的前提工作就是装配好

具体的配置过程,我建议大家参照崔大写的来进行安装

首先,我们打开之前大家配置好的

我们来简单抓包一下小红书小程序(注意这里是小程序,不是app)

不选择app的原因是,小红书的App有点难度,参照网上的一些思路,还是选择了小程序

1、通过抓包对小程序进行分析

_小明爬4层小红爬5层_爬虫的基本爬取

我们打开小红书小程序,随意搜索一个关键词

_小明爬4层小红爬5层_爬虫的基本爬取

按照我的路径,你可以发现列表中的数据已经被我们抓到了。

但是你以为这就结束了?

不不不

爬虫的基本爬取__小明爬4层小红爬5层

小明爬4层小红爬5层__爬虫的基本爬取

通过这次抓包,我们知道了可以通过这个api接口获取到数据

但是当我们把爬虫都写好时,我们会发现里面有两个很难处理的参数

""和"x-sign"

这两个玩意,一直在变化,而且不知道从何获取。

所以

2、使用来进行抓包

其实通过抓包,整体的抓取思路我们已经清晰

就是获取到""和"x-sign"两个参数,然后对url进行get请求

这里用到的,其实和差不多,都是抓包工具

但是能够跟一起执行

这就舒服很多啊

简单给大家举例子

 def request(flow):print(flow.request.headers)

在中提供这样的方法给我们,我们可以通过对象截取到 中的url、、host、、port、等属性

这不正是我们想要的吗?

我们直接截取""和"x-sign" 这两个参数

然后往里填入

整个就完成了。

爬虫的基本爬取_小明爬4层小红爬5层_

以上是我们整个的爬取思路,下面给大家讲解一下代码怎么写

其实代码写起来并不难

首先,我们必须截取到搜索api的流,这样我们才能够对其进行获取信息

if 'https://www.xiaohongshu.com/fe_api/burdock/weixin/v2/search/notes' in flow.request.url:

我们通过判断flow的里面是否存在搜索api的url

来确定我们需要抓取的请求

authorization=re.findall("authorization',.*?'(.*?)'\)",str(flow.request.headers))[0]
x_sign=re.findall("x-sign',.*?'(.*?)'\)",str(flow.request.headers))[0]
url=flow.request.url

通过上述代码,我们就能够把最关键的三个参数拿到手了,接下来就是一些普通的解析json了。

最终,我们可以拿到自己想要的数据了

小明爬4层小红爬5层__爬虫的基本爬取

如果你想要获取到单篇数据,可以拿到文章id后抓取

"" + str(id)

_爬虫的基本爬取_小明爬4层小红爬5层

这个页面里需要带有,你随意访问一个网站都可以拿到,目前看来好像是固定的

最后,可以把数据放入csv

_爬虫的基本爬取_小明爬4层小红爬5层

总结

其实小红书爬虫的抓取并不是特别的难,关键在于思路以及使用的方法是什么。

本期的文章就到这里了,如果本期在看超过40,马上出下一篇干货!

我们下期见~

关于我们

最火推荐

小编推荐

联系我们


版权声明:本站内容由互联网用户自发贡献,该文观点仅代表作者本人。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如发现本站有涉嫌抄袭侵权/违法违规的内容, 请发送邮件至 88@qq.com 举报,一经查实,本站将立刻删除。备案号:桂ICP备2021009421号
Powered By Z-BlogPHP.
复制成功
微信号:
我知道了