好久没更新,没赶在2018年的第一天内推送,出师不利
去年(手动滑稽)某日想爬取知乎特定话题下的全部回答数据,于是翻出以前写的知乎话题爬虫跑运行了下,没想到遇到一个一直没能解决的bug,貌似是抓包到的API返回的JSON数据格式有问题,于是遭遇爬知乎的滑铁卢。幸而想起有个叫“Zhihu-OAuth”的库,于是了解了下并上手一用,还蛮方便的,于是介绍给想爬取知乎数据的小伙伴们。
这是知乎用户“7sDream”开源的Python库,github地址为:https://github.com/7sDream/zhihu-oauth
Zhihu-OAuth 文档见:http://zhihu-oauth.readthedocs.io/zh_CN/latest/
其中能爬取的数据非常全、非常丰富:用户动态、答案、文章、收藏夹、专栏、评论、首页信息流、知乎live、特定用户的信息、分享、问题、话题、私信会话和私信信息等等全部囊括在内。
使用的方法也很简单,先是安装库,zhihu_oauth 支持 Python 2 和 Python 3:
pip install zhihu-oauth
接下来以爬取知乎特定话题下的全部回答为例,简单介绍下该库用法。以下为登录知乎,并保存token的代码。
其中账号和密码需要每个人自己输入。账号为邮箱或手机号(前缀" 86")。
后续就可以直接加载token来登录知乎。本回爬取的知乎话题为“长大是什么感觉?”
链接为:https://www.zhihu.com/question/27987434
具体代码如下,其中answers为生成器,需要用for循环来提取每个回答的数据,具体都能提取那些数据可以参见:Answer类的文档说明。包含了几乎所有可以提取的数据。
Answer类:http://zhihu-oauth.readthedocs.io/zh_CN/latest/for-user/zhcls/answer.html
代码里注释掉了答主的诸多信息,因为发现提取时很容易被知乎反爬限制,而显示IP或账号异常,从而需要输入验证码。
最后保存数据用的是pandas库,全文代码也是在jupyter notebook里一步步运行的。此处因人而异,其他存储方式亦可。
本文简单介绍下Zhihu-OAuth库,因为上手还蛮简单的,很推荐想爬知乎数据而不得的小伙伴尝试下。后续看情况会更详细的讲下其他用法,看大家觉得需要吗?