zhihu-py3 本质上是个爬虫,但是为了表现的像个API,所以没有加上多线程等特性,不太适合大量数据抓取,勉强可用于客户端开发。运行在python3.x环境下,不支持py2。
功能:
登录知乎
获取问题相关数据
获取答案相关数据
获取用户相关数据
获取话题相关数据
获取收藏夹相关数据
获取专栏相关数据
获取专栏文章相关数据
执行用户动作(点赞,关注,感谢等)
安装:
已将项目发布到pypi,请使用下列命令安装
(sudo) pip(3) install (--upgrade) zhihu-py3
希望开启lxml的话请使用:
(sudo) pip(3) install (--upgrade) zhihu-py3[lxml]
例子:
登录
from zhihu import ZhihuClient ZhihuClient().create_cookies('cookies.json')
====== zhihu login ===== email: <your-email> password: <your-password> please check captcha.gif for captcha captcha: <captcha-code> ====== logging.... ===== login successfully cookies file created.
获取问题信息
from zhihu import ZhihuClient Cookies_File = 'cookies.json' client = ZhihuClient(Cookies_File) url = 'http://www.zhihu.com/question/24825703' question = client.question(url) print(question.title) print(question.answer_num) print(question.follower_num) print(question.topics) for answer in question.answers: print(answer.author.name, answer.upvote_num)
关系亲密的人之间要说「谢谢」吗? 627 4322 ['心理学', '恋爱', '社会', '礼仪', '亲密关系'] 龙晓航 50 小不点儿 198 芝士就是力量 89 欧阳忆希 425 ...
zhihu-python:获取知乎信息 注意: 本项目不再维护更新! zhihu-python 采用 Python2.7 编写,用来方便地获取知乎上各种内容的信息,并且可以方便地将答案备份导出为 txt 或 markdown 文件。由于知乎官方目前没有提供 api,所以有了此项目的存在。 使用 Python3 的类似项目可以参见:zhihu-py3 。使用 PHP 的类似项目可以参见:zhihu-
很坑的一道题。 预备知识点详解: https://zhuanlan.zhihu.com/p/51226097 先得到一个pyc,立马反编译, 第一个坑出现: (不知道是在线编译的一点失误还是出题的人故意而为) 没看太多前面的,看到后面的print(),就把它换成python3的语句, 打算把这个密码弄出来,然后发现一大堆报错, 折腾了数分钟后,才突然醒悟:这是py2写的。。。emmmm,好坑,判断
zhihu-python:获取知乎信息 注意: 本项目不再维护更新! zhihu-python 采用 Python2.7 编写,用来方便地获取知乎上各种内容的信息,并且可以方便地将答案备份导出为 txt 或 markdown 文件。由于知乎官方目前没有提供 api,所以有了此项目的存在。 使用 Python3 的类似项目可以参见:zhihu-py3 。使用 PHP 的类似项目可以参见:zhihu-
目录 安装步骤 1 安装mujoco 2 安装mujoco-py 3 安装mujoco-py可能出现的错误及解决办法 3.1 错误1:No such file or directory #include 3.2 错误2: cannot find -lGL: No such file or directory 3.3 错误3:明明已经按照上述安装步骤完成了mujoco_py的安装,测试代码运行也很正
Unofficial-Zhihu-API 简介 深度学习模型自动识别验证码,python爬虫库自动管理会话,通过简单易用的API,实现知乎数据的爬取 如果大家愿意向我推荐更多的功能请发送信息到txgyswh@163.com,我会添加更多的功能. 博客地址: 深度学习与爬虫实例教学 获取代码 可点击 下载 获取项目代码,并解压获得 Unofficial-Zhihu-API 文件夹 环境安装 建议使用
python官方下载地址:https://pypi.org/project/py-eureka-client/ 由于公司使用微服务架构,所以在部署服务时需要使用eureka,但整个项目是使用python开发的,所以学习了一波py-eureka-client模块,相较spring cloud下的java版eureka,代码更直观更好理解,适合我这种从没有接触过啥是微服务的新手,跟着官方提供的tuto
目录 普冉PY32系列(一) PY32F0系列32位Cortex M0+ MCU简介 普冉PY32系列(二) Ubuntu GCC Toolchain和VSCode开发环境 普冉PY32系列(三) PY32F002A资源实测 - 这个型号不简单 普冉PY32系列(四) PY32F002A/003/030的时钟设置 普冉PY32系列(五) 使用JLink RTT代替串口输出日志 普冉PY32系列(六
Python使用webpy制作简单的WEB服务器,支持数据库的增删改查,文件上传等功能 import web,json,sys urls=( '(/|/index.html)','index', '/wyw/dbQuery','dbQuery', '/wyw/upload', 'upload', '/(.*?)','normal' ) #获取第二个参数为数据库名称
Linux C++调用Python3 入门 准备 以下面的目录结构演示如何在Linux C/C++调用python3。 |--hello.py |--main.cpp |--CMakeLists.txt hello.py:python的脚本,里面有2个函数 main.cpp:c++函数 CMakeLists.txt:Cmake文件,生成makefile python脚本 示例python脚本he
基于Node.js的知乎API。提供简单干净的数据接口,从而方便构建数据爬虫做进一步的数据分析。
我正在尝试下载一个android应用程序列表到我的计算机上,为了这样做,我想使用GooglePlay API和Python。 我已经保存了库(github链接)并按照说明(将我的登录凭据和android ID写入文件)。 无论我输入了什么凭据,API都不起作用。然后我找到了这个链接,并跟踪了它。起初,我想在市场上搜索一个应用程序,运行以下命令效果良好,并返回如下输出: c:\python27\li
Krpano 可以方便快速的构建出全景图或全景视频。根据不同需求可制作不同模板,轻松拖动图片即可生成全景漫游。Krpano 生成的文件为前端静态文件,仅需静态服务器即可浏览。Krpano 拥有强大的插件系统,可以让 Krpano 支持评论,显示地图等。
VSCode-Zhihu 是基于 VSCode 的知乎客户端,提供包括阅读,搜索,创作,发布等一站式服务,内容加载速度比 Web 端更快,创新的 Markdown-Latex 混合语法让内容创作者更方便地插入代码块和数学公式,并一键发布至知乎平台。
知乎专栏APP是一款基于Android平台的知乎专栏APP,项目中已经包含了知乎专栏API分析和实例项目,希望能对大家有所帮助。
项目背景 从一开始是想编写一个单纯的知乎爬虫,并实现其持久化,并由此展开周期性爬取知乎问题及答案以及其用户资料信息,完善前后端分离归档分类,信息检索等项目模块。但是在实现过程中,我逐渐发现自己对信息爬取的技能知识掌握严重不足,萌发了搭建知乎信息中转持久化的数据流平台,并提供HTML+JSON和RabbitMQ等消息接口,从而使有兴趣的伙伴开发并使用其熟悉的语言环境,实现信息爬取,从而持久化到此项目