2024 批量下载知乎回答/文章/想法/专栏/视频/收藏夹,导出txt, excel 和 pdf
之前分享过文章2024批量下载知乎回答文章想法专栏收藏夹,公众号文章内容图片封面视频音频,微博内容图片视频评论转发数据,导出excel和pdf,今天再整理分享下知乎回答/文章/想法/专栏/视频/收藏夹下载
下载所有知乎回答以渤海小吏的号为例:

下载导出的excel包含所有知乎回答的问题标题和链接。

下载的所有回答html内容,文件名为回答日期加标题。

接着批量将html转换pdf 。

再将所有pdf合成一个pdf文件,大小106MB,效果见网盘https://pan.quark.cn/s/8522433ad346

每个回答都有原知乎回答链接。

所有知乎回答的文字导出text ,大小只有2MB。

顺便我还下载了渤海小吏这个公众号的所有文章,包含留言2024批量下载公众号文章内容/话题/图片/封面/视频/音频,导出excel和pdf,文章数据包含阅读数/点赞数/分享数/留言数

下载所有知乎文章以半佛仙人的号为例 :

下载导出的excel数据包含知乎文章标题,链接,评论数和赞同数。

下载的所有文章html内容,文件名为回答日期加标题。

接着批量将html转换pdf。

再将所有pdf合成一个pdf文件,大小57MB,效果见网盘https://pan.quark.cn/s/8522433ad346 ,每篇文章都有原知乎文章链接再次更新,2024 批量下载知乎回答/文章/想法/专栏/视频导出 excel 和 pdf

每篇文章都有原知乎文章链接。

所有知乎文章的文字导出text ,大小只有2MB。

顺便我还下载了半佛仙人这个公众号的所有文章,包含留言。

最近我又开发了知乎收藏夹批量下载工具,软件下载地址发布到我的知识星球 https://t.zsxq.com/qWLTU

打开工具输入知乎收藏夹地址https://www.zhihu.com/collection/40047806, 页数和cookie ,如何获取cookie见之前文章总有人问我 cookie 到底是什么?

默认下载500篇回答,视频,文章,如果要继续下,修改页数再次下载。

下载的html文件在zhihu目录。

下载的视频在video目录。

下载完成后合并转换生成的pdf文件大小200MB ,因为依赖wkhtmltopdf ,需要将wkhtmltopdf.exe加入环境变量。

点击左侧标题书签可以跳转到对应内容。

如果转换pdf失败可以用我开发的html2pdf批量转换html为pdf。

再用我开发的pdf_merge将pdf文件合并成一个文件。

顺便导出收藏夹excel数据包含类型(回答,文章,视频),标题,链接,创建时间,更新时间,简介,评论数,赞同数,页数等。

除了知乎收藏夹批量下载还有我开发的知乎专栏批量下载工具https://pan.quark.cn/s/a26076946612 ,输入专栏链接和cookie就可以下载了。

下载专栏文章回答html文件:

合成的pdf文件,大小10MB。


顺便导出专栏excel数据包含类型,标题,链接,创建时间,更新时间,简介,评论数,赞同数等。

最后是之前发布的知乎问题回答下载工具 https://t.zsxq.com/e7cPX

输入知乎问题id和cookie:

导出的 excel数据包含回答链接,回答者主页,回答者昵称,回答内容,回答发布时间,回答更新时间等:

2024批量下载公众号文章内容/话题/图片/封面/视频/音频,导出excel和pdf,文章数据包含阅读数/点赞数/分享数/留言数
2024 批量下载知乎回答/文章/想法/专栏/视频/收藏夹,导出 excel 和 pdf
2024批量下载知乎回答文章想法专栏收藏夹,公众号文章内容图片封面视频音频,微博内容图片视频评论转发数据,导出excel和pdf
2024 批量下载微博内容/图片/视频/评论/转发数据,导出excel和pdf
2024 批量下载知乎回答/文章/想法/专栏/视频/收藏夹,微博内容/图片/视频/评论/转发数据,导出 excel 和 pdf