前阵子挺热衷玩 QQ 机器人,经常会找一些第三方的 API 对接数据,实现简单功能,乐呵乐呵群友

一个比较有代表性的例子,就是“每天 60 秒读懂世界”。

十来条简短的每日新闻和一条人生微语,功能虽简单,但内容却挺有意义,质量也还不错,特别是对于我们这种从来不看新闻的来说

但是奈何很多的网站的 API 服务大都不稳定,间接性的挂或者直接跑路,于是我就去 Google 了一圈,最后发现绝大多数的接口数据来源都指向这个每天 60 秒读懂世界的知乎专栏。

于是,一顿操作下来(说白了就一个简单的 JSON 请求,也没有任何加密、跨域、请求头限制等,一按 F12 就出来了),找到了他的专栏数据接口:

1
https://www.zhihu.com/api/v4/columns/c_1261258401923026944/items

URL 可选参数:

  • limit 返回的数据条数
  • offset 分页参数

搞到了数据之后,为了快速创建一个高性能、低延迟同时具备缓存的 API,我选择了 deno,并使用 Deno Deploy 进行部署。

这里设置了每次请求只返回我们需要的当天的一条数据。此外,还设置了缓存,也就是说,每天只会向知乎发送唯一一次请求,从第二次开始,直接使用缓存,加快了 API 响应速度的同时,还减缓知乎服务器的压力。

成品 API 地址(可以直接拿去用哦~):

API 源码:60s - GitHub,欢迎 star。