档案链接:

Archive 档案主体

2.10 爬虫已开源。

2.6 感谢lambda友邻,目前爬虫整理的3069篇豆瓣内容已经全部加入notion等待编目。

2.4

这个档案致力于收集那些个体的、片段的,甚至被删了也没人知道的叙述。目前主要是豆瓣,也希望可以延伸到微博、知乎、个人公众号等地方。我的目标是平时一点一滴地长期做,至少要到疫情结束。

我也在猫老师的团队里,觉得猫老师这种已经是带有研究性质的主题化、系统化的收集了,同时也有很多人在整理媒体报道。我这边重点就放在那些边缘的东西上,不是通过媒体而是通过个人的post传播的东西。档案这种本来就是收集的人越多越好,这样才能野火吹不尽春风吹又生。

如果你愿意加入,希望你:

  1. 最好用过notion,对它的结构和优势有一定了解,也知道如何用一键分享或者浏览器插件的方式存东西。同时知道如何快速截长图/存网页PDF/或者像我一样用zotero存html文件。一个办法不行就试另一个。
  2. 会用archive.org的wayback machine,可以恢复很多被删的东西
  3. 我在+0时区,所以跟我有时差的优先。
  4. 微博用户,知乎用户,朋友圈用户优先,因为这都是我的盲点。微博一个坏处是不如豆瓣方便,无法一键存到notion,但是截图等等方法也很多。微信可以先一键自动保存ocr过的截图到onenote,之后再整理,也有不少人整理过微信速存的方法。知乎我还不知道

主要做的事情:

  1. 每天刷手机的时候花一点注意力,用最方便的方式存东西进notion。可以不用刻意去“找”什么,主要关注豆友们整理的豆列、某些信息量大的小组。最好可以关注到知乎和微博。
  2. 使用爬虫(来自lambda友邻)导入条目,先转成excel再导入notion,然后添加附件,我也还在找更好的办法(不会编程,哎)。