关于信息收集和加工的思考

2022-12-01 11:44:40 浏览数 (1)

随着互联网的发展,获取信息的手段越来越多,我们对手机的依赖程度超乎想象,每天忙碌着,大脑接收着丰富的信息,感觉每天都学习到了很多的知识。

但我们对学习经常会有些误区:

1、书买了摆在书架上,看看书架上摆的书,好像就看了书似的;

2、把看过的内容当作已经学会了;

3、发现好的内容随手就收藏了,收藏了就感觉自己掌握了。

信息的获取并不代表这知识的掌握,从获取到掌握大概有这么些步骤:探索 ➔ 收集 ➔ 思考 ➔ 创作 ➔ 分享 ➔ 讨论。

这个步骤和 DIKW 模型比较吻合,DIKW 模型是一个可以很好的帮助我们理解数据(Data)、信息(Information)、知识(Knowledge)和智慧(Wisdom)之间的关系的模型,可以参考下面这个图:

简单说就是从输入到输出,在这个过程中产生的价值就会留存在我们大脑中,让我们的认知得到提升,认知不断提升,人就变得智慧了,我大致是这么理解的。

这些步骤如果纯手动,效率比较低,所以需要一些工具的辅助,目前,我也只是零散地在使用一些工具,还没有形成完整的一套工作流,比如:

flomo

  • 使用 flomo 进行灵感的收集;
  • 给 flomo 微信号发送微信语音可以转文字到 flomo ;
  • 微信读书和得到电子书的划线和评论可以通过 flomo 的 API 进行同步;
  • flomo 的回顾功能可以让记录的内容不会落灰。

logseq

  • logseq 目前也在重度使用,没有输入的压力,打开就是日志界面,只管输入就行,不用考虑文件夹,不用思考文件要放到哪里;
  • 强大的 query 功能;
  • 标签和双中括号创建页面并建立了双向链接,让随时可以找到想要的内容;
  • 配合 agenda 插件,就有了一个好用的日历系统;
  • pdf 文件的阅读器,对内容随时标注。

Obsidian

  • 最终输出时使用 Obsidian ;
  • 输出内容时,从 flomo 和 logseq 找到相关内容,提取出来放到 Obsidian 中,经过整理最终成文;
  • 使用 git 插件使用 github 作为备份。

对于工具的使用,有两种观点:

1、all-in-one :用一个软件实现所有的功能,充分挖掘每一个细节,但一个产品在易用性和功能完备性上做到两全是非常困难的;

2、组合使用:使用多个软件搭建出一个体系,每个软件使用其最擅长的部分。

我更喜欢第二种方式,因为目前我还没发现大而全又特别好用的产品,如果 all-in-one ,就必然会牺牲掉某些功能的体验,会采用一些变通的方式达到目的。

使用组合的方式,就需要找一堆适合自己的软件,然后形成流程闭环。不找不知道,一找吓一跳:

inoreader、rsshub、flomo、Obsidian、logseq、readwise、readwise reader 、IFTTT、instapaper、devonthink3、heptabase、cubox、icubox、hazel、Matter、简悦,收趣、notion、我来、Pinbox、feed43、Hypothesis、Roam Search、Typora、Pocket、Feedly、greasyfork 等等。

上面有笔记类的、rss 订阅类的、剪藏类的,而且很多工具功能上有很多重叠,比如:flomo 可以回顾、logseq 也可以回顾、readwise 也行。虽说差生工具多,但可千万不要成为一个工具党。具体怎样来使用,我还在摸索之中,但遵循一个原则,使用流程不要太复杂,互相之间的配合最好能自动化。

太复杂,就会带来额外的使用成本,慢慢地就会放弃使用,就像微信的收藏,需要打开微信 ➔ 我 ➔ 收藏,对我来说还是太麻烦,所以使用频率很低。反之,我家里的很多健身工具,唯独安装在两个卧室墙壁之间的单杠使用频率最高,就是因为方便。

工具在发挥自己的优势的情况下,能少用就少用,这需要根据自己的实际情况,找到一个合适的平衡点,对我来说,可以满足下面这些诉求就可以:

1、除了微信读书、得到电子书之外,信息的输入还有电子书、公众号、小宇宙等,遇到有感兴趣的内容需要快速收集;

2、在即刻、豆瓣、推上关注了一些大佬,想了解动态,每个平台去刷一遍太费时间;

3、还有一些中英文的技术网站、newsletter、资讯需要订阅,这些内容有些需要进一步深度阅读;

4、平时在浏览知乎、豆瓣后者使用搜索引擎的时候,发现有价值的内容需要能快速记录下来;

5、收集的信息需要进行二次处理,用自己的语言进行整理,建立联系,也就是卡片笔记法中的知识卡片,这也是我目前缺少的一个步骤;

6、输出的时候,提取相关的知识卡片进行组织整理,相比现在的使用收集的信息进行整理,效率要高得多。

总结下就是:信息收集 ➔ 信息加工 ➔ 输出分享

  • 信息收集:来源有很多,有网页或内容片段的剪藏、有 rss 的订阅、有播客、有电子书纸质书等,可能会使用不同的工具,但最后能自动汇聚到一个地方;
  • 信息加工:我认为这是非常重要的一个环节,是思考复盘的过程,最好是回顾和二次处理能在一个工具里;
  • 输出分享:如果上面两个步骤做得比较好,输出就很轻松和容易了。

想象着,这套工作流如果打通了,效率是不是能提升不少呢?

有点期待。

0 人点赞