查看原文
其他

如何用最小成本打造 AI 第二大脑?

王树义老师 玉树芝兰 2024-05-20

(注:本文为小报童精选文章。已订阅小报童或加入知识星球「玉树芝兰」用户请勿重复付费


对专业人士来说,这或许并不稀奇;但对普通用户而言,这将改变他使用笔记应用的习惯,甚至是记笔记的驱动力。



需求


自从大语言模型表现出「智能」,知识管理爱好者们就已经开始兴奋了。是啊,谁不想要个自己的个性化知识库呢?


从前记录各种笔记后,使用起来最大的问题,就是 —— 找不到。即便它们都在同一个笔记库里,你也不容易全部找到或者找准。为什么呢?因为你设想的关键词,和你当时记录时候使用的词汇,可能并不一致。


即便你使用的笔记库,可以帮你根据各种其他线索,把散落的笔记全都罗列出来,下一步的工作也是繁重的 —— 你得一一阅读这些笔记条目,然后从中提炼自己想要进一步消化和表达的内容。


如果笔记比较长,这就意味着繁重的阅读量。


这也是为什么,很多笔记记录技巧里都会要求你尽量把笔记「原子化」。原因之一,就是找寻起来的时候更为方便。至少,你看到 200 字,兴许还是愿意阅读的;而看到笔记长度是 2000 字,20000 字呢?


很多时候,你都会被「找不到」和「读不完」、「用不上」包围,导致尽管记得时候行云流水,用得时候却抓耳挠腮。久而久之,笔记的价值和意义降低,你也就没有动力去记录新的笔记了。


因此,毫不奇怪,大语言模型的出现让很多人重燃了希望 —— 对呀,只要把资料一股脑都扔给 AI ,它自动帮我们查找、分析,再用我们喜闻乐见的形式输出,不就完了吗?妙哉。


实际


这一年多以来,我见过了很多开发者和用户的尝试。


我给你介绍过的就有 Quivr 和 Elephas 等应用。你可以上传自己的资料给它,然后让它来帮你处理。



这些工具的问题在于,你的资料会交给他们,之后再由 OpenAI 进行处理。也就是说你必须同时信任工具开发者和 OpenAI 公司都不会滥用你的数据。这极大限制了应用场景 —— 对很多人来说,笔记都是很私密的东西。不管是个人日记,还是科研笔记,都不希望被别人存储、分析,甚至是分享。


所以,OpenAI 的 Custom GPTs 出来后,我很兴奋 —— 终于,你只需要信任 OpenAI 一家就够了 😂


我给你演示过如何把笔记作为 knowledge 上传,让你的 GPT 可以根据你的笔记,做出个性化的回答。



在这篇文章里,我也为你详细说明了,使用 GPTs 的方式构建一个 AI 应用,是多么的简单。


但是,上述方法都有一个问题——你需要上传笔记。这就带来了更新的不方便。我们的笔记库应该是随时更新内容的。每次都需要重新构建 knowledge 的话,显然会很繁琐。


如果,所有的记录只需要躺在你的笔记库里,随时更新。然后大语言模型能够帮你找、替你读、助你写,那该有多好啊!


有没有这样的应用呢?


有,例如 Notion AI 。只不过,它是收费的。而且你的 Notion 笔记存储在云端。今后任何一条你想要分析记录的笔记,都需要上传给这个应用。这使得你会越来越被绑定,未来想要切换会顾及「沉没成本」


还记得 Evernote 吗?


最近,我终于发现了一个非常靠谱的解决方案。


继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存