Hoarder:当轻笔记和书签管理遇见AI

在这个信息爆炸的时代,我们每天都被各种信息轰炸,像是链接啦、笔记啦、图片还有 PDF 文件啥的,搞得头晕眼花的。整理和管理这些信息是真头疼。然后今天就发现了 Hoarder ,也许是一个轻笔记、书签、read it later 的高效存储、整理方案。当然它还是自托管的。

本文记录一下部署 Hoader 的经历和初步的使用体验。

What is Hoader

Hoarder
The Bookmark Everything app. Hoard links, notes, and images and they will get automatically tagged AI.

Hoarder 是一个自托管的书签管理应用程序,它支持保存链接、笔记和图片,并且具备AI自动标注和全文搜索的功能。此应用程序可以自动抓取链接的标题、描述和图片,允许用户将书签排序到列表中,并提供对所有存储内容的全文字搜索功能。Hoarder 还集成了如ChatGPT等AI技术来实现自动打标签的功能,并且支持使用本地模型(例如通过ollama)。

重点就是自托管+本地LLM。

  1. 对比传统的商业软件(如 Evernote, Pocket)
    1. 自托管:跟那些需要把数据交给别人的商业软件不一样,Hoarder 让你可以自己存数据。这意味着你的书签和笔记都在你自己控制的地方,不用担心别人看到、删掉、丢掉。
    2. AI 自动标签:Hoarder 还有 AI 功能,可以自动给你的内容打标签。不管是图片还是网页上的文字,它都能理解并帮你整理好。
  2. 对比最新的类似 Raindrop 这样有 AI 功能的 App
    1. 还得是自托管:虽然像 Raindrop 这样的应用也有不错的功能和 AI 技术,但它们的数据都存放在他们的服务器上。Hoarder 可以让你把数据存在自己选的地方,更安全。
  3. 相比其他自托管笔记软件
    1. 轻量级设计:相比那些复杂难用的自托管应用,Hoarder 的输入非常简单,就像 Google Keep 的性质一样。一切都是为了快速录入。
    2. 更好的移动端体验:Hoarder 在手机和平板上也很好用,你可以随时随地轻松管理你的书签和笔记。(当然现在移动端的App还很初级)
    3. 本地 AI 功能:和其他需要联网才能用 AI 的应用不同,Hoarder 可以在你自己的设备上运行 AI 功能。这意味着你不需要上传数据就能使用自动标签等功能,更方便也更隐私。

开发者搞了 一个 demo site:https://try.hoarder.app/ 有兴趣的可以试试看。

安装

推荐的安装方法是通过 Docker Compose 。

version: "3.8"
     services:
       web:
         image: ghcr.io/hoarder-app/hoarder:0.17.1
         restart: unless-stopped
         volumes:
           - /data/hoarder/data:/data
         ports:
           - 3033:3000
         env_file:
           - .env
         environment:
           MEILI_ADDR: http://meilisearch:7700
           BROWSER_WEB_URL: http://chrome:9222
           MAX_ASSET_SIZE_MB: 16
           NEXTAUTH_URL: https://your-external-domain.com
           DISABLE_SIGNUPS: true
           OLLAMA_BASE_URL: http://ollama-server-ip:port
           OLLAMA_KEEP_ALIVE: 5m
           INFERENCE_TEXT_MODEL: "qwen2.5:7b"
           INFERENCE_IMAGE_MODEL: "minicpm-v:8b"
           INFERENCE_LANG: english
           INFERENCE_JOB_TIMEOUT_SEC: 60
           DATA_DIR: /data
       chrome:
         image: gcr.io/zenika-hub/alpine-chrome:123
         restart: unless-stopped
         env_file:
           - .env
         command:
           - --no-sandbox
           - --disable-gpu
           - --disable-dev-shm-usage
           - --remote-debugging-address=0.0.0.0
           - --remote-debugging-port=9222
           - --hide-scrollbars
       meilisearch:
         image: getmeili/meilisearch:v1.6
         restart: unless-stopped
         env_file:
           - .env
         environment:
           MEILI_NO_ANALYTICS: "true"
         volumes:
           - /data/hoarder/meilisearch:/meili_data

我这里直接选择用 Ollama。两个模型也是实测下来目前来看比较好(快速、足够好用)的选择。不过我有时还是觉得 vision 方面,开源的模型还是差点意思。

Ollama: 自托管LLM的简单方案
这两天心血来潮,看着机箱里面的早就不用来打游戏的显卡,总觉得需要做点什么。碰巧看到Ollama,似乎自托管LLM变得比以往容易了很多。特此尝试一下。文中涉及了Ollama的部署和使用,以及两个UI的使用:Big-AGI和Ollama WebUI。

.env 文件:

     MEILI_MASTER_KEY: <generate with openssl rand -base64 36>
     NEXTAUTH_SECRET: <generate with openssl rand -base64 36>

然后 docker-compose up -d 即可。

首次使用时遇到过两个问题

使用体验

手机端体验尤其不错。虽然 App 还很初级,很多功能还没有。但是基础的 bookmark 功能做的已经很流畅了。存个网页,存个图片什么的,都挺好用的。

0:00
/1:02