OpenClaw部署
OpenClaw 是一款运行在自有设备上的个人 AI 助手,所有数据均保存在自己的机器上,同时支持连接 WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、iMessage、Microsoft Teams 等多个平台(国内软件生态还需改善!)。该项目在 GitHub 上拥有超过 135,000 颗星。本文将介绍如何在本地平台(Windows)上部署 OpenClaw。
介绍先到这里,下面开始介绍如何进行部署
OpenClaw 是一款运行在自有设备上的个人 AI 助手,所有数据均保存在自己的机器上,同时支持连接 WhatsApp、Telegram、Slack、Discord、Google Chat、Signal、iMessage、Microsoft Teams 等多个平台(国内软件生态还需改善!)。该项目在 GitHub 上拥有超过 135,000 颗星。本文将介绍如何在本地平台(Windows)上部署 OpenClaw。
介绍先到这里,下面开始介绍如何进行部署
在使用 RAG(Retrieval-Augmented Generation)时,我们通常需要在大量文本向量中,找到与查询最相似的若干条语句。最直观的方式是对所有向量逐一计算相似度(余弦相似度、欧氏距离等),然后进行比较。在数据规模较小时,这种方法尚可接受;但当数据量达到百万甚至更高量级时,逐一匹配将带来巨大的时间开销。
今年年初Manus引爆了Agent概念,随着越来越多的厂商开发发布自己的Agent,Agent逐渐的走进了大众的视野,今年可谓是Agent元年。而对于我们想要尝试构建自己的Agent,除开从Coze、Dify、星辰智能体平台等平台构建,还可以通过调用API通过提示词来进行进行构建。(微调不起了...)为了让大家更好的做出自己的Agent,本文主要讲解构建Agent 的经典三大范式:ReAct、Plan-and-Solve和Relection。
RAG(Retrieval-Augmented Generation,检索增强生成)是一种结合信息检索技术的方法,旨在提升大模型输出的稳定性,减少幻觉现象
RoPE(旋转位置编码)是一种结合了绝对位置编码和相对位置编码的一种编码方法,出自苏剑林老师提出的RoFormer,现如今已经作为LLM结构的标配了,可见其效果强大。这篇文章就来具体解析一下,RoPE的原理和优势到底是什么。
MOE(Mixture of Experts)也就是混合专家系统,已经在LLM(Large Language Model)的结构中成为标配了。最近看到一篇手写MOE教程,所学下来,受益颇多。
最近有语音识别方言方面的需求,由于之前没有接触到过这个领域,遂深入了解一下Open AI发布的语音识别模型Whisper
想要大模型在通用性上获得更好的效果,就需要让大模型对更多的领域知识进行“补充”。
《Do Large Language Models Need a Content Delivery Network》论文提出了 KDN(Knowledge Delivery Network),简单来说就是对输入进行“缓存”,从而提升模型首个 Token 响应时间,并将 KDN 开源为 LMCache
Function Calling 和 MCP 通过一组外部工具,帮助 LLM 获取其无法直接知晓的信息或者难以执行的操作。本文分别对他们进行说明,并对比异同
KV Cache是一种针对Transformer-Decoder部分的注意力层的优化技术,其原理是通过缓存之前生成的KV值,提高模型的推理性能。