Mac本地RAG文档问答——Llama2 & ChatGLM3(量化版) & Ollama过去文档检索的基本技术框架,中间每一步都有相当的技术复杂度,过去只有大厂在有巨大需求的场景去实现这样的能力。但是LLM的出现,让文档检索这件事情的门槛骤然降低,用向量数据库就可以轻松构建自己的文档检索系统,结合LLM的对话生成能力,真正实现文档问答的能力。
Transformer温习整理Transformer 是由谷歌于 2017 年在 Attention Is All You Need 中首次提出。Transformer的提出在很大程度上改变了自然语言处理领域的局面,取代了传统的循环神经网络和卷积神经网络在语言模型、机器翻译等任务中的地位。
面向开发者的提示工程之前写过《面向使用者的提示工程》,主要是面向普通用户,在日常使用大语言模型聊天或对话的时候应该如何书写提示词,来改善大模型输出的效果。而本篇主要是面向开发者,介绍在开发 RAG 类基于大模型的应用时应该如何优化和改善提示词,针对特定任务构造能充分发挥大模型能力的 Prompt 的技巧
《如何阅读一本书》本书是一本阅读指南,介绍了阅读的方法、技巧,阅读所应具备的广阔视野。自1948年问世以来,在西方世界好评甚多,重版多次。是一本指导人们如何阅读的名作。每本书的封面之下都有一套自己的骨架,作为一个分析阅读的读者,你的责任就是要找出这个骨架。《如何阅读一本书》出现在你面前时,肌肉包着骨头,衣服包裹着肌肉,可说是盛装而来。你用不着揭开它的外衣或是撕去它的肌肉,才能得到在柔软表皮下的那套骨架。但是你一定要用一双X光般的透视眼来看《如何阅读一本书》,因为那是你了解一本书、掌握其骨架的基础。
读《面向大语言模型的检索增强生成技术:综述》笔记整理在这篇综述中,我们关注的是面向大语言模型(Large Language Model)的检索增强生成技术。这项技术通过结合检索机制,增强了大语言模型在处理复杂查询和生成更准确信息方面的能力。大语言模型 (大语言模型,LLMs) 虽展现出强大能力,但在实际应用中,例如在准确性、知识更新速度和答案透明度方面,仍存在挑战。检索增强生成 (Retrieval-Augmented Generation, RAG) 是指在利用大语言模型回答问题之前,先从外部知识库检索相关信息。RAG 被证明能显著提升答案的准确性,并特别是在知识密集型任务上减少模型的错误输出。通过引用信息来源,用户可以核实答案的准确性,从而增强对模型输出的信任。
读《通向AGI之路:大型语言模型(LLM)技术精要》笔记整理ChatGPT出现后惊喜或惊醒了很多人。惊喜是因为没想到大型语言模型(LLM,Large Language Model)效果能好成这样;惊醒是顿悟到我们对LLM的认知及发展理念,距离世界最先进的想法,差得有点远。本文试图回答下面一些问题:ChatGPT是否带来了NLP乃至AI领域的研究范式转换?如果是,那会带来怎样的影响?LLM从海量数据中学到了什么知识?LLM又是如何存取这些知识的?随着LLM规模逐步增大,会带来什么影响?什么是In Context Learning?为什么它是一项很神秘的技术?它和Instruct又是什么关系?LLM具备推理能力吗?思维链CoT又是怎么做的?等等,相信看完,能让您对这些问题有一个答案。
《蛤蟆先生去看心理医生》蛤蟆先生一向爱笑爱闹,如今却一反常态地郁郁寡欢,他一个人躲在屋里,连起床梳洗的力气都没有。朋友们非常担心他,建议他去做心理咨询。在10次心理咨询中,蛤蟆在咨询师苍鹭的带领下,勇敢地探索了自己的内心世界,也逐渐找回了信心与希望……