我的《人生七年》1994 年 10 月 27 号这天,我的人生正式开启了。这个时候的我还无法意识到这是一个怎样的世界,又是一场怎样的旅程。直到 30 年后的今天,在我认真回顾了自己前半生的 30 年后,或许才有了一个模糊的答案。曾经看过一个纪录片《人生七年》,这个纪录片由英国导演迈克尔·艾普特(Michael Apted)开始于1964年,每隔七年跟踪拍摄同一组人的生活,从他们七岁开始,展示了他们的成长、梦想、挑战和生活变化。我于是也产生了一个想法,以同样的方式来回顾自己曾经的每一个七年。
记第一次推荐开发实践遇到的问题自从入行以来,从来没有重视过内存管理这块的东西,但这次真的是该遭的罪一点没落下的全体验了一遍。试问苍天饶过谁。由于预测时的全量用户为 1.5 亿,数据量实在太大,而且服务器上没有 GPU 资源,所以只能通过开启多进程的方式来进行预测。在 python 中开启多进程无果后,只能想办法曲线救国,最终通过 shell 脚本将数据拆分然后循环调用 python 脚本,这个过程中可以将拆分后的数据的起始行数和数据量通过参数传递给python,最终以这样的方式成功开启了多进程。但随后遇到了另外一个问题:内存溢出导致的部分进程被 kill。
《纳瓦尔宝典》在过去十年里,纳瓦尔通过推特、博客和播客等方式分享了他的人生智慧,分享如何不靠运气取得成功、如何利用专长和杠杆获得财富以及他的幸福哲学等内容,他的分享在网络上掀起了讨论热潮,受到大量网友的热爱和追捧。纳瓦尔不仅告诉了我们怎样致富,还告诉了我们怎样看待人生,怎样获得幸福。他对财富、人生的思考将帮助你走上自己独特的人生道路,过上更富有、更幸福的生活。
Mac本地RAG文档问答——Llama2 & ChatGLM3(量化版) & Ollama过去文档检索的基本技术框架,中间每一步都有相当的技术复杂度,过去只有大厂在有巨大需求的场景去实现这样的能力。但是LLM的出现,让文档检索这件事情的门槛骤然降低,用向量数据库就可以轻松构建自己的文档检索系统,结合LLM的对话生成能力,真正实现文档问答的能力。
Transformer温习整理Transformer 是由谷歌于 2017 年在 Attention Is All You Need 中首次提出。Transformer的提出在很大程度上改变了自然语言处理领域的局面,取代了传统的循环神经网络和卷积神经网络在语言模型、机器翻译等任务中的地位。
面向开发者的提示工程之前写过《面向使用者的提示工程》,主要是面向普通用户,在日常使用大语言模型聊天或对话的时候应该如何书写提示词,来改善大模型输出的效果。而本篇主要是面向开发者,介绍在开发 RAG 类基于大模型的应用时应该如何优化和改善提示词,针对特定任务构造能充分发挥大模型能力的 Prompt 的技巧
《如何阅读一本书》本书是一本阅读指南,介绍了阅读的方法、技巧,阅读所应具备的广阔视野。自1948年问世以来,在西方世界好评甚多,重版多次。是一本指导人们如何阅读的名作。每本书的封面之下都有一套自己的骨架,作为一个分析阅读的读者,你的责任就是要找出这个骨架。《如何阅读一本书》出现在你面前时,肌肉包着骨头,衣服包裹着肌肉,可说是盛装而来。你用不着揭开它的外衣或是撕去它的肌肉,才能得到在柔软表皮下的那套骨架。但是你一定要用一双X光般的透视眼来看《如何阅读一本书》,因为那是你了解一本书、掌握其骨架的基础。
读《面向大语言模型的检索增强生成技术:综述》笔记整理在这篇综述中,我们关注的是面向大语言模型(Large Language Model)的检索增强生成技术。这项技术通过结合检索机制,增强了大语言模型在处理复杂查询和生成更准确信息方面的能力。大语言模型 (大语言模型,LLMs) 虽展现出强大能力,但在实际应用中,例如在准确性、知识更新速度和答案透明度方面,仍存在挑战。检索增强生成 (Retrieval-Augmented Generation, RAG) 是指在利用大语言模型回答问题之前,先从外部知识库检索相关信息。RAG 被证明能显著提升答案的准确性,并特别是在知识密集型任务上减少模型的错误输出。通过引用信息来源,用户可以核实答案的准确性,从而增强对模型输出的信任。