读《面向大语言模型的检索增强生成技术:综述》笔记整理在这篇综述中,我们关注的是面向大语言模型(Large Language Model)的检索增强生成技术。这项技术通过结合检索机制,增强了大语言模型在处理复杂查询和生成更准确信息方面的能力。大语言模型 (大语言模型,LLMs) 虽展现出强大能力,但在实际应用中,例如在准确性、知识更新速度和答案透明度方面,仍存在挑战。检索增强生成 (Retrieval-Augmented Generation, RAG) 是指在利用大语言模型回答问题之前,先从外部知识库检索相关信息。RAG 被证明能显著提升答案的准确性,并特别是在知识密集型任务上减少模型的错误输出。通过引用信息来源,用户可以核实答案的准确性,从而增强对模型输出的信任。
读《通向AGI之路:大型语言模型(LLM)技术精要》笔记整理ChatGPT出现后惊喜或惊醒了很多人。惊喜是因为没想到大型语言模型(LLM,Large Language Model)效果能好成这样;惊醒是顿悟到我们对LLM的认知及发展理念,距离世界最先进的想法,差得有点远。本文试图回答下面一些问题:ChatGPT是否带来了NLP乃至AI领域的研究范式转换?如果是,那会带来怎样的影响?LLM从海量数据中学到了什么知识?LLM又是如何存取这些知识的?随着LLM规模逐步增大,会带来什么影响?什么是In Context Learning?为什么它是一项很神秘的技术?它和Instruct又是什么关系?LLM具备推理能力吗?思维链CoT又是怎么做的?等等,相信看完,能让您对这些问题有一个答案。
《蛤蟆先生去看心理医生》蛤蟆先生一向爱笑爱闹,如今却一反常态地郁郁寡欢,他一个人躲在屋里,连起床梳洗的力气都没有。朋友们非常担心他,建议他去做心理咨询。在10次心理咨询中,蛤蟆在咨询师苍鹭的带领下,勇敢地探索了自己的内心世界,也逐渐找回了信心与希望……
Docker 学习笔记传统虚拟机技术是虚拟出一套硬件后,在其上运行一个完整操作系统,在该系统上再运行所需应用进程;而Docker容器内的应用进程直接运行于宿主的内核,容器内没有自己的内核,而且也没有进行硬件虚拟。
2024 年的第一篇是艾滋病科普在网上冲浪的时候,看到了两期关于艾滋病的科普视频,觉得讲得不错并且感觉王教授也算是权威了吧,于是兴趣满满的看完了,并做了一些笔记。作为新时代的网民,应该对艾滋病有一个正确的认知。