大模型是什么?

大模型(LLM)狭义上指基于深度学习算法进行训练的自然语言处理(NLP)模型,主要应用于自然语言理解和生成等领域,广义上还包括机器视觉(CV)大模型、多模态大模型和科学计算大模型等。(来自下面的GIthub项目)

github项目:https://github.com/datawhalechina/self-llm/tree/master

项目介绍:本项目是一个围绕开源大模型、针对国内初学者、基于 Linux 平台的中国宝宝专属大模型教程,针对各类开源大模型提供包括环境配置、本地部署、高效微调等技能在内的全流程指导,简化开源大模型的部署、使用和应用流程,让更多的普通学生、研究者更好地使用开源大模型,帮助开源、自由的大模型更快融入到普通学习者的生活中。

什么是LLMOps?

LLMOps介绍

LLMOps全称为”Large Language Model Operations“的缩写,即大语言模型运营,它是一套管理和部署大语言模型(如GPT)的实践方法和工具,简单来说,就是帮助我们更好地使用和管理AI语言模型的一套管理,且它是一套完整的生命周期管理体系。

graph TD
    A[数据管理] -->|收集处理| B[模型管理]
    B -->|优化部署| C[部署运维]
    C -->|服务监控| D[监控评估]
    D -->|反馈优化| A

LLMOps主要组成部分有哪些?

graph TB
    classDef header fill:#2c3e50,color:white,stroke-width:0;
    classDef data fill:#3498db,color:white,stroke:#2980b9;
    classDef model fill:#27ae60,color:white,stroke:#219a52;
    classDef deploy fill:#e67e22,color:white,stroke:#d35400;
    classDef monitor fill:#e74c3c,color:white,stroke:#c0392b;
    classDef app fill:#9b59b6,color:white,stroke:#8e44ad;

    A[LLMOps]:::header --> B[数据层]
    A --> C[模型层]
    A --> D[部署层]
    A --> E[监控层]
    A --> F[应用层]

    class B data; class C model; class D deploy;
    class E monitor; class F app;

    B --> B1[📥 数据收集]:::data
    B --> B2[🔧 数据处理]:::data
    B --> B3[💾 数据存储]:::data

    C --> C1[🤖 模型选择]:::model
    C --> C2[🎛️ 模型微调]:::model
    C --> C3[🔖 版本管理]:::model

    D --> D1[🛠️ 环境准备]:::deploy
    D --> D2[🚀 服务部署]:::deploy
    D --> D3[📈 扩展管理]:::deploy

    E --> E1[📊 性能监控]:::monitor
    E --> E2[✅ 质量监控]:::monitor
    E --> E3[🔄 反馈收集]:::monitor

    F --> F1[💻 应用开发]:::app
    F --> F2[🔌 接口管理]:::app
    F --> F3[😊 用户体验]:::app

    style A stroke:#1a252f,stroke-width:3px
    linkStyle 0,1,2,3,4 stroke:#95a5a6,stroke-width:2px

LLMOps的核心组成部分

graph TB
    classDef root fill:#2E4053,color:white
    classDef data fill:#2980B9,color:white
    classDef model fill:#27AE60,color:white
    classDef deploy fill:#E67E22,color:white
    classDef monitor fill:#E74C3C,color:white

    A[LLMOps]:::root

    A --> 1[数据管理]:::data
    A --> 2[模型管理]:::model
    A --> 3[部署运维]:::deploy
    A --> 4[监控评估]:::monitor

    1 --> 1a["▸ 数据收集<br> ▪ 业务数据采集<br> ▪ 用户交互数据<br> ▪ 外部整合"]
    1 --> 1b["▸ 数据处理<br> ▪ 清洗标准化<br> ▪ 数据增强<br> ▪ 质量控制"]
    1 --> 1c["▸ 数据存储<br> ▪ 向量数据库<br> ▪ 文档存储<br> ▪ 版本控制"]

    2 --> 2a["▸ 生命周期<br> ▪ 选型评估<br> ▪ 微调优化<br> ▪ 版本迭代"]
    2 --> 2b["▸ 性能优化<br> ▪ 参数调优<br> ▪ 提示词优化<br> ▪ 上下文管理"]
    2 --> 2c["▸ 安全合规<br> ▪ 访问控制<br> ▪ 数据隐私<br> ▪ 输出审查"]

    3 --> 3a["▸ 部署管理<br> ▪ 环境配置<br> ▪ 服务编排<br> ▪ 负载均衡"]
    3 --> 3b["▸ 扩展性<br> ▪ 水平扩展<br> ▪ 垂直扩展<br> ▪ 资源优化"]
    3 --> 3c["▸ 服务治理<br> ▪ 接口管理<br> ▪ 服务监控<br> ▪ 故障恢复"]

    4 --> 4a["▸ 实时监控<br> ▪ 性能指标<br> ▪ 资源使用<br> ▪ 响应时间"]
    4 --> 4b["▸ 质量评估<br> ▪ 输出质量<br> ▪ 准确性<br> ▪ 一致性"]
    4 --> 4c["▸ 反馈循环<br> ▪ 用户反馈<br> ▪ 自动评估<br> ▪ 持续优化"]

    style A stroke-width:0
    linkStyle default stroke:#7F8C8D,stroke-width:2px

参考文章:https://mljourney.com/what-is-llmops-guide-to-large-language-model-operations/

RAG是什么?

RAG介绍

检索增强生成(Retrieval Augmented Generation)的过程,简称 RAG,检索增强生成是用从其他地方检索到的附加信息来补充用户输入到聊天 GPT 等大型语言模型(LLM)的过程。然后,LLM 可以使用该信息来增强其生成的响应。(图片和介绍均来自下方文章)

下面的译文是来自微信的直接图片翻译...我不知道有啥好的截图翻译...所以LLM它翻译错了我就划掉了

文章解读:https://www.yuque.com/serviceup/misc/cn-retrieval-augmented-generation-overview

原文:How do domain-specific chatbots work? An Overview of Retrieval Augmented Generation (RAG) —— scriv.ai. Aug 23, 2023.

视频讲解:https://www.bilibili.com/video/BV1Sm4y1K7w2

PS:感谢沧海九粟老师!

TDOO待更新....