LLM => Large Language Model => 大语言模型
你可以把它想象成一个通过阅读整个互联网而成为“文字接龙”世界冠军的超级大脑。
总结来说,大语言模型是一个用海量数据和算力训练出来的、能够模拟和生成人类语言的巨型概率模型,是一个用数据和数学模拟语言规律的复杂函数。它功能强大且通用,但本质上仍是基于统计规律的“模式大师”,而非拥有理解力和意识的智能体。
“大” 是它当前最突出的特征,体现在三个方面:
局限:
LLM 的本质是一个输入输出程序,这意味着:
赋予 LLM 特定的角色 & 约束其回答范畴(即:规则限制,eg:让其只能给出法律相关的回答)
复杂问题可拆解成 n 个小问题,让 LLM 逐个击破
可给 LLM 提供高质量输出的例子,让其模仿
5W1H
BROKE
…
上述套路/范式/模板/框架的本质就是【高效表达的方法论】
AI智能体: eg: Kimi-提示词专家
人类的记忆
对应到AI的记忆
LLM -> 提示词工程 -> 工作流(链式调用)-> 智能体(广义上的)-> 多智能体系统
深度思考模式调用的是【推理型模型】,与【指令型模型】不同
即:AI 生成看似可信、但实际上不准确、虚构或与事实不符的内容,就像人类的幻觉一样,这是 AI 对现实世界理解不完整所导致的现象
这被称为“AI的幻觉”
AI工具补充:秘塔、纳米AI搜索
大模型本地化部署,以处理涉密文件(这是考虑到数据安全的做法)
LLM => Large Language Model => 大语言模型
你可以把它想象成一个通过阅读整个互联网而成为“文字接龙”世界冠军的超级大脑。
总结来说,大语言模型是一个用海量数据和算力训练出来的、能够模拟和生成人类语言的巨型概率模型,是一个用数据和数学模拟语言规律的复杂函数。它功能强大且通用,但本质上仍是基于统计规律的“模式大师”,而非拥有理解力和意识的智能体。
“大” 是它当前最突出的特征,体现在三个方面:
局限:
LLM 的本质是一个输入输出程序,这意味着:
赋予 LLM 特定的角色 & 约束其回答范畴(即:规则限制,eg:让其只能给出法律相关的回答)
复杂问题可拆解成 n 个小问题,让 LLM 逐个击破
可给 LLM 提供高质量输出的例子,让其模仿
5W1H
BROKE
…
上述套路/范式/模板/框架的本质就是【高效表达的方法论】
AI智能体: eg: Kimi-提示词专家
人类的记忆
对应到AI的记忆
LLM -> 提示词工程 -> 工作流(链式调用)-> 智能体(广义上的)-> 多智能体系统
深度思考模式调用的是【推理型模型】,与【指令型模型】不同
即:AI 生成看似可信、但实际上不准确、虚构或与事实不符的内容,就像人类的幻觉一样,这是 AI 对现实世界理解不完整所导致的现象
这被称为“AI的幻觉”
AI工具补充:秘塔、纳米AI搜索
大模型本地化部署,以处理涉密文件(这是考虑到数据安全的做法)