ChatGLM

面向中英文对话优化的开源大语言模型,支持高效本地部署。

访问网站

介绍

产品概览

什么是ChatGLM?

ChatGLM 是由清华大学与智谱 AI 共同开发的开源双语对话 AI 模型,基于 General Language Model (GLM) 架构,拥有 62 亿参数,训练数据涵盖约 1 万亿中英文 tokens。该模型支持自然流畅的人机对话与问答,尤其针对中文理解进行了优化。ChatGLM 应用有监督微调、人类反馈强化学习及模型量化等先进技术,可在仅需 6GB 显存的消费级 GPU 上高效本地部署。最新版本支持最长 32K tokens 上下文,并提升了推理与代码生成能力。ChatGLM 完全开源,注册后可免费用于学术研究和商业用途,是中国 AI 生态中具有竞争力和可用性的选择。

主要功能

双语对话 AI

支持中英文流畅对话与问答,针对中文语言复杂性进行了优化。

高效本地部署

模型量化(INT4)使 ChatGLM 可在仅需 6GB 显存的消费级 GPU 上运行,实现离线使用。

扩展上下文长度

支持最长 32K tokens 上下文,满足更长、更连贯的多轮对话需求。

先进训练技术

采用有监督微调、反馈自举及人类反馈强化学习,提升回复质量。

开源且免费商用

权重与代码完全开源,注册后可用于学术研究及商业用途,促进社区发展。

多模态与代码生成支持

如 VisualGLM-6B 等变体支持图像理解;CodeGeeX 模型增强代码生成与编程辅助能力。

使用场景

客户服务与智能助手 : 部署双语对话 Agent 用于客户支持,可自然理解并用中英文回复。

内容创作与写作辅助 : 协助生成文章、报告、营销文案及创意写作,支持中英文。

编程与代码生成 : 通过 ChatGLM 衍生的 CodeGeeX 模型,实现代码补全、调试及多语言编程辅助。

学术研究与开发 : 研究者可自定义并微调开源模型,适用于多种 NLP 任务及垂直行业应用。

多模态 AI 应用 : 结合 VisualGLM,实现图像理解与自然语言对话任务。