引言

在人工智能的浪潮中,澜舟科技以其创新精神,不断推动AI生态的可持续发展。继Mengzi3-13B大模型开源后,澜舟科技再次发力,推出了轻量化大模型——Mengzi3-8B,并宣布开源,同时支持免费商用。这一举措无疑为AI领域注入了新的活力,为个人开发者和AI爱好者带来了福音。

Mengzi3-8B:轻量级,高性能

Mengzi3-8B在多个应用场景中展现出与Mengzi3-13B相媲美的性能,包括写作、代码、摘要以及阅读理解等。模型参数规模更为精简,特别适合个人开发者和AI爱好者使用。

核心优势

  • 低显存高推理:Mengzi3-8B是一款高效、低显存需求的AI大模型,半精度下显存占用小于16G,适用于PC和大部分消费级显卡。
  • 知识处理效果卓越:在中文能力、英语、世界知识(MMLU)、编程及数学等多个领域的知识处理和问题解决能力中,均显著超越同尺寸开源模型。

使用指南

Mengzi3-8B的开源仓库提供了丰富的信息和下载途径,让开发者和爱好者能够轻松上手。

开源地址

快速开始

```python import torch from transformers import AutoModelForCausalLM, AutoTokenizer

tokenizer = AutoTokenizer.from_pretrained("Langboat/Mengzi3-8B-Base", use_fast=False, trust_remote_code=True) model = AutoModelForCausalLM.from_pretrained("Langboat/Mengzi3-8B-Base", device_map="auto", trust_remote_code=True) inputs = tokenizer('输入:介绍一下孟子。输出:', return_tensors='pt')

if torch.cuda.is_available(): inputs = inputs.to('cuda')

pred = model.generate(**inputs, max_new_tokens=512, repetition_penalty=1.01, eos_token_id=tokenizer.eos_token_id) print(tokenizer.decode(pred[0], skip_special_tokens=True)) ```

孟子3-8B:AI创新的新动力

澜舟科技的Mengzi3-8B模型,以其轻量化和高性能的特点,为AI创新提供了新的动力。无论是个人开发者还是企业用户,都能从中受益,推动业务场景应用和数字经济的发展。

结语

澜舟科技的这一开源行动,不仅为AI技术的发展提供了强有力的支持,也为开源生态的完善做出了重要贡献。我们期待与更多的AI开发者和爱好者一起,共同迎接AI技术带来的挑战和机遇。


扫码加入孟子开源社区微信群
澜舟科技官方网站
获奖与新闻
- 澜舟科技获批北京市专精特新中小企业
- 澜舟科技完成信通院“可信AI”评估
- 澜舟科技完成Pre-A+轮融资
- HICOOL 2021创业大赛一等奖 | 周明博士专访

最新合作
- 携手新华智云 | 携手中国联通
- 携手华夏基金 | 携手同花顺
- 携手中文在线 | 携手数说故事

技术专栏一览
- 辅助创作引擎 | 搜索引擎技术
- 自动摘要生成 | 机器翻译技术
- 孟子模型开源 | 孟子技术解读
- 认知智能平台 | 熊猫小说家

期待您的关注与加入!