YuLan-Mini

11个月前发布 12 0 0

YuLan-Mini是由中国人民大学AI Box团队开发的一款轻量级语言模型,具有2.4亿参数,尽管仅使用1.08T的预训练数据,但其性能可与使用更多数据训练的行业领先模型相媲美。该模型特别擅长数学和代码领域,为了促进可复现性,团队将开源相关的预训练资源。

收录时间:
2025-05-30
YuLan-MiniYuLan-Mini

YuLan-Mini是由中国人民大学AI Box团队开发的一款轻量级语言模型,具有2.4亿参数,尽管仅使用1.08T的预训练数据,但其性能可与使用更多数据训练的行业领先模型相媲美。该模型特别擅长数学和代码领域,为了促进可复现性,团队将开源相关的预训练资源。

数据统计

相关导航

bRAG-langchain

bRAG-langchain

bRAG-langchain是一个开源项目,专注于Retrieval-Augmented Generation (RAG)技术的研究与应用。RAG是一种结合了检索和生成的AI技术,通过检索相关文档并生成回答,为用户提供更准确、更丰富的信息。该项目提供了从基础到高级的RAG实现指南,帮助开发者快速上手并构建自己的RAG应用。其主要优点是开源、灵活且易于扩展,适合各种需要自然语言处理和信息检索的应用场景。
LiteMCP

LiteMCP

LiteMCP是一个TypeScript框架,用于优雅地构建MCP(Model Context Protocol)服务器。它支持简单的工具、资源、提示定义,提供完整的TypeScript支持,并内置了错误处理和CLI工具,方便测试和调试。LiteMCP的出现为开发者提供了一个高效、易用的平台,用于开发和部署MCP服务器,从而推动了人工智能和机器学习模型的交互和协作。LiteMCP是开源的,遵循MIT许可证,适合希望快速构建和部署MCP服务器的开发者和企业使用。
Qwen2.5-Coder-1.5B-Instruct-GGUF

Qwen2.5-Coder-1.5B-Instruct-GGUF

Qwen2.5-Coder是Qwen大型语言模型的最新系列,专为代码生成、代码推理和代码修复而设计。基于强大的Qwen2.5,通过增加训练令牌至5.5万亿,包括源代码、文本代码基础、合成数据等,Qwen2.5-Coder-32B已成为当前最先进的开源代码大型语言模型,其编码能力与GPT-4o相匹配。此模型是1.5B参数的指令调优版本,采用GGUF格式,具有因果语言模型、预训练和后训练阶段、transformers架构等特点。
Skywork-o1-Open-PRM-Qwen-2.5-1.5B

Skywork-o1-Open-PRM-Qwen-2.5-1.5B

Skywork-o1-Open-PRM-Qwen-2.5-1.5B是Skywork团队开发的一系列模型,这些模型结合了o1风格的慢思考和推理能力。该模型专门设计用于通过增量过程奖励增强推理能力,适合解决小规模的复杂问题。与简单的OpenAI o1模型复现不同,Skywork o1 Open系列模型不仅在输出中展现出固有的思考、规划和反思能力,而且在标准基准测试中的推理技能有显著提升。这一系列代表了AI能力的一次战略性进步,将原本较弱的基础模型推向了推理任务的最新技术(SOTA)。
QwQ-32B-Preview-gptqmodel-4bit-vortex-v3

QwQ-32B-Preview-gptqmodel-4bit-vortex-v3

该产品是一个基于Qwen2.5-32B的4位量化语言模型,通过GPTQ技术实现高效推理和低资源消耗。它在保持较高性能的同时,显著降低了模型的存储和计算需求,适合在资源受限的环境中使用。该模型主要面向需要高性能语言生成的应用场景,如智能客服、编程辅助、内容创作等。其开源许可和灵活的部署方式使其在商业和研究领域具有广泛的应用前景。

暂无评论

您必须登录才能参与评论!
立即登录
none
暂无评论...