-
llama3.3
最新的尖端 70B 模型。Llama 3.3 70B 提供了与 Llama 3.1 405B 模型相当的性能。
工具 70b287 拉取次数 5 标签 更新于 3 分钟前
-
qwq
QwQ 是一个专注于推进人工智能推理能力的实验性研究模型。
工具 32b33.9K 拉取次数 5 标签 更新于 6 天前
-
llama3.2-vision
Llama 3.2 Vision 是一个经过指令调整的图像推理生成模型集合,包含 11B 和 90B 两种大小。
视觉 11b 90b210K 拉取次数 9 标签 更新于 4 周前
-
llama3.2
Meta 的 Llama 3.2 缩小到了 1B 和 3B 模型。
工具 1b 3b4M 拉取次数 63 标签 更新于 2 个月前
-
llama3.1
Llama 3.1 是 Meta 推出的一个新的尖端模型,有 8B、70B 和 405B 三种参数大小。
工具 8b 70b 405b12.1M 拉取次数 93 标签 更新于 5 天前
-
llama3
Meta Llama 3:迄今为止最强大的开放可用的大语言模型
8b 70b6.9M 拉取次数 68 标签 更新于 6 个月前
-
mistral
Mistral AI 发布的 7B 模型,已更新至 0.3 版本。
工具 7b630万 拉取 84 标签 更新于 4个月前
-
nomic-embed-text
具有大令牌上下文窗口的高性能开放嵌入模型。
嵌入500万 拉取 3 标签 更新于 9个月前
-
gemma
Gemma是由Google DeepMind构建的一系列轻量级、最先进的开放模型。已更新至版本1.1。
20亿 70亿420万 拉取 102 标签 更新于 8个月前
-
qwen
Qwen 1.5是阿里云推出的一系列大型语言模型,参数范围从5亿到1100亿。
5亿 18亿 40亿 70亿 140亿 320亿 720亿 1100亿410万 拉取 379 标签 更新于 7个月前
-
qwen2
Qwen2是阿里巴巴集团推出的一系列新的大型语言模型。
工具 5亿 15亿 70亿 720亿400万 拉取 97 标签 更新于 2个月前
-
phi3
Phi-3是由微软推出的一系列轻量级、最先进的开放模型,包括30亿参数(Mini)和140亿参数(Medium)版本。
38亿 140亿270万 拉取 72 标签 更新于 4个月前
-
llama2
Llama 2是一个基础语言模型集合,参数范围从70亿到700亿。
70亿 130亿 700亿250万 拉取 102 标签 更新于 11个月前
-
qwen2.5
Qwen2.5模型在阿里巴巴最新的大规模数据集上进行了预训练,该数据集包含多达18万亿个token。该模型最多支持128K个token,并具有多语言支持。
工具 0.5b 1.5b 3b 7b 14b 32b 72b230万 拉取数 133 标签数 更新于 2 个月前
-
gemma2
Google Gemma 2 是一个高性能且高效的模型,提供三种尺寸:2B、9B 和 27B。
2b 9b 27b210万 拉取数 94 标签数 更新于 4 个月前
-
llava
🌋 LLaVA 是一个新颖的端到端训练的大型多模态模型,结合了视觉编码器和 Vicuna,用于通用视觉和语言理解。已更新至 1.6 版本。
视觉 7b 13b 34b200万 拉取数 98 标签数 更新于 10 个月前
-
codellama
一个大型语言模型,可以使用文本提示生成和讨论代码。
7b 13b 34b 70b150万 拉取数 199 标签数 更新于 4 个月前
-
qwen2.5-coder
最新的代码专用 Qwen 模型系列,在代码生成、代码推理和代码修复方面有显著改进。
工具 0.5b 1.5b 3b 7b 14b 32b77.5万 拉取数 196 标签数 更新于 3 周前
-
mistral-nemo
由 Mistral AI 与 NVIDIA 合作构建的具有 128k 上下文长度的最先进的 12B 模型。
工具 12b64.6万 拉取 17 标签 更新于 4个月前
-
mxbai-embed-large
mixedbread.ai 出品的先进大型嵌入模型
嵌入 335m59.73万 拉取 4 标签 更新于 7个月前
-
tinyllama
TinyLlama 项目旨在使用 3 万亿个词元训练一个紧凑的 1.1B Llama 模型。
1.1b52.54万 拉取 36 标签 更新于 11个月前
-
mixtral
Mistral AI 出品的一组具有开放权重的混合专家 (MoE) 模型,参数规模为 8x7b 和 8x22b。
工具 8x7b 8x22b49.43万 拉取 69 标签 更新于 4个月前
-
starcoder2
StarCoder2 是下一代透明训练的开放代码 LLM,提供三种规模:3B、7B 和 15B 参数。
3b 7b 15b45.03万 拉取 67 标签 更新于 3个月前
-
dolphin-mixtral
基于 Mixtral 混合专家模型微调的无审查 8x7b 和 8x22b 模型,擅长编码任务。由 Eric Hartford 创建。
8x7b 8x22b44.82万 拉取 87 标签 更新于 7个月前
-
codegemma
CodeGemma 是一系列功能强大、轻量级的模型,可以执行各种编码任务,如中间代码补全、代码生成、自然语言理解、数学推理和指令跟随。
20亿 70亿43.37万 拉取 85 标签 更新于 4个月前
-
deepseek-coder-v2
一个开源的混合专家代码语言模型,在特定代码任务上实现了与 GPT4-Turbo 相媲美的性能。
16b 236b42.35万 拉取 64 标签 更新于 3个月前
-
phi
Phi-2:微软研究院推出的 2.7B 语言模型,具有出色的推理和语言理解能力。
2.7b412.5K 拉取 18 标签 更新于 11 个月前
-
deepseek-coder
DeepSeek Coder 是一个功能强大的编码模型,它在 2 万亿个代码和自然语言 token 上进行训练。
1.3b 6.7b 33b380.1K 拉取 102 标签 更新于 11 个月前
-
llama2-uncensored
由 George Sung 和 Jarrad Hope 开发的未经审查的 Llama 2 模型。
7b 70b377.3K 拉取 34 标签 更新于 13 个月前
-
dolphin-mistral
基于 Mistral 的未经审查的 Dolphin 模型,擅长编码任务。已更新至版本 2.8。
7b280.7K 拉取 120 标签 更新于 8 个月前
-
wizardlm2
来自微软 AI 的最先进的大型语言模型,在复杂的聊天、多语言、推理和代理使用案例方面具有改进的性能。
7b 8x22b272.4K 拉取 22 标签 更新于 7 个月前
-
snowflake-arctic-embed
Snowflake 公司推出的一套文本嵌入模型,针对性能进行了优化。
嵌入 22m 33m 110m 137m 335m258.5K 拉取 16 标签 更新于 7 个月前
-
yi
Yi 1.5 是一款高性能的双语语言模型。
6b 9b 34b249.5K 拉取 174 标签 更新于 6 个月前
-
dolphin-llama3
Dolphin 2.9 是 Eric Hartford 基于 Llama 3 开发的新模型,具有 8B 和 70B 两种大小,具有多种指令、对话和编码技能。
8b 70b249.5K 拉取 53 标签 更新于 6 个月前
-
command-r
Command R 是一个大型语言模型,针对会话交互和长上下文任务进行了优化。
工具 350亿24.75万 拉取 32 标签 更新于 3个月前
-
orca-mini
一个通用模型,参数范围从30亿到700亿,适用于入门级硬件。
30亿 70亿 130亿 700亿24.1万 拉取 119 标签 更新于 13个月前
-
zephyr
Zephyr 是一系列微调版本的 Mistral 和 Mixtral 模型,经过训练可以作为有用的助手。
70亿 1410亿22.65万 拉取 40 标签 更新于 7个月前
-
llava-llama3
一个从 Llama 3 Instruct 微调而来的 LLaVA 模型,在多个基准测试中得分更高。
视觉 80亿22.63万 拉取 4 标签 更新于 7个月前
-
phi3.5
一个轻量级人工智能模型,拥有38亿参数,性能超越类似和更大规模的模型。
38亿18.86万 拉取 17 标签 更新于 3个月前
-
all-minilm
在非常大的句子级数据集上的嵌入模型。
嵌入 2200万 3300万17.53万 拉取 10 标签 更新于 7个月前
-
codestral
Codestral 是 Mistral AI 的首个代码模型,专为代码生成任务而设计。
220亿17.41万 拉取 17 标签 更新于 3个月前
-
starcoder
StarCoder 是一个在80多种编程语言上训练的代码生成模型。
10亿 30亿 70亿 150亿172.1K 拉取 100 标签 更新于 13个月前
-
vicuna
基于 Llama 和 Llama 2 的通用聊天模型,上下文大小从 2K 到 16K。
7b 13b 33b164.9K 拉取 111 标签 更新于 13个月前
-
mistral-openorca
Mistral OpenOrca 是一个 70 亿参数模型,使用 OpenOrca 数据集在 Mistral 7B 模型的基础上进行微调。
7b161.6K 拉取 17 标签 更新于 14个月前
-
granite-code
IBM 用于代码智能的开放基础模型系列。
3b 8b 20b 34b161K 拉取 162 标签 更新于 3个月前
-
smollm
🪐 一系列小型模型,参数分别为 1.35 亿、3.6 亿和 17 亿,基于新的高质量数据集训练。
135m 360m 1.7b153K 拉取 94 标签 更新于 3个月前
-
wizard-vicuna-uncensored
Wizard Vicuna Uncensored 是一个基于 Eric Hartford 未审查的 Llama 2 的 7B、13B 和 30B 参数模型。
7b 13b 30b147.7K 拉取 49 标签 更新于 13个月前
-
llama2-chinese
基于 Llama 2 的模型,经过微调以提高中文对话能力。
7b 13b140.2K 拉取 35 标签 更新于 13个月前
-
codegeex4
一个用于人工智能软件开发场景的多功能模型,包括代码补全。
9b127.1K 拉取 17 标签 更新于 5个月前
-
openchat
一系列在各种数据上训练的开源模型,在多个基准测试中超越了 ChatGPT。已更新至版本 3.5-0106。
7b121.1K 拉取 50 标签 更新于 11 个月前
-
aya
由 Cohere 发布的 Aya 23 是一个全新的、最先进的多语言模型系列,支持 23 种语言。
80 亿 350 亿120.4K 拉取 33 标签 更新于 6 个月前
-
bge-m3
BGE-M3 是智源人工智能研究院(BAAI)推出的一个新模型,以其在多功能(Multi-Functionality)、多语言(Multi-Linguality)和多粒度(Multi-Granularity)方面的多功能性而著称。
嵌入 5.67 亿120.3K 拉取 3 标签 更新于 4 个月前
-
codeqwen
CodeQwen1.5 是一个在大量代码数据上预训练的大型语言模型。
7b118.2K 拉取 30 标签 更新于 5 个月前
-
nous-hermes2
Nous Research 出品的强大模型系列,擅长科学讨论和编程任务。
107 亿 340 亿116.8K 拉取 33 标签 更新于 11 个月前
-
command-r-plus
Command R+ 是一款功能强大、可扩展的大型语言模型,专门针对现实世界的企业用例而构建。
工具 1040 亿113K 拉取 21 标签 更新于 3 个月前
-
wizardcoder
最先进的代码生成模型
330 亿109.2K 拉取 67 标签 更新于 11 个月前
-
stable-code
Stable Code 3B 是一款编码模型,其指令和代码补全变体的性能与 Code Llama 7B 等大 2.5 倍的模型相当。
30 亿108.6K 拉取 36 标签 更新于 8 个月前
-
tinydolphin
一个实验性的 11 亿参数模型,基于 Eric Hartford 的新 Dolphin 2.8 数据集并在 TinyLlama 的基础上训练。
1.1b108.4K 拉取 18 标签 更新于 10 个月前
-
openhermes
OpenHermes 2.5 是一个由 Teknium 在 Mistral 上使用完全开放的数据集微调的 7B 模型。
106.1K 拉取 35 标签 更新于 11 个月前
-
mistral-large
Mistral Large 2 是 Mistral 的新旗舰模型,在代码生成、数学和推理方面能力显著提升,拥有 128k 的上下文窗口,并支持数十种语言。
工具 1230 亿105.9K 拉取 32 标签 更新于 13 天前
-
qwen2-math
Qwen2 Math 是一系列基于 Qwen2 大语言模型构建的专用数学语言模型,其数学能力显著优于开源模型甚至闭源模型(例如 GPT4o)。
15 亿 70 亿 720 亿105.3K 拉取 52 标签 更新于 3 个月前
-
glm4
一个强大的多语言通用语言模型,性能可与 Llama 3 相媲美。
9b102.4K 拉取 32 标签 更新于 5 个月前
-
stablelm2
Stable LM 2 是一个最先进的 16 亿和 120 亿参数的语言模型,在英语、西班牙语、德语、意大利语、法语、葡萄牙语和荷兰语的多语言数据上进行训练。
16 亿 120 亿99.8K 拉取 84 标签 更新于 7 个月前
-
bakllava
BakLLaVA 是一个多模态模型,由 Mistral 7B 基础模型和 LLaVA 架构组成。
视觉 70 亿99.4K 拉取 17 标签 更新于 11 个月前
-
reflection
一个高性能模型,采用了一种名为 Reflection-tuning 的新技术进行训练,该技术教会大语言模型检测其推理中的错误并进行纠正。
700 亿98.1K 拉取次数 17 标签数 更新于 2 个月前
-
deepseek-llm
一个使用 2 万亿双语 token 精心打造的高级语言模型。
7b 67b92.8K 拉取次数 64 标签数 更新于 12 个月前
-
llama3-gradient
此模型将 LLama-3 8B 的上下文长度从 8k 扩展到超过 100 万个 token。
8b 70b35 标签数 更新于 7 个月前
-
wizard-math
专注于数学和逻辑问题的模型。
70亿 130亿 700亿64 标签数 更新于 11 个月前
-
neural-chat
一个基于 Mistral 的微调模型,具有良好的领域和语言覆盖范围。
7b85.1K 拉取次数 50 标签数 更新于 11 个月前
-
moondream
moondream2 是一个小型视觉语言模型,专为在边缘设备上高效运行而设计。
视觉 1.8b84.9K 拉取次数 18 标签数 更新于 7 个月前
-
llama3-chatqa
NVIDIA 基于 Llama 3 的模型,擅长对话式问答 (QA) 和检索增强生成 (RAG)。
8b 70b80.5K 拉取次数 35 标签数 更新于 6 个月前
-
xwinlm
基于 Llama 2 的对话模型,在各种基准测试中表现出色。
7b 13b80.3K 拉取次数 80 标签数 更新于 13 个月前
-
sqlcoder
SQLCoder 是一个在 StarCoder 上针对 SQL 生成任务进行微调的代码补全模型。
7b 15b79.7K 拉取次数 48 标签 更新于 10 个月前
-
nous-hermes
基于 Nous Research 的 Llama 和 Llama 2 的通用模型。
7b 13b78K 拉取次数 63 标签 更新于 13 个月前
-
phind-codellama
基于 Code Llama 的代码生成模型。
34b76.8K 拉取次数 49 标签 更新于 11 个月前
-
yarn-llama2
Llama 2 的扩展,支持高达 128k 词元的上下文。
7b 13b74.9K 拉取次数 67 标签 更新于 13 个月前
-
dolphincoder
基于 StarCoder2,Dolphin 模型家族的 7B 和 15B 无审查变体,擅长编码。
7b 15b74.2K 拉取次数 35 标签 更新于 8 个月前
-
wizardlm
基于 Llama 2 的通用模型。
73.5K 拉取次数 73 标签 更新于 13 个月前
-
deepseek-v2
一个强大、经济、高效的专家混合(MoE)语言模型。
16b 236b70.9K 拉取次数 34 标签 更新于 5 个月前
-
starling-lm
Starling 是一个通过人工智能反馈强化学习训练的大型语言模型,专注于提高聊天机器人的实用性。
7b63.9K 拉取次数 36 标签 更新于 8 个月前
-
samantha-mistral
一个在哲学、心理学和人际关系方面训练的伴侣助手。基于 Mistral。
7b63.4K 拉取次数 49 标签 更新于 13 个月前
-
falcon
由技术创新研究院(TII)构建的大型语言模型,用于摘要、文本生成和聊天机器人。
7b 40b 180b62.7K 拉取次数 38 标签 更新于 13 个月前
-
solar
一款紧凑而强大的 10.7B 大型语言模型,专为单轮对话设计。
10.7b62.7K 拉取次数 32 标签 更新于 11 个月前
-
internlm2
InternLM2.5 是一个 7B 参数模型,专为实际场景定制,具有出色的推理能力。
1m 1.8b 7b 20b61.9K 拉取次数 65 标签 更新于 3 个月前
-
yi-coder
Yi-Coder 是一系列开源代码语言模型,以不到 100 亿的参数提供最先进的编码性能。
1.5b 9b61.9K 拉取次数 67 标签 更新于 2 个月前
-
hermes3
Hermes 3 是 Nous Research 旗舰级 Hermes 系列 LLM 的最新版本。
工具 8b 70b 405b61.2K 拉取次数 49 标签 更新于 3 个月前
-
orca2
Orca 2 由微软研究院构建,是 Meta Llama 2 模型的微调版本。该模型特别擅长推理。
7b 13b58.4K 拉取次数 33 标签 更新于 12 个月前
-
athene-v2
Athene-V2 是一个 72B 参数模型,擅长代码补全、数学和日志提取任务。
工具 72b57.9K 拉取次数 17 标签 更新于 2 周前
-
llava-phi3
一个新的小型 LLaVA 模型,基于 Phi 3 Mini 微调。
视觉 38亿参数5.62万次 拉取 4 个标签 更新于 7个月前
-
stable-beluga
基于 Llama 2 并在 Orca 风格数据集上进行微调的模型。最初名为 Free Willy。
70亿 130亿 700亿5.61万次 拉取 49 个标签 更新于 13个月前
-
dolphin-phi
由 Eric Hartford 开发的 27 亿参数无审查 Dolphin 模型,基于微软研究院的 Phi 语言模型。
2.7b5.15万次 拉取 15 个标签 更新于 11个月前
-
mistral-small
Mistral Small 是一款轻量级模型,专为翻译和摘要等任务而设计,具有成本效益。
工具 220亿参数5.01万次 拉取 17 个标签 更新于 2个月前
-
wizardlm-uncensored
Wizard LM 模型的无审查版本
130亿参数4.81万次 拉取 18 个标签 更新于 13个月前
-
minicpm-v
一系列为视觉-语言理解而设计的多模态大语言模型(MLLMs)。
视觉 80亿4.7万次 拉取 17 个标签 更新于 2周前
-
yarn-mistral
Mistral 的扩展,支持 64K 或 128K 的上下文窗口。
7b4.3万次 拉取 33 个标签 更新于 13个月前
-
llama-pro
Llama 2 的扩展,专门用于集成通用语言理解和领域特定知识,特别是在编程和数学方面。
4.28万次 拉取 33 个标签 更新于 11个月前
-
nemotron-mini
由 NVIDIA 提供的商业友好型小型语言模型,针对角色扮演、RAG 问答和函数调用进行了优化。
工具 40亿参数42.8K 拉取 17 标签 更新于 2 个月前
-
medllama2
基于开源医疗数据集微调的 Llama 2 模型,用于回答医学问题。
7b40.7K 拉取 17 标签 更新于 13 个月前
-
meditron
开源医学大型语言模型,基于 Llama 2 针对医学领域进行了适配。
7b 70b40.2K 拉取 22 标签 更新于 12 个月前
-
llama3-groq-tool-use
来自 Groq 的一系列模型,代表了开源 AI 在工具使用/函数调用能力方面的重大进步。
工具 8b 70b39.4K 拉取 33 标签 更新于 4 个月前
-
nexusraven
Nexus Raven 是一个针对函数调用任务进行指令调优的 13B 模型。
130亿参数39.1K 拉取 32 标签 更新于 10 个月前
-
nemotron
Llama-3.1-Nemotron-70B-Instruct 是由 NVIDIA 定制的大型语言模型,旨在提高 LLM 生成的对用户查询响应的有用性。
工具 70b37.8K 拉取 17 标签 更新于 7 周前
-
nous-hermes2-mixtral
Nous Research 的 Nous Hermes 2 模型,现在基于 Mixtral 训练。
8x7b35.8K 拉取 18 标签 更新于 10 个月前
-
codeup
基于 Llama2 的优秀代码生成模型。
130亿参数34.4K 拉取 19 标签 更新于 13 个月前
-
smollm2
SmolLM2 是一系列紧凑型语言模型,提供三种尺寸:135M、360M 和 1.7B 参数。
工具 135m 360m 1.7b33.7K 拉取 49 标签 更新于 5 周前
-
everythinglm
基于 Llama2 的无审查模型,支持 16K 上下文窗口。
130亿参数32.8K 拉取 18 标签 更新于 11 个月前
-
magicoder
🎩 Magicoder 是一个包含 7B 参数的模型系列,使用 OSS-Instruct 在 75K 合成指令数据上训练,OSS-Instruct 是一种利用开源代码片段启发 LLM 的新方法。
7b29.7K 拉取 18 标签 更新于 12 个月前
-
stablelm-zephyr
一个轻量级聊天模型,可提供准确、响应迅速的输出,而无需高端硬件。
30 亿29K 拉取 17 标签 更新于 11 个月前
-
codebooga
通过合并两个现有的代码模型创建的高性能代码指令模型。
34b28.7K 拉取 16 标签 更新于 13 个月前
-
falcon2
Falcon2 是一个由 TII 构建并在 5T 标记上训练的 11B 参数因果仅解码器模型。
11b28.2K 拉取 17 标签 更新于 6 个月前
-
wizard-vicuna
Wizard Vicuna 是一个基于 Llama 2 的 13B 参数模型,由 MelodysDreamj 训练。
130亿参数27.5K 拉取 17 标签 更新于 13 个月前
-
granite3-dense
IBM Granite 2B 和 8B 模型旨在支持基于工具的用例并支持检索增强生成 (RAG),从而简化代码生成、翻译和错误修复。
工具 2b 8b27.2K 拉取 33 标签 更新于 2 周前
-
mistrallite
MistralLite 是一个基于 Mistral 的微调模型,具有增强的长上下文处理能力。
7b27.1K 拉取 17 标签 更新于 13 个月前
-
duckdb-nsql
由 MotherDuck 和 Numbers Station 制作的 7B 参数文本到 SQL 模型。
7b26.2K 拉取 17 标签 更新于 10 个月前
-
mathstral
MathΣtral:由 Mistral AI 设计的用于数学推理和科学发现的 7B 模型。
7b25.3K 拉取 17 标签 更新于 4 个月前
-
megadolphin
MegaDolphin-2.2-120b 是 Dolphin-2.2-70b 的一个变换版本,通过将模型自身交错创建。
120b23.8K 拉取 19 标签 更新于 11 个月前
-
notux
一个性能卓越的专家混合模型,使用高质量数据进行了微调。
8x7b22.8K 拉取 18 标签 更新于 11 个月前
-
solar-pro
Solar Pro 预览版:一个先进的大型语言模型(LLM),拥有 220 亿参数,设计用于单个 GPU。
220亿22.6K 拉取 18 标签 更新于 2 个月前
-
notus
一个基于 Zephyr 并使用高质量数据进行微调的 7B 聊天模型。
7b22.1K 拉取 18 标签 更新于 11 个月前
-
open-orca-platypus2
Open Orca OpenChat 模型和 Garage-bAInd Platypus 2 模型的合并。专为聊天和代码生成而设计。
130亿参数22K 拉取 17 标签 更新于 13 个月前
-
goliath
一个通过将两个经过微调的 Llama 2 70B 模型合并而成的语言模型。
21.8K 拉取 16 标签 更新于 12 个月前
-
reader-lm
一系列将 HTML 内容转换为 Markdown 内容的模型,适用于内容转换任务。
0.5b 1.5b21.7K 拉取 33 标签 更新于 2 个月前
-
granite3-moe
IBM Granite 1B 和 3B 模型是 IBM 推出的首批混合专家 (MoE) Granite 模型,专为低延迟使用而设计。
工具 1b 3b18.1K 拉取 33 标签 更新于 2 周前
-
nuextract
一个基于 Phi-3,在私有高质量合成数据集上微调的 3.8B 模型,用于信息提取。
38亿17.8K 拉取 17 标签 更新于 4 个月前
-
dbrx
DBRX 是 Databricks 创建的开放、通用的 LLM。
132b16.8K 拉取 7 标签 更新于 7 个月前
-
aya-expanse
Cohere For AI 的语言模型,经过训练可在 23 种不同语言中表现良好。
工具 8b 32b16.2K 拉取 33 标签 更新于 6 周前
-
firefunction-v2
一个基于 Llama 3 的开源函数调用模型,其函数调用能力可与 GPT-4o 相媲美。
工具 70b15.3K 拉取 17 标签 更新于 4 个月前
-
bge-large
BAAI 的嵌入模型,将文本映射到向量。
嵌入 335m14.4K 拉取 3 标签 更新于 4 个月前
-
alfred
一个强大的对话模型,设计用于聊天和指令用例。
40b13.6K 拉取 7 标签 更新于 12 个月前
-
marco-o1
阿里巴巴国际数字商业集团 (AIDC-AI) 推出的面向实际解决方案的开放式大型推理模型。
7b12.2K 拉取次数 5 标签 更新于 2 天前
-
deepseek-v2.5
DeekSeek-V2 的升级版本,融合了 DeepSeek-V2-Chat 和 DeepSeek-Coder-V2-Instruct 的通用和编码能力。
236b11.7K 拉取次数 7 标签 更新于 2 个月前
-
bespoke-minicheck
由 Bespoke Labs 开发的最先进的事实核查模型。
7b11.4K 拉取次数 17 标签 更新于 2 个月前
-
shieldgemma
ShieldGemma 是一组经过指令微调的模型,用于根据一组定义的安全策略评估文本提示输入和文本输出响应的安全性。
2b 9b 27b11.3K 拉取次数 49 标签 更新于 8 周前
-
llama-guard3
Llama Guard 3 是一系列针对 LLM 输入和响应的内容安全分类进行微调的模型。
1b 8b10.7K 拉取次数 33 标签 更新于 8 周前
-
paraphrase-multilingual
Sentence-transformers 模型,可用于聚类或语义搜索等任务。
嵌入 278m9,258 拉取次数 3 标签 更新于 4 个月前
-
opencoder
OpenCoder 是一个开放且可复现的代码 LLM 系列,包括 1.5B 和 8B 模型,支持中英文聊天。
1.5b 8b9,057 拉取次数 9 标签 更新于 2 周前
-
tulu3
Tülu 3 是一个领先的指令遵循模型系列,由艾伦人工智能研究所提供完全开源的数据、代码和配方。
8b 70b3,768 拉取次数 9 标签 更新于 2 周前
-
granite3-guardian
IBM Granite Guardian 3.0 2B 和 8B 模型旨在检测提示和/或响应中的风险。
2b 8b2,414 拉取 10 标签 更新于 2 周前
-
snowflake-arctic-embed2
Snowflake 的前沿嵌入模型。Arctic Embed 2.0 增加了多语言支持,同时不牺牲英语性能或可扩展性。
嵌入 568m614 拉取 3 标签 更新于 昨天
-
sailor2
Sailor2 是专为东南亚地区打造的多语言模型。提供 1B、8B 和 20B 参数大小的版本。
1b 8b 20b458 拉取 13 标签 更新于 2 天前