Enable javascript in your browser for better experience. Need to know to enable it? Go here.
发布于 : Apr 03, 2024
不在本期内容中
这一条目不在当前版本的技术雷达中。如果它出现在最近几期中,那么它很有可能仍然具有相关参考价值。如果这一条目出现在更早的雷达中,那么它很有可能已经不再具有相关性,我们的评估将不再适用于当下。很遗憾我们没有足够的带宽来持续评估以往的雷达内容。 了解更多
Apr 2024
评估 ?

MixtralMistral 发布的开放权重大语言模型家族的一部分,它采用了稀疏混合专家架构。这个模型家族以 7B 和 8x7B 参数大小的形式,提供原始预训练和微调版本。其大小、开放权重特性、基准测试中的性能以及 32,000 个 token 的上下文长度,使其成为自托管大语言模型中一个非常耀眼的选择。需要注意的是,这些开放权重模型并没有针对安全性进行优化调整,用户需要根据自己的用例进行精细调整。我们在开发与特定印度法律任务相关的数据上训练的精调 Mistral 7B 模型 Aalap方面有一定经验,该模型在有限成本的基础上表现相当好

下载 PDF

 

English | Español | Português | 中文

订阅技术雷达简报

 

立即订阅

查看存档并阅读往期内容