About 76,100,000 results
Open links in new tab
  1. 如何看Meta最新开源的Llama3.3-70B-Instruct,它和之前的Llama有什 …

    Llama 3.3-70B-Instruct在多语言支持方面表现出色,尽管目前不支持中文,但它支持多达8种语言的文本输入和输出,这为全球开发者提供了广泛的应用可能性。 随着社区的不断壮大和技术的持续迭 …

  2. 如何看待 Meta 发布 Llama3,并将推出 400B+ 版本? - 知乎

    -如果Meta 的LLAMA-3系列全面开源,甚至之后的LLAMA-4也持续开源(目前看这个可能性是较大的,Meta的开源决心比较大,相比而言,谷歌还是决心不太够,商业利益考虑更多些),那么国内应 …

  3. LM-studio模型加载失败? - 知乎

    如题:选择deepseek-8b-llama-ggufgpu选择32层加载模型时报错:Error loading model.(Exit code: 1844674…

  4. 如何评价Llama 4? - 知乎

    Apr 5, 2025 · 如何评价Llama 4? https://www.llama.com/ 显示全部 关注者 13 被浏览

  5. 如何评价 Meta 刚刚发布的 LLama 4 系列大模型? - 知乎

    Apr 5, 2025 · llama真是吊死在DPO上了..... 新架构infra,长上下文,Reasoning RL,工程性coding可能还是大家今年的主攻方向。 移步转眼,时间快来到了2025年中旬,Openai,Anthropic,Deepseek …

  6. LLaMa-1 技术详解 - 知乎

    Sep 26, 2025 · LLaMa 的开源大大降低了大模型研发的门槛,随着 LLaMa-2 的发布,相信很多公司都会选择 LLaMa,下一篇文章再详细解读下 LLaMa-2 相比 LLaMa-1 做了哪些优化。

  7. Ollama和llama.cpp什么关系,或者说有关系吗? - 知乎

    Ollama和llama.cpp什么关系,或者说有关系吗? 看上去像是Ollama是对llama.cpp的封装和添加了很多内容,Ollama底层是llama.cpp吗? 显示全部 关注者 75 被浏览

  8. Deepseek为什么蒸馏llama和Qwen模型,而不用671B满血 ... - 知乎

    Feb 17, 2025 · 而DeepSeek就是用自己的这个DeepSeek-R1的671B的大模型当作教师模型来训更小的llama和Qwen等“学生”模型。 对“蒸馏”想深入了解的话,可以看这篇综述:

  9. 为什么都在用ollama而lm studio却更少人使用? - 知乎

    3. 还有一点,ollama是llama.cpp实现模型推理,模型小,速度快。 4. 还有,ollama提供11434端口的web服务,重要的是还兼容openai的端点接口,可以和各种前端配合,比如ollama自己open webui, …

  10. 草泥马是alpaca还是llama,两者的区别主要是什么? - 知乎

    Final复习中 有一门课叫做introduction to livestock 它的final包括三部分 其中part1是breed identification 有Camelids。 Camelids主要包括 双峰驼 单峰驼 原驼 美洲驼 羊驼 小羊驼 骆驼camel包括双峰 …