比 DeepSeek 更好的模型以及如何在本地安装它们

您可以在本地安装某些 AI 模型

前几天我的伙伴Pablinux 他告诉他们 如何本地安装流行的人工智能模型。 在这篇文章中,我将列出我认为比 DeepSeek 更好的模型以及如何在我们的计算机上安装和运行它们。

抛开任何政治上的同情或反感,中国政府的举动堪称孙子兵法般的外交营销杰作。与唐纳德·特朗普的“瓷器里的大象”风格相反,他们宣布了一种免费提供与 ChatGPT 相同功能且消耗更少资源的模型。只有我们这些关注这个话题的人知道 长期以来,已经存在许多其他开源模型(一些来自北美公司,例如 Meta),而 DeepSeek 的性能仅在最常见的 5% 用途上与 ChatGPT 相当。

大规模语言模型

ChatGPT、DeepSeek 等被称为大规模语言模型。基本上 它们允许用户使用类似于与人类交流的语言与计算机进行交互。 为了实现这一目标,他们接受了大量文本和规则的训练,使他们能够从已有的信息中产生新的信息。
其主要用途是回答问题、总结文本、翻译和重现内容。

比 DeepSeek 更好的模型以及如何在本地安装它们

与 Pablinux 一样,我们将使用 Ollama。 这是一个允许我们从Linux终端安装、卸载和使用不同开源模型的工具。 在某些情况下,浏览器可以用作图形界面,但我们不会在本文中介绍这一点。

为了使 Ollama 提供适当的用户体验,最好配备专用 GPU.特别是在参数较多的模型中。但是,功能较弱的可以在 Raspberry Pi 上使用,而且当我在一台只有 7 GB 且没有专用 GPU 的计算机上测试具有 6 亿个参数的模型时,计算机运行时也没有出现任何问题。而对于 13 亿人来说,同样的事情却没有发生。

参数是模型用来在数据之间建立关系和构建模式的规则。 参数和数据越多,模型就越强大;参数较少的人就像泰山一样说西班牙语。

我们可以使用命令安装 Ollama
sudo apt install curl
curl -fsSL https://ollama.com/install.sh | sh

我们可以使用以下命令安装模型:
ollama pull nombre_del modelo
并运行它:
ollama run nombre_del_modelo
我们使用以下命令卸载它:
ollama rm nombre_del_modelo
我们可以通过输入以下命令来查看已安装的模型:
ollama list

以下是我认为最有趣的模型的一个小列表:完整的可用模型列表可以在这里找到 信息:

llama2-未经审查

Llama 是 Meta 创建的通用模型。 在此版本中,原始项目开发人员出于法律或政治原因引入的所有限制均被删除。。它有两个版本,轻量版可管理 8GB,完整版则需要 64GB。它可用于回答问题、编写文本或执行编码任务。
安装:
ollama pull llama2-uncensored
并且它运行:
ollama run llama2-uncensored

代码gemma

CodeGemma 是一系列轻量级但功能强大的模板,可让您执行各种编程任务 如何完成代码或从头开始编写代码。理解自然语言,能遵循指令并进行数学推理。

它有 3 种变体:

  • 指导: 它将自然语言转换成代码并能遵循指令:
  • 代码:  从现有代码的部分完成并生成代码。
  • 2b: 更快的代码完成任务。

泰尼拉马

顾名思义,它是原始 Meta 模型的较小版本。。因此它不会有那么好的结果,但如果你想看看人工智能模型在普通硬件上是如何工作的,那么值得尝试一下。它只有1100亿个参数。

在本地使用模型具有隐私优势,并且可以访问未经审查和无偏见的版本,但在某些情况下往往会变得荒谬。微软的人工智能拒绝为我创建腊肠犬的图像,因为它认为“婊子”这个词具有冒犯性。最大的缺点是硬件要求。这将是一个尝试模型并找到一个足够好以满足您的需要并能在现有设备上运行的模型的问题。


发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责数据:MiguelÁngelGatón
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。