如何在计算机本地安装和使用 DeepSeek-R1,无论您使用 Ubuntu 还是任何其他系统

  • DeepSeek-R1是一个具有高级推理能力的开源模型。
  • Ollama 简化了本地 AI 模型的安装和管理。
  • ChatBoxAI 提供了一个图形界面来与 DeepSeek 等模型进行交互。
  • 该模型可以使用Python轻松集成到开发项目中。

Ubuntu 上的 DeepSeek-R1

人工智能继续改变我们的世界,使用高级语言模型的选择正在突飞猛进。然而,并不是每个人都需要连接到云服务或依赖第三方来探索这些技术。一个有趣且易于使用的替代方案是 DeepSeek-R1,一种人工智能模型,允许用户在普通计算机上本地运行它。在本文中,我将解释如何安装 DeepSeek 并充分利用其功能。

DeepSeek-R1 是 开源人工智能模型 它以其效率和先进的推理能力而脱颖而出。通过在本地运行,您不仅可以节省经常性成本,还可以保护您的隐私并获得将其集成到自定义项目中的灵活性。尽管某些型号需要强大的硬件,但 DeepSeek-R1 提供了针对不同资源(从基本计算机到高级工作站)进行调整的版本。

什么是 DeepSeek 以及为什么在本地使用它?

DeepSeek-R1 是 专为逻辑推理等复杂任务而设计的高级语言模型,解决数学问题并生成代码。它的主要优点是它是开源的,这意味着您可以在自己的计算机上安装并运行它,而不需要依赖外部服务器。

它的一些显着特点包括:

  • 灵活性: 您可以根据您的需求调整模型,从轻型版本到高级配置。
  • 隐私: 所有处理均在本地完成,避免了敏感数据泄露的担忧。这也许是最重要的一点,因为许多人关心公司可以利用我们的数据做什么。
  • 储蓄: 您无需在订阅或云服务上花钱,这使其成为开发人员和企业负担得起的选择。

安装要求

开始安装之前,请确保遵守以下要求 要求:

  • 具有 Linux、macOS 或 Windows 操作系统的计算机(在后一种情况下支持 WSL2)。
  • 最少 GB的RAM 8,虽然建议至少 16 GB 以获得最佳性能。
  • 最初访问互联网下载模型。
  • 终端或命令行的基本知识。

另外, 你需要安装一个名为 奥拉马,它在本地管理和运行 DeepSeek 模型。

奥拉马安装

奥拉马 是一个简单的解决方案,允许您下载并运行语言模型,例如 DeepSeek-R1。 要安装它,请按照下列步骤操作:

  1. 在 Linux 或 macOS 上,打开终端并运行以下命令来安装 Ollama - 软件包 卷曲 显然这是必要的——:
卷曲-fsSL https://ollama.com/install.sh |嘘
  1. 在 Windows 系统上,确保预先启用 WSL2,然后在 Ubuntu 终端中按照在 WSL 中配置的相同步骤进行操作。
  2. 通过运行验证 Ollama 是否已正确安装 ollama --version。如果该命令返回版本号,则您已准备好继续前进。

DeepSeek-R1 下载

安装并运行 Ollama (ollama serve 如果我们稍后解释的下载失败,请在终端中下载),现在您可以下载最适合您的需求和硬件的 DeepSeek 模型:

  • 1.5B参数: 非常适合基本计算机。该模型约占 1.1 GB.
  • 7B参数: 推荐用于具有 图形处理器 中高。这大约占据 4.7 GB.
  • 70B参数: 对于设备上的复杂任务 大容量 内存和强大的 GPU。

要下载标准 7B 模型,请在终端中运行以下命令:

Olama Run Deepseek-R1

下载时间将取决于您的互联网速度,并且仅在我们第一次运行聊天机器人时才需要。完成后,该模型就可以通过命令行或图形界面使用。

通过图形界面使用 DeepSeek

尽管您可以直接从终端与 DeepSeek 交互,但许多用户为了方便起见更喜欢图形界面。在这种情况下,您可以安装 聊天盒子AI,一个免费的应用程序,可让您利用 DeepSeek 视觉形式.

  • 下载并安装 聊天盒子AI它的官方页面.
  • 设置要使用的应用程序 奥拉马 作为模范供应商:

在 ChatBoxAI 设置中,选择“使用我自己的 API”,然后选择您之前下载的 DeepSeek 模型。如果一切配置正确,您将能够直接从图形界面执行查询和任务。

DeepSeek 集成到项目中

如果您是开发人员,您可以使用 DeepSeek 将其集成到您的项目中 API 兼容 OpenAI。这是一个简单的例子,使用 Python :

导入 openai 客户端 = openai.Client(base_url="http://localhost:11434/v1", api_key="ollama") 响应 = client.chat.completions.create(model="deepseek-r1", messages=[{ "role": "user", "content": "在Python中生成代码来计算斐波那契"}])

该脚本将向本地 DeepSeek 模型发送查询,并在您的终端或应用程序中返回结果。

DeepSeek-R1 AI 模型对于那些寻求帮助的人来说是一个绝佳的选择 先进且经济的解决方案。凭借 Ollama 提供的易用性、模型的灵活性以及集成到自定义项目的能力,DeepSeek 为开发人员、学生和 AI 专家开辟了新的可能性。由于其对隐私和性能的关注,它是一个值得彻底探索的工具。


发表您的评论

您的电子邮件地址将不会被发表。 必填字段标有 *

*

*

  1. 负责数据:MiguelÁngelGatón
  2. 数据用途:控制垃圾邮件,注释管理。
  3. 合法性:您的同意
  4. 数据通讯:除非有法律义务,否则不会将数据传达给第三方。
  5. 数据存储:Occentus Networks(EU)托管的数据库
  6. 权利:您可以随时限制,恢复和删除您的信息。