如何在本地使用Phi-4 GGUF模型:快速入门指南

2024/12/20 21:04:16

本文主要是介绍如何在本地使用Phi-4 GGUF模型:快速入门指南,对大家解决编程问题具有一定的参考价值,需要的程序猿们随着小编来一起学习吧!

微软的Phi-4是一款最近发布的高级语言模型,采用GGUF格式。该模型支持本地部署和使用。本指南将指导您在自己的机器上安装和使用Phi-4 GGUF的过程,让您能够利用其进行各种自然语言处理任务。

如果你在寻找一个集成了所有功能的人工智能平台,它可以集中管理所有AI订阅,包括但不限于:

  • 几乎任何大型语言模型,例如:Claude 3.5 Sonnet,Google Gemini,GPT-40 和 GPT-o1,Qwen 模型及其他开源模型。
  • 你甚至可以使用未经过滤的 Dolphin Mistral 和 Llama 模型!
  • 最佳的 AI 图像生成模型,例如:FLUX、Stable Diffusion 3.5 和 Recraft

  • 你甚至可以将 Minimax、Runway Gen-3 和 Luma AI 这样的 AI 视频生成模型与 Anakin AI 一起使用

Anakin.ai — 一站式AI应用平台,生成内容、图像、视频和语音;创建自动化工作流、定制AI应用和智能代理。您的应用入口…app.anakin.ai
Phi-4:虽小却强大

Phi-4 是微软 Phi 系列语言模型的最新迭代。它代表了人工智能技术的显著进步,旨在更高效和更准确地处理各种语言任务。GGUF(GPT 生成的统一格式)是一种文件格式,用于在消费级硬件上高效加载和推理大型语言模型。

微软Phi-4性能基准

Phi-4的关键特点如下:

高级自然语言理解,改进的上下文保持能力,以及在各种NLP任务上的表现得到增强。

关于GGUF格式的优势:

  • 更小的内存占用
  • 更快的加载速度
  • 更适合消费级硬件

我们来看看Phi-4和其他流行模型在AMC 10/12测试中的表现对比。

下载一下 Phi-4 GGUF

要开始使用Phi-4 GGUF,首先需要下载模型文件。截至目前,一个非官方的版本可以通过Hugging Face上某个社区成员的仓库获取。

下载步骤如下:

  1. 访问Hugging Face仓库:https://huggingface.co/matteogeniaccio/phi-4/tree/main
  2. 根据您的需求选择合适的量化版本(Q8_0、Q6_K或f16)
  3. 下载您选择的模型文件

请注意:微软官方很快就会发布,可能会包含更多功能和优化。

设置您的工作环境

在运行Phi-4 GGUF之前,配置环境,安装所需的工具和依赖项。所需软件包括:

  • Python 3.7 或更高版本(推荐使用)
  • Git(用于克隆代码库)
  • 兼容的推理引擎(如 llama.cpp 或 Ollama)

安装步骤:

  1. 如果没有安装,从官方网站安装Python
  2. 如果您的系统中没有Git,从git-scm.com下载并安装Git
  3. 选择并安装一个推断引擎(详情请见下文)
使用 Phi-4 GGUF 模型和 llama.cpp

llama.cpp 是一个流行的推理工具,用于在本地运行大规模语言模型。下面是如何设置它以配合 Phi-4 GGUF 使用。

开始搭建 llama.cpp:

  • 首先,克隆 llama.cpp 代码库:

在终端输入以下命令克隆代码库:

git clone https://github.com/ggerganov/llama.cpp.git

使用git clone命令来克隆仓库。

  • 进入克隆后的文件夹。
cd llama.cpp
# 切换到名为llama.cpp的目录
  • 来构建项目吧:

使用 Phi-4 和 llama.cpp:

  1. 将下载的Phi-4 GGUF文件放于models目录中
  2. 使用下面的命令运行这个模型:
    ./main -m models/phi-4-q8_0.gguf -n 1024 --repeat_penalty 1.1 --temp 0.1 -p "在这里输入您的提示语"

根据您的具体需求调整参数。

更多详情请参考这个 PR 在 llama.cpp 仓库里的内容。

fairydreaming 提交的拉取请求(PR)#10817 增加了对Microsoft Phi-4模型的支持。解决了#10814中的问题。使用了“Phi 4”作为模型名称。
部署 Phi-4 GGUF 在 Ollama 上

Ollama 是另一个优秀的工具,用于本地运行语言模型,拥有更友好的用户界面。以下是安装 Ollama 的步骤:

  1. 浏览 https://ollama.ai/ 并下载适合您操作系统的版本并安装
  2. 按照网站上的安装指南进行操作

在 Ollama 中运行 Phi-4 模型。

  1. 创建一个名称为 Modelfile 的文件,其内容如下:

试试这个命令来测试模型:看看效果如何:

运行ollama run vanilj/Phi-4

更多详情请见链接:

vanilj/Phi-4Microsoft的Phi-4模型 (https://ollama.com/vanilj/Phi-4?source=post_page-----43f1fea81609--------------------------------)
最后的结论

Phi-4 GGUF 代表在使高级语言模型可供本地部署方面是一个重大进步。通过遵循本指南,你现在应该能够下载、设置和使用 Phi-4 GGUF 进行各种自然语言处理任务。在探索其功能的过程中,请随时关注 AI 和语言模型领域的最新发展和最佳实践。



这篇关于如何在本地使用Phi-4 GGUF模型:快速入门指南的文章就介绍到这儿,希望我们推荐的文章对大家有所帮助,也希望大家多多支持为之网!


扫一扫关注最新编程教程