使用 XPU 安装#
vLLM 最初支持在英特尔 GPU 平台上进行基本的模型推理和服务。
目录:
要求#
操作系统:Linux
支持的硬件:英特尔数据中心 GPU(英特尔 ARC GPU 正在开发中)
OneAPI 要求:oneAPI 2024.1
使用 Dockerfile 快速入门#
$ docker build -f Dockerfile.xpu -t vllm-xpu-env --shm-size=4g .
$ docker run -it \
--rm \
--network=host \
--device /dev/dri \
-v /dev/dri/by-path:/dev/dri/by-path \
vllm-xpu-env
从源代码构建#
首先,安装所需的驱动程序和英特尔 OneAPI 2024.1 或更高版本。
其次,安装用于构建 vLLM XPU 后端的 Python 包:
$ source /opt/intel/oneapi/setvars.sh
$ pip install --upgrade pip
$ pip install -v -r requirements-xpu.txt
最后,构建并安装 vLLM XPU 后端:
$ VLLM_TARGET_DEVICE=xpu python setup.py install
备注
FP16 是当前 XPU 后端的默认数据类型。BF16 数据类型将在未来得到支持。