第一种,用python
#!/usr/bin/env python3
# -*- coding: utf-8 -*-
import os
os.environ["HF_ENDPOINT"] = "https://hf-mirror.com" # 设置为hf的国内镜像网站
from huggingface_hub import snapshot_download
model_name = "openbmb/MiniCPM-Llama3-V-2_5"
# while True 是为了防止断联
while True:
try:
snapshot_download(
repo_id=model_name,
local_dir_use_symlinks=True, # 在local-dir指定的目录中都是一些“链接文件”
local_dir=model_name,
token="", # huggingface的token
resume_download=True
)
break
except:
pass
第二种huggingface-cli
huggingface-cli
是 Hugging Face 官方提供的命令行工具,自带完善的下载功能。
1. 安装依赖
pip install -U huggingface_hub
Copy
2. 设置环境变量
Linux
export HF_ENDPOINT=https://hf-mirror.com
Copy
Windows Powershell
$env:HF_ENDPOINT = "https://hf-mirror.com"
Copy
建议将上面这一行写入 ~/.bashrc
。
3.1 下载模型
huggingface-cli download --resume-download gpt2 --local-dir gpt2
Copy
3.2 下载数据集
huggingface-cli download --repo-type dataset --resume-download wikitext --local-dir wikitext