-
Notifications
You must be signed in to change notification settings - Fork 1.1k
New issue
Have a question about this project? Sign up for a free GitHub account to open an issue and contact its maintainers and the community.
By clicking “Sign up for GitHub”, you agree to our terms of service and privacy statement. We’ll occasionally send you account related emails.
Already on GitHub? Sign in to your account
Improve HF download speed #1899
Conversation
I think I tested the same approach and it didn't work. ⚡ rasbt-patch-4 ~/litgpt export repo_id=Qwen/Qwen2.5-0.5B-Instruct
⚡ rasbt-patch-4 ~/litgpt litgpt download $repo_id
Setting HF_HUB_ENABLE_HF_TRANSFER=1
config.json: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 659/659 [00:00<00:00, 7.81MB/s]
generation_config.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 242/242 [00:00<00:00, 1.32MB/s]
model.safetensors: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████| 988M/988M [01:35<00:00, 10.4MB/s]
tokenizer.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████| 7.03M/7.03M [00:00<00:00, 12.0MB/s]
tokenizer_config.json: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████| 7.30k/7.30k [00:00<00:00, 69.2MB/s]
Converting checkpoint files to LitGPT format.
{'checkpoint_dir': PosixPath('checkpoints/Qwen/Qwen2.5-0.5B-Instruct'),
'debug_mode': False,
'dtype': None,
'model_name': None}
Loading weights: model.safetensors: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████| 00:01<00:00, 76.08it/s
Saving converted checkpoint to checkpoints/Qwen/Qwen2.5-0.5B-Instruct
⚡ rasbt-patch-4 ~/litgpt export HF_HUB_ENABLE_HF_TRANSFER=1
⚡ rasbt-patch-4 ~/litgpt rm -rf checkpoints
⚡ rasbt-patch-4 ~/litgpt litgpt download $repo_id
config.json: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████████████| 659/659 [00:00<00:00, 9.15MB/s]
generation_config.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████| 242/242 [00:00<00:00, 1.54MB/s]
model.safetensors: 100%|██████████████████████████████████████████████████████████████████████████████████████████████████████████████▉| 988M/988M [00:02<00:00, 459MB/s]
tokenizer.json: 100%|███████████████████████████████████████████████████████████████████████████████████████████████████████████████| 7.03M/7.03M [00:00<00:00, 22.1MB/s]
tokenizer_config.json: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████| 7.30k/7.30k [00:00<00:00, 64.1MB/s]
Converting checkpoint files to LitGPT format.
{'checkpoint_dir': PosixPath('checkpoints/Qwen/Qwen2.5-0.5B-Instruct'),
'debug_mode': False,
'dtype': None,
'model_name': None}
Loading weights: model.safetensors: 100%|████████████████████████████████████████████████████████████████████████████████████████████████████████| 00:01<00:00, 75.90it/s
Saving converted checkpoint to checkpoints/Qwen/Qwen2.5-0.5B-Instruct 2 seconds vs 1 minute 35 seconds. |
@Andrei-Aksionov thanks for checking, I will poke around a bit more |
Hm, this is weird: With the code in
So I think all one needs to do is to add |
Addresses the speed issue discussed in #1886. I think the issue is that the setting needs to happen before importing huggingface packages @Andrei-Aksionov .