{"id":466617,"date":"2025-07-10T09:00:17","date_gmt":"2025-07-10T09:00:17","guid":{"rendered":"http:\/\/savepearlharbor.com\/?p=466617"},"modified":"-0001-11-30T00:00:00","modified_gmt":"-0001-11-29T21:00:00","slug":"","status":"publish","type":"post","link":"https:\/\/savepearlharbor.com\/?p=466617","title":{"rendered":"<span>\u0422\u0443\u0442\u043e\u0440\u0438\u0430\u043b: \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u0435\u043c Hunyuan-A13B \u043c\u043e\u0434\u0435\u043b\u044c \u043d\u0430 vLLM \u0438 \u043d\u0430 llama.cpp<\/span>"},"content":{"rendered":"<div><!--[--><!--]--><\/div>\n<div id=\"post-content-body\">\n<div>\n<div class=\"article-formatted-body article-formatted-body article-formatted-body_version-2\">\n<div xmlns=\"http:\/\/www.w3.org\/1999\/xhtml\">\n<p>\u041d\u0435\u0434\u0430\u0432\u043d\u043e \u0432\u044b\u0448\u043b\u0430 \u043d\u043e\u0432\u0430\u044f \u043c\u043e\u0434\u0435\u043b\u044c &#8212; Hunyuan-A13B:<\/p>\n<p><a href=\"https:\/\/huggingface.co\/tencent\/Hunyuan-A13B-Instruct-GPTQ-Int4\" rel=\"noopener noreferrer nofollow\">https:\/\/huggingface.co\/tencent\/Hunyuan-A13B-Instruct-GPTQ-Int4<\/a> (\u044d\u0442\u043e \u0443\u0436\u0435 \u043a\u0432\u0430\u043d\u0442).<\/p>\n<p>\u041f\u043e \u0442\u0435\u0441\u0442\u0430\u043c &#8212; \u043c\u043e\u0434\u0435\u043b\u044c \u043d\u0430 \u0443\u0440\u043e\u0432\u043d\u0435 \u043b\u0443\u0447\u0448\u0438\u0445:<\/p>\n<figure class=\"full-width\"><img decoding=\"async\" src=\"https:\/\/habrastorage.org\/r\/w1560\/getpro\/habr\/upload_files\/480\/1f7\/26e\/4801f726eef0b6ed3648ecee5c20b31e.png\" width=\"1029\" height=\"686\" sizes=\"auto, (max-width: 780px) 100vw, 50vw\" srcset=\"https:\/\/habrastorage.org\/r\/w780\/getpro\/habr\/upload_files\/480\/1f7\/26e\/4801f726eef0b6ed3648ecee5c20b31e.png 780w,&#10;       https:\/\/habrastorage.org\/r\/w1560\/getpro\/habr\/upload_files\/480\/1f7\/26e\/4801f726eef0b6ed3648ecee5c20b31e.png 781w\" loading=\"lazy\" decode=\"async\"\/><\/figure>\n<p>\u042d\u0442\u043e MOE (Mixture of Experts), \u0440\u0430\u0437\u043c\u0435\u0440 \u043c\u043e\u0434\u0435\u043b\u0438 &#8212; 80 \u043c\u0438\u043b\u043b\u0438\u0430\u0440\u0434\u043e\u0432 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440\u043e\u0432, \u043d\u043e \u0434\u043b\u044f \u0432\u044b\u0447\u0438\u0441\u043b\u0435\u043d\u0438\u0435 \u0441\u043b\u0435\u0434\u0443\u044e\u0449\u0435\u0433\u043e \u0442\u043e\u043a\u0435\u043d\u0430 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u0442\u0441\u044f \u043e\u0433\u0440\u0430\u043d\u0438\u0447\u0435\u043d\u043d\u043e\u0435 \u043a\u043e\u043b\u0438\u0447\u0435\u0441\u0442\u0432\u043e &#171;\u044d\u043a\u0441\u043f\u0435\u0440\u0442\u043e\u0432&#187;, \u043a\u043e\u0442\u043e\u0440\u044b\u0435 \u0430\u043a\u0442\u0438\u0432\u0438\u0437\u0438\u0440\u0443\u044e\u0442 \u0442\u043e\u043b\u044c\u043a\u043e 13 \u043c\u0438\u043b\u043b\u0438\u0430\u0440\u0434\u043e\u0432.<\/p>\n<p>\u042f \u0437\u0430\u043c\u0435\u0442\u0438\u043b, \u0447\u0442\u043e \u043a\u043e\u0433\u0434\u0430 \u0432\u044b\u043a\u0430\u0442\u044b\u0432\u0430\u044e\u0442 \u043d\u043e\u0432\u044b\u0435 \u043c\u043e\u0434\u0435\u043b\u0438, \u0442\u043e \u0434\u043b\u044f \u043d\u0438\u0445 \u043e\u0431\u044b\u0447\u043d\u043e \u0433\u043e\u0442\u043e\u0432\u044f\u0442 \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u043a\u0443 \u0432 \u0442\u0430\u043a\u0438\u0445 \u0434\u0432\u0438\u0436\u043a\u0430\u0445, \u043a\u0430\u043a <strong>vLLM<\/strong>, \u0430 \u0432\u043e\u0442 \u0434\u043b\u044f &#171;\u043d\u0430\u0440\u043e\u0434\u043d\u043e\u0433\u043e&#187; <strong>llama.cpp<\/strong> &#8212; \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u043a\u0430 \u043f\u0440\u0438\u0445\u043e\u0434\u0438\u0442 \u0441 \u0437\u0430\u0434\u0435\u0440\u0436\u043a\u043e\u0439 \u0432 \u043d\u0435\u0441\u043a\u043e\u043b\u044c\u043a\u043e \u043d\u0435\u0434\u0435\u043b\u044c.<\/p>\n<p><strong>vLLM<\/strong><\/p>\n<p><a href=\"https:\/\/github.com\/vllm-project\/vllm\" rel=\"noopener noreferrer nofollow\">https:\/\/github.com\/vllm-project\/vllm<\/a><\/p>\n<p>\u042d\u0442\u043e \u0431\u043e\u043b\u0435\u0435 &#171;\u044d\u043d\u0442\u0435\u0440\u043f\u0440\u0430\u0439\u0437\u043d\u044b\u0439&#187; \u0434\u0432\u0438\u0436\u043e\u043a.<\/p>\n<p>\u0423 \u043d\u0435\u0433\u043e \u043b\u0443\u0447\u0448\u0435 \u0441\u0434\u0435\u043b\u0430\u043d\u0430 \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u043a\u0430 \u043c\u043d\u043e\u0433\u0438\u0445 \u0437\u0430\u043f\u0440\u043e\u0441\u043e\u0432 \u043e\u0434\u043d\u043e\u0432\u0440\u0435\u043c\u0435\u043d\u043d\u043e.<\/p>\n<p>\u0412 \u0447\u0451\u043c <strong>vLLM<\/strong> \u043e\u0442\u043b\u0438\u0447\u0430\u0435\u0442\u0441\u044f \u043e\u0442 <strong>llama.cpp<\/strong>?<\/p>\n<ul>\n<li>\n<p><strong>llama.cpp<\/strong> \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u0438\u0432\u0430\u0435\u0442 GGUF \u043a\u0432\u0430\u043d\u0442\u044b, \u0430 <strong>vLLM<\/strong> &#8212; \u043d\u0435 \u043e\u0447\u0435\u043d\u044c (<a href=\"https:\/\/docs.vllm.ai\/en\/latest\/features\/quantization\/index.html\" rel=\"noopener noreferrer nofollow\">https:\/\/docs.vllm.ai\/en\/latest\/features\/quantization\/index.html<\/a>). <strong>vLLM<\/strong> \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u0438\u0432\u0430\u0435\u0442 \u043a\u0432\u0430\u043d\u0442\u044b INT4, \u0441 \u043a\u043e\u0442\u043e\u0440\u044b\u043c\u0438 <strong>llama.cpp<\/strong> \u0432\u043e\u043e\u0431\u0449\u0435 \u043d\u0435 \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442.<\/p>\n<\/li>\n<li>\n<p><strong>llama.cpp<\/strong> \u043c\u043e\u0436\u043d\u043e \u0437\u0430\u043f\u0443\u0441\u0442\u0438\u0442\u044c \u0442\u0430\u043a, \u0447\u0442\u043e\u0431\u044b \u0432\u044b\u0433\u0440\u0443\u0437\u0438\u0442\u044c \u043c\u043e\u0434\u0435\u043b\u044c \u043d\u0430 \u043e\u0434\u043d\u0443 \u0438\u043b\u0438 \u043d\u0435\u0441\u043a\u043e\u043b\u044c\u043a\u043e GPU \u0438 \u0447\u0430\u0441\u0442\u0438\u0447\u043d\u043e \u0432 \u043f\u0430\u043c\u044f\u0442\u044c. \u0423 <strong>vLLM<\/strong> \u0432 \u044d\u0442\u043e\u043c \u043f\u043b\u0430\u043d\u0435 \u043d\u0430\u043c\u043d\u043e\u0433\u043e \u043c\u0435\u043d\u044c\u0448\u0435 \u0432\u0430\u0440\u0438\u0430\u043d\u0442\u043e\u0432. \u041d\u0435\u0441\u043a\u043e\u043b\u044c\u043a\u043e \u043e\u0434\u0438\u043d\u0430\u043a\u043e\u0432\u044b\u0445 GPU \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u0438\u0432\u0430\u0435\u0442\u0441\u044f &#8212; \u0430 \u0440\u0430\u0437\u043d\u044b\u0435 GPU, \u0438\u043b\u0438 GPU + RAM \u043d\u0435 \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u044e\u0442\u0441\u044f. \u041c\u043e\u0436\u0435\u0442 \u0438 \u0435\u0441\u0442\u044c \u043a\u0430\u043a\u0438\u0435 &#171;\u0442\u0430\u043d\u0446\u044b \u0441 \u0431\u0443\u0431\u043d\u043e\u043c&#187; \u0434\u043b\u044f \u0442\u0430\u043a\u0438\u0445 \u0432\u0435\u0449\u0435\u0439, \u043d\u043e \u0443 \u043c\u0435\u043d\u044f \u043d\u0435 \u0437\u0430\u043f\u0443\u0441\u0442\u0438\u043b\u043e\u0441\u044c.<\/p>\n<\/li>\n<li>\n<p><strong>vLLM <\/strong>\u043b\u0443\u0447\u0448\u0435 \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u0438\u0432\u0430\u0435\u0442 \u043e\u0434\u043d\u043e\u0432\u0440\u0435\u043c\u0435\u043d\u043d\u044b\u0435 \u0437\u0430\u043f\u0440\u043e\u0441\u044b, \u0431\u043e\u043b\u0435\u0435 \u044d\u0444\u0444\u0435\u043a\u0442\u0438\u0432\u043d\u043e \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u0442 KV cache \u043f\u043e\u0434 \u043a\u0430\u0436\u0434\u044b\u0439 \u0437\u0430\u043f\u0440\u043e\u0441.<\/p>\n<\/li>\n<\/ul>\n<p>\u041a\u043e\u043d\u043a\u0440\u0435\u0442\u043d\u043e \u0432 \u0441\u043b\u0443\u0447\u0430\u0435 \u0441 \u044d\u0442\u043e\u0439 \u043c\u043e\u0434\u0435\u043b\u044c\u044e, \u043f\u0440\u0435\u0438\u043c\u0443\u0449\u0435\u0441\u0442\u0432\u043e <strong>vLLM<\/strong> \u0432 \u0442\u043e\u043c, \u0447\u0442\u043e \u043a\u0432\u0430\u043d\u0442 INT4 \u0432\u044b\u043f\u0443\u0449\u0435\u043d \u0440\u0430\u0437\u0440\u0430\u0431\u043e\u0442\u0447\u0438\u043a\u0430\u043c\u0438 \u043c\u043e\u0434\u0435\u043b\u0438, \u0438 \u043a\u0430\u043a \u043e\u043d\u0438 \u043f\u0438\u0448\u0443\u0442, \u043d\u0430\u0442\u0440\u0435\u043d\u0438\u0440\u043e\u0432\u0430\u043d \u044d\u0442\u043e\u0442 \u043a\u0432\u0430\u043d\u0442 \u0431\u044b\u043b \u0432\u043c\u0435\u0441\u0442\u0435 \u0441 \u043e\u0441\u043d\u043e\u0432\u043d\u043e\u0439 \u043c\u043e\u0434\u0435\u043b\u044c\u044e, \u0442\u043e \u0435\u0441\u0442\u044c \u043a\u0430\u0447\u0435\u0441\u0442\u0432\u043e \u0432\u044b\u0448\u0435, \u0447\u0435\u043c \u043d\u0430\u043f\u0440\u0438\u043c\u0435\u0440 \u0443 \u043a\u0432\u0430\u043d\u0442\u043e\u0432 GGUF. <\/p>\n<p>\u041a\u0432\u0430\u043d\u0442 INT4 \u0437\u0430\u043d\u0438\u043c\u0430\u0435\u0442 40GB VRAM. \u041f\u043b\u044e\u0441 \u043d\u0443\u0436\u043d\u0430 \u043f\u0430\u043c\u044f\u0442\u044c \u0434\u043b\u044f \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430.<\/p>\n<p>\u041f\u043e\u043b\u0443\u0447\u0430\u0435\u0442\u0441\u044f, \u043a\u0430\u043a \u043c\u0438\u043d\u0438\u043c\u0443\u043c \u043d\u0443\u0436\u043d\u043e 48GB VRAM. \u0422\u043e\u0433\u0434\u0430 \u043f\u043e\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442 \u043d\u0430 19500 \u0442\u043e\u043a\u0435\u043d\u043e\u0432.<\/p>\n<p>\u042f \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u043b \u043d\u0430 \u043a\u0438\u0442\u0430\u0439\u0441\u043a\u043e\u0439 \u043f\u043e\u0434\u0435\u043b\u043a\u0435: RTX 4090D 48GB VRAM.<\/p>\n<p><strong>\u0417\u0430\u043f\u0443\u0441\u043a\u0430\u0435\u043c vLLM \u0432 Docker compose<\/strong><\/p>\n<p><code>services:<\/code><br \/><code>  vllm:<\/code><br \/><code>    image: vllm\/vllm-openai:latest<\/code><br \/><code>    container_name: Hunyuan80B<\/code><br \/><code>    deploy:<\/code><br \/><code>      resources:<\/code><br \/><code>        reservations:<\/code><br \/><code>          devices:<\/code><br \/><code>            - driver: nvidia<\/code><br \/><code>              capabilities: [gpu]<\/code><br \/><code>    ports:<\/code><br \/><code>      - \"37000:8000\"<\/code><br \/><code>    volumes:<\/code><br \/><code>      - \/home\/user\/.cache\/huggingface:\/root\/.cache\/huggingface<\/code><br \/><code>    ipc: host<\/code><br \/><code>    command:<\/code><br \/><code>      - \"--model\"<\/code><br \/><code>      - \"tencent\/Hunyuan-A13B-Instruct-GPTQ-Int4\"<\/code><br \/><code>      - \"--trust-remote-code\"<\/code><br \/><code>      - \"--quantization\"<\/code><br \/><code>      - \"gptq_marlin\"<\/code><br \/><code>      - \"--max-model-len\"<\/code><br \/><code>      - \"19500\"<\/code><br \/><code>      - \"--max-num-seqs\"<\/code><br \/><code>      - \"4\"<\/code><br \/><code>      - \"--served-model-name\"<\/code><br \/><code>      - \"Hunyuan80B\"<\/code><\/p>\n<p>\u042f \u0442\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u043b \u0432\u0435\u0440\u0441\u0438\u044e 0.9.2.<\/p>\n<p>\u0417\u0430\u043f\u0443\u0441\u043a\u0430\u0435\u0442\u0441\u044f \u0434\u0432\u0438\u0436\u043e\u043a \u0434\u043e\u0432\u043e\u043b\u044c\u043d\u043e \u0434\u043e\u043b\u0433\u043e &#8212; \u043e\u043a\u043e\u043b\u043e \u0442\u0440\u0451\u0445 \u043c\u0438\u043d\u0443\u0442.<\/p>\n<p>\u0415\u0441\u043b\u0438 \u043d\u0435\u0442 GPU \u043d\u0430 48GB, \u0442\u043e \u043d\u0430\u0432\u0435\u0440\u043d\u043e\u0435 \u043e\u043d\u043e \u0434\u043e\u043b\u0436\u043d\u043e \u0437\u0430\u043f\u0443\u0441\u0442\u0438\u0442\u044c\u0441\u044f \u0438 \u043d\u0430 \u0434\u0432\u0443\u0445 \u043a\u0430\u0440\u0442\u043e\u0447\u043a\u0430\u0445 \u043f\u043e 24GB. \u0412 \u044d\u0442\u043e\u043c \u0441\u043b\u0443\u0447\u0430\u0435 \u043d\u0430\u0434\u043e \u0431\u0443\u0434\u0435\u0442 \u0434\u043e\u0431\u0430\u0432\u0438\u0442\u044c  <strong>&#8212;tensor-parallel-size 2<\/strong> <\/p>\n<p>\u0412\u0430\u043c \u043d\u0443\u0436\u043d\u043e \u0431\u0443\u0434\u0435\u0442 \u043f\u043e\u043c\u0435\u043d\u044f\u0442\u044c volumes \u043d\u0430 \u043f\u043e\u0434\u0445\u043e\u0434\u044f\u0449\u0438\u0439 \u0434\u043b\u044f \u0432\u0430\u0441.<\/p>\n<p>\u041a\u043e\u0433\u0434\u0430 \u043a\u043e\u043d\u0442\u0435\u0439\u043d\u0435\u0440 \u0437\u0430\u043f\u0443\u0441\u0442\u0438\u0442\u044c\u0441\u044f, \u0442\u043e \u0431\u0443\u0434\u0443\u0442 \u0434\u043e\u0441\u0442\u0443\u043f\u043d\u044b \u0442\u043e\u043b\u044c\u043a\u043e REST \u0437\u0430\u043f\u0440\u043e\u0441\u044b. UI \u0443 vLLM \u043d\u0435\u0442\u0443.<\/p>\n<p>\u0418 \u0432\u0430\u043c \u043d\u0430\u0434\u043e \u0431\u0443\u0434\u0435\u0442 \u043e\u0442\u043f\u0440\u0430\u0432\u043b\u044f\u0442\u044c curl \u0437\u0430\u043f\u0440\u043e\u0441\u044b, \u0438\u043b\u0438 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u044c \u0447\u0442\u043e-\u0442\u043e \u0442\u0438\u043f\u0430 OpenWebUI.<\/p>\n<p><strong>\u0417\u0430\u043f\u0443\u0441\u043a\u0430\u0435\u043c llama.cpp \u0432 Docker compose<\/strong><\/p>\n<p>\u0420\u0430\u0437\u0440\u0430\u0431\u043e\u0442\u0447\u0438\u043a\u0438 <strong>llama.cpp<\/strong> \u043d\u0435\u0434\u0430\u0432\u043d\u043e \u0434\u043e\u0431\u0430\u0432\u0438\u043b\u0438 \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u043a\u0443 \u044d\u0442\u043e\u0439 \u043c\u043e\u0434\u0435\u043b\u0438, \u0438 \u0435\u0441\u0442\u044c \u0443\u0436\u0435 \u0440\u0430\u0437\u043d\u044b\u0435 \u043a\u0432\u0430\u043d\u0442\u044b, \u043d\u043e \u043a\u0430\u043a-\u0442\u043e \u043d\u0430\u0440\u043e\u0434 \u043f\u0438\u0448\u0435\u0442, \u0447\u0442\u043e \u043a\u0430\u0447\u0435\u0441\u0442\u0432\u043e \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u043a\u0438 \u043d\u0430\u0434\u043e \u0431\u044b \u0435\u0449\u0451 \u0443\u043b\u0443\u0447\u0448\u0438\u0442\u044c.<\/p>\n<p><a href=\"https:\/\/github.com\/ggml-org\/llama.cpp\" rel=\"noopener noreferrer nofollow\">https:\/\/github.com\/ggml-org\/llama.cpp<\/a><\/p>\n<p>\u041c\u043e\u0434\u0435\u043b\u044c \u0441\u043a\u0430\u0447\u0438\u0432\u0430\u0435\u043c \u0432\u043e\u0442 \u0437\u0434\u0435\u0441\u044c:  <a href=\"https:\/\/huggingface.co\/unsloth\/Hunyuan-A13B-Instruct-GGUF\" rel=\"noopener noreferrer nofollow\">https:\/\/huggingface.co\/unsloth\/Hunyuan-A13B-Instruct-GGUF<\/a><\/p>\n<p>\u042f \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043b \u043a\u0432\u0430\u043d\u0442 Q4_0. \u0420\u0430\u0437\u043c\u0435\u0440 &#8212; \u0447\u0443\u0442\u044c \u0431\u043e\u043b\u044c\u0448\u0435 \u0447\u0435\u043c INT4.<\/p>\n<p><code>services:<\/code><br \/><code>  llama-server:<\/code><br \/><code>    image: ghcr.io\/ggml-org\/llama.cpp:full-cuda<\/code><br \/><code>    container_name: hun80b<\/code><br \/><code>    deploy:<\/code><br \/><code>      resources:<\/code><br \/><code>        reservations:<\/code><br \/><code>          devices:<\/code><br \/><code>            - driver: nvidia<\/code><br \/><code>              capabilities: [gpu]<\/code><br \/><code>    ports:<\/code><br \/><code>      - \"37000:37000\"<\/code><br \/><code>    volumes:<\/code><br \/><code>      - \/home\/user\/.cache:\/root\/.cache<\/code><br \/><code>    entrypoint: [\".\/llama-server\"]<\/code><br \/><code>    command: &gt;<\/code><br \/><code>      --model \/root\/.cache\/huggingface\/hub\/models--unsloth--Hunyuan-A13B-Instruct-GGUF\/snapshots\/14968524348ad0b4614ee6837fd9c5cda8265831\/Hunyuan-A13B-Instruct-Q4_0.gguf <\/code><br \/><code>      --alias Hunyuan80B<\/code><br \/><code>      --ctx-size 19500<\/code><br \/><code>      --flash-attn<\/code><br \/><code>      --threads 4<\/code><br \/><code>      --host 0.0.0.0  --port 37000<\/code><br \/><code>      --n-gpu-layers 999<\/code><\/p>\n<p>\u0423 <strong>llama.cpp<\/strong> \u0435\u0441\u0442\u044c \u043d\u0435\u043f\u043b\u043e\u0445\u043e\u0439 UI, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u043c\u043e\u0436\u043d\u043e \u043e\u0442\u043a\u0440\u044b\u0442\u044c \u0432 \u0431\u0440\u0430\u0443\u0437\u0435\u0440\u0435 \u0438 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u044c \u0434\u043b\u044f \u0437\u0430\u043f\u0440\u043e\u0441\u043e\u0432.<\/p>\n<p><strong>\u0421\u043a\u043e\u0440\u043e\u0441\u0442\u044c<\/strong><\/p>\n<p>\u0412\u043e\u0442 \u0447\u0442\u043e \u0443 \u043c\u0435\u043d\u044f \u0432 \u043b\u043e\u0433\u0430\u0445 <strong>vLLM<\/strong>:<\/p>\n<p><code>Avg prompt throughput: 193.3 tokens\/s, Avg generation throughput: 71.4 tokens\/s<\/code><\/p>\n<p>\u0410 \u0432\u043e\u0442 \u0447\u0442\u043e \u0432 \u043b\u043e\u0433\u0430\u0445 <strong>llama.cpp:<\/strong><\/p>\n<p><code>prompt eval time =     744.02 ms \/  1931 tokens ( 2595.36 tokens per second)<br \/>        eval time =   29653.01 ms \/  2601 tokens (  87.71 tokens per second)<\/code><\/p>\n<p>\u041d\u0430 \u043e\u0434\u043d\u043e\u043c \u0437\u0430\u043f\u0440\u043e\u0441\u0435 <strong> llama.cpp<\/strong> &#8212; \u0431\u044b\u0441\u0442\u0440\u0435\u0435. \u041f\u0440\u043e\u0432\u0435\u0440\u044f\u0442\u044c \u043d\u0430 \u043c\u043d\u043e\u0433\u0438\u0445 \u0437\u0430\u043f\u0440\u043e\u0441\u0430\u0445 \u044f \u043d\u0435 \u0441\u0442\u0430\u043b, \u044d\u0442\u043e \u043d\u0435 \u043c\u043e\u0439 \u0441\u0446\u0435\u043d\u0430\u0440\u0438\u0439, \u043d\u043e \u0432\u0440\u043e\u0434\u0435 \u0431\u044b \u0442\u0430\u043c <strong>vLLM<\/strong> \u0434\u043e\u043b\u0436\u0435\u043d \u043f\u0440\u043e\u044f\u0432\u0438\u0442\u044c \u0441\u0435\u0431\u044f \u043b\u0443\u0447\u0448\u0435, \u0447\u0435\u043c llama.cpp.<\/p>\n<p><strong>vLLM<\/strong> \u0432\u0440\u043e\u0434\u0435 \u0431\u044b \u043e\u0436\u0438\u0434\u0430\u0435\u0442\u0441\u044f \u0431\u0443\u0434\u0435\u0442 \u0438\u043c\u0435\u0442\u044c \u043d\u0435\u043c\u043d\u043e\u0433\u043e \u043b\u0443\u0447\u0448\u0435\u0435 \u043a\u0430\u0447\u0435\u0441\u0442\u0432\u043e \u043e\u0442\u0432\u0435\u0442\u043e\u0432, \u043d\u043e \u0442\u0443\u0442 \u044f \u043d\u0435 \u0443\u0432\u0435\u0440\u0435\u043d, \u043a\u0430\u043a \u044d\u0442\u043e \u043f\u0440\u043e\u0442\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c.<\/p>\n<p>\u041f\u043e \u0443\u043c\u043e\u043b\u0447\u0430\u043d\u0438\u044e, \u044d\u0442\u0430 \u043c\u043e\u0434\u0435\u043b\u044c \u0441\u043d\u0430\u0447\u0430\u043b\u0430 &#171;\u0440\u0430\u0441\u0441\u0443\u0436\u0434\u0430\u0435\u0442&#187; (reasoning), \u0430 \u043f\u043e\u0442\u043e\u043c &#8212; \u0434\u0430\u0451\u0442 \u043e\u0442\u0432\u0435\u0442. \u0415\u0441\u043b\u0438 \u0432\u043d\u0430\u0447\u0430\u043b\u0435 \u0441\u0432\u043e\u0435\u0433\u043e \u0432\u043e\u043f\u0440\u043e\u0441\u0430 (query) \u043d\u0430\u043f\u0438\u0441\u0430\u0442\u044c &#171;\/no_think&#187; &#8212; \u0442\u043e \u043c\u043e\u0434\u0435\u043b\u044c \u0440\u0430\u0441\u0441\u0443\u0436\u0434\u0430\u0442\u044c \u043d\u0435 \u0431\u0443\u0434\u0435\u0442, \u0430 \u0431\u0443\u0434\u0435\u0442 \u043e\u0442\u0432\u0435\u0447\u0430\u0442\u044c \u0441\u0440\u0430\u0437\u0443. \u0422\u0430\u043a \u043f\u043e\u043b\u0443\u0447\u0430\u0435\u0442\u0441\u044f \u043d\u0430\u043c\u043d\u043e\u0433\u043e \u0431\u044b\u0441\u0442\u0440\u0435\u0435. \u042d\u0442\u043e \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442 \u043e\u0434\u0438\u043d\u0430\u043a\u043e\u0432\u043e \u0432 \u043e\u0431\u043e\u0438\u0445 \u0434\u0432\u0438\u0436\u043a\u0430\u0445. \u041a\u0441\u0442\u0430\u0442\u0438, \u0442\u043e\u0447\u043d\u043e \u0442\u0430\u043a\u0436\u0435 &#171;\/no_think&#187; \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u0442\u0441\u044f \u0438 \u0434\u043b\u044f \u043c\u043e\u0434\u0435\u043b\u0435\u0439 Qwen3.<\/p>\n<p><strong>\u041a\u043e\u043d\u0442\u0435\u043a\u0441\u0442<\/strong><\/p>\n<p><strong>vLLM<\/strong> \u043d\u0435 \u0441\u043c\u043e\u0436\u0435\u0442 \u043e\u0431\u0440\u0430\u0431\u043e\u0442\u0430\u0442\u044c \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430 \u0431\u043e\u043b\u044c\u0448\u0435, \u0447\u0435\u043c \u043f\u043e\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f \u0432 GPU VRAM.<\/p>\n<p><strong>llama.cpp <\/strong>&#8212; \u0435\u0441\u043b\u0438 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442 \u043d\u0435 \u043f\u043e\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f \u0432 GPU VRAM, \u0442\u043e \u043c\u043e\u0436\u043d\u043e \u0440\u0430\u0437\u0433\u0440\u0443\u0437\u0438\u0442\u044c\u0441\u044f \u043d\u0430 \u0432\u0442\u043e\u0440\u043e\u0439 GPU,  \u0438\u043b\u0438 \u0432 \u043e\u0431\u044b\u0447\u043d\u0443\u044e \u043f\u0430\u043c\u044f\u0442\u044c, \u0445\u043e\u0442\u044f \u044d\u0442\u043e \u0431\u0443\u0434\u0435\u0442 \u0437\u043d\u0430\u0447\u0438\u0442\u0435\u043b\u044c\u043d\u043e \u0441\u043d\u0438\u0436\u0430\u0442\u044c \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c.<\/p>\n<p><strong>\u0417\u0430\u043a\u043b\u044e\u0447\u0435\u043d\u0438\u0435<\/strong><\/p>\n<p>\u042f &#8212; \u043e\u0431\u044b\u0447\u043d\u044b\u0439 \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u044c, \u043d\u0435 \u044d\u043a\u0441\u043f\u0435\u0440\u0442. \u0422\u0443\u0442 \u043d\u0430 \u0425\u0430\u0431\u0440\u0435 \u0435\u0441\u0442\u044c \u0442\u0435, \u043a\u0442\u043e \u0431\u043e\u043b\u044c\u0448\u0435 \u0432 \u0442\u0435\u043c\u0435. \u041f\u043e\u044d\u0442\u043e\u043c\u0443 \u043a\u0440\u0438\u0442\u0438\u043a\u0430, \u0434\u043e\u043f\u043e\u043b\u043d\u0435\u043d\u0438\u044f, \u0440\u0435\u043a\u043e\u043c\u0435\u043d\u0434\u0430\u0446\u0438\u0438 \u043f\u043e \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u044e \u0434\u0440\u0443\u0433\u0438\u0445 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440\u043e\u0432 \u0438 \u043a\u043e\u043d\u0444\u0438\u0433\u0443\u0440\u0430\u0446\u0438\u044f &#8212; \u043f\u0440\u0438\u0432\u0435\u0442\u0441\u0442\u0432\u0443\u044e\u0442\u0441\u044f.<\/p>\n<\/div>\n<\/div>\n<\/div>\n<p><!----><!----><\/div>\n<p><!----><!----><br \/> \u0441\u0441\u044b\u043b\u043a\u0430 \u043d\u0430 \u043e\u0440\u0438\u0433\u0438\u043d\u0430\u043b \u0441\u0442\u0430\u0442\u044c\u0438 <a href=\"https:\/\/habr.com\/ru\/articles\/926438\/\"> https:\/\/habr.com\/ru\/articles\/926438\/<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<div><!--[--><!--]--><\/div>\n<div id=\"post-content-body\">\n<div>\n<div class=\"article-formatted-body article-formatted-body article-formatted-body_version-2\">\n<div xmlns=\"http:\/\/www.w3.org\/1999\/xhtml\">\n<p>\u041d\u0435\u0434\u0430\u0432\u043d\u043e \u0432\u044b\u0448\u043b\u0430 \u043d\u043e\u0432\u0430\u044f \u043c\u043e\u0434\u0435\u043b\u044c &#8212; Hunyuan-A13B:<\/p>\n<p><a href=\"https:\/\/huggingface.co\/tencent\/Hunyuan-A13B-Instruct-GPTQ-Int4\" rel=\"noopener noreferrer nofollow\">https:\/\/huggingface.co\/tencent\/Hunyuan-A13B-Instruct-GPTQ-Int4<\/a> (\u044d\u0442\u043e \u0443\u0436\u0435 \u043a\u0432\u0430\u043d\u0442).<\/p>\n<p>\u041f\u043e \u0442\u0435\u0441\u0442\u0430\u043c &#8212; \u043c\u043e\u0434\u0435\u043b\u044c \u043d\u0430 \u0443\u0440\u043e\u0432\u043d\u0435 \u043b\u0443\u0447\u0448\u0438\u0445:<\/p>\n<figure class=\"full-width\"><\/figure>\n<p>\u042d\u0442\u043e MOE (Mixture of Experts), \u0440\u0430\u0437\u043c\u0435\u0440 \u043c\u043e\u0434\u0435\u043b\u0438 &#8212; 80 \u043c\u0438\u043b\u043b\u0438\u0430\u0440\u0434\u043e\u0432 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440\u043e\u0432, \u043d\u043e \u0434\u043b\u044f \u0432\u044b\u0447\u0438\u0441\u043b\u0435\u043d\u0438\u0435 \u0441\u043b\u0435\u0434\u0443\u044e\u0449\u0435\u0433\u043e \u0442\u043e\u043a\u0435\u043d\u0430 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u0442\u0441\u044f \u043e\u0433\u0440\u0430\u043d\u0438\u0447\u0435\u043d\u043d\u043e\u0435 \u043a\u043e\u043b\u0438\u0447\u0435\u0441\u0442\u0432\u043e &#171;\u044d\u043a\u0441\u043f\u0435\u0440\u0442\u043e\u0432&#187;, \u043a\u043e\u0442\u043e\u0440\u044b\u0435 \u0430\u043a\u0442\u0438\u0432\u0438\u0437\u0438\u0440\u0443\u044e\u0442 \u0442\u043e\u043b\u044c\u043a\u043e 13 \u043c\u0438\u043b\u043b\u0438\u0430\u0440\u0434\u043e\u0432.<\/p>\n<p>\u042f \u0437\u0430\u043c\u0435\u0442\u0438\u043b, \u0447\u0442\u043e \u043a\u043e\u0433\u0434\u0430 \u0432\u044b\u043a\u0430\u0442\u044b\u0432\u0430\u044e\u0442 \u043d\u043e\u0432\u044b\u0435 \u043c\u043e\u0434\u0435\u043b\u0438, \u0442\u043e \u0434\u043b\u044f \u043d\u0438\u0445 \u043e\u0431\u044b\u0447\u043d\u043e \u0433\u043e\u0442\u043e\u0432\u044f\u0442 \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u043a\u0443 \u0432 \u0442\u0430\u043a\u0438\u0445 \u0434\u0432\u0438\u0436\u043a\u0430\u0445, \u043a\u0430\u043a <strong>vLLM<\/strong>, \u0430 \u0432\u043e\u0442 \u0434\u043b\u044f &#171;\u043d\u0430\u0440\u043e\u0434\u043d\u043e\u0433\u043e&#187; <strong>llama.cpp<\/strong> &#8212; \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u043a\u0430 \u043f\u0440\u0438\u0445\u043e\u0434\u0438\u0442 \u0441 \u0437\u0430\u0434\u0435\u0440\u0436\u043a\u043e\u0439 \u0432 \u043d\u0435\u0441\u043a\u043e\u043b\u044c\u043a\u043e \u043d\u0435\u0434\u0435\u043b\u044c.<\/p>\n<p><strong>vLLM<\/strong><\/p>\n<p><a href=\"https:\/\/github.com\/vllm-project\/vllm\" rel=\"noopener noreferrer nofollow\">https:\/\/github.com\/vllm-project\/vllm<\/a><\/p>\n<p>\u042d\u0442\u043e \u0431\u043e\u043b\u0435\u0435 &#171;\u044d\u043d\u0442\u0435\u0440\u043f\u0440\u0430\u0439\u0437\u043d\u044b\u0439&#187; \u0434\u0432\u0438\u0436\u043e\u043a.<\/p>\n<p>\u0423 \u043d\u0435\u0433\u043e \u043b\u0443\u0447\u0448\u0435 \u0441\u0434\u0435\u043b\u0430\u043d\u0430 \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u043a\u0430 \u043c\u043d\u043e\u0433\u0438\u0445 \u0437\u0430\u043f\u0440\u043e\u0441\u043e\u0432 \u043e\u0434\u043d\u043e\u0432\u0440\u0435\u043c\u0435\u043d\u043d\u043e.<\/p>\n<p>\u0412 \u0447\u0451\u043c <strong>vLLM<\/strong> \u043e\u0442\u043b\u0438\u0447\u0430\u0435\u0442\u0441\u044f \u043e\u0442 <strong>llama.cpp<\/strong>?<\/p>\n<ul>\n<li>\n<p><strong>llama.cpp<\/strong> \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u0438\u0432\u0430\u0435\u0442 GGUF \u043a\u0432\u0430\u043d\u0442\u044b, \u0430 <strong>vLLM<\/strong> &#8212; \u043d\u0435 \u043e\u0447\u0435\u043d\u044c (<a href=\"https:\/\/docs.vllm.ai\/en\/latest\/features\/quantization\/index.html\" rel=\"noopener noreferrer nofollow\">https:\/\/docs.vllm.ai\/en\/latest\/features\/quantization\/index.html<\/a>). <strong>vLLM<\/strong> \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u0438\u0432\u0430\u0435\u0442 \u043a\u0432\u0430\u043d\u0442\u044b INT4, \u0441 \u043a\u043e\u0442\u043e\u0440\u044b\u043c\u0438 <strong>llama.cpp<\/strong> \u0432\u043e\u043e\u0431\u0449\u0435 \u043d\u0435 \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442.<\/p>\n<\/li>\n<li>\n<p><strong>llama.cpp<\/strong> \u043c\u043e\u0436\u043d\u043e \u0437\u0430\u043f\u0443\u0441\u0442\u0438\u0442\u044c \u0442\u0430\u043a, \u0447\u0442\u043e\u0431\u044b \u0432\u044b\u0433\u0440\u0443\u0437\u0438\u0442\u044c \u043c\u043e\u0434\u0435\u043b\u044c \u043d\u0430 \u043e\u0434\u043d\u0443 \u0438\u043b\u0438 \u043d\u0435\u0441\u043a\u043e\u043b\u044c\u043a\u043e GPU \u0438 \u0447\u0430\u0441\u0442\u0438\u0447\u043d\u043e \u0432 \u043f\u0430\u043c\u044f\u0442\u044c. \u0423 <strong>vLLM<\/strong> \u0432 \u044d\u0442\u043e\u043c \u043f\u043b\u0430\u043d\u0435 \u043d\u0430\u043c\u043d\u043e\u0433\u043e \u043c\u0435\u043d\u044c\u0448\u0435 \u0432\u0430\u0440\u0438\u0430\u043d\u0442\u043e\u0432. \u041d\u0435\u0441\u043a\u043e\u043b\u044c\u043a\u043e \u043e\u0434\u0438\u043d\u0430\u043a\u043e\u0432\u044b\u0445 GPU \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u0438\u0432\u0430\u0435\u0442\u0441\u044f &#8212; \u0430 \u0440\u0430\u0437\u043d\u044b\u0435 GPU, \u0438\u043b\u0438 GPU + RAM \u043d\u0435 \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u044e\u0442\u0441\u044f. \u041c\u043e\u0436\u0435\u0442 \u0438 \u0435\u0441\u0442\u044c \u043a\u0430\u043a\u0438\u0435 &#171;\u0442\u0430\u043d\u0446\u044b \u0441 \u0431\u0443\u0431\u043d\u043e\u043c&#187; \u0434\u043b\u044f \u0442\u0430\u043a\u0438\u0445 \u0432\u0435\u0449\u0435\u0439, \u043d\u043e \u0443 \u043c\u0435\u043d\u044f \u043d\u0435 \u0437\u0430\u043f\u0443\u0441\u0442\u0438\u043b\u043e\u0441\u044c.<\/p>\n<\/li>\n<li>\n<p><strong>vLLM <\/strong>\u043b\u0443\u0447\u0448\u0435 \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u0438\u0432\u0430\u0435\u0442 \u043e\u0434\u043d\u043e\u0432\u0440\u0435\u043c\u0435\u043d\u043d\u044b\u0435 \u0437\u0430\u043f\u0440\u043e\u0441\u044b, \u0431\u043e\u043b\u0435\u0435 \u044d\u0444\u0444\u0435\u043a\u0442\u0438\u0432\u043d\u043e \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u0442 KV cache \u043f\u043e\u0434 \u043a\u0430\u0436\u0434\u044b\u0439 \u0437\u0430\u043f\u0440\u043e\u0441.<\/p>\n<\/li>\n<\/ul>\n<p>\u041a\u043e\u043d\u043a\u0440\u0435\u0442\u043d\u043e \u0432 \u0441\u043b\u0443\u0447\u0430\u0435 \u0441 \u044d\u0442\u043e\u0439 \u043c\u043e\u0434\u0435\u043b\u044c\u044e, \u043f\u0440\u0435\u0438\u043c\u0443\u0449\u0435\u0441\u0442\u0432\u043e <strong>vLLM<\/strong> \u0432 \u0442\u043e\u043c, \u0447\u0442\u043e \u043a\u0432\u0430\u043d\u0442 INT4 \u0432\u044b\u043f\u0443\u0449\u0435\u043d \u0440\u0430\u0437\u0440\u0430\u0431\u043e\u0442\u0447\u0438\u043a\u0430\u043c\u0438 \u043c\u043e\u0434\u0435\u043b\u0438, \u0438 \u043a\u0430\u043a \u043e\u043d\u0438 \u043f\u0438\u0448\u0443\u0442, \u043d\u0430\u0442\u0440\u0435\u043d\u0438\u0440\u043e\u0432\u0430\u043d \u044d\u0442\u043e\u0442 \u043a\u0432\u0430\u043d\u0442 \u0431\u044b\u043b \u0432\u043c\u0435\u0441\u0442\u0435 \u0441 \u043e\u0441\u043d\u043e\u0432\u043d\u043e\u0439 \u043c\u043e\u0434\u0435\u043b\u044c\u044e, \u0442\u043e \u0435\u0441\u0442\u044c \u043a\u0430\u0447\u0435\u0441\u0442\u0432\u043e \u0432\u044b\u0448\u0435, \u0447\u0435\u043c \u043d\u0430\u043f\u0440\u0438\u043c\u0435\u0440 \u0443 \u043a\u0432\u0430\u043d\u0442\u043e\u0432 GGUF. <\/p>\n<p>\u041a\u0432\u0430\u043d\u0442 INT4 \u0437\u0430\u043d\u0438\u043c\u0430\u0435\u0442 40GB VRAM. \u041f\u043b\u044e\u0441 \u043d\u0443\u0436\u043d\u0430 \u043f\u0430\u043c\u044f\u0442\u044c \u0434\u043b\u044f \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430.<\/p>\n<p>\u041f\u043e\u043b\u0443\u0447\u0430\u0435\u0442\u0441\u044f, \u043a\u0430\u043a \u043c\u0438\u043d\u0438\u043c\u0443\u043c \u043d\u0443\u0436\u043d\u043e 48GB VRAM. \u0422\u043e\u0433\u0434\u0430 \u043f\u043e\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442 \u043d\u0430 19500 \u0442\u043e\u043a\u0435\u043d\u043e\u0432.<\/p>\n<p>\u042f \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u043b \u043d\u0430 \u043a\u0438\u0442\u0430\u0439\u0441\u043a\u043e\u0439 \u043f\u043e\u0434\u0435\u043b\u043a\u0435: RTX 4090D 48GB VRAM.<\/p>\n<p><strong>\u0417\u0430\u043f\u0443\u0441\u043a\u0430\u0435\u043c vLLM \u0432 Docker compose<\/strong><\/p>\n<p><code>services:<\/code><br \/><code>  vllm:<\/code><br \/><code>    image: vllm\/vllm-openai:latest<\/code><br \/><code>    container_name: Hunyuan80B<\/code><br \/><code>    deploy:<\/code><br \/><code>      resources:<\/code><br \/><code>        reservations:<\/code><br \/><code>          devices:<\/code><br \/><code>            - driver: nvidia<\/code><br \/><code>              capabilities: [gpu]<\/code><br \/><code>    ports:<\/code><br \/><code>      - \"37000:8000\"<\/code><br \/><code>    volumes:<\/code><br \/><code>      - \/home\/user\/.cache\/huggingface:\/root\/.cache\/huggingface<\/code><br \/><code>    ipc: host<\/code><br \/><code>    command:<\/code><br \/><code>      - \"--model\"<\/code><br \/><code>      - \"tencent\/Hunyuan-A13B-Instruct-GPTQ-Int4\"<\/code><br \/><code>      - \"--trust-remote-code\"<\/code><br \/><code>      - \"--quantization\"<\/code><br \/><code>      - \"gptq_marlin\"<\/code><br \/><code>      - \"--max-model-len\"<\/code><br \/><code>      - \"19500\"<\/code><br \/><code>      - \"--max-num-seqs\"<\/code><br \/><code>      - \"4\"<\/code><br \/><code>      - \"--served-model-name\"<\/code><br \/><code>      - \"Hunyuan80B\"<\/code><\/p>\n<p>\u042f \u0442\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u043b \u0432\u0435\u0440\u0441\u0438\u044e 0.9.2.<\/p>\n<p>\u0417\u0430\u043f\u0443\u0441\u043a\u0430\u0435\u0442\u0441\u044f \u0434\u0432\u0438\u0436\u043e\u043a \u0434\u043e\u0432\u043e\u043b\u044c\u043d\u043e \u0434\u043e\u043b\u0433\u043e &#8212; \u043e\u043a\u043e\u043b\u043e \u0442\u0440\u0451\u0445 \u043c\u0438\u043d\u0443\u0442.<\/p>\n<p>\u0415\u0441\u043b\u0438 \u043d\u0435\u0442 GPU \u043d\u0430 48GB, \u0442\u043e \u043d\u0430\u0432\u0435\u0440\u043d\u043e\u0435 \u043e\u043d\u043e \u0434\u043e\u043b\u0436\u043d\u043e \u0437\u0430\u043f\u0443\u0441\u0442\u0438\u0442\u044c\u0441\u044f \u0438 \u043d\u0430 \u0434\u0432\u0443\u0445 \u043a\u0430\u0440\u0442\u043e\u0447\u043a\u0430\u0445 \u043f\u043e 24GB. \u0412 \u044d\u0442\u043e\u043c \u0441\u043b\u0443\u0447\u0430\u0435 \u043d\u0430\u0434\u043e \u0431\u0443\u0434\u0435\u0442 \u0434\u043e\u0431\u0430\u0432\u0438\u0442\u044c  <strong>&#8212;tensor-parallel-size 2<\/strong> <\/p>\n<p>\u0412\u0430\u043c \u043d\u0443\u0436\u043d\u043e \u0431\u0443\u0434\u0435\u0442 \u043f\u043e\u043c\u0435\u043d\u044f\u0442\u044c volumes \u043d\u0430 \u043f\u043e\u0434\u0445\u043e\u0434\u044f\u0449\u0438\u0439 \u0434\u043b\u044f \u0432\u0430\u0441.<\/p>\n<p>\u041a\u043e\u0433\u0434\u0430 \u043a\u043e\u043d\u0442\u0435\u0439\u043d\u0435\u0440 \u0437\u0430\u043f\u0443\u0441\u0442\u0438\u0442\u044c\u0441\u044f, \u0442\u043e \u0431\u0443\u0434\u0443\u0442 \u0434\u043e\u0441\u0442\u0443\u043f\u043d\u044b \u0442\u043e\u043b\u044c\u043a\u043e REST \u0437\u0430\u043f\u0440\u043e\u0441\u044b. UI \u0443 vLLM \u043d\u0435\u0442\u0443.<\/p>\n<p>\u0418 \u0432\u0430\u043c \u043d\u0430\u0434\u043e \u0431\u0443\u0434\u0435\u0442 \u043e\u0442\u043f\u0440\u0430\u0432\u043b\u044f\u0442\u044c curl \u0437\u0430\u043f\u0440\u043e\u0441\u044b, \u0438\u043b\u0438 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u044c \u0447\u0442\u043e-\u0442\u043e \u0442\u0438\u043f\u0430 OpenWebUI.<\/p>\n<p><strong>\u0417\u0430\u043f\u0443\u0441\u043a\u0430\u0435\u043c llama.cpp \u0432 Docker compose<\/strong><\/p>\n<p>\u0420\u0430\u0437\u0440\u0430\u0431\u043e\u0442\u0447\u0438\u043a\u0438 <strong>llama.cpp<\/strong> \u043d\u0435\u0434\u0430\u0432\u043d\u043e \u0434\u043e\u0431\u0430\u0432\u0438\u043b\u0438 \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u043a\u0443 \u044d\u0442\u043e\u0439 \u043c\u043e\u0434\u0435\u043b\u0438, \u0438 \u0435\u0441\u0442\u044c \u0443\u0436\u0435 \u0440\u0430\u0437\u043d\u044b\u0435 \u043a\u0432\u0430\u043d\u0442\u044b, \u043d\u043e \u043a\u0430\u043a-\u0442\u043e \u043d\u0430\u0440\u043e\u0434 \u043f\u0438\u0448\u0435\u0442, \u0447\u0442\u043e \u043a\u0430\u0447\u0435\u0441\u0442\u0432\u043e \u043f\u043e\u0434\u0434\u0435\u0440\u0436\u043a\u0438 \u043d\u0430\u0434\u043e \u0431\u044b \u0435\u0449\u0451 \u0443\u043b\u0443\u0447\u0448\u0438\u0442\u044c.<\/p>\n<p><a href=\"https:\/\/github.com\/ggml-org\/llama.cpp\" rel=\"noopener noreferrer nofollow\">https:\/\/github.com\/ggml-org\/llama.cpp<\/a><\/p>\n<p>\u041c\u043e\u0434\u0435\u043b\u044c \u0441\u043a\u0430\u0447\u0438\u0432\u0430\u0435\u043c \u0432\u043e\u0442 \u0437\u0434\u0435\u0441\u044c:  <a href=\"https:\/\/huggingface.co\/unsloth\/Hunyuan-A13B-Instruct-GGUF\" rel=\"noopener noreferrer nofollow\">https:\/\/huggingface.co\/unsloth\/Hunyuan-A13B-Instruct-GGUF<\/a><\/p>\n<p>\u042f \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043b \u043a\u0432\u0430\u043d\u0442 Q4_0. \u0420\u0430\u0437\u043c\u0435\u0440 &#8212; \u0447\u0443\u0442\u044c \u0431\u043e\u043b\u044c\u0448\u0435 \u0447\u0435\u043c INT4.<\/p>\n<p><code>services:<\/code><br \/><code>  llama-server:<\/code><br \/><code>    image: ghcr.io\/ggml-org\/llama.cpp:full-cuda<\/code><br \/><code>    container_name: hun80b<\/code><br \/><code>    deploy:<\/code><br \/><code>      resources:<\/code><br \/><code>        reservations:<\/code><br \/><code>          devices:<\/code><br \/><code>            - driver: nvidia<\/code><br \/><code>              capabilities: [gpu]<\/code><br \/><code>    ports:<\/code><br \/><code>      - \"37000:37000\"<\/code><br \/><code>    volumes:<\/code><br \/><code>      - \/home\/user\/.cache:\/root\/.cache<\/code><br \/><code>    entrypoint: [\".\/llama-server\"]<\/code><br \/><code>    command: &gt;<\/code><br \/><code>      --model \/root\/.cache\/huggingface\/hub\/models--unsloth--Hunyuan-A13B-Instruct-GGUF\/snapshots\/14968524348ad0b4614ee6837fd9c5cda8265831\/Hunyuan-A13B-Instruct-Q4_0.gguf <\/code><br \/><code>      --alias Hunyuan80B<\/code><br \/><code>      --ctx-size 19500<\/code><br \/><code>      --flash-attn<\/code><br \/><code>      --threads 4<\/code><br \/><code>      --host 0.0.0.0  --port 37000<\/code><br \/><code>      --n-gpu-layers 999<\/code><\/p>\n<p>\u0423 <strong>llama.cpp<\/strong> \u0435\u0441\u0442\u044c \u043d\u0435\u043f\u043b\u043e\u0445\u043e\u0439 UI, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u043c\u043e\u0436\u043d\u043e \u043e\u0442\u043a\u0440\u044b\u0442\u044c \u0432 \u0431\u0440\u0430\u0443\u0437\u0435\u0440\u0435 \u0438 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u044c \u0434\u043b\u044f \u0437\u0430\u043f\u0440\u043e\u0441\u043e\u0432.<\/p>\n<p><strong>\u0421\u043a\u043e\u0440\u043e\u0441\u0442\u044c<\/strong><\/p>\n<p>\u0412\u043e\u0442 \u0447\u0442\u043e \u0443 \u043c\u0435\u043d\u044f \u0432 \u043b\u043e\u0433\u0430\u0445 <strong>vLLM<\/strong>:<\/p>\n<p><code>Avg prompt throughput: 193.3 tokens\/s, Avg generation throughput: 71.4 tokens\/s<\/code><\/p>\n<p>\u0410 \u0432\u043e\u0442 \u0447\u0442\u043e \u0432 \u043b\u043e\u0433\u0430\u0445 <strong>llama.cpp:<\/strong><\/p>\n<p><code>prompt eval time =     744.02 ms \/  1931 tokens ( 2595.36 tokens per second)<br \/>        eval time =   29653.01 ms \/  2601 tokens (  87.71 tokens per second)<\/code><\/p>\n<p>\u041d\u0430 \u043e\u0434\u043d\u043e\u043c \u0437\u0430\u043f\u0440\u043e\u0441\u0435 <strong> llama.cpp<\/strong> &#8212; \u0431\u044b\u0441\u0442\u0440\u0435\u0435. \u041f\u0440\u043e\u0432\u0435\u0440\u044f\u0442\u044c \u043d\u0430 \u043c\u043d\u043e\u0433\u0438\u0445 \u0437\u0430\u043f\u0440\u043e\u0441\u0430\u0445 \u044f \u043d\u0435 \u0441\u0442\u0430\u043b, \u044d\u0442\u043e \u043d\u0435 \u043c\u043e\u0439 \u0441\u0446\u0435\u043d\u0430\u0440\u0438\u0439, \u043d\u043e \u0432\u0440\u043e\u0434\u0435 \u0431\u044b \u0442\u0430\u043c <strong>vLLM<\/strong> \u0434\u043e\u043b\u0436\u0435\u043d \u043f\u0440\u043e\u044f\u0432\u0438\u0442\u044c \u0441\u0435\u0431\u044f \u043b\u0443\u0447\u0448\u0435, \u0447\u0435\u043c llama.cpp.<\/p>\n<p><strong>vLLM<\/strong> \u0432\u0440\u043e\u0434\u0435 \u0431\u044b \u043e\u0436\u0438\u0434\u0430\u0435\u0442\u0441\u044f \u0431\u0443\u0434\u0435\u0442 \u0438\u043c\u0435\u0442\u044c \u043d\u0435\u043c\u043d\u043e\u0433\u043e \u043b\u0443\u0447\u0448\u0435\u0435 \u043a\u0430\u0447\u0435\u0441\u0442\u0432\u043e \u043e\u0442\u0432\u0435\u0442\u043e\u0432, \u043d\u043e \u0442\u0443\u0442 \u044f \u043d\u0435 \u0443\u0432\u0435\u0440\u0435\u043d, \u043a\u0430\u043a \u044d\u0442\u043e \u043f\u0440\u043e\u0442\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u0442\u044c.<\/p>\n<p>\u041f\u043e \u0443\u043c\u043e\u043b\u0447\u0430\u043d\u0438\u044e, \u044d\u0442\u0430 \u043c\u043e\u0434\u0435\u043b\u044c \u0441\u043d\u0430\u0447\u0430\u043b\u0430 &#171;\u0440\u0430\u0441\u0441\u0443\u0436\u0434\u0430\u0435\u0442&#187; (reasoning), \u0430 \u043f\u043e\u0442\u043e\u043c &#8212; \u0434\u0430\u0451\u0442 \u043e\u0442\u0432\u0435\u0442. \u0415\u0441\u043b\u0438 \u0432\u043d\u0430\u0447\u0430\u043b\u0435 \u0441\u0432\u043e\u0435\u0433\u043e \u0432\u043e\u043f\u0440\u043e\u0441\u0430 (query) \u043d\u0430\u043f\u0438\u0441\u0430\u0442\u044c &#171;\/no_think&#187; &#8212; \u0442\u043e \u043c\u043e\u0434\u0435\u043b\u044c \u0440\u0430\u0441\u0441\u0443\u0436\u0434\u0430\u0442\u044c \u043d\u0435 \u0431\u0443\u0434\u0435\u0442, \u0430 \u0431\u0443\u0434\u0435\u0442 \u043e\u0442\u0432\u0435\u0447\u0430\u0442\u044c \u0441\u0440\u0430\u0437\u0443. \u0422\u0430\u043a \u043f\u043e\u043b\u0443\u0447\u0430\u0435\u0442\u0441\u044f \u043d\u0430\u043c\u043d\u043e\u0433\u043e \u0431\u044b\u0441\u0442\u0440\u0435\u0435. \u042d\u0442\u043e \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442 \u043e\u0434\u0438\u043d\u0430\u043a\u043e\u0432\u043e \u0432 \u043e\u0431\u043e\u0438\u0445 \u0434\u0432\u0438\u0436\u043a\u0430\u0445. \u041a\u0441\u0442\u0430\u0442\u0438, \u0442\u043e\u0447\u043d\u043e \u0442\u0430\u043a\u0436\u0435 &#171;\/no_think&#187; \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u0442\u0441\u044f \u0438 \u0434\u043b\u044f \u043c\u043e\u0434\u0435\u043b\u0435\u0439 Qwen3.<\/p>\n<p><strong>\u041a\u043e\u043d\u0442\u0435\u043a\u0441\u0442<\/strong><\/p>\n<p><strong>vLLM<\/strong> \u043d\u0435 \u0441\u043c\u043e\u0436\u0435\u0442 \u043e\u0431\u0440\u0430\u0431\u043e\u0442\u0430\u0442\u044c \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430 \u0431\u043e\u043b\u044c\u0448\u0435, \u0447\u0435\u043c \u043f\u043e\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f \u0432 GPU VRAM.<\/p>\n<p><strong>llama.cpp <\/strong>&#8212; \u0435\u0441\u043b\u0438 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442 \u043d\u0435 \u043f\u043e\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f \u0432 GPU VRAM, \u0442\u043e \u043c\u043e\u0436\u043d\u043e \u0440\u0430\u0437\u0433\u0440\u0443\u0437\u0438\u0442\u044c\u0441\u044f \u043d\u0430 \u0432\u0442\u043e\u0440\u043e\u0439 GPU,  \u0438\u043b\u0438 \u0432 \u043e\u0431\u044b\u0447\u043d\u0443\u044e \u043f\u0430\u043c\u044f\u0442\u044c, \u0445\u043e\u0442\u044f \u044d\u0442\u043e \u0431\u0443\u0434\u0435\u0442 \u0437\u043d\u0430\u0447\u0438\u0442\u0435\u043b\u044c\u043d\u043e \u0441\u043d\u0438\u0436\u0430\u0442\u044c \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c.<\/p>\n<p><strong>\u0417\u0430\u043a\u043b\u044e\u0447\u0435\u043d\u0438\u0435<\/strong><\/p>\n<p>\u042f &#8212; \u043e\u0431\u044b\u0447\u043d\u044b\u0439 \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u0442\u0435\u043b\u044c, \u043d\u0435 \u044d\u043a\u0441\u043f\u0435\u0440\u0442. \u0422\u0443\u0442 \u043d\u0430 \u0425\u0430\u0431\u0440\u0435 \u0435\u0441\u0442\u044c \u0442\u0435, \u043a\u0442\u043e \u0431\u043e\u043b\u044c\u0448\u0435 \u0432 \u0442\u0435\u043c\u0435. \u041f\u043e\u044d\u0442\u043e\u043c\u0443 \u043a\u0440\u0438\u0442\u0438\u043a\u0430, \u0434\u043e\u043f\u043e\u043b\u043d\u0435\u043d\u0438\u044f, \u0440\u0435\u043a\u043e\u043c\u0435\u043d\u0434\u0430\u0446\u0438\u0438 \u043f\u043e \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u044e \u0434\u0440\u0443\u0433\u0438\u0445 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440\u043e\u0432 \u0438 \u043a\u043e\u043d\u0444\u0438\u0433\u0443\u0440\u0430\u0446\u0438\u044f &#8212; \u043f\u0440\u0438\u0432\u0435\u0442\u0441\u0442\u0432\u0443\u044e\u0442\u0441\u044f.<\/p>\n<\/div>\n<\/div>\n<\/div>\n<p><!----><!----><\/div>\n<p><!----><!----><br \/> \u0441\u0441\u044b\u043b\u043a\u0430 \u043d\u0430 \u043e\u0440\u0438\u0433\u0438\u043d\u0430\u043b \u0441\u0442\u0430\u0442\u044c\u0438 <a href=\"https:\/\/habr.com\/ru\/articles\/926438\/\"> https:\/\/habr.com\/ru\/articles\/926438\/<\/a><br \/><\/br><\/br><\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[],"tags":[],"class_list":["post-466617","post","type-post","status-publish","format-standard","hentry"],"_links":{"self":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/posts\/466617","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=466617"}],"version-history":[{"count":0,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/posts\/466617\/revisions"}],"wp:attachment":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=466617"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=466617"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=466617"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}