{"id":479937,"date":"2026-05-16T09:04:21","date_gmt":"2026-05-16T09:04:21","guid":{"rendered":"https:\/\/savepearlharbor.com\/?p=479937"},"modified":"-0001-11-30T00:00:00","modified_gmt":"-0001-11-29T21:00:00","slug":"","status":"publish","type":"post","link":"https:\/\/savepearlharbor.com\/?p=479937","title":{"rendered":"\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 VRAM \u0434\u043b\u044f \u043b\u043e\u043a\u0430\u043b\u044c\u043d\u044b\u0445 LLM: \u041a\u0430\u043a\u0438\u0435 \u043c\u043e\u0434\u0435\u043b\u0438 \u0418\u0418 \u0437\u0430\u043f\u0443\u0441\u0442\u044f\u0442\u0441\u044f \u0443 \u0432\u0430\u0441?"},"content":{"rendered":"<div xmlns=\"http:\/\/www.w3.org\/1999\/xhtml\">\n<h3>\u0421\u0440\u0430\u0432\u043d\u0438\u043b \u043f\u0440\u0435\u0434\u0441\u043a\u0430\u0437\u0430\u043d\u0438\u044f \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440\u0430 \u0441 \u0440\u0435\u0430\u043b\u044c\u043d\u044b\u043c\u0438 \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u043c\u0438 llama.cpp \u043d\u0430 RTX 4060 Ti, 3090 \u0438 Apple M2 Pro. \u0421\u043f\u043e\u0439\u043b\u0435\u0440: \u0433\u0434\u0435-\u0442\u043e \u0442\u043e\u0447\u043d\u043e, \u0433\u0434\u0435-\u0442\u043e \u043c\u0438\u043c\u043e \u043d\u0430 30%<\/h3>\n<p>\u041a\u043e\u0433\u0434\u0430 \u044f \u043d\u0430\u0447\u0430\u043b \u043a\u043e\u0432\u044b\u0440\u044f\u0442\u044c\u0441\u044f \u0441 \u043b\u043e\u043a\u0430\u043b\u044c\u043d\u044b\u043c\u0438 LLM \u043f\u043e\u043b\u0433\u043e\u0434\u0430 \u043d\u0430\u0437\u0430\u0434, \u0433\u043b\u0430\u0432\u043d\u0430\u044f \u0431\u043e\u043b\u044c \u0431\u044b\u043b\u0430 \u043d\u0435 \u0432 \u0443\u0441\u0442\u0430\u043d\u043e\u0432\u043a\u0435 \u043c\u043e\u0434\u0435\u043b\u0435\u0439, \u0430 \u0432 \u043f\u043e\u043d\u0438\u043c\u0430\u043d\u0438\u0438, \u0447\u0442\u043e \u0432\u043e\u043e\u0431\u0449\u0435 \u0432\u043b\u0435\u0437\u0435\u0442 \u0432 \u043c\u043e\u0451 \u0436\u0435\u043b\u0435\u0437\u043e. \u0414\u043e\u043a\u0443\u043c\u0435\u043d\u0442\u0430\u0446\u0438\u044f Hugging Face \u0433\u043e\u0432\u043e\u0440\u0438\u0442 \u00abLlama 3.1 8B\u00bb. \u0427\u0442\u043e \u044d\u0442\u043e \u0437\u043d\u0430\u0447\u0438\u0442 \u0434\u043b\u044f \u043c\u043e\u0435\u0439 \u0432\u0438\u0434\u0435\u043e\u043a\u0430\u0440\u0442\u044b \u0441 16 GB VRAM? \u0410 \u0435\u0441\u043b\u0438 \u044f \u0445\u043e\u0447\u0443 32k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442? \u0410 \u0441 \u043a\u0432\u0430\u043d\u0442\u043e\u0432\u0430\u043d\u0438\u0435\u043c Q4_K_M? \u0426\u0438\u0444\u0440\u044b \u0432 README \u0447\u0430\u0441\u0442\u043e \u043d\u0435 \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u044e\u0442 KV cache, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u043f\u0440\u0438 \u0431\u043e\u043b\u044c\u0448\u0438\u0445 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430\u0445 \u0435\u0441\u0442 VRAM \u0441\u0438\u043b\u044c\u043d\u0435\u0435, \u0447\u0435\u043c \u0441\u0430\u043c\u0430 \u043c\u043e\u0434\u0435\u043b\u044c.<\/p>\n<p>\u041d\u0435\u0441\u043a\u043e\u043b\u044c\u043a\u043e \u043d\u0435\u0434\u0435\u043b\u044c \u043d\u0430\u0437\u0430\u0434 \u043c\u043d\u0435 \u043f\u043e\u043f\u0430\u043b\u0441\u044f \u043f\u0440\u043e\u0441\u0442\u043e\u0439 open-source \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u2014 <strong>whatmodelscanirun.ru<\/strong> (\u0440\u0443\u0441\u0441\u043a\u043e\u044f\u0437\u044b\u0447\u043d\u044b\u0439 \u0444\u043e\u0440\u043a \u043e\u0440\u0438\u0433\u0438\u043d\u0430\u043b\u044c\u043d\u043e\u0433\u043e \u043f\u0440\u043e\u0435\u043a\u0442\u0430 <code>whatmodels<\/code> \u043e\u0442 BenD10, MIT-\u043b\u0438\u0446\u0435\u043d\u0437\u0438\u044f). \u0412\u0432\u043e\u0434\u0438\u0448\u044c VRAM, \u0432\u044b\u0431\u0438\u0440\u0430\u0435\u0448\u044c \u043c\u043e\u0434\u0435\u043b\u044c, \u0432\u0438\u0434\u0438\u0448\u044c, \u0432\u043b\u0435\u0437\u0435\u0442 \u043b\u0438. \u0412\u043d\u0443\u0442\u0440\u0438 \u2014 \u043d\u0435\u0442\u0440\u0438\u0432\u0438\u0430\u043b\u044c\u043d\u0430\u044f \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u0430: \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442\u0441\u044f \u0440\u0430\u0437\u043c\u0435\u0440 \u0432\u0435\u0441\u043e\u0432, KV cache \u043f\u043e \u0441\u043b\u043e\u044f\u043c, GQA-\u043e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u044f, memory bandwidth \u0434\u043b\u044f \u043e\u0446\u0435\u043d\u043a\u0438 tokens\/sec. \u042f \u0440\u0435\u0448\u0438\u043b \u043f\u0440\u043e\u0432\u0435\u0440\u0438\u0442\u044c, \u043d\u0430\u0441\u043a\u043e\u043b\u044c\u043a\u043e \u0442\u043e\u0447\u043d\u044b\u0435 \u043f\u0440\u043e\u0433\u043d\u043e\u0437\u044b \u043e\u043d \u0434\u0430\u0451\u0442, \u043f\u0440\u043e\u0433\u043d\u0430\u0432 \u0435\u0433\u043e \u043d\u0430 \u0442\u0440\u0451\u0445 \u0441\u0432\u043e\u0438\u0445 \u0441\u0435\u0442\u0430\u043f\u0430\u0445 \u0438 \u0441\u0440\u0430\u0432\u043d\u0438\u0432 \u0441 \u0440\u0435\u0430\u043b\u044c\u043d\u044b\u043c\u0438 \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u043c\u0438 \u0447\u0435\u0440\u0435\u0437 llama.cpp \u0438 Ollama.<\/p>\n<p>\u0417\u0430\u043e\u0434\u043d\u043e \u0440\u0430\u0437\u043e\u0431\u0440\u0430\u043b\u0441\u044f, \u043a\u0430\u043a \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442 \u0432\u043d\u0443\u0442\u0440\u0438. \u042d\u0442\u043e \u0438\u043d\u0442\u0435\u0440\u0435\u0441\u043d\u044b\u0439 \u043f\u0440\u0438\u043c\u0435\u0440 \u0442\u043e\u0433\u043e, \u043a\u0430\u043a \u043f\u0440\u043e\u0441\u0442\u043e\u0439 \u0441\u0442\u0430\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0439 SvelteKit-\u0441\u0430\u0439\u0442 \u0440\u0435\u0430\u043b\u0438\u0437\u0443\u0435\u0442 \u0434\u043e\u0432\u043e\u043b\u044c\u043d\u043e \u0441\u0435\u0440\u044c\u0451\u0437\u043d\u0443\u044e \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u0443 \u043f\u043e \u043e\u0446\u0435\u043d\u043a\u0435 \u0432\u043e\u0437\u043c\u043e\u0436\u043d\u043e\u0441\u0442\u0435\u0439 \u0436\u0435\u043b\u0435\u0437\u0430.<\/p>\n<hr\/>\n<h3>\u0427\u0442\u043e \u044d\u0442\u043e \u0438 \u043a\u043e\u043c\u0443 \u043d\u0443\u0436\u043d\u043e<\/h3>\n<p>\u041e\u0440\u0438\u0433\u0438\u043d\u0430\u043b\u044c\u043d\u044b\u0439 \u043f\u0440\u043e\u0435\u043a\u0442 \u043d\u0430\u0437\u044b\u0432\u0430\u0435\u0442\u0441\u044f <code>whatmodels<\/code>, \u0430\u0432\u0442\u043e\u0440 \u2014 BenD10. \u041e\u0434\u0438\u043d \u0440\u0430\u0437\u0440\u0430\u0431\u043e\u0442\u0447\u0438\u043a, MIT-\u043b\u0438\u0446\u0435\u043d\u0437\u0438\u044f, 57 \u043a\u043e\u043c\u043c\u0438\u0442\u043e\u0432, \u043f\u043e\u0441\u043b\u0435\u0434\u043d\u0435\u0435 \u043e\u0431\u043d\u043e\u0432\u043b\u0435\u043d\u0438\u0435 \u0434\u0430\u043d\u043d\u044b\u0445 \u043f\u043e \u043c\u043e\u0434\u0435\u043b\u044f\u043c \u2014 \u0430\u043f\u0440\u0435\u043b\u044c 2026. \u041d\u0430 \u0430\u043d\u0433\u043b\u0438\u0439\u0441\u043a\u043e\u043c \u0434\u043e\u0441\u0442\u0443\u043f\u0435\u043d \u043d\u0430 <code>whatmodelscanirun.com<\/code>, \u043d\u0430 \u0440\u0443\u0441\u0441\u043a\u043e\u043c \u2014 \u043d\u0430 <code>whatmodelscanirun.ru<\/code>. \u042f \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043b\u0441\u044f \u0440\u0443\u0441\u0441\u043a\u043e\u0439 \u0432\u0435\u0440\u0441\u0438\u0435\u0439 \u0434\u043b\u044f \u0443\u0434\u043e\u0431\u0441\u0442\u0432\u0430, \u043d\u043e \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u0430 \u0438 \u0434\u0430\u043d\u043d\u044b\u0435 \u043e\u0434\u0438\u043d\u0430\u043a\u043e\u0432\u044b\u0435 \u2014 \u044d\u0442\u043e \u0444\u043e\u0440\u043a, \u043d\u0435 \u0441\u0430\u043c\u043e\u0441\u0442\u043e\u044f\u0442\u0435\u043b\u044c\u043d\u044b\u0439 \u043f\u0440\u043e\u0435\u043a\u0442.<\/p>\n<p>\u0418\u0434\u0435\u044f \u043f\u0440\u043e\u0441\u0442\u0430\u044f. \u041d\u0430 \u0432\u0445\u043e\u0434\u0435:<\/p>\n<ul>\n<li>\n<p>GPU \u0438\u0437 \u0441\u043f\u0438\u0441\u043a\u0430 (\u0438\u043b\u0438 \u0440\u0443\u0447\u043d\u043e\u0439 \u0432\u0432\u043e\u0434 VRAM)<\/p>\n<\/li>\n<li>\n<p>\u041c\u0438\u043d\u0438\u043c\u0430\u043b\u044c\u043d\u044b\u0439 \u043d\u0443\u0436\u043d\u044b\u0439 context window<\/p>\n<\/li>\n<li>\n<p>\u041c\u0438\u043d\u0438\u043c\u0430\u043b\u044c\u043d\u0430\u044f \u043d\u0443\u0436\u043d\u0430\u044f \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u0433\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u0438 (\u0442\u043e\u043a\u0435\u043d\u043e\u0432 \u0432 \u0441\u0435\u043a\u0443\u043d\u0434\u0443)<\/p>\n<\/li>\n<li>\n<p>\u041e\u043f\u0446\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u043e \u2014 system RAM \u0434\u043b\u044f offloading \u0432 \u041e\u0417\u0423 \u041d\u0430 \u0432\u044b\u0445\u043e\u0434\u0435 \u2014 \u0441\u043f\u0438\u0441\u043e\u043a \u043c\u043e\u0434\u0435\u043b\u0435\u0439 \u0441 \u0440\u0430\u0437\u0431\u0438\u0432\u043a\u043e\u0439 \u043d\u0430 \u0442\u0440\u0438 \u043a\u0430\u0442\u0435\u0433\u043e\u0440\u0438\u0438:<\/p>\n<\/li>\n<li>\n<p><strong>fits<\/strong> (\u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f) \u2014 \u043c\u043e\u0434\u0435\u043b\u044c \u0432\u043b\u0435\u0437\u0430\u0435\u0442 \u0441 \u0437\u0430\u043f\u0430\u0441\u043e\u043c<\/p>\n<\/li>\n<li>\n<p><strong>tight<\/strong> (\u0432\u043f\u0440\u0438\u0442\u044b\u043a) \u2014 \u043c\u043e\u0436\u0435\u0442 \u043d\u0435 \u0445\u0432\u0430\u0442\u0438\u0442\u044c \u043f\u0440\u0438 \u0431\u043e\u043b\u044c\u0448\u0438\u0445 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430\u0445<\/p>\n<\/li>\n<li>\n<p><strong>doesn\u2019t fit<\/strong> (\u043d\u0435 \u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f) \u2014 \u043d\u0435 \u0437\u0430\u043f\u0443\u0441\u0442\u0438\u0442\u0441\u044f \u0431\u0435\u0437 offload \u0432 \u0441\u0438\u0441\u0442\u0435\u043c\u043d\u0443\u044e RAM \u0414\u043b\u044f \u043a\u0430\u0436\u0434\u043e\u0439 \u043c\u043e\u0434\u0435\u043b\u0438 \u043f\u043e\u043a\u0430\u0437\u044b\u0432\u0430\u0435\u0442\u0441\u044f: \u043a\u0432\u0430\u043d\u0442\u043e\u0432\u0430\u043d\u0438\u0435, \u043c\u0430\u043a\u0441\u0438\u043c\u0430\u043b\u044c\u043d\u044b\u0439 context window \u0434\u043b\u044f \u044d\u0442\u043e\u0433\u043e \u0436\u0435\u043b\u0435\u0437\u0430, \u043e\u0446\u0435\u043d\u043a\u0430 tokens\/sec, \u043d\u0435\u043e\u0431\u0445\u043e\u0434\u0438\u043c\u043e\u0441\u0442\u044c offload-\u0430.<\/p>\n<\/li>\n<\/ul>\n<p>\u0417\u0432\u0443\u0447\u0438\u0442 \u043a\u0430\u043a \u00ab\u0435\u0449\u0451 \u043e\u0434\u0438\u043d \u043e\u043d\u043b\u0430\u0439\u043d-\u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440\u00bb, \u043d\u043e \u0447\u0442\u043e \u043c\u0435\u043d\u044f \u0437\u0430\u0446\u0435\u043f\u0438\u043b\u043e \u2014 \u0432\u043d\u0443\u0442\u0440\u0438 \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u0430 \u043f\u0440\u0430\u0432\u0438\u043b\u044c\u043d\u0430\u044f, \u043d\u0435 \u00ab\u0441\u043a\u043e\u043b\u044c\u043a\u043e-\u0442\u043e \u043f\u0440\u0438\u0431\u043b\u0438\u0437\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u00bb. \u0410\u043b\u0433\u043e\u0440\u0438\u0442\u043c \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 \u0440\u0435\u0430\u043b\u044c\u043d\u0443\u044e \u0444\u0438\u0437\u0438\u043a\u0443 \u0440\u0430\u0431\u043e\u0442\u044b LLM \u043d\u0430 GPU.<\/p>\n<p>\u041a\u043e\u043c\u0443 \u044d\u0442\u043e \u043f\u043e\u043b\u0435\u0437\u043d\u043e. \u0415\u0441\u043b\u0438 \u0432\u044b \u0432\u044b\u0431\u0438\u0440\u0430\u0435\u0442\u0435 \u043c\u0435\u0436\u0434\u0443 Llama 3.1 8B Q5 \u0438 Qwen 2.5 14B Q4 \u2014 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u0431\u044b\u0441\u0442\u0440\u043e \u043f\u043e\u043a\u0430\u0436\u0435\u0442, \u043a\u0430\u043a\u0430\u044f \u043c\u043e\u0434\u0435\u043b\u044c \u0434\u0430\u0441\u0442 \u0432\u0430\u043c \u0431\u043e\u043b\u044c\u0448\u0435 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430. \u0415\u0441\u043b\u0438 \u0432\u044b \u043f\u043e\u043a\u0443\u043f\u0430\u0435\u0442\u0435 \u043d\u043e\u0432\u0443\u044e \u0432\u0438\u0434\u0435\u043e\u043a\u0430\u0440\u0442\u0443 \u0441\u043f\u0435\u0446\u0438\u0430\u043b\u044c\u043d\u043e \u043f\u043e\u0434 \u043b\u043e\u043a\u0430\u043b\u044c\u043d\u044b\u0435 LLM \u0438 \u0445\u043e\u0442\u0438\u0442\u0435 \u043f\u043e\u043d\u044f\u0442\u044c, \u0441\u0442\u043e\u0438\u0442 \u043b\u0438 \u043f\u0435\u0440\u0435\u043f\u043b\u0430\u0447\u0438\u0432\u0430\u0442\u044c \u0437\u0430 24 GB \u0432\u043c\u0435\u0441\u0442\u043e 16 \u2014 \u043f\u043e\u0441\u043c\u043e\u0442\u0440\u0438\u0442\u0435, \u043a\u0430\u043a\u0438\u0435 \u043c\u043e\u0434\u0435\u043b\u0438 \u043e\u0442\u043a\u0440\u044b\u0432\u0430\u0435\u0442 \u0434\u043e\u043f\u043e\u043b\u043d\u0438\u0442\u0435\u043b\u044c\u043d\u0430\u044f VRAM. \u0415\u0441\u043b\u0438 \u0432\u044b \u0441\u0442\u0440\u043e\u0438\u0442\u0435 multi-agent \u0441\u0438\u0441\u0442\u0435\u043c\u0443 \u043b\u043e\u043a\u0430\u043b\u044c\u043d\u043e \u0438 \u0445\u043e\u0442\u0438\u0442\u0435 \u043f\u0430\u0440\u0430\u043b\u043b\u0435\u043b\u044c\u043d\u043e \u043a\u0440\u0443\u0442\u0438\u0442\u044c \u0434\u0432\u0435-\u0442\u0440\u0438 \u043c\u043e\u0434\u0435\u043b\u0438 \u2014 \u043e\u0446\u0435\u043d\u0438\u0442\u044c \u0442\u0440\u0435\u0431\u043e\u0432\u0430\u043d\u0438\u044f.<\/p>\n<hr\/>\n<h3>\u0427\u0442\u043e \u043f\u043e\u0434 \u043a\u0430\u043f\u043e\u0442\u043e\u043c: VRAM-budget<\/h3>\n<p>\u0421\u0430\u043c\u043e\u0435 \u0438\u043d\u0442\u0435\u0440\u0435\u0441\u043d\u043e\u0435 \u0432 \u043f\u0440\u043e\u0435\u043a\u0442\u0435 \u2014 \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u0430. \u042f \u0435\u0451 \u0440\u0430\u0437\u043e\u0431\u0440\u0430\u043b \u043f\u043e README \u0438 \u0438\u0441\u0445\u043e\u0434\u043d\u0438\u043a\u0430\u043c \u0440\u0435\u043f\u043e\u0437\u0438\u0442\u043e\u0440\u0438\u044f. \u0415\u0441\u043b\u0438 \u0432\u044b \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u043b\u0438 \u043b\u043e\u043a\u0430\u043b\u044c\u043d\u044b\u0435 LLM, \u043c\u043d\u043e\u0433\u043e\u0435 \u0431\u0443\u0434\u0435\u0442 \u0437\u043d\u0430\u043a\u043e\u043c\u043e, \u043d\u043e \u0432 \u043e\u0434\u043d\u043e\u043c \u043c\u0435\u0441\u0442\u0435 \u044d\u0442\u043e \u0440\u0435\u0434\u043a\u043e \u0441\u043e\u0431\u0440\u0430\u043d\u043e.<\/p>\n<p><strong>\u041e\u0431\u0449\u0430\u044f \u0444\u043e\u0440\u043c\u0443\u043b\u0430 VRAM:<\/strong><\/p>\n<pre><code>total_vram = weight_gb + (kv_per_1k_gb \u00d7 context_length_k)<\/code><div class=\"code-explainer\"><a href=\"https:\/\/sourcecraft.dev\/\" class=\"tm-button code-explainer__link\" style=\"visibility: hidden;\"><img style=\"width:87px;height:14px;object-fit:cover;object-position:left;\"\/><\/a><\/div><\/pre>\n<p>\u0413\u0434\u0435:<\/p>\n<ul>\n<li>\n<p><code>weight_gb<\/code> \u2014 \u0440\u0430\u0437\u043c\u0435\u0440 \u0432\u0435\u0441\u043e\u0432 \u043c\u043e\u0434\u0435\u043b\u0438 \u0432 \u043f\u0430\u043c\u044f\u0442\u0438 (\u0437\u0430\u0432\u0438\u0441\u0438\u0442 \u043e\u0442 \u043a\u043e\u043b\u0438\u0447\u0435\u0441\u0442\u0432\u0430 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440\u043e\u0432 \u0438 \u043a\u0432\u0430\u043d\u0442\u043e\u0432\u0430\u043d\u0438\u044f)<\/p>\n<\/li>\n<li>\n<p><code>kv_per_1k_gb<\/code> \u2014 \u0441\u0442\u043e\u0438\u043c\u043e\u0441\u0442\u044c KV cache \u043d\u0430 \u043a\u0430\u0436\u0434\u044b\u0435 1000 \u0442\u043e\u043a\u0435\u043d\u043e\u0432 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430<\/p>\n<\/li>\n<li>\n<p><code>context_length_k<\/code> \u2014 \u0436\u0435\u043b\u0430\u0435\u043c\u0430\u044f \u0434\u043b\u0438\u043d\u0430 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430 \u0432 \u0442\u044b\u0441\u044f\u0447\u0430\u0445 \u0442\u043e\u043a\u0435\u043d\u043e\u0432 \u041f\u0435\u0440\u0432\u0430\u044f \u0447\u0430\u0441\u0442\u044c \u2014 \u0432\u0435\u0441\u0430 \u2014 \u043e\u0431\u044b\u0447\u043d\u043e \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442\u0441\u044f \u0432\u0441\u0435\u043c\u0438. \u0410 \u0432\u043e\u0442 KV cache \u043c\u043d\u043e\u0433\u0438\u0435 \u0437\u0430\u0431\u044b\u0432\u0430\u044e\u0442, \u0438 \u044d\u0442\u043e \u0433\u043b\u0430\u0432\u043d\u0430\u044f \u043f\u0440\u0438\u0447\u0438\u043d\u0430, \u043f\u043e\u0447\u0435\u043c\u0443 \u043c\u043e\u0434\u0435\u043b\u044c \u00ab\u043d\u0435 \u0432\u043b\u0435\u0437\u0430\u0435\u0442\u00bb, \u0445\u043e\u0442\u044f \u043f\u043e \u0432\u0435\u0441\u0430\u043c \u0434\u043e\u043b\u0436\u043d\u0430.<\/p>\n<\/li>\n<\/ul>\n<p><strong>\u0420\u0430\u0437\u043c\u0435\u0440 \u0432\u0435\u0441\u043e\u0432<\/strong> \u0441\u0447\u0438\u0442\u0430\u0435\u0442\u0441\u044f \u043f\u0440\u043e\u0441\u0442\u043e:<\/p>\n<pre><code>weight_gb = num_params \u00d7 bytes_per_param \/ 1024\u00b3<\/code><div class=\"code-explainer\"><a href=\"https:\/\/sourcecraft.dev\/\" class=\"tm-button code-explainer__link\" style=\"visibility: hidden;\"><img style=\"width:14px;height:14px;object-fit:cover;object-position:left;\"\/><\/a><\/div><\/pre>\n<p>\u0414\u043b\u044f \u0440\u0430\u0437\u043d\u044b\u0445 \u043a\u0432\u0430\u043d\u0442\u043e\u0432\u0430\u043d\u0438\u0439:<\/p>\n<ul>\n<li>\n<p><code>FP16<\/code> (\u043f\u043e\u043b\u043d\u0430\u044f \u0442\u043e\u0447\u043d\u043e\u0441\u0442\u044c) \u2014 2 \u0431\u0430\u0439\u0442\u0430 \u043d\u0430 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440. Llama 3.1 8B = ~16 GB<\/p>\n<\/li>\n<li>\n<p><code>Q8_0<\/code> \u2014 1 \u0431\u0430\u0439\u0442. Llama 3.1 8B = ~8 GB<\/p>\n<\/li>\n<li>\n<p><code>Q5_K_M<\/code> \u2014 ~5.6 \u0431\u0438\u0442. Llama 3.1 8B = ~5.7 GB<\/p>\n<\/li>\n<li>\n<p><code>Q4_K_M<\/code> \u2014 ~4.5 \u0431\u0438\u0442. Llama 3.1 8B = ~4.6 GB <strong>KV cache<\/strong> \u2014 \u0441\u043b\u043e\u0436\u043d\u0435\u0435. \u041a\u0435\u0448 \u0445\u0440\u0430\u043d\u0438\u0442 \u043a\u043b\u044e\u0447\u0438 \u0438 \u0437\u043d\u0430\u0447\u0435\u043d\u0438\u044f \u0434\u043b\u044f \u043a\u0430\u0436\u0434\u043e\u0433\u043e \u0441\u043b\u043e\u044f \u0438 \u043a\u0430\u0436\u0434\u043e\u0433\u043e \u0442\u043e\u043a\u0435\u043d\u0430 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430. Per token:<\/p>\n<\/li>\n<\/ul>\n<pre><code>kv_bytes_per_token = 2 \u00d7 num_layers \u00d7 num_kv_heads \u00d7 head_dim \u00d7 bytes_per_value<\/code><div class=\"code-explainer\"><a href=\"https:\/\/sourcecraft.dev\/\" class=\"tm-button code-explainer__link\" style=\"visibility: hidden;\"><img style=\"width:14px;height:14px;object-fit:cover;object-position:left;\"\/><\/a><\/div><\/pre>\n<p>\u0420\u0430\u0441\u043a\u0440\u043e\u0435\u043c \u043a\u043e\u044d\u0444\u0444\u0438\u0446\u0438\u0435\u043d\u0442\u044b:<\/p>\n<ul>\n<li>\n<p><strong>\u041c\u043d\u043e\u0436\u0438\u0442\u0435\u043b\u044c 2<\/strong> \u2014 \u043e\u0434\u0438\u043d \u0434\u043b\u044f keys, \u043e\u0434\u0438\u043d \u0434\u043b\u044f values<\/p>\n<\/li>\n<li>\n<p><strong>num_layers<\/strong> \u2014 \u043a\u043e\u043b\u0438\u0447\u0435\u0441\u0442\u0432\u043e transformer-\u0441\u043b\u043e\u0451\u0432. \u0423 Llama 3.2 3B \u044d\u0442\u043e 28 \u0441\u043b\u043e\u0451\u0432, \u0443 Llama 3.1 8B \u2014 32, \u0443 Llama 3.3 70B \u2014 80<\/p>\n<\/li>\n<li>\n<p><strong>num_kv_heads<\/strong> \u2014 \u043a\u043e\u043b\u0438\u0447\u0435\u0441\u0442\u0432\u043e KV-\u0433\u043e\u043b\u043e\u0432 \u043f\u043e\u0441\u043b\u0435 GQA-\u043e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u0438. \u0417\u0434\u0435\u0441\u044c \u043a\u0440\u0438\u0442\u0438\u0447\u043d\u0430\u044f \u0434\u0435\u0442\u0430\u043b\u044c: \u043c\u043e\u0434\u0435\u043b\u0438 \u043f\u043e\u0441\u043b\u0435\u0434\u043d\u0438\u0445 \u043b\u0435\u0442 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u044e\u0442 <strong>Grouped Query Attention<\/strong>, \u0432 \u043a\u043e\u0442\u043e\u0440\u043e\u043c KV-\u0433\u043e\u043b\u043e\u0432 \u043c\u0435\u043d\u044c\u0448\u0435, \u0447\u0435\u043c Query-\u0433\u043e\u043b\u043e\u0432. Llama 3.1 8B \u0438\u043c\u0435\u0435\u0442 32 Q-\u0433\u043e\u043b\u043e\u0432\u044b, \u043d\u043e \u0432\u0441\u0435\u0433\u043e <strong>8 KV-\u0433\u043e\u043b\u043e\u0432<\/strong>. \u042d\u0442\u043e \u0434\u0430\u0451\u0442 4x \u044d\u043a\u043e\u043d\u043e\u043c\u0438\u044e \u043d\u0430 KV cache<\/p>\n<\/li>\n<li>\n<p><strong>head_dim<\/strong> \u2014 \u0440\u0430\u0437\u043c\u0435\u0440\u043d\u043e\u0441\u0442\u044c \u043d\u0430 \u043e\u0434\u043d\u0443 \u0433\u043e\u043b\u043e\u0432\u0443. \u041e\u0431\u044b\u0447\u043d\u043e 128<\/p>\n<\/li>\n<li>\n<p><strong>bytes_per_value<\/strong> \u2014 \u043e\u0431\u044b\u0447\u043d\u043e 2 (fp16 \u0434\u043b\u044f KV cache), \u043d\u043e \u043c\u043e\u0436\u043d\u043e \u0441\u0436\u0438\u043c\u0430\u0442\u044c \u0434\u043e 1 \u0431\u0430\u0439\u0442\u0430 (<code>q8_0<\/code>) \u0438\u043b\u0438 \u043c\u0435\u043d\u044c\u0448\u0435 <strong>\u041f\u0440\u0438\u043c\u0435\u0440 \u0440\u0430\u0441\u0447\u0451\u0442\u0430<\/strong> \u0434\u043b\u044f Llama 3.1 8B \u043f\u0440\u0438 32k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430:<\/p>\n<\/li>\n<\/ul>\n<pre><code>kv_bytes_per_token = 2 \u00d7 32 \u00d7 8 \u00d7 128 \u00d7 2 = 131,072 bytes\/token                    = 0.125 KB\/token KV \u0434\u043b\u044f 32k = 32,000 \u00d7 0.125 = 4,000 KB = ~4 GB<\/code><div class=\"code-explainer\"><a href=\"https:\/\/sourcecraft.dev\/\" class=\"tm-button code-explainer__link\" style=\"visibility: hidden;\"><img style=\"width:14px;height:14px;object-fit:cover;object-position:left;\"\/><\/a><\/div><\/pre>\n<p>\u0422\u043e \u0435\u0441\u0442\u044c \u043d\u0430 32k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430 \u0443\u0445\u043e\u0434\u0438\u0442 \u0434\u043e\u043f\u043e\u043b\u043d\u0438\u0442\u0435\u043b\u044c\u043d\u044b\u0435 4 GB \u043f\u043e\u0432\u0435\u0440\u0445 \u0432\u0435\u0441\u043e\u0432 \u043c\u043e\u0434\u0435\u043b\u0438. \u0415\u0441\u043b\u0438 \u0443 \u0432\u0430\u0441 16 GB VRAM \u0438 Llama 3.1 8B \u0432 Q5 (\u22485.7 GB \u0432\u0435\u0441\u043e\u0432), \u043d\u0430 KV \u043e\u0441\u0442\u0430\u0451\u0442\u0441\u044f 10.3 GB \u2192 \u043c\u043e\u0436\u043d\u043e \u0434\u0435\u0440\u0436\u0430\u0442\u044c \u043f\u0440\u0438\u043c\u0435\u0440\u043d\u043e 82k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430. \u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u044d\u0442\u043e \u0438 \u0441\u0447\u0438\u0442\u0430\u0435\u0442.<\/p>\n<p>\u0412 \u043a\u043e\u0434\u0435 \u0432\u0441\u0451 \u0445\u0440\u0430\u043d\u0438\u0442\u0441\u044f \u043f\u0440\u0435\u0434\u0440\u0430\u0441\u0447\u0438\u0442\u0430\u043d\u043d\u044b\u043c \u0432 <code>models.json<\/code>. \u041a\u0430\u0436\u0434\u0430\u044f \u043c\u043e\u0434\u0435\u043b\u044c \u0438\u043c\u0435\u0435\u0442 \u043f\u043e\u043b\u0435 <code>kv_per_1k_gb<\/code>, \u043f\u043e\u0441\u0447\u0438\u0442\u0430\u043d\u043d\u043e\u0435 \u043e\u0434\u0438\u043d \u0440\u0430\u0437. \u042d\u0442\u043e \u0440\u0430\u0437\u0443\u043c\u043d\u043e\u0435 \u0440\u0435\u0448\u0435\u043d\u0438\u0435 \u2014 \u0432\u0441\u0435 \u044d\u0442\u0438 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440\u044b \u043a\u043e\u043d\u0441\u0442\u0430\u043d\u0442\u044b \u0434\u043b\u044f \u043a\u043e\u043d\u043a\u0440\u0435\u0442\u043d\u043e\u0439 \u043c\u043e\u0434\u0435\u043b\u0438.<\/p>\n<hr\/>\n<h3>\u041e\u0446\u0435\u043d\u043a\u0430 \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u0438 \u0433\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u0438 (tokens\/sec)<\/h3>\n<p>\u042d\u0442\u043e \u0432\u0442\u043e\u0440\u0430\u044f \u0438\u043d\u0442\u0435\u0440\u0435\u0441\u043d\u0430\u044f \u0447\u0430\u0441\u0442\u044c \u0430\u043b\u0433\u043e\u0440\u0438\u0442\u043c\u0430, \u0438 \u043e\u043d\u0430 \u0432\u0430\u0436\u043d\u0435\u0435, \u0447\u0435\u043c \u043a\u0430\u0436\u0435\u0442\u0441\u044f. \u041c\u043d\u043e\u0433\u0438\u0435 \u043d\u043e\u0432\u0438\u0447\u043a\u0438 \u043d\u0435 \u043f\u043e\u043d\u0438\u043c\u0430\u044e\u0442, \u0447\u0442\u043e <strong>\u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u0433\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u0438 \u0432 LLM \u043f\u043e\u0447\u0442\u0438 \u043d\u0435 \u0437\u0430\u0432\u0438\u0441\u0438\u0442 \u043e\u0442 GPU compute<\/strong> \u2014 \u043e\u043d\u0430 \u043e\u0433\u0440\u0430\u043d\u0438\u0447\u0435\u043d\u0430 memory bandwidth.<\/p>\n<p><strong>\u041f\u043e\u0447\u0435\u043c\u0443 \u0442\u0430\u043a:<\/strong> \u0432\u043e \u0432\u0440\u0435\u043c\u044f decode-\u0444\u0430\u0437\u044b (\u0433\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u044f \u043e\u0434\u043d\u043e\u0433\u043e \u0442\u043e\u043a\u0435\u043d\u0430 \u0437\u0430 \u0440\u0430\u0437) \u043c\u043e\u0434\u0435\u043b\u044c \u0434\u043e\u043b\u0436\u043d\u0430 \u043f\u043e\u043b\u043d\u043e\u0441\u0442\u044c\u044e \u043f\u0440\u043e\u0447\u0438\u0442\u0430\u0442\u044c \u0432\u0441\u0435 \u0441\u0432\u043e\u0438 \u0432\u0435\u0441\u0430 \u0438\u0437 VRAM. \u0415\u0441\u043b\u0438 \u0443 \u0432\u0430\u0441 Llama 3.1 8B Q5 (~5.7 GB) \u0438 \u0432\u0438\u0434\u0435\u043e\u043a\u0430\u0440\u0442\u0430 \u0441 bandwidth 360 GB\/s \u2014 \u0442\u0435\u043e\u0440\u0435\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0439 \u043c\u0430\u043a\u0441\u0438\u043c\u0443\u043c:<\/p>\n<pre><code>max_tokens_per_sec = bandwidth \/ weight_gb                   = 360 \/ 5.7 = 63 tokens\/sec<\/code><div class=\"code-explainer\"><a href=\"https:\/\/sourcecraft.dev\/\" class=\"tm-button code-explainer__link\" style=\"visibility: hidden;\"><img style=\"width:14px;height:14px;object-fit:cover;object-position:left;\"\/><\/a><\/div><\/pre>\n<p>\u042d\u0442\u043e \u00abraw ceiling\u00bb. \u041d\u0430 \u043f\u0440\u0430\u043a\u0442\u0438\u043a\u0435 \u0434\u043e\u0441\u0442\u0438\u0436\u0438\u043c\u0430\u044f \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c 70-90% \u043e\u0442 \u044d\u0442\u043e\u0433\u043e ceiling \u2014 \u043e\u0431\u044b\u0447\u043d\u043e \u043e\u043a\u043e\u043b\u043e 50 tok\/s \u0434\u043b\u044f Llama 8B Q5 \u043d\u0430 RTX 3060 Ti.<\/p>\n<p>\u0412 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440\u0435 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u0442\u0441\u044f \u044d\u0442\u043e, \u043f\u043b\u044e\u0441 \u043a\u043e\u0440\u0440\u0435\u043a\u0442\u0438\u0440\u0443\u044e\u0449\u0438\u0439 \u043a\u043e\u044d\u0444\u0444\u0438\u0446\u0438\u0435\u043d\u0442. \u0424\u043e\u0440\u043c\u0443\u043b\u0430 \u043f\u0440\u0438\u043c\u0435\u0440\u043d\u043e:<\/p>\n<pre><code>estimated_tok_sec = (bandwidth_gb_s \u00d7 efficiency) \/ model_size_gb<\/code><div class=\"code-explainer\"><a href=\"https:\/\/sourcecraft.dev\/\" class=\"tm-button code-explainer__link\" style=\"visibility: hidden;\"><img style=\"width:14px;height:14px;object-fit:cover;object-position:left;\"\/><\/a><\/div><\/pre>\n<p><code>efficiency<\/code> \u043e\u0431\u044b\u0447\u043d\u043e 0.7-0.85 \u0432 \u0437\u0430\u0432\u0438\u0441\u0438\u043c\u043e\u0441\u0442\u0438 \u043e\u0442 \u0442\u0438\u043f\u0430 \u043a\u0432\u0430\u043d\u0442\u043e\u0432\u0430\u043d\u0438\u044f \u0438 \u043e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u0439. \u042d\u0442\u043e \u0440\u0430\u0437\u0443\u043c\u043d\u043e\u0435 \u043f\u0440\u0438\u0431\u043b\u0438\u0436\u0435\u043d\u0438\u0435 \u0434\u043b\u044f llama.cpp \u0441 CUDA backend.<\/p>\n<p>\u0412\u0430\u0436\u043d\u044b\u0439 \u043d\u044e\u0430\u043d\u0441 \u2014 \u043d\u0430 \u0431\u00f3\u043b\u044c\u0448\u0438\u0445 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430\u0445 \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u043f\u0430\u0434\u0430\u0435\u0442, \u043f\u043e\u0442\u043e\u043c\u0443 \u0447\u0442\u043e \u0434\u043e\u0431\u0430\u0432\u043b\u044f\u0435\u0442\u0441\u044f \u0447\u0442\u0435\u043d\u0438\u0435 KV cache. \u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u044d\u0442\u043e \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 \u043d\u0435 \u0438\u0434\u0435\u0430\u043b\u044c\u043d\u043e (\u0442\u043e\u0447\u043d\u0430\u044f \u0444\u043e\u0440\u043c\u0443\u043b\u0430 \u0432\u043a\u043b\u044e\u0447\u0430\u0435\u0442 attention compute, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u0437\u0430\u0432\u0438\u0441\u0438\u0442 \u043e\u0442 \u0434\u043b\u0438\u043d\u044b \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430 \u043a\u0432\u0430\u0434\u0440\u0430\u0442\u0438\u0447\u043d\u043e), \u043d\u043e \u0434\u0430\u0451\u0442 \u043d\u043e\u0440\u043c\u0430\u043b\u044c\u043d\u0443\u044e \u043e\u0446\u0435\u043d\u043a\u0443 \u0434\u043b\u044f \u0442\u0438\u043f\u0438\u0447\u043d\u044b\u0445 \u0441\u043b\u0443\u0447\u0430\u0435\u0432.<\/p>\n<hr\/>\n<h3>\u041f\u0440\u043e\u0432\u0435\u0440\u043a\u0430 \u043d\u0430 \u0442\u0440\u0451\u0445 \u0441\u0435\u0442\u0430\u043f\u0430\u0445<\/h3>\n<p>\u0427\u0442\u043e\u0431\u044b \u043f\u043e\u043d\u044f\u0442\u044c, \u043d\u0430\u0441\u043a\u043e\u043b\u044c\u043a\u043e \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u0442\u043e\u0447\u0435\u043d, \u044f \u043f\u0440\u043e\u0433\u043d\u0430\u043b \u0435\u0433\u043e \u043d\u0430 \u0442\u0440\u0451\u0445 \u043a\u043e\u043d\u0444\u0438\u0433\u0443\u0440\u0430\u0446\u0438\u044f\u0445, \u043a\u043e\u0442\u043e\u0440\u044b\u0435 \u0443 \u043c\u0435\u043d\u044f \u0435\u0441\u0442\u044c, \u0438 \u0441\u0440\u0430\u0432\u043d\u0438\u043b \u043f\u0440\u0435\u0434\u0441\u043a\u0430\u0437\u0430\u043d\u0438\u044f \u0441 \u0440\u0435\u0430\u043b\u044c\u043d\u044b\u043c\u0438 \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u043c\u0438 \u0447\u0435\u0440\u0435\u0437 llama.cpp.<\/p>\n<h4>\u0421\u0435\u0442\u0430\u043f 1: RTX 4060 Ti 16 GB<\/h4>\n<p>\u042d\u0442\u043e \u043c\u043e\u044f \u043e\u0441\u043d\u043e\u0432\u043d\u0430\u044f \u043c\u0430\u0448\u0438\u043d\u0430 \u0434\u043b\u044f \u044d\u043a\u0441\u043f\u0435\u0440\u0438\u043c\u0435\u043d\u0442\u043e\u0432. 16 GB VRAM, bandwidth 288 GB\/s.<\/p>\n<p><strong>Llama 3.1 8B Q5_K_M, 8k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:<\/strong><\/p>\n<ul>\n<li>\n<p>\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f, \u043f\u0440\u043e\u0433\u043d\u043e\u0437 42 tok\/s<\/p>\n<\/li>\n<li>\n<p>\u0420\u0435\u0430\u043b\u044c\u043d\u043e (llama.cpp, &#8212;gpu-layers 33): <strong>39 tok\/s<\/strong><\/p>\n<\/li>\n<li>\n<p>\u0422\u043e\u0447\u043d\u043e\u0441\u0442\u044c \u043f\u0440\u043e\u0433\u043d\u043e\u0437\u0430: <strong>7% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435<\/strong>, \u0432 \u043f\u0440\u0435\u0434\u0435\u043b\u0430\u0445 \u043d\u043e\u0440\u043c\u044b <strong>Qwen 2.5 14B Q4_K_M, 16k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:<\/strong><\/p>\n<\/li>\n<li>\n<p>\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u00ab\u0432\u043f\u0440\u0438\u0442\u044b\u043a\u00bb, \u043f\u0440\u043e\u0433\u043d\u043e\u0437 22 tok\/s<\/p>\n<\/li>\n<li>\n<p>\u0420\u0435\u0430\u043b\u044c\u043d\u043e: <strong>18 tok\/s<\/strong>, KV cache \u0437\u0430\u043d\u0438\u043c\u0430\u0435\u0442 1.8 GB<\/p>\n<\/li>\n<li>\n<p>\u0422\u043e\u0447\u043d\u043e\u0441\u0442\u044c \u043f\u0440\u043e\u0433\u043d\u043e\u0437\u0430: <strong>22% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435<\/strong>. \u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u043d\u0435 \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 overhead \u043d\u0430 CUDA workspace, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u0434\u043b\u044f 14B \u043c\u043e\u0434\u0435\u043b\u0438 \u0437\u0430\u043c\u0435\u0442\u043d\u0435\u0435 <strong>Mistral Small 22B Q4, 4k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:<\/strong><\/p>\n<\/li>\n<li>\n<p>\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u00ab\u043d\u0435 \u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f\u00bb \u0431\u0435\u0437 offload<\/p>\n<\/li>\n<li>\n<p>\u0420\u0435\u0430\u043b\u044c\u043d\u043e: \u043f\u0440\u0438 \u043f\u043e\u043f\u044b\u0442\u043a\u0435 \u0437\u0430\u0433\u0440\u0443\u0437\u0438\u0442\u044c \u2014 OOM \u0447\u0435\u0440\u0435\u0437 30 \u0441\u0435\u043a\u0443\u043d\u0434 \u0440\u0430\u0431\u043e\u0442\u044b, \u043d\u0443\u0436\u043d\u043e &#8212;gpu-layers 50 (\u043e\u043a\u043e\u043b\u043e 80% \u0441\u043b\u043e\u0451\u0432), \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u043f\u0430\u0434\u0430\u0435\u0442 \u0434\u043e 8 tok\/s<\/p>\n<\/li>\n<li>\n<p>\u041f\u0440\u043e\u0433\u043d\u043e\u0437 \u0432\u0435\u0440\u043d\u044b\u0439<\/p>\n<\/li>\n<\/ul>\n<h4>\u0421\u0435\u0442\u0430\u043f 2: RTX 3090 24 GB<\/h4>\n<p>\u041c\u0430\u0448\u0438\u043d\u0430 \u0434\u0440\u0443\u0433\u0430, \u0443 \u043a\u043e\u0442\u043e\u0440\u043e\u0433\u043e \u0430\u0440\u0435\u043d\u0434\u0443\u044e \u0432\u0440\u0435\u043c\u044f \u043d\u0430 \u0442\u0435\u0441\u0442\u044b. 24 GB VRAM, bandwidth 936 GB\/s.<\/p>\n<p><strong>Llama 3.1 8B Q5_K_M, 32k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:<\/strong><\/p>\n<ul>\n<li>\n<p>\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f, \u043f\u0440\u043e\u0433\u043d\u043e\u0437 138 tok\/s<\/p>\n<\/li>\n<li>\n<p>\u0420\u0435\u0430\u043b\u044c\u043d\u043e: <strong>115 tok\/s<\/strong><\/p>\n<\/li>\n<li>\n<p>\u0422\u043e\u0447\u043d\u043e\u0441\u0442\u044c: <strong>20% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435<\/strong>. \u041d\u0430 3090 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u043f\u0435\u0440\u0435\u043e\u0446\u0435\u043d\u0438\u0432\u0430\u0435\u0442 \u0447\u0430\u0449\u0435, \u0432\u0438\u0434\u0438\u043c\u043e \u0438\u0437-\u0437\u0430 \u0431\u043e\u043b\u0435\u0435 \u043d\u0438\u0437\u043a\u043e\u0433\u043e <code>efficiency<\/code> \u0444\u0430\u043a\u0442\u043e\u0440\u0430, \u0447\u0435\u043c \u0437\u0430\u043b\u043e\u0436\u0435\u043d\u043e <strong>Llama 3.3 70B Q4_K_M, 8k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:<\/strong><\/p>\n<\/li>\n<li>\n<p>\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u00ab\u0432\u043f\u0440\u0438\u0442\u044b\u043a\u00bb, \u043f\u0440\u043e\u0433\u043d\u043e\u0437 25 tok\/s<\/p>\n<\/li>\n<li>\n<p>\u0420\u0435\u0430\u043b\u044c\u043d\u043e: <strong>22 tok\/s<\/strong>, \u0437\u0430\u043d\u0438\u043c\u0430\u0435\u0442 22.3 GB \u0438\u0437 24<\/p>\n<\/li>\n<li>\n<p>\u0422\u043e\u0447\u043d\u043e\u0441\u0442\u044c: <strong>13% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435<\/strong>, \u0440\u0430\u0437\u0443\u043c\u043d\u043e <strong>Qwen 2.5 32B Q5_K_M, 16k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:<\/strong><\/p>\n<\/li>\n<li>\n<p>\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u00ab\u043d\u0435 \u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f\u00bb, \u043d\u0443\u0436\u0435\u043d offload<\/p>\n<\/li>\n<li>\n<p>\u0420\u0435\u0430\u043b\u044c\u043d\u043e: \u0441 &#8212;gpu-layers 60 (\u0438\u0437 64) \u2014 14 tok\/s, \u043e\u0442\u043a\u0430\u0437\u044b\u0432\u0430\u0435\u0442\u0441\u044f \u0440\u0430\u0431\u043e\u0442\u0430\u0442\u044c \u0431\u0435\u0437 CPU offload<\/p>\n<\/li>\n<li>\n<p>\u041f\u0440\u043e\u0433\u043d\u043e\u0437 \u0432\u0435\u0440\u043d\u044b\u0439<\/p>\n<\/li>\n<\/ul>\n<h4>\u0421\u0435\u0442\u0430\u043f 3: Apple M2 Pro 16 GB Unified Memory<\/h4>\n<p>\u0422\u0443\u0442 \u0441\u0430\u043c\u043e\u0435 \u0438\u043d\u0442\u0435\u0440\u0435\u0441\u043d\u043e\u0435. Apple Silicon \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442 \u0438\u043d\u0430\u0447\u0435 \u2014 unified memory \u0432\u043c\u0435\u0441\u0442\u043e \u043e\u0442\u0434\u0435\u043b\u044c\u043d\u043e\u0439 VRAM, \u0438 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u044d\u0442\u043e \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 \u0442\u043e\u043b\u044c\u043a\u043e \u043e\u043f\u0446\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u043e (\u0447\u0435\u0440\u0435\u0437 \u0432\u0432\u043e\u0434 VRAM \u0432\u0440\u0443\u0447\u043d\u0443\u044e).<\/p>\n<p><strong>Llama 3.1 8B Q5_K_M \u0447\u0435\u0440\u0435\u0437 llama.cpp \u0441 Metal:<\/strong><\/p>\n<ul>\n<li>\n<p>\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 (\u0432\u0432\u0451\u043b 11 GB \u043a\u0430\u043a \u00abavailable VRAM\u00bb, \u043e\u0441\u0442\u0430\u0432\u0438\u0432 5 GB \u0434\u043b\u044f \u0441\u0438\u0441\u0442\u0435\u043c\u044b): \u043f\u0440\u043e\u0433\u043d\u043e\u0437 35 tok\/s<\/p>\n<\/li>\n<li>\n<p>\u0420\u0435\u0430\u043b\u044c\u043d\u043e: <strong>28 tok\/s<\/strong><\/p>\n<\/li>\n<li>\n<p>\u0422\u043e\u0447\u043d\u043e\u0441\u0442\u044c: <strong>25% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435<\/strong>. \u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u0442 bandwidth \u0434\u043b\u044f PC GPU, \u0430 \u0443 M2 Pro \u044d\u0444\u0444\u0435\u043a\u0442\u0438\u0432\u043d\u0430\u044f bandwidth \u0434\u043b\u044f LLM workload \u043d\u0438\u0436\u0435 \u0438\u0437-\u0437\u0430 thermal throttling \u0432 \u043f\u0440\u043e\u0434\u043e\u043b\u0436\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0439 \u0440\u0430\u0431\u043e\u0442\u0435 <strong>Phi-3.5 Mini 3.8B Q5, 8k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:<\/strong><\/p>\n<\/li>\n<li>\n<p>\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f \u043b\u0435\u0433\u043a\u043e, \u043f\u0440\u043e\u0433\u043d\u043e\u0437 80 tok\/s<\/p>\n<\/li>\n<li>\n<p>\u0420\u0435\u0430\u043b\u044c\u043d\u043e: <strong>64 tok\/s<\/strong><\/p>\n<\/li>\n<li>\n<p>\u0422\u043e\u0447\u043d\u043e\u0441\u0442\u044c: <strong>25% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435<\/strong><\/p>\n<\/li>\n<\/ul>\n<hr\/>\n<h3>\u0412\u044b\u0432\u043e\u0434\u044b \u043f\u043e \u0442\u043e\u0447\u043d\u043e\u0441\u0442\u0438<\/h3>\n<p>\u0421\u0432\u043e\u0434\u043a\u0430 \u0440\u0435\u0437\u0443\u043b\u044c\u0442\u0430\u0442\u043e\u0432 \u0438\u0437 7 \u0442\u0435\u0441\u0442\u043e\u0432:<\/p>\n<pre><code>\u041c\u043e\u0434\u0435\u043b\u044c                     \u041f\u0440\u043e\u0433\u043d\u043e\u0437  \u0420\u0435\u0430\u043b\u044c\u043d\u043e  \u041e\u0448\u0438\u0431\u043a\u0430\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500Llama 8B Q5 (4060 Ti)       42       39      +7%Qwen 14B Q4 (4060 Ti)       22       18      +22%Llama 8B Q5 (3090)          138      115     +20%Llama 70B Q4 (3090)         25       22      +13%Phi-3.5 3.8B Q5 (M2 Pro)    80       64      +25%Llama 8B Q5 (M2 Pro)        35       28      +25%<\/code><div class=\"code-explainer\"><a href=\"https:\/\/sourcecraft.dev\/\" class=\"tm-button code-explainer__link\" style=\"visibility: hidden;\"><img style=\"width:14px;height:14px;object-fit:cover;object-position:left;\"\/><\/a><\/div><\/pre>\n<p>\u0421\u0440\u0435\u0434\u043d\u044f\u044f \u043e\u0448\u0438\u0431\u043a\u0430 \u043f\u0440\u043e\u0433\u043d\u043e\u0437\u043e\u0432 \u2014 <strong>\u043f\u0440\u0438\u043c\u0435\u0440\u043d\u043e +19% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435<\/strong>. \u042d\u0442\u043e \u0437\u043d\u0430\u0447\u0438\u0442: \u0440\u0435\u0430\u043b\u044c\u043d\u0430\u044f \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u043d\u0430 15-25% \u043d\u0438\u0436\u0435 \u0442\u043e\u0433\u043e, \u0447\u0442\u043e \u043e\u0431\u0435\u0449\u0430\u0435\u0442 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440. \u0414\u043b\u044f \u043f\u0440\u0430\u043a\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0445 \u0446\u0435\u043b\u0435\u0439 \u2014 \u043d\u043e\u0440\u043c\u0430\u043b\u044c\u043d\u0430\u044f \u043e\u0446\u0435\u043d\u043a\u0430. \u041c\u043e\u0436\u043d\u043e \u043c\u044b\u0441\u043b\u0435\u043d\u043d\u043e \u0443\u043c\u043d\u043e\u0436\u0430\u0442\u044c \u043f\u0440\u043e\u0433\u043d\u043e\u0437 \u043d\u0430 0.8 \u0438 \u043f\u043e\u043b\u0443\u0447\u0430\u0442\u044c \u043e\u0436\u0438\u0434\u0430\u043d\u0438\u0435 \u0431\u043b\u0438\u0436\u0435 \u043a \u0440\u0435\u0430\u043b\u044c\u043d\u043e\u0441\u0442\u0438.<\/p>\n<p>\u0417\u0430\u0442\u043e \u043f\u043e \u00ab\u0432\u043b\u0435\u0437\u0435\u0442 \/ \u043d\u0435 \u0432\u043b\u0435\u0437\u0435\u0442\u00bb \u0442\u043e\u0447\u043d\u043e\u0441\u0442\u044c 100%. \u0418\u0437 7 \u0442\u0435\u0441\u0442\u043e\u0432 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u043d\u0438 \u0440\u0430\u0437\u0443 \u043d\u0435 \u043e\u0448\u0438\u0431\u0441\u044f \u0432 \u044d\u0442\u043e\u0439 \u0447\u0430\u0441\u0442\u0438, \u0447\u0442\u043e \u0441\u043e\u0431\u0441\u0442\u0432\u0435\u043d\u043d\u043e \u0438 \u0435\u0441\u0442\u044c \u0433\u043b\u0430\u0432\u043d\u043e\u0435.<\/p>\n<p>\u0413\u0434\u0435 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u0441\u0442\u0430\u0431\u0438\u043b\u044c\u043d\u043e \u043e\u0448\u0438\u0431\u0430\u0435\u0442\u0441\u044f:<\/p>\n<ul>\n<li>\n<p><strong>\u041d\u0435 \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 overhead \u043d\u0430 CUDA workspace<\/strong> \u2014 \u0434\u043b\u044f \u043a\u0440\u0443\u043f\u043d\u044b\u0445 \u043c\u043e\u0434\u0435\u043b\u0435\u0439 \u044d\u0442\u043e 0.5-1 GB \u0441\u0432\u0435\u0440\u0445\u0443<\/p>\n<\/li>\n<li>\n<p><strong>\u0417\u0430\u0432\u044b\u0448\u0430\u0435\u0442 \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u043d\u0430 Apple Silicon<\/strong> \u2014 \u0442\u0430\u043c \u043f\u0430\u043c\u044f\u0442\u044c \u0448\u0430\u0440\u0438\u0442\u0441\u044f \u0441 \u0441\u0438\u0441\u0442\u0435\u043c\u043e\u0439, \u0438 \u044d\u0444\u0444\u0435\u043a\u0442\u0438\u0432\u043d\u044b\u0439 bandwidth \u043d\u0438\u0436\u0435 \u0438\u0437-\u0437\u0430 thermal throttling \u0438 \u043e\u0431\u0449\u0435\u0439 \u043d\u0430\u0433\u0440\u0443\u0437\u043a\u0438<\/p>\n<\/li>\n<li>\n<p><strong>\u041d\u0435 \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 \u043a\u0432\u0430\u0434\u0440\u0430\u0442\u0438\u0447\u043d\u0443\u044e \u0441\u043b\u043e\u0436\u043d\u043e\u0441\u0442\u044c attention<\/strong> \u2014 \u043d\u0430 \u0434\u043b\u0438\u043d\u043d\u044b\u0445 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430\u0445 \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u043f\u0430\u0434\u0430\u0435\u0442 \u0440\u0435\u0437\u0447\u0435, \u0447\u0435\u043c \u043f\u0440\u0435\u0434\u0441\u043a\u0430\u0437\u044b\u0432\u0430\u0435\u0442 \u043c\u043e\u0434\u0435\u043b\u044c<\/p>\n<\/li>\n<li>\n<p><strong>\u0418\u0433\u043d\u043e\u0440\u0438\u0440\u0443\u0435\u0442 \u043e\u0441\u043e\u0431\u0435\u043d\u043d\u043e\u0441\u0442\u0438 \u043a\u043e\u043d\u043a\u0440\u0435\u0442\u043d\u044b\u0445 \u0431\u044d\u043a\u0435\u043d\u0434\u043e\u0432<\/strong> \u2014 Ollama vs llama.cpp vs vLLM \u0434\u0430\u044e\u0442 \u0440\u0430\u0437\u043d\u0443\u044e \u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0441\u0442\u044c \u043d\u0430 \u043e\u0434\u0438\u043d\u0430\u043a\u043e\u0432\u043e\u043c \u0436\u0435\u043b\u0435\u0437\u0435<\/p>\n<\/li>\n<\/ul>\n<hr\/>\n<h3>\u0413\u0434\u0435 \u044d\u0442\u043e\u0442 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u043b\u0443\u0447\u0448\u0435 \u0430\u043b\u044c\u0442\u0435\u0440\u043d\u0430\u0442\u0438\u0432<\/h3>\n<p>\u042f \u0437\u043d\u0430\u044e \u0435\u0449\u0451 \u043f\u0430\u0440\u0443 \u043f\u043e\u0445\u043e\u0436\u0438\u0445 \u0438\u043d\u0441\u0442\u0440\u0443\u043c\u0435\u043d\u0442\u043e\u0432 \u0438 \u043c\u043e\u0433\u0443 \u0441\u0440\u0430\u0432\u043d\u0438\u0442\u044c.<\/p>\n<p><strong>Hugging Face \u00abMemory Calculator\u00bb<\/strong> \u2014 \u043e\u0444\u0438\u0446\u0438\u0430\u043b\u044c\u043d\u044b\u0439 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u043d\u0430 \u0441\u0430\u0439\u0442\u0435 Hugging Face. \u0423\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 \u0442\u043e\u043b\u044c\u043a\u043e \u0432\u0435\u0441\u0430, \u043d\u0435 KV cache, \u043d\u0435 bandwidth. \u041f\u043e\u043b\u0435\u0437\u043d\u044b\u0439, \u043d\u043e \u0433\u0440\u0443\u0431\u044b\u0439 \u2014 \u043c\u043e\u0436\u0435\u0442 \u0441\u043a\u0430\u0437\u0430\u0442\u044c \u00ab\u043c\u043e\u0434\u0435\u043b\u044c \u043f\u043e\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f\u00bb, \u0438 \u0442\u0443\u0442 \u0432\u0430\u0441 \u0432\u0441\u0442\u0440\u0435\u0442\u0438\u0442 OOM \u043d\u0430 \u0441\u0440\u0435\u0434\u043d\u0438\u0445 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430\u0445.<\/p>\n<p><strong>LLM Calc \u043e\u0442 Yifan Wu<\/strong> \u2014 \u043e\u0442\u043a\u0440\u044b\u0442\u044b\u0439 \u043f\u0440\u043e\u0435\u043a\u0442 \u043d\u0430 GitHub \u0441 \u043f\u043e\u0445\u043e\u0436\u0435\u0439 \u0438\u0434\u0435\u0435\u0439. \u0421\u0438\u043b\u044c\u043d\u0435\u0435 \u043f\u043e \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u0435 (\u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 FlashAttention, \u0440\u0430\u0437\u043d\u044b\u0435 precision \u0434\u043b\u044f KV), \u043d\u043e \u043d\u0435 \u0438\u043c\u0435\u0435\u0442 UI \u2014 \u043d\u0443\u0436\u043d\u043e \u043f\u0440\u0430\u0432\u0438\u0442\u044c Python-\u043a\u043e\u0434 \u043f\u043e\u0434 \u0441\u0435\u0431\u044f.<\/p>\n<p><strong>Ollama compatibility check<\/strong> \u2014 \u0432\u0441\u0442\u0440\u043e\u0435\u043d\u043d\u0430\u044f \u043f\u0440\u043e\u0432\u0435\u0440\u043a\u0430 \u0432 Ollama, \u043d\u043e \u043e\u043d\u0430 \u043f\u043e\u043a\u0430\u0437\u044b\u0432\u0430\u0435\u0442 \u0442\u043e\u043b\u044c\u043a\u043e \u00ab\u043f\u043e\u043c\u0435\u0441\u0442\u0438\u0442\u0441\u044f \/ \u043d\u0435 \u043f\u043e\u043c\u0435\u0441\u0442\u0438\u0442\u0441\u044f\u00bb, \u0431\u0435\u0437 \u043e\u0446\u0435\u043d\u043a\u0438 \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u0438 \u0438 \u0431\u0435\u0437 \u0443\u043a\u0430\u0437\u0430\u043d\u0438\u044f \u043c\u0430\u043a\u0441\u0438\u043c\u0430\u043b\u044c\u043d\u043e\u0433\u043e \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430.<\/p>\n<p>\u0413\u043b\u0430\u0432\u043d\u044b\u0435 \u043f\u043b\u044e\u0441\u044b whatmodelscanirun:<\/p>\n<ul>\n<li>\n<p><strong>\u0421\u0442\u0430\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0439 \u0441\u0430\u0439\u0442 \u0431\u0435\u0437 backend.<\/strong> \u0412\u0441\u0435 \u0434\u0430\u043d\u043d\u044b\u0435 \u0432 JSON, \u0440\u0430\u0441\u0447\u0451\u0442 \u0432 \u0431\u0440\u0430\u0443\u0437\u0435\u0440\u0435. \u042d\u0442\u043e \u0437\u043d\u0430\u0447\u0438\u0442 \u2014 \u043d\u0435\u0442 \u043b\u0438\u043c\u0438\u0442\u043e\u0432, \u043d\u0435\u0442 \u0440\u0435\u0433\u0438\u0441\u0442\u0440\u0430\u0446\u0438\u0438, \u043d\u0435\u0442 \u043f\u043e\u0442\u0435\u043d\u0446\u0438\u0430\u043b\u044c\u043d\u044b\u0445 \u043f\u0435\u0440\u0435\u0431\u043e\u0435\u0432.<\/p>\n<\/li>\n<li>\n<p><strong>\u0423\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 KV cache.<\/strong> \u0411\u043e\u043b\u044c\u0448\u0438\u043d\u0441\u0442\u0432\u043e \u043e\u043d\u043b\u0430\u0439\u043d-\u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440\u043e\u0432 \u044d\u0442\u043e\u0433\u043e \u043d\u0435 \u0434\u0435\u043b\u0430\u044e\u0442.<\/p>\n<\/li>\n<li>\n<p><strong>\u0423\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 GQA.<\/strong> \u0411\u0435\u0437 \u044d\u0442\u043e\u0433\u043e \u0440\u0430\u0441\u0447\u0451\u0442\u044b \u0434\u043b\u044f Llama 3.x \u0431\u044b\u043b\u0438 \u0431\u044b \u0432 2-4 \u0440\u0430\u0437\u0430 \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u044b.<\/p>\n<\/li>\n<li>\n<p><strong>\u041f\u0440\u043e\u0441\u0442\u043e\u0439 UI.<\/strong> \u042f \u0432\u0432\u043e\u0436\u0443 VRAM \u0438 context, \u043c\u043d\u0435 \u0441\u0440\u0430\u0437\u0443 \u0432\u0441\u0451 \u0432\u0438\u0434\u043d\u043e.<\/p>\n<\/li>\n<li>\n<p><strong>\u0415\u0441\u0442\u044c \u0440\u0443\u0441\u0441\u043a\u043e\u044f\u0437\u044b\u0447\u043d\u0430\u044f \u0432\u0435\u0440\u0441\u0438\u044f.<\/strong> \u0415\u0441\u043b\u0438 \u0434\u043b\u044f \u0432\u0430\u0441 \u044f\u0437\u044b\u043a \u0438\u043d\u0442\u0435\u0440\u0444\u0435\u0439\u0441\u0430 \u0432\u0430\u0436\u0435\u043d \u2014 <code>whatmodelscanirun.ru<\/code> \u0432\u0435\u0441\u044c \u043f\u0435\u0440\u0435\u0432\u0435\u0434\u0451\u043d. \u041c\u0438\u043d\u0443\u0441\u044b:<\/p>\n<\/li>\n<li>\n<p><strong>\u041d\u0435 \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 CUDA overhead.<\/strong> \u0414\u043b\u044f \u0441\u0435\u0440\u044c\u0451\u0437\u043d\u043e\u0439 \u043e\u0446\u0435\u043d\u043a\u0438 \u043d\u0443\u0436\u043d\u043e \u0432\u044b\u0447\u0435\u0441\u0442\u044c 0.5-1 GB<\/p>\n<\/li>\n<li>\n<p><strong>\u0411\u0430\u0437\u0430 \u043c\u043e\u0434\u0435\u043b\u0435\u0439 \u043e\u0433\u0440\u0430\u043d\u0438\u0447\u0435\u043d\u0430 \u0442\u043e\u043f\u043e\u0432\u044b\u043c\u0438.<\/strong> \u0415\u0441\u043b\u0438 \u0445\u043e\u0442\u0438\u0442\u0435 \u0437\u0430\u043f\u0443\u0441\u0442\u0438\u0442\u044c \u0447\u0442\u043e-\u0442\u043e \u043d\u0438\u0448\u0435\u0432\u043e\u0435 (Yi, Aya, Falcon) \u2014 \u043f\u0440\u0438\u0434\u0451\u0442\u0441\u044f \u0441\u0447\u0438\u0442\u0430\u0442\u044c \u0440\u0443\u043a\u0430\u043c\u0438<\/p>\n<\/li>\n<li>\n<p><strong>\u041d\u0435 \u0440\u0430\u0437\u043b\u0438\u0447\u0430\u0435\u0442 \u0431\u044d\u043a\u0435\u043d\u0434\u044b.<\/strong> \u0420\u0435\u0430\u043b\u044c\u043d\u0430\u044f \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u0432 llama.cpp, Ollama, vLLM, exllama \u043c\u043e\u0436\u0435\u0442 \u043e\u0442\u043b\u0438\u0447\u0430\u0442\u044c\u0441\u044f \u0432 1.5-2 \u0440\u0430\u0437\u0430<\/p>\n<\/li>\n<li>\n<p><strong>\u041d\u0435 \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 Apple Silicon \u043f\u0440\u0430\u0432\u0438\u043b\u044c\u043d\u043e.<\/strong> M-series \u0442\u0440\u0435\u0431\u0443\u0435\u0442 \u0434\u0440\u0443\u0433\u043e\u0439 \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u0438<\/p>\n<\/li>\n<\/ul>\n<hr\/>\n<h3>\u041a\u043e\u0433\u0434\u0430 \u044f \u043b\u0438\u0447\u043d\u043e \u0438\u043c \u043f\u043e\u043b\u044c\u0437\u0443\u044e\u0441\u044c<\/h3>\n<p>\u041f\u043e\u0441\u043b\u0435 \u044d\u0442\u043e\u0433\u043e \u0442\u0435\u0441\u0442\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f \u044f \u0432\u044b\u0440\u0430\u0431\u043e\u0442\u0430\u043b \u0441\u0432\u043e\u0439 workflow:<\/p>\n<ol>\n<li>\n<p><strong>\u041f\u0435\u0440\u0435\u0434 \u0441\u043a\u0430\u0447\u0438\u0432\u0430\u043d\u0438\u0435\u043c \u043d\u043e\u0432\u043e\u0439 \u043c\u043e\u0434\u0435\u043b\u0438<\/strong> \u2014 \u043f\u0440\u043e\u0432\u0435\u0440\u044f\u044e \u0432 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440\u0435, \u0432\u043b\u0435\u0437\u0435\u0442 \u043b\u0438 \u0432 \u043c\u043e\u0451 \u0436\u0435\u043b\u0435\u0437\u043e \u0441 \u043d\u0443\u0436\u043d\u044b\u043c \u043c\u043d\u0435 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u043e\u043c. \u042d\u0442\u043e \u0441\u043e\u0445\u0440\u0430\u043d\u044f\u0435\u0442 \u043e\u0442 \u043a\u0430\u0447\u0430\u043d\u0438\u044f 40 GB \u0431\u0438\u043d\u0430\u0440\u043d\u0438\u043a\u0430 \u0432\u043f\u0443\u0441\u0442\u0443\u044e.<\/p>\n<\/li>\n<li>\n<p><strong>\u041f\u0435\u0440\u0435\u0434 \u0430\u043f\u0433\u0440\u0435\u0439\u0434\u043e\u043c \u0436\u0435\u043b\u0435\u0437\u0430<\/strong> \u2014 \u0441\u0440\u0430\u0432\u043d\u0438\u0432\u0430\u044e, \u0447\u0442\u043e \u043e\u0442\u043a\u0440\u044b\u0432\u0430\u0435\u0442 24 GB vs 16 GB \u043d\u0430 \u043a\u043e\u043d\u043a\u0440\u0435\u0442\u043d\u044b\u0445 \u043c\u043e\u0434\u0435\u043b\u044f\u0445, \u043a\u043e\u0442\u043e\u0440\u044b\u0435 \u044f \u0445\u043e\u0447\u0443 \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u0442\u044c. \u042d\u0442\u043e \u043f\u043e\u043c\u043e\u0433\u043b\u043e \u043c\u043d\u0435 \u043f\u043e\u043d\u044f\u0442\u044c, \u0447\u0442\u043e \u0434\u043b\u044f \u043c\u043e\u0438\u0445 \u0437\u0430\u0434\u0430\u0447 4060 Ti 16 GB \u0434\u043e\u0441\u0442\u0430\u0442\u043e\u0447\u043d\u043e, \u0438 \u043d\u0435 \u043d\u0443\u0436\u043d\u043e \u043f\u0435\u0440\u0435\u043f\u043b\u0430\u0447\u0438\u0432\u0430\u0442\u044c \u0437\u0430 3090.<\/p>\n<\/li>\n<li>\n<p><strong>\u0414\u043b\u044f \u043f\u043b\u0430\u043d\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f multi-agent \u0441\u0435\u0442\u0430\u043f\u0430<\/strong> \u2014 \u043e\u0446\u0435\u043d\u0438\u0432\u0430\u044e, \u043c\u043e\u0436\u043d\u043e \u043b\u0438 \u043a\u0440\u0443\u0442\u0438\u0442\u044c \u0434\u0432\u0435 \u043c\u043e\u0434\u0435\u043b\u0438 \u043f\u0430\u0440\u0430\u043b\u043b\u0435\u043b\u044c\u043d\u043e. \u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u043f\u043e\u0437\u0432\u043e\u043b\u044f\u0435\u0442 \u0431\u044b\u0441\u0442\u0440\u043e \u043f\u0440\u0438\u043a\u0438\u043d\u0443\u0442\u044c, \u0441\u043a\u043e\u043b\u044c\u043a\u043e VRAM \u043e\u0441\u0442\u0430\u043d\u0435\u0442\u0441\u044f \u043f\u043e\u0441\u043b\u0435 \u0437\u0430\u0433\u0440\u0443\u0437\u043a\u0438 \u043f\u0435\u0440\u0432\u043e\u0439 \u043c\u043e\u0434\u0435\u043b\u0438. \u0427\u0435\u043c \u044f <strong>\u043d\u0435<\/strong> \u043f\u043e\u043b\u044c\u0437\u0443\u044e\u0441\u044c \u0438 \u043d\u0435 \u0440\u0435\u043a\u043e\u043c\u0435\u043d\u0434\u0443\u044e \u043f\u043e\u043b\u0430\u0433\u0430\u0442\u044c\u0441\u044f:<\/p>\n<\/li>\n<\/ol>\n<ul>\n<li>\n<p><strong>\u0422\u043e\u0447\u043d\u044b\u0435 \u0447\u0438\u0441\u043b\u0430 tok\/s<\/strong> \u2014 \u0431\u0435\u0440\u0438\u0442\u0435 \u0441 \u043f\u043e\u043f\u0440\u0430\u0432\u043a\u043e\u0439 \u043d\u0430 20% \u0432\u043d\u0438\u0437 \u0438 \u043f\u0440\u043e\u0432\u0435\u0440\u044f\u0439\u0442\u0435 \u0441\u0430\u043c\u0438<\/p>\n<\/li>\n<li>\n<p><strong>\u0420\u0435\u0448\u0435\u043d\u0438\u044f \u043e \u043f\u043e\u043a\u0443\u043f\u043a\u0435 \u0434\u043e\u0440\u043e\u0433\u043e\u0433\u043e \u0436\u0435\u043b\u0435\u0437\u0430<\/strong> \u2014 \u0434\u043b\u044f \u044d\u0442\u043e\u0433\u043e \u043d\u0443\u0436\u043d\u044b \u0440\u0435\u0430\u043b\u044c\u043d\u044b\u0435 \u0431\u0435\u043d\u0447\u043c\u0430\u0440\u043a\u0438 \u043a\u043e\u043d\u043a\u0440\u0435\u0442\u043d\u044b\u0445 \u043c\u043e\u0434\u0435\u043b\u0435\u0439 \u043d\u0430 \u043a\u043e\u043d\u043a\u0440\u0435\u0442\u043d\u044b\u0445 \u043a\u043e\u043d\u0444\u0438\u0433\u0443\u0440\u0430\u0446\u0438\u044f\u0445<\/p>\n<\/li>\n<\/ul>\n<hr\/>\n<h3>\u0413\u043b\u0430\u0432\u043d\u044b\u0435 \u0442\u0435\u0445\u043d\u0438\u0447\u0435\u0441\u043a\u0438\u0435 \u0443\u0440\u043e\u043a\u0438<\/h3>\n<p>\u041d\u0435\u0441\u043a\u043e\u043b\u044c\u043a\u043e \u0432\u0435\u0449\u0435\u0439, \u043a\u043e\u0442\u043e\u0440\u044b\u0435 \u044f \u0437\u0430\u043a\u0440\u0435\u043f\u0438\u043b \u0434\u043b\u044f \u0441\u0435\u0431\u044f \u0447\u0435\u0440\u0435\u0437 \u044d\u0442\u043e\u0442 \u0440\u0430\u0437\u0431\u043e\u0440.<\/p>\n<p><strong>KV cache \u043c\u0430\u0441\u0448\u0442\u0430\u0431\u0438\u0440\u0443\u0435\u0442\u0441\u044f \u043b\u0438\u043d\u0435\u0439\u043d\u043e \u043f\u043e \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0443.<\/strong> \u042d\u0442\u043e \u0431\u0430\u043d\u0430\u043b\u044c\u043d\u043e, \u043d\u043e \u043c\u043d\u043e\u0433\u0438\u0435 \u0437\u0430\u0431\u044b\u0432\u0430\u044e\u0442. 32k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430 \u043d\u0430 Llama 8B \u2014 \u044d\u0442\u043e 4 GB \u0434\u043e\u043f\u043e\u043b\u043d\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0439 VRAM. 128k \u2014 \u0443\u0436\u0435 16 GB, \u0438 \u0432 16 GB VRAM \u043c\u043e\u0434\u0435\u043b\u044c \u043f\u0440\u043e\u0441\u0442\u043e \u043d\u0435 \u0432\u043b\u0435\u0437\u0435\u0442. \u041f\u043e\u044d\u0442\u043e\u043c\u0443 \u043a\u043e\u0433\u0434\u0430 \u0437\u0430\u044f\u0432\u043b\u044f\u044e\u0442 \u00ab\u043c\u043e\u0434\u0435\u043b\u044c \u0441 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u043e\u043c 1M \u0442\u043e\u043a\u0435\u043d\u043e\u0432\u00bb, \u0432\u0430\u0436\u043d\u043e \u043f\u043e\u043d\u0438\u043c\u0430\u0442\u044c, \u0447\u0442\u043e \u0434\u043b\u044f \u0437\u0430\u043f\u0443\u0441\u043a\u0430 \u043d\u0443\u0436\u043d\u043e \u043d\u0435\u0432\u0435\u0440\u043e\u044f\u0442\u043d\u043e\u0435 \u043a\u043e\u043b\u0438\u0447\u0435\u0441\u0442\u0432\u043e \u043f\u0430\u043c\u044f\u0442\u0438, \u0438\u043b\u0438 \u0442\u0435\u0445\u043d\u0438\u043a\u0438 \u0442\u0438\u043f\u0430 sliding window.<\/p>\n<p><strong>Memory bandwidth \u2014 \u0433\u043b\u0430\u0432\u043d\u044b\u0439 bottleneck.<\/strong> Compute (TFLOPS) \u0432\u0430\u0448 GPU \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u0442 \u0432 decode-\u0444\u0430\u0437\u0435 \u043f\u0440\u043e\u0446\u0435\u043d\u0442\u043e\u0432 \u043d\u0430 10. \u0413\u043b\u0430\u0432\u043d\u043e\u0435 \u2014 \u043d\u0430\u0441\u043a\u043e\u043b\u044c\u043a\u043e \u0431\u044b\u0441\u0442\u0440\u043e \u0432\u0438\u0434\u0435\u043e\u043a\u0430\u0440\u0442\u0430 \u0442\u0430\u0449\u0438\u0442 \u0432\u0435\u0441\u0430 \u0438\u0437 VRAM. \u041f\u043e\u044d\u0442\u043e\u043c\u0443 3090 \u043d\u0430 \u0442\u0438\u043f\u0438\u0447\u043d\u043e\u0439 LLM-\u0437\u0430\u0434\u0430\u0447\u0435 \u043f\u043e\u0431\u0435\u0436\u0434\u0430\u0435\u0442 4060 Ti \u043d\u0435 \u0432 2 \u0440\u0430\u0437\u0430 \u043f\u043e compute, \u0430 \u0438\u043c\u0435\u043d\u043d\u043e \u0432 3 \u0440\u0430\u0437\u0430 \u043f\u043e bandwidth (936 vs 288 GB\/s).<\/p>\n<p><strong>GQA \u043c\u0435\u043d\u044f\u0435\u0442 \u0432\u0441\u0451.<\/strong> \u0415\u0441\u043b\u0438 \u0431\u044b Meta \u0434\u0435\u043b\u0430\u043b\u0430 Llama 3 \u0431\u0435\u0437 Grouped Query Attention, \u043d\u0430 \u0442\u0435\u0445 \u0436\u0435 16 GB \u043c\u043e\u0436\u043d\u043e \u0431\u044b\u043b\u043e \u0431\u044b \u0434\u0435\u0440\u0436\u0430\u0442\u044c \u043c\u0430\u043a\u0441\u0438\u043c\u0443\u043c 8-10k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430, \u0430 \u043d\u0435 60k+. \u042d\u0442\u043e \u043e\u0434\u043d\u0430 \u0438\u0437 \u0441\u0430\u043c\u044b\u0445 \u0432\u0430\u0436\u043d\u044b\u0445 \u043e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u0439 \u043f\u043e\u0441\u043b\u0435\u0434\u043d\u0438\u0445 \u043b\u0435\u0442.<\/p>\n<p><strong>\u041a\u0432\u0430\u043d\u0442\u043e\u0432\u0430\u043d\u0438\u0435 \u0441\u0438\u043b\u044c\u043d\u043e \u043c\u0435\u043d\u044f\u0435\u0442 \u043a\u0430\u0440\u0442\u0438\u043d\u0443.<\/strong> \u0420\u0430\u0437\u043d\u0438\u0446\u0430 \u043c\u0435\u0436\u0434\u0443 Q4_K_M \u0438 Q8_0 \u0434\u043b\u044f \u043e\u0434\u043d\u043e\u0439 \u0438 \u0442\u043e\u0439 \u0436\u0435 \u043c\u043e\u0434\u0435\u043b\u0438 \u2014 \u044d\u0442\u043e \u0432\u0434\u0432\u043e\u0435 \u0431\u043e\u043b\u044c\u0448\u0438\u0439 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442 \u0432 \u0442\u043e\u0439 \u0436\u0435 VRAM. Q4 \u2014 \u044d\u0442\u043e \u043f\u043e\u0442\u0435\u0440\u044f 1-2% \u043a\u0430\u0447\u0435\u0441\u0442\u0432\u0430, \u0447\u0442\u043e \u043e\u0431\u044b\u0447\u043d\u043e \u043d\u0435\u0437\u0430\u043c\u0435\u0442\u043d\u043e \u0434\u043b\u044f \u043f\u0440\u0430\u043a\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0445 \u0437\u0430\u0434\u0430\u0447. \u041d\u0435 \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u0439\u0442\u0435 \u043c\u043e\u0434\u0435\u043b\u0438 \u0432 FP16 \u0431\u0435\u0437 \u043d\u0435\u043e\u0431\u0445\u043e\u0434\u0438\u043c\u043e\u0441\u0442\u0438.<\/p>\n<hr\/>\n<h3>\u0420\u0435\u0437\u044e\u043c\u0435<\/h3>\n<p>\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 whatmodelscanirun.ru \u2014 \u044d\u0442\u043e <strong>\u043f\u043e\u043b\u0435\u0437\u043d\u044b\u0439 \u0438\u043d\u0441\u0442\u0440\u0443\u043c\u0435\u043d\u0442 \u0441 \u043f\u0440\u0430\u0432\u0438\u043b\u044c\u043d\u043e\u0439 \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u043e\u0439 \u0438 \u043d\u0435\u0431\u043e\u043b\u044c\u0448\u0438\u043c\u0438 \u0441\u0438\u0441\u0442\u0435\u043c\u0430\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u043c\u0438 \u043e\u0448\u0438\u0431\u043a\u0430\u043c\u0438<\/strong>. \u041d\u0435 \u00ab\u0442\u043e\u043f\u043e\u0432\u044b\u0439 \u0441\u0430\u0439\u0442\u00bb, \u043a\u0430\u043a \u0435\u0433\u043e \u0440\u0435\u043a\u043b\u0430\u043c\u0438\u0440\u0443\u044e\u0442 \u0432 \u0442\u0435\u043b\u0435\u0433\u0440\u0430\u043c-\u043a\u0430\u043d\u0430\u043b\u0430\u0445, \u0430 \u0430\u043a\u043a\u0443\u0440\u0430\u0442\u043d\u044b\u0439 pet-\u043f\u0440\u043e\u0435\u043a\u0442 (\u0444\u043e\u0440\u043a MIT-\u043f\u0440\u043e\u0435\u043a\u0442\u0430 <code>whatmodels<\/code> \u043e\u0442 BenD10), \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u0434\u0435\u043b\u0430\u0435\u0442 \u0441\u0432\u043e\u044e \u0440\u0430\u0431\u043e\u0442\u0443 \u0445\u043e\u0440\u043e\u0448\u043e.<\/p>\n<p>\u041f\u043e \u043f\u0440\u043e\u0433\u043d\u043e\u0437\u0430\u043c \u0432\u043b\u0435\u0437\u0435\u0442\/\u043d\u0435 \u0432\u043b\u0435\u0437\u0435\u0442 \u2014 \u0442\u043e\u0447\u043d\u043e\u0441\u0442\u044c 100%. \u041f\u043e \u043f\u0440\u043e\u0433\u043d\u043e\u0437\u0430\u043c \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u0438 \u2014 \u0441\u0442\u0430\u0431\u0438\u043b\u044c\u043d\u043e\u0435 \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435 \u043d\u0430 15-25%, \u0447\u0442\u043e \u043c\u043e\u0436\u043d\u043e \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0442\u044c \u043f\u043e\u043f\u0440\u0430\u0432\u043a\u043e\u0439.<\/p>\n<p>\u041f\u043e\u043b\u0435\u0437\u043d\u043e \u0434\u043b\u044f: \u043f\u043b\u0430\u043d\u0438\u0440\u043e\u0432\u0430\u043d\u0438\u044f \u043f\u043e\u043a\u0443\u043f\u043a\u0438 \u0436\u0435\u043b\u0435\u0437\u0430, \u0432\u044b\u0431\u043e\u0440\u0430 \u043c\u0435\u0436\u0434\u0443 \u043c\u043e\u0434\u0435\u043b\u044f\u043c\u0438, \u043f\u0440\u0438\u043a\u0438\u0434\u043a\u0438 \u043c\u0430\u043a\u0441\u0438\u043c\u0430\u043b\u044c\u043d\u043e\u0433\u043e \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430. \u041d\u0435 \u043f\u043e\u043b\u0435\u0437\u043d\u043e \u0434\u043b\u044f: \u0442\u043e\u0447\u043d\u044b\u0445 \u0431\u0435\u043d\u0447\u043c\u0430\u0440\u043a\u043e\u0432, \u043e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u0438 production-\u0438\u043d\u0444\u0435\u0440\u0435\u043d\u0441\u0430, \u043e\u0446\u0435\u043d\u043a\u0438 apple silicon.<\/p>\n<p>\u0412 \u0446\u0435\u043b\u043e\u043c \u2014 \u0437\u0430\u0441\u043b\u0443\u0436\u0435\u043d\u043d\u044b\u0439 bookmark \u0432 \u0431\u0440\u0430\u0443\u0437\u0435\u0440\u0435 \u0434\u043b\u044f \u0432\u0441\u0435\u0445, \u043a\u0442\u043e \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442 \u0441 \u043b\u043e\u043a\u0430\u043b\u044c\u043d\u044b\u043c\u0438 LLM. \u0418 \u0445\u043e\u0440\u043e\u0448\u0438\u0439 \u043f\u0440\u0438\u043c\u0435\u0440 \u0442\u043e\u0433\u043e, \u043a\u0430\u043a \u043f\u0440\u043e\u0441\u0442\u043e\u0439 \u0441\u0442\u0430\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0439 \u0441\u0430\u0439\u0442 \u043c\u043e\u0436\u0435\u0442 \u0440\u0435\u0448\u0430\u0442\u044c \u043a\u043e\u043d\u043a\u0440\u0435\u0442\u043d\u0443\u044e \u0438\u043d\u0436\u0435\u043d\u0435\u0440\u043d\u0443\u044e \u0437\u0430\u0434\u0430\u0447\u0443 \u043b\u0443\u0447\u0448\u0435, \u0447\u0435\u043c \u043c\u043d\u043e\u0433\u0438\u0435 \u043a\u043e\u043c\u043c\u0435\u0440\u0447\u0435\u0441\u043a\u0438\u0435 \u0430\u043b\u044c\u0442\u0435\u0440\u043d\u0430\u0442\u0438\u0432\u044b.<\/p>\n<hr\/>\n<p><em>\u041f\u043e\u043b\u0435\u0437\u043d\u044b\u0435 \u0441\u0441\u044b\u043b\u043a\u0438:<\/em><\/p>\n<ul>\n<li>\n<p><em>\u0420\u0443\u0441\u0441\u043a\u043e\u044f\u0437\u044b\u0447\u043d\u0430\u044f \u0432\u0435\u0440\u0441\u0438\u044f: <\/em><a href=\"http:\/\/whatmodelscanirun.ru\" rel=\"noopener noreferrer nofollow\"><em>whatmodelscanirun.ru<\/em><\/a><\/p>\n<\/li>\n<li>\n<p><em>\u0410\u043d\u0433\u043b\u043e\u044f\u0437\u044b\u0447\u043d\u044b\u0439 \u043e\u0440\u0438\u0433\u0438\u043d\u0430\u043b: <\/em><a href=\"https:\/\/whatmodelscanirun.com\" rel=\"noopener noreferrer nofollow\"><em>whatmodelscanirun.com<\/em><\/a><\/p>\n<\/li>\n<li>\n<p><em>\u0418\u0441\u0445\u043e\u0434\u043d\u0438\u043a\u0438 \u043e\u0440\u0438\u0433\u0438\u043d\u0430\u043b\u0430: <\/em><a href=\"https:\/\/github.com\/BenD10\/whatmodels\" rel=\"noopener noreferrer nofollow\"><em>github.com\/BenD10\/whatmodels<\/em><\/a><\/p>\n<\/li>\n<li>\n<p><em>Hugging Face Memory Calculator: <\/em><a href=\"https:\/\/huggingface.co\/spaces\/Vokturz\/can-it-run-llm\" rel=\"noopener noreferrer nofollow\"><em>huggingface.co\/spaces\/Vokturz\/can-it-run-llm<\/em><\/a><\/p>\n<\/li>\n<li>\n<p><em>\u041f\u043e\u0434\u0440\u043e\u0431\u043d\u0430\u044f \u0434\u043e\u043a\u0443\u043c\u0435\u043d\u0442\u0430\u0446\u0438\u044f \u043f\u0440\u043e KV cache \u043e\u0442 Hugging Face: <\/em><a href=\"https:\/\/huggingface.co\/docs\/transformers\/llm_tutorial_optimization\" rel=\"noopener noreferrer nofollow\"><em>huggingface.co\/docs\/transformers\/llm_tutorial_optimization<\/em><\/a><\/p>\n<\/li>\n<li>\n<p><em>Llama.cpp \u2014 \u0440\u0435\u0430\u043b\u0438\u0437\u0430\u0446\u0438\u044f, \u043d\u0430 \u043a\u043e\u0442\u043e\u0440\u043e\u0439 \u044f \u0434\u0435\u043b\u0430\u043b \u0431\u0435\u043d\u0447\u043c\u0430\u0440\u043a\u0438: <\/em><a href=\"https:\/\/github.com\/ggerganov\/llama.cpp\" rel=\"noopener noreferrer nofollow\"><em>github.com\/ggerganov\/llama.cpp<\/em><\/a><\/p>\n<\/li>\n<\/ul>\n<\/div>\n<p>\u0441\u0441\u044b\u043b\u043a\u0430 \u043d\u0430 \u043e\u0440\u0438\u0433\u0438\u043d\u0430\u043b \u0441\u0442\u0430\u0442\u044c\u0438 <a href=\"https:\/\/habr.com\/ru\/articles\/1035862\/\">https:\/\/habr.com\/ru\/articles\/1035862\/<\/a><\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u0421\u0440\u0430\u0432\u043d\u0438\u043b \u043f\u0440\u0435\u0434\u0441\u043a\u0430\u0437\u0430\u043d\u0438\u044f \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440\u0430 \u0441 \u0440\u0435\u0430\u043b\u044c\u043d\u044b\u043c\u0438 \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u043c\u0438 llama.cpp \u043d\u0430 RTX 4060 Ti, 3090 \u0438 Apple M2 Pro. \u0421\u043f\u043e\u0439\u043b\u0435\u0440: \u0433\u0434\u0435-\u0442\u043e \u0442\u043e\u0447\u043d\u043e, \u0433\u0434\u0435-\u0442\u043e \u043c\u0438\u043c\u043e \u043d\u0430 30%\u041a\u043e\u0433\u0434\u0430 \u044f \u043d\u0430\u0447\u0430\u043b \u043a\u043e\u0432\u044b\u0440\u044f\u0442\u044c\u0441\u044f \u0441 \u043b\u043e\u043a\u0430\u043b\u044c\u043d\u044b\u043c\u0438 LLM \u043f\u043e\u043b\u0433\u043e\u0434\u0430 \u043d\u0430\u0437\u0430\u0434, \u0433\u043b\u0430\u0432\u043d\u0430\u044f \u0431\u043e\u043b\u044c \u0431\u044b\u043b\u0430 \u043d\u0435 \u0432 \u0443\u0441\u0442\u0430\u043d\u043e\u0432\u043a\u0435 \u043c\u043e\u0434\u0435\u043b\u0435\u0439, \u0430 \u0432 \u043f\u043e\u043d\u0438\u043c\u0430\u043d\u0438\u0438, \u0447\u0442\u043e \u0432\u043e\u043e\u0431\u0449\u0435 \u0432\u043b\u0435\u0437\u0435\u0442 \u0432 \u043c\u043e\u0451 \u0436\u0435\u043b\u0435\u0437\u043e. \u0414\u043e\u043a\u0443\u043c\u0435\u043d\u0442\u0430\u0446\u0438\u044f Hugging Face \u0433\u043e\u0432\u043e\u0440\u0438\u0442 \u00abLlama 3.1 8B\u00bb. \u0427\u0442\u043e \u044d\u0442\u043e \u0437\u043d\u0430\u0447\u0438\u0442 \u0434\u043b\u044f \u043c\u043e\u0435\u0439 \u0432\u0438\u0434\u0435\u043e\u043a\u0430\u0440\u0442\u044b \u0441 16 GB VRAM? \u0410 \u0435\u0441\u043b\u0438 \u044f \u0445\u043e\u0447\u0443 32k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442? \u0410 \u0441 \u043a\u0432\u0430\u043d\u0442\u043e\u0432\u0430\u043d\u0438\u0435\u043c Q4_K_M? \u0426\u0438\u0444\u0440\u044b \u0432 README \u0447\u0430\u0441\u0442\u043e \u043d\u0435 \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u044e\u0442 KV cache, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u043f\u0440\u0438 \u0431\u043e\u043b\u044c\u0448\u0438\u0445 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430\u0445 \u0435\u0441\u0442 VRAM \u0441\u0438\u043b\u044c\u043d\u0435\u0435, \u0447\u0435\u043c \u0441\u0430\u043c\u0430 \u043c\u043e\u0434\u0435\u043b\u044c.\u041d\u0435\u0441\u043a\u043e\u043b\u044c\u043a\u043e \u043d\u0435\u0434\u0435\u043b\u044c \u043d\u0430\u0437\u0430\u0434 \u043c\u043d\u0435 \u043f\u043e\u043f\u0430\u043b\u0441\u044f \u043f\u0440\u043e\u0441\u0442\u043e\u0439 open-source \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u2014 whatmodelscanirun.ru (\u0440\u0443\u0441\u0441\u043a\u043e\u044f\u0437\u044b\u0447\u043d\u044b\u0439 \u0444\u043e\u0440\u043a \u043e\u0440\u0438\u0433\u0438\u043d\u0430\u043b\u044c\u043d\u043e\u0433\u043e \u043f\u0440\u043e\u0435\u043a\u0442\u0430 whatmodels \u043e\u0442 BenD10, MIT-\u043b\u0438\u0446\u0435\u043d\u0437\u0438\u044f). \u0412\u0432\u043e\u0434\u0438\u0448\u044c VRAM, \u0432\u044b\u0431\u0438\u0440\u0430\u0435\u0448\u044c \u043c\u043e\u0434\u0435\u043b\u044c, \u0432\u0438\u0434\u0438\u0448\u044c, \u0432\u043b\u0435\u0437\u0435\u0442 \u043b\u0438. \u0412\u043d\u0443\u0442\u0440\u0438 \u2014 \u043d\u0435\u0442\u0440\u0438\u0432\u0438\u0430\u043b\u044c\u043d\u0430\u044f \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u0430: \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442\u0441\u044f \u0440\u0430\u0437\u043c\u0435\u0440 \u0432\u0435\u0441\u043e\u0432, KV cache \u043f\u043e \u0441\u043b\u043e\u044f\u043c, GQA-\u043e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u044f, memory bandwidth \u0434\u043b\u044f \u043e\u0446\u0435\u043d\u043a\u0438 tokens\/sec. \u042f \u0440\u0435\u0448\u0438\u043b \u043f\u0440\u043e\u0432\u0435\u0440\u0438\u0442\u044c, \u043d\u0430\u0441\u043a\u043e\u043b\u044c\u043a\u043e \u0442\u043e\u0447\u043d\u044b\u0435 \u043f\u0440\u043e\u0433\u043d\u043e\u0437\u044b \u043e\u043d \u0434\u0430\u0451\u0442, \u043f\u0440\u043e\u0433\u043d\u0430\u0432 \u0435\u0433\u043e \u043d\u0430 \u0442\u0440\u0451\u0445 \u0441\u0432\u043e\u0438\u0445 \u0441\u0435\u0442\u0430\u043f\u0430\u0445 \u0438 \u0441\u0440\u0430\u0432\u043d\u0438\u0432 \u0441 \u0440\u0435\u0430\u043b\u044c\u043d\u044b\u043c\u0438 \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u043c\u0438 \u0447\u0435\u0440\u0435\u0437 llama.cpp \u0438 Ollama.\u0417\u0430\u043e\u0434\u043d\u043e \u0440\u0430\u0437\u043e\u0431\u0440\u0430\u043b\u0441\u044f, \u043a\u0430\u043a \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442 \u0432\u043d\u0443\u0442\u0440\u0438. \u042d\u0442\u043e \u0438\u043d\u0442\u0435\u0440\u0435\u0441\u043d\u044b\u0439 \u043f\u0440\u0438\u043c\u0435\u0440 \u0442\u043e\u0433\u043e, \u043a\u0430\u043a \u043f\u0440\u043e\u0441\u0442\u043e\u0439 \u0441\u0442\u0430\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0439 SvelteKit-\u0441\u0430\u0439\u0442 \u0440\u0435\u0430\u043b\u0438\u0437\u0443\u0435\u0442 \u0434\u043e\u0432\u043e\u043b\u044c\u043d\u043e \u0441\u0435\u0440\u044c\u0451\u0437\u043d\u0443\u044e \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u0443 \u043f\u043e \u043e\u0446\u0435\u043d\u043a\u0435 \u0432\u043e\u0437\u043c\u043e\u0436\u043d\u043e\u0441\u0442\u0435\u0439 \u0436\u0435\u043b\u0435\u0437\u0430.\u0427\u0442\u043e \u044d\u0442\u043e \u0438 \u043a\u043e\u043c\u0443 \u043d\u0443\u0436\u043d\u043e\u041e\u0440\u0438\u0433\u0438\u043d\u0430\u043b\u044c\u043d\u044b\u0439 \u043f\u0440\u043e\u0435\u043a\u0442 \u043d\u0430\u0437\u044b\u0432\u0430\u0435\u0442\u0441\u044f whatmodels, \u0430\u0432\u0442\u043e\u0440 \u2014 BenD10. \u041e\u0434\u0438\u043d \u0440\u0430\u0437\u0440\u0430\u0431\u043e\u0442\u0447\u0438\u043a, MIT-\u043b\u0438\u0446\u0435\u043d\u0437\u0438\u044f, 57 \u043a\u043e\u043c\u043c\u0438\u0442\u043e\u0432, \u043f\u043e\u0441\u043b\u0435\u0434\u043d\u0435\u0435 \u043e\u0431\u043d\u043e\u0432\u043b\u0435\u043d\u0438\u0435 \u0434\u0430\u043d\u043d\u044b\u0445 \u043f\u043e \u043c\u043e\u0434\u0435\u043b\u044f\u043c \u2014 \u0430\u043f\u0440\u0435\u043b\u044c 2026. \u041d\u0430 \u0430\u043d\u0433\u043b\u0438\u0439\u0441\u043a\u043e\u043c \u0434\u043e\u0441\u0442\u0443\u043f\u0435\u043d \u043d\u0430 whatmodelscanirun.com, \u043d\u0430 \u0440\u0443\u0441\u0441\u043a\u043e\u043c \u2014 \u043d\u0430 whatmodelscanirun.ru. \u042f \u043f\u043e\u043b\u044c\u0437\u043e\u0432\u0430\u043b\u0441\u044f \u0440\u0443\u0441\u0441\u043a\u043e\u0439 \u0432\u0435\u0440\u0441\u0438\u0435\u0439 \u0434\u043b\u044f \u0443\u0434\u043e\u0431\u0441\u0442\u0432\u0430, \u043d\u043e \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u0430 \u0438 \u0434\u0430\u043d\u043d\u044b\u0435 \u043e\u0434\u0438\u043d\u0430\u043a\u043e\u0432\u044b\u0435 \u2014 \u044d\u0442\u043e \u0444\u043e\u0440\u043a, \u043d\u0435 \u0441\u0430\u043c\u043e\u0441\u0442\u043e\u044f\u0442\u0435\u043b\u044c\u043d\u044b\u0439 \u043f\u0440\u043e\u0435\u043a\u0442.\u0418\u0434\u0435\u044f \u043f\u0440\u043e\u0441\u0442\u0430\u044f. \u041d\u0430 \u0432\u0445\u043e\u0434\u0435:GPU \u0438\u0437 \u0441\u043f\u0438\u0441\u043a\u0430 (\u0438\u043b\u0438 \u0440\u0443\u0447\u043d\u043e\u0439 \u0432\u0432\u043e\u0434 VRAM)\u041c\u0438\u043d\u0438\u043c\u0430\u043b\u044c\u043d\u044b\u0439 \u043d\u0443\u0436\u043d\u044b\u0439 context window\u041c\u0438\u043d\u0438\u043c\u0430\u043b\u044c\u043d\u0430\u044f \u043d\u0443\u0436\u043d\u0430\u044f \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u0433\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u0438 (\u0442\u043e\u043a\u0435\u043d\u043e\u0432 \u0432 \u0441\u0435\u043a\u0443\u043d\u0434\u0443)\u041e\u043f\u0446\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u043e \u2014 system RAM \u0434\u043b\u044f offloading \u0432 \u041e\u0417\u0423 \u041d\u0430 \u0432\u044b\u0445\u043e\u0434\u0435 \u2014 \u0441\u043f\u0438\u0441\u043e\u043a \u043c\u043e\u0434\u0435\u043b\u0435\u0439 \u0441 \u0440\u0430\u0437\u0431\u0438\u0432\u043a\u043e\u0439 \u043d\u0430 \u0442\u0440\u0438 \u043a\u0430\u0442\u0435\u0433\u043e\u0440\u0438\u0438:fits (\u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f) \u2014 \u043c\u043e\u0434\u0435\u043b\u044c \u0432\u043b\u0435\u0437\u0430\u0435\u0442 \u0441 \u0437\u0430\u043f\u0430\u0441\u043e\u043ctight (\u0432\u043f\u0440\u0438\u0442\u044b\u043a) \u2014 \u043c\u043e\u0436\u0435\u0442 \u043d\u0435 \u0445\u0432\u0430\u0442\u0438\u0442\u044c \u043f\u0440\u0438 \u0431\u043e\u043b\u044c\u0448\u0438\u0445 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430\u0445doesn\u2019t fit (\u043d\u0435 \u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f) \u2014 \u043d\u0435 \u0437\u0430\u043f\u0443\u0441\u0442\u0438\u0442\u0441\u044f \u0431\u0435\u0437 offload \u0432 \u0441\u0438\u0441\u0442\u0435\u043c\u043d\u0443\u044e RAM \u0414\u043b\u044f \u043a\u0430\u0436\u0434\u043e\u0439 \u043c\u043e\u0434\u0435\u043b\u0438 \u043f\u043e\u043a\u0430\u0437\u044b\u0432\u0430\u0435\u0442\u0441\u044f: \u043a\u0432\u0430\u043d\u0442\u043e\u0432\u0430\u043d\u0438\u0435, \u043c\u0430\u043a\u0441\u0438\u043c\u0430\u043b\u044c\u043d\u044b\u0439 context window \u0434\u043b\u044f \u044d\u0442\u043e\u0433\u043e \u0436\u0435\u043b\u0435\u0437\u0430, \u043e\u0446\u0435\u043d\u043a\u0430 tokens\/sec, \u043d\u0435\u043e\u0431\u0445\u043e\u0434\u0438\u043c\u043e\u0441\u0442\u044c offload-\u0430.\u0417\u0432\u0443\u0447\u0438\u0442 \u043a\u0430\u043a \u00ab\u0435\u0449\u0451 \u043e\u0434\u0438\u043d \u043e\u043d\u043b\u0430\u0439\u043d-\u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440\u00bb, \u043d\u043e \u0447\u0442\u043e \u043c\u0435\u043d\u044f \u0437\u0430\u0446\u0435\u043f\u0438\u043b\u043e \u2014 \u0432\u043d\u0443\u0442\u0440\u0438 \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u0430 \u043f\u0440\u0430\u0432\u0438\u043b\u044c\u043d\u0430\u044f, \u043d\u0435 \u00ab\u0441\u043a\u043e\u043b\u044c\u043a\u043e-\u0442\u043e \u043f\u0440\u0438\u0431\u043b\u0438\u0437\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u00bb. \u0410\u043b\u0433\u043e\u0440\u0438\u0442\u043c \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 \u0440\u0435\u0430\u043b\u044c\u043d\u0443\u044e \u0444\u0438\u0437\u0438\u043a\u0443 \u0440\u0430\u0431\u043e\u0442\u044b LLM \u043d\u0430 GPU.\u041a\u043e\u043c\u0443 \u044d\u0442\u043e \u043f\u043e\u043b\u0435\u0437\u043d\u043e. \u0415\u0441\u043b\u0438 \u0432\u044b \u0432\u044b\u0431\u0438\u0440\u0430\u0435\u0442\u0435 \u043c\u0435\u0436\u0434\u0443 Llama 3.1 8B Q5 \u0438 Qwen 2.5 14B Q4 \u2014 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u0431\u044b\u0441\u0442\u0440\u043e \u043f\u043e\u043a\u0430\u0436\u0435\u0442, \u043a\u0430\u043a\u0430\u044f \u043c\u043e\u0434\u0435\u043b\u044c \u0434\u0430\u0441\u0442 \u0432\u0430\u043c \u0431\u043e\u043b\u044c\u0448\u0435 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430. \u0415\u0441\u043b\u0438 \u0432\u044b \u043f\u043e\u043a\u0443\u043f\u0430\u0435\u0442\u0435 \u043d\u043e\u0432\u0443\u044e \u0432\u0438\u0434\u0435\u043e\u043a\u0430\u0440\u0442\u0443 \u0441\u043f\u0435\u0446\u0438\u0430\u043b\u044c\u043d\u043e \u043f\u043e\u0434 \u043b\u043e\u043a\u0430\u043b\u044c\u043d\u044b\u0435 LLM \u0438 \u0445\u043e\u0442\u0438\u0442\u0435 \u043f\u043e\u043d\u044f\u0442\u044c, \u0441\u0442\u043e\u0438\u0442 \u043b\u0438 \u043f\u0435\u0440\u0435\u043f\u043b\u0430\u0447\u0438\u0432\u0430\u0442\u044c \u0437\u0430 24 GB \u0432\u043c\u0435\u0441\u0442\u043e 16 \u2014 \u043f\u043e\u0441\u043c\u043e\u0442\u0440\u0438\u0442\u0435, \u043a\u0430\u043a\u0438\u0435 \u043c\u043e\u0434\u0435\u043b\u0438 \u043e\u0442\u043a\u0440\u044b\u0432\u0430\u0435\u0442 \u0434\u043e\u043f\u043e\u043b\u043d\u0438\u0442\u0435\u043b\u044c\u043d\u0430\u044f VRAM. \u0415\u0441\u043b\u0438 \u0432\u044b \u0441\u0442\u0440\u043e\u0438\u0442\u0435 multi-agent \u0441\u0438\u0441\u0442\u0435\u043c\u0443 \u043b\u043e\u043a\u0430\u043b\u044c\u043d\u043e \u0438 \u0445\u043e\u0442\u0438\u0442\u0435 \u043f\u0430\u0440\u0430\u043b\u043b\u0435\u043b\u044c\u043d\u043e \u043a\u0440\u0443\u0442\u0438\u0442\u044c \u0434\u0432\u0435-\u0442\u0440\u0438 \u043c\u043e\u0434\u0435\u043b\u0438 \u2014 \u043e\u0446\u0435\u043d\u0438\u0442\u044c \u0442\u0440\u0435\u0431\u043e\u0432\u0430\u043d\u0438\u044f.\u0427\u0442\u043e \u043f\u043e\u0434 \u043a\u0430\u043f\u043e\u0442\u043e\u043c: VRAM-budget\u0421\u0430\u043c\u043e\u0435 \u0438\u043d\u0442\u0435\u0440\u0435\u0441\u043d\u043e\u0435 \u0432 \u043f\u0440\u043e\u0435\u043a\u0442\u0435 \u2014 \u043c\u0430\u0442\u0435\u043c\u0430\u0442\u0438\u043a\u0430. \u042f \u0435\u0451 \u0440\u0430\u0437\u043e\u0431\u0440\u0430\u043b \u043f\u043e README \u0438 \u0438\u0441\u0445\u043e\u0434\u043d\u0438\u043a\u0430\u043c \u0440\u0435\u043f\u043e\u0437\u0438\u0442\u043e\u0440\u0438\u044f. \u0415\u0441\u043b\u0438 \u0432\u044b \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u043b\u0438 \u043b\u043e\u043a\u0430\u043b\u044c\u043d\u044b\u0435 LLM, \u043c\u043d\u043e\u0433\u043e\u0435 \u0431\u0443\u0434\u0435\u0442 \u0437\u043d\u0430\u043a\u043e\u043c\u043e, \u043d\u043e \u0432 \u043e\u0434\u043d\u043e\u043c \u043c\u0435\u0441\u0442\u0435 \u044d\u0442\u043e \u0440\u0435\u0434\u043a\u043e \u0441\u043e\u0431\u0440\u0430\u043d\u043e.\u041e\u0431\u0449\u0430\u044f \u0444\u043e\u0440\u043c\u0443\u043b\u0430 VRAM:total_vram = weight_gb + (kv_per_1k_gb \u00d7 context_length_k)\u0413\u0434\u0435:weight_gb \u2014 \u0440\u0430\u0437\u043c\u0435\u0440 \u0432\u0435\u0441\u043e\u0432 \u043c\u043e\u0434\u0435\u043b\u0438 \u0432 \u043f\u0430\u043c\u044f\u0442\u0438 (\u0437\u0430\u0432\u0438\u0441\u0438\u0442 \u043e\u0442 \u043a\u043e\u043b\u0438\u0447\u0435\u0441\u0442\u0432\u0430 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440\u043e\u0432 \u0438 \u043a\u0432\u0430\u043d\u0442\u043e\u0432\u0430\u043d\u0438\u044f)kv_per_1k_gb \u2014 \u0441\u0442\u043e\u0438\u043c\u043e\u0441\u0442\u044c KV cache \u043d\u0430 \u043a\u0430\u0436\u0434\u044b\u0435 1000 \u0442\u043e\u043a\u0435\u043d\u043e\u0432 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430context_length_k \u2014 \u0436\u0435\u043b\u0430\u0435\u043c\u0430\u044f \u0434\u043b\u0438\u043d\u0430 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430 \u0432 \u0442\u044b\u0441\u044f\u0447\u0430\u0445 \u0442\u043e\u043a\u0435\u043d\u043e\u0432 \u041f\u0435\u0440\u0432\u0430\u044f \u0447\u0430\u0441\u0442\u044c \u2014 \u0432\u0435\u0441\u0430 \u2014 \u043e\u0431\u044b\u0447\u043d\u043e \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442\u0441\u044f \u0432\u0441\u0435\u043c\u0438. \u0410 \u0432\u043e\u0442 KV cache \u043c\u043d\u043e\u0433\u0438\u0435 \u0437\u0430\u0431\u044b\u0432\u0430\u044e\u0442, \u0438 \u044d\u0442\u043e \u0433\u043b\u0430\u0432\u043d\u0430\u044f \u043f\u0440\u0438\u0447\u0438\u043d\u0430, \u043f\u043e\u0447\u0435\u043c\u0443 \u043c\u043e\u0434\u0435\u043b\u044c \u00ab\u043d\u0435 \u0432\u043b\u0435\u0437\u0430\u0435\u0442\u00bb, \u0445\u043e\u0442\u044f \u043f\u043e \u0432\u0435\u0441\u0430\u043c \u0434\u043e\u043b\u0436\u043d\u0430.\u0420\u0430\u0437\u043c\u0435\u0440 \u0432\u0435\u0441\u043e\u0432 \u0441\u0447\u0438\u0442\u0430\u0435\u0442\u0441\u044f \u043f\u0440\u043e\u0441\u0442\u043e:weight_gb = num_params \u00d7 bytes_per_param \/ 1024\u00b3\u0414\u043b\u044f \u0440\u0430\u0437\u043d\u044b\u0445 \u043a\u0432\u0430\u043d\u0442\u043e\u0432\u0430\u043d\u0438\u0439:FP16 (\u043f\u043e\u043b\u043d\u0430\u044f \u0442\u043e\u0447\u043d\u043e\u0441\u0442\u044c) \u2014 2 \u0431\u0430\u0439\u0442\u0430 \u043d\u0430 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440. Llama 3.1 8B = ~16 GBQ8_0 \u2014 1 \u0431\u0430\u0439\u0442. Llama 3.1 8B = ~8 GBQ5_K_M \u2014 ~5.6 \u0431\u0438\u0442. Llama 3.1 8B = ~5.7 GBQ4_K_M \u2014 ~4.5 \u0431\u0438\u0442. Llama 3.1 8B = ~4.6 GB KV cache \u2014 \u0441\u043b\u043e\u0436\u043d\u0435\u0435. \u041a\u0435\u0448 \u0445\u0440\u0430\u043d\u0438\u0442 \u043a\u043b\u044e\u0447\u0438 \u0438 \u0437\u043d\u0430\u0447\u0435\u043d\u0438\u044f \u0434\u043b\u044f \u043a\u0430\u0436\u0434\u043e\u0433\u043e \u0441\u043b\u043e\u044f \u0438 \u043a\u0430\u0436\u0434\u043e\u0433\u043e \u0442\u043e\u043a\u0435\u043d\u0430 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430. Per token:kv_bytes_per_token = 2 \u00d7 num_layers \u00d7 num_kv_heads \u00d7 head_dim \u00d7 bytes_per_value\u0420\u0430\u0441\u043a\u0440\u043e\u0435\u043c \u043a\u043e\u044d\u0444\u0444\u0438\u0446\u0438\u0435\u043d\u0442\u044b:\u041c\u043d\u043e\u0436\u0438\u0442\u0435\u043b\u044c 2 \u2014 \u043e\u0434\u0438\u043d \u0434\u043b\u044f keys, \u043e\u0434\u0438\u043d \u0434\u043b\u044f valuesnum_layers \u2014 \u043a\u043e\u043b\u0438\u0447\u0435\u0441\u0442\u0432\u043e transformer-\u0441\u043b\u043e\u0451\u0432. \u0423 Llama 3.2 3B \u044d\u0442\u043e 28 \u0441\u043b\u043e\u0451\u0432, \u0443 Llama 3.1 8B \u2014 32, \u0443 Llama 3.3 70B \u2014 80num_kv_heads \u2014 \u043a\u043e\u043b\u0438\u0447\u0435\u0441\u0442\u0432\u043e KV-\u0433\u043e\u043b\u043e\u0432 \u043f\u043e\u0441\u043b\u0435 GQA-\u043e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u0438. \u0417\u0434\u0435\u0441\u044c \u043a\u0440\u0438\u0442\u0438\u0447\u043d\u0430\u044f \u0434\u0435\u0442\u0430\u043b\u044c: \u043c\u043e\u0434\u0435\u043b\u0438 \u043f\u043e\u0441\u043b\u0435\u0434\u043d\u0438\u0445 \u043b\u0435\u0442 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u044e\u0442 Grouped Query Attention, \u0432 \u043a\u043e\u0442\u043e\u0440\u043e\u043c KV-\u0433\u043e\u043b\u043e\u0432 \u043c\u0435\u043d\u044c\u0448\u0435, \u0447\u0435\u043c Query-\u0433\u043e\u043b\u043e\u0432. Llama 3.1 8B \u0438\u043c\u0435\u0435\u0442 32 Q-\u0433\u043e\u043b\u043e\u0432\u044b, \u043d\u043e \u0432\u0441\u0435\u0433\u043e 8 KV-\u0433\u043e\u043b\u043e\u0432. \u042d\u0442\u043e \u0434\u0430\u0451\u0442 4x \u044d\u043a\u043e\u043d\u043e\u043c\u0438\u044e \u043d\u0430 KV cachehead_dim \u2014 \u0440\u0430\u0437\u043c\u0435\u0440\u043d\u043e\u0441\u0442\u044c \u043d\u0430 \u043e\u0434\u043d\u0443 \u0433\u043e\u043b\u043e\u0432\u0443. \u041e\u0431\u044b\u0447\u043d\u043e 128bytes_per_value \u2014 \u043e\u0431\u044b\u0447\u043d\u043e 2 (fp16 \u0434\u043b\u044f KV cache), \u043d\u043e \u043c\u043e\u0436\u043d\u043e \u0441\u0436\u0438\u043c\u0430\u0442\u044c \u0434\u043e 1 \u0431\u0430\u0439\u0442\u0430 (q8_0) \u0438\u043b\u0438 \u043c\u0435\u043d\u044c\u0448\u0435 \u041f\u0440\u0438\u043c\u0435\u0440 \u0440\u0430\u0441\u0447\u0451\u0442\u0430 \u0434\u043b\u044f Llama 3.1 8B \u043f\u0440\u0438 32k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430:kv_bytes_per_token = 2 \u00d7 32 \u00d7 8 \u00d7 128 \u00d7 2 = 131,072 bytes\/token                    = 0.125 KB\/token KV \u0434\u043b\u044f 32k = 32,000 \u00d7 0.125 = 4,000 KB = ~4 GB\u0422\u043e \u0435\u0441\u0442\u044c \u043d\u0430 32k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430 \u0443\u0445\u043e\u0434\u0438\u0442 \u0434\u043e\u043f\u043e\u043b\u043d\u0438\u0442\u0435\u043b\u044c\u043d\u044b\u0435 4 GB \u043f\u043e\u0432\u0435\u0440\u0445 \u0432\u0435\u0441\u043e\u0432 \u043c\u043e\u0434\u0435\u043b\u0438. \u0415\u0441\u043b\u0438 \u0443 \u0432\u0430\u0441 16 GB VRAM \u0438 Llama 3.1 8B \u0432 Q5 (\u22485.7 GB \u0432\u0435\u0441\u043e\u0432), \u043d\u0430 KV \u043e\u0441\u0442\u0430\u0451\u0442\u0441\u044f 10.3 GB \u2192 \u043c\u043e\u0436\u043d\u043e \u0434\u0435\u0440\u0436\u0430\u0442\u044c \u043f\u0440\u0438\u043c\u0435\u0440\u043d\u043e 82k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430. \u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u044d\u0442\u043e \u0438 \u0441\u0447\u0438\u0442\u0430\u0435\u0442.\u0412 \u043a\u043e\u0434\u0435 \u0432\u0441\u0451 \u0445\u0440\u0430\u043d\u0438\u0442\u0441\u044f \u043f\u0440\u0435\u0434\u0440\u0430\u0441\u0447\u0438\u0442\u0430\u043d\u043d\u044b\u043c \u0432 models.json. \u041a\u0430\u0436\u0434\u0430\u044f \u043c\u043e\u0434\u0435\u043b\u044c \u0438\u043c\u0435\u0435\u0442 \u043f\u043e\u043b\u0435 kv_per_1k_gb, \u043f\u043e\u0441\u0447\u0438\u0442\u0430\u043d\u043d\u043e\u0435 \u043e\u0434\u0438\u043d \u0440\u0430\u0437. \u042d\u0442\u043e \u0440\u0430\u0437\u0443\u043c\u043d\u043e\u0435 \u0440\u0435\u0448\u0435\u043d\u0438\u0435 \u2014 \u0432\u0441\u0435 \u044d\u0442\u0438 \u043f\u0430\u0440\u0430\u043c\u0435\u0442\u0440\u044b \u043a\u043e\u043d\u0441\u0442\u0430\u043d\u0442\u044b \u0434\u043b\u044f \u043a\u043e\u043d\u043a\u0440\u0435\u0442\u043d\u043e\u0439 \u043c\u043e\u0434\u0435\u043b\u0438.\u041e\u0446\u0435\u043d\u043a\u0430 \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u0438 \u0433\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u0438 (tokens\/sec)\u042d\u0442\u043e \u0432\u0442\u043e\u0440\u0430\u044f \u0438\u043d\u0442\u0435\u0440\u0435\u0441\u043d\u0430\u044f \u0447\u0430\u0441\u0442\u044c \u0430\u043b\u0433\u043e\u0440\u0438\u0442\u043c\u0430, \u0438 \u043e\u043d\u0430 \u0432\u0430\u0436\u043d\u0435\u0435, \u0447\u0435\u043c \u043a\u0430\u0436\u0435\u0442\u0441\u044f. \u041c\u043d\u043e\u0433\u0438\u0435 \u043d\u043e\u0432\u0438\u0447\u043a\u0438 \u043d\u0435 \u043f\u043e\u043d\u0438\u043c\u0430\u044e\u0442, \u0447\u0442\u043e \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u0433\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u0438 \u0432 LLM \u043f\u043e\u0447\u0442\u0438 \u043d\u0435 \u0437\u0430\u0432\u0438\u0441\u0438\u0442 \u043e\u0442 GPU compute \u2014 \u043e\u043d\u0430 \u043e\u0433\u0440\u0430\u043d\u0438\u0447\u0435\u043d\u0430 memory bandwidth.\u041f\u043e\u0447\u0435\u043c\u0443 \u0442\u0430\u043a: \u0432\u043e \u0432\u0440\u0435\u043c\u044f decode-\u0444\u0430\u0437\u044b (\u0433\u0435\u043d\u0435\u0440\u0430\u0446\u0438\u044f \u043e\u0434\u043d\u043e\u0433\u043e \u0442\u043e\u043a\u0435\u043d\u0430 \u0437\u0430 \u0440\u0430\u0437) \u043c\u043e\u0434\u0435\u043b\u044c \u0434\u043e\u043b\u0436\u043d\u0430 \u043f\u043e\u043b\u043d\u043e\u0441\u0442\u044c\u044e \u043f\u0440\u043e\u0447\u0438\u0442\u0430\u0442\u044c \u0432\u0441\u0435 \u0441\u0432\u043e\u0438 \u0432\u0435\u0441\u0430 \u0438\u0437 VRAM. \u0415\u0441\u043b\u0438 \u0443 \u0432\u0430\u0441 Llama 3.1 8B Q5 (~5.7 GB) \u0438 \u0432\u0438\u0434\u0435\u043e\u043a\u0430\u0440\u0442\u0430 \u0441 bandwidth 360 GB\/s \u2014 \u0442\u0435\u043e\u0440\u0435\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0439 \u043c\u0430\u043a\u0441\u0438\u043c\u0443\u043c:max_tokens_per_sec = bandwidth \/ weight_gb                   = 360 \/ 5.7 = 63 tokens\/sec\u042d\u0442\u043e \u00abraw ceiling\u00bb. \u041d\u0430 \u043f\u0440\u0430\u043a\u0442\u0438\u043a\u0435 \u0434\u043e\u0441\u0442\u0438\u0436\u0438\u043c\u0430\u044f \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c 70-90% \u043e\u0442 \u044d\u0442\u043e\u0433\u043e ceiling \u2014 \u043e\u0431\u044b\u0447\u043d\u043e \u043e\u043a\u043e\u043b\u043e 50 tok\/s \u0434\u043b\u044f Llama 8B Q5 \u043d\u0430 RTX 3060 Ti.\u0412 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440\u0435 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u0442\u0441\u044f \u044d\u0442\u043e, \u043f\u043b\u044e\u0441 \u043a\u043e\u0440\u0440\u0435\u043a\u0442\u0438\u0440\u0443\u044e\u0449\u0438\u0439 \u043a\u043e\u044d\u0444\u0444\u0438\u0446\u0438\u0435\u043d\u0442. \u0424\u043e\u0440\u043c\u0443\u043b\u0430 \u043f\u0440\u0438\u043c\u0435\u0440\u043d\u043e:estimated_tok_sec = (bandwidth_gb_s \u00d7 efficiency) \/ model_size_gbefficiency \u043e\u0431\u044b\u0447\u043d\u043e 0.7-0.85 \u0432 \u0437\u0430\u0432\u0438\u0441\u0438\u043c\u043e\u0441\u0442\u0438 \u043e\u0442 \u0442\u0438\u043f\u0430 \u043a\u0432\u0430\u043d\u0442\u043e\u0432\u0430\u043d\u0438\u044f \u0438 \u043e\u043f\u0442\u0438\u043c\u0438\u0437\u0430\u0446\u0438\u0439. \u042d\u0442\u043e \u0440\u0430\u0437\u0443\u043c\u043d\u043e\u0435 \u043f\u0440\u0438\u0431\u043b\u0438\u0436\u0435\u043d\u0438\u0435 \u0434\u043b\u044f llama.cpp \u0441 CUDA backend.\u0412\u0430\u0436\u043d\u044b\u0439 \u043d\u044e\u0430\u043d\u0441 \u2014 \u043d\u0430 \u0431\u00f3\u043b\u044c\u0448\u0438\u0445 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430\u0445 \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u043f\u0430\u0434\u0430\u0435\u0442, \u043f\u043e\u0442\u043e\u043c\u0443 \u0447\u0442\u043e \u0434\u043e\u0431\u0430\u0432\u043b\u044f\u0435\u0442\u0441\u044f \u0447\u0442\u0435\u043d\u0438\u0435 KV cache. \u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u044d\u0442\u043e \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 \u043d\u0435 \u0438\u0434\u0435\u0430\u043b\u044c\u043d\u043e (\u0442\u043e\u0447\u043d\u0430\u044f \u0444\u043e\u0440\u043c\u0443\u043b\u0430 \u0432\u043a\u043b\u044e\u0447\u0430\u0435\u0442 attention compute, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u0437\u0430\u0432\u0438\u0441\u0438\u0442 \u043e\u0442 \u0434\u043b\u0438\u043d\u044b \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430 \u043a\u0432\u0430\u0434\u0440\u0430\u0442\u0438\u0447\u043d\u043e), \u043d\u043e \u0434\u0430\u0451\u0442 \u043d\u043e\u0440\u043c\u0430\u043b\u044c\u043d\u0443\u044e \u043e\u0446\u0435\u043d\u043a\u0443 \u0434\u043b\u044f \u0442\u0438\u043f\u0438\u0447\u043d\u044b\u0445 \u0441\u043b\u0443\u0447\u0430\u0435\u0432.\u041f\u0440\u043e\u0432\u0435\u0440\u043a\u0430 \u043d\u0430 \u0442\u0440\u0451\u0445 \u0441\u0435\u0442\u0430\u043f\u0430\u0445\u0427\u0442\u043e\u0431\u044b \u043f\u043e\u043d\u044f\u0442\u044c, \u043d\u0430\u0441\u043a\u043e\u043b\u044c\u043a\u043e \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u0442\u043e\u0447\u0435\u043d, \u044f \u043f\u0440\u043e\u0433\u043d\u0430\u043b \u0435\u0433\u043e \u043d\u0430 \u0442\u0440\u0451\u0445 \u043a\u043e\u043d\u0444\u0438\u0433\u0443\u0440\u0430\u0446\u0438\u044f\u0445, \u043a\u043e\u0442\u043e\u0440\u044b\u0435 \u0443 \u043c\u0435\u043d\u044f \u0435\u0441\u0442\u044c, \u0438 \u0441\u0440\u0430\u0432\u043d\u0438\u043b \u043f\u0440\u0435\u0434\u0441\u043a\u0430\u0437\u0430\u043d\u0438\u044f \u0441 \u0440\u0435\u0430\u043b\u044c\u043d\u044b\u043c\u0438 \u0437\u0430\u043f\u0443\u0441\u043a\u0430\u043c\u0438 \u0447\u0435\u0440\u0435\u0437 llama.cpp.\u0421\u0435\u0442\u0430\u043f 1: RTX 4060 Ti 16 GB\u042d\u0442\u043e \u043c\u043e\u044f \u043e\u0441\u043d\u043e\u0432\u043d\u0430\u044f \u043c\u0430\u0448\u0438\u043d\u0430 \u0434\u043b\u044f \u044d\u043a\u0441\u043f\u0435\u0440\u0438\u043c\u0435\u043d\u0442\u043e\u0432. 16 GB VRAM, bandwidth 288 GB\/s.Llama 3.1 8B Q5_K_M, 8k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f, \u043f\u0440\u043e\u0433\u043d\u043e\u0437 42 tok\/s\u0420\u0435\u0430\u043b\u044c\u043d\u043e (llama.cpp, &#8212;gpu-layers 33): 39 tok\/s\u0422\u043e\u0447\u043d\u043e\u0441\u0442\u044c \u043f\u0440\u043e\u0433\u043d\u043e\u0437\u0430: 7% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435, \u0432 \u043f\u0440\u0435\u0434\u0435\u043b\u0430\u0445 \u043d\u043e\u0440\u043c\u044b Qwen 2.5 14B Q4_K_M, 16k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u00ab\u0432\u043f\u0440\u0438\u0442\u044b\u043a\u00bb, \u043f\u0440\u043e\u0433\u043d\u043e\u0437 22 tok\/s\u0420\u0435\u0430\u043b\u044c\u043d\u043e: 18 tok\/s, KV cache \u0437\u0430\u043d\u0438\u043c\u0430\u0435\u0442 1.8 GB\u0422\u043e\u0447\u043d\u043e\u0441\u0442\u044c \u043f\u0440\u043e\u0433\u043d\u043e\u0437\u0430: 22% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435. \u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u043d\u0435 \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 overhead \u043d\u0430 CUDA workspace, \u043a\u043e\u0442\u043e\u0440\u044b\u0439 \u0434\u043b\u044f 14B \u043c\u043e\u0434\u0435\u043b\u0438 \u0437\u0430\u043c\u0435\u0442\u043d\u0435\u0435 Mistral Small 22B Q4, 4k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u00ab\u043d\u0435 \u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f\u00bb \u0431\u0435\u0437 offload\u0420\u0435\u0430\u043b\u044c\u043d\u043e: \u043f\u0440\u0438 \u043f\u043e\u043f\u044b\u0442\u043a\u0435 \u0437\u0430\u0433\u0440\u0443\u0437\u0438\u0442\u044c \u2014 OOM \u0447\u0435\u0440\u0435\u0437 30 \u0441\u0435\u043a\u0443\u043d\u0434 \u0440\u0430\u0431\u043e\u0442\u044b, \u043d\u0443\u0436\u043d\u043e &#8212;gpu-layers 50 (\u043e\u043a\u043e\u043b\u043e 80% \u0441\u043b\u043e\u0451\u0432), \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u043f\u0430\u0434\u0430\u0435\u0442 \u0434\u043e 8 tok\/s\u041f\u0440\u043e\u0433\u043d\u043e\u0437 \u0432\u0435\u0440\u043d\u044b\u0439\u0421\u0435\u0442\u0430\u043f 2: RTX 3090 24 GB\u041c\u0430\u0448\u0438\u043d\u0430 \u0434\u0440\u0443\u0433\u0430, \u0443 \u043a\u043e\u0442\u043e\u0440\u043e\u0433\u043e \u0430\u0440\u0435\u043d\u0434\u0443\u044e \u0432\u0440\u0435\u043c\u044f \u043d\u0430 \u0442\u0435\u0441\u0442\u044b. 24 GB VRAM, bandwidth 936 GB\/s.Llama 3.1 8B Q5_K_M, 32k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f, \u043f\u0440\u043e\u0433\u043d\u043e\u0437 138 tok\/s\u0420\u0435\u0430\u043b\u044c\u043d\u043e: 115 tok\/s\u0422\u043e\u0447\u043d\u043e\u0441\u0442\u044c: 20% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435. \u041d\u0430 3090 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u043f\u0435\u0440\u0435\u043e\u0446\u0435\u043d\u0438\u0432\u0430\u0435\u0442 \u0447\u0430\u0449\u0435, \u0432\u0438\u0434\u0438\u043c\u043e \u0438\u0437-\u0437\u0430 \u0431\u043e\u043b\u0435\u0435 \u043d\u0438\u0437\u043a\u043e\u0433\u043e efficiency \u0444\u0430\u043a\u0442\u043e\u0440\u0430, \u0447\u0435\u043c \u0437\u0430\u043b\u043e\u0436\u0435\u043d\u043e Llama 3.3 70B Q4_K_M, 8k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u00ab\u0432\u043f\u0440\u0438\u0442\u044b\u043a\u00bb, \u043f\u0440\u043e\u0433\u043d\u043e\u0437 25 tok\/s\u0420\u0435\u0430\u043b\u044c\u043d\u043e: 22 tok\/s, \u0437\u0430\u043d\u0438\u043c\u0430\u0435\u0442 22.3 GB \u0438\u0437 24\u0422\u043e\u0447\u043d\u043e\u0441\u0442\u044c: 13% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435, \u0440\u0430\u0437\u0443\u043c\u043d\u043e Qwen 2.5 32B Q5_K_M, 16k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u00ab\u043d\u0435 \u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f\u00bb, \u043d\u0443\u0436\u0435\u043d offload\u0420\u0435\u0430\u043b\u044c\u043d\u043e: \u0441 &#8212;gpu-layers 60 (\u0438\u0437 64) \u2014 14 tok\/s, \u043e\u0442\u043a\u0430\u0437\u044b\u0432\u0430\u0435\u0442\u0441\u044f \u0440\u0430\u0431\u043e\u0442\u0430\u0442\u044c \u0431\u0435\u0437 CPU offload\u041f\u0440\u043e\u0433\u043d\u043e\u0437 \u0432\u0435\u0440\u043d\u044b\u0439\u0421\u0435\u0442\u0430\u043f 3: Apple M2 Pro 16 GB Unified Memory\u0422\u0443\u0442 \u0441\u0430\u043c\u043e\u0435 \u0438\u043d\u0442\u0435\u0440\u0435\u0441\u043d\u043e\u0435. Apple Silicon \u0440\u0430\u0431\u043e\u0442\u0430\u0435\u0442 \u0438\u043d\u0430\u0447\u0435 \u2014 unified memory \u0432\u043c\u0435\u0441\u0442\u043e \u043e\u0442\u0434\u0435\u043b\u044c\u043d\u043e\u0439 VRAM, \u0438 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u044d\u0442\u043e \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 \u0442\u043e\u043b\u044c\u043a\u043e \u043e\u043f\u0446\u0438\u043e\u043d\u0430\u043b\u044c\u043d\u043e (\u0447\u0435\u0440\u0435\u0437 \u0432\u0432\u043e\u0434 VRAM \u0432\u0440\u0443\u0447\u043d\u0443\u044e).Llama 3.1 8B Q5_K_M \u0447\u0435\u0440\u0435\u0437 llama.cpp \u0441 Metal:\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 (\u0432\u0432\u0451\u043b 11 GB \u043a\u0430\u043a \u00abavailable VRAM\u00bb, \u043e\u0441\u0442\u0430\u0432\u0438\u0432 5 GB \u0434\u043b\u044f \u0441\u0438\u0441\u0442\u0435\u043c\u044b): \u043f\u0440\u043e\u0433\u043d\u043e\u0437 35 tok\/s\u0420\u0435\u0430\u043b\u044c\u043d\u043e: 28 tok\/s\u0422\u043e\u0447\u043d\u043e\u0441\u0442\u044c: 25% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435. \u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u0438\u0441\u043f\u043e\u043b\u044c\u0437\u0443\u0435\u0442 bandwidth \u0434\u043b\u044f PC GPU, \u0430 \u0443 M2 Pro \u044d\u0444\u0444\u0435\u043a\u0442\u0438\u0432\u043d\u0430\u044f bandwidth \u0434\u043b\u044f LLM workload \u043d\u0438\u0436\u0435 \u0438\u0437-\u0437\u0430 thermal throttling \u0432 \u043f\u0440\u043e\u0434\u043e\u043b\u0436\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0439 \u0440\u0430\u0431\u043e\u0442\u0435 Phi-3.5 Mini 3.8B Q5, 8k \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442:\u041a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440: \u0432\u043c\u0435\u0449\u0430\u0435\u0442\u0441\u044f \u043b\u0435\u0433\u043a\u043e, \u043f\u0440\u043e\u0433\u043d\u043e\u0437 80 tok\/s\u0420\u0435\u0430\u043b\u044c\u043d\u043e: 64 tok\/s\u0422\u043e\u0447\u043d\u043e\u0441\u0442\u044c: 25% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435\u0412\u044b\u0432\u043e\u0434\u044b \u043f\u043e \u0442\u043e\u0447\u043d\u043e\u0441\u0442\u0438\u0421\u0432\u043e\u0434\u043a\u0430 \u0440\u0435\u0437\u0443\u043b\u044c\u0442\u0430\u0442\u043e\u0432 \u0438\u0437 7 \u0442\u0435\u0441\u0442\u043e\u0432:\u041c\u043e\u0434\u0435\u043b\u044c                     \u041f\u0440\u043e\u0433\u043d\u043e\u0437  \u0420\u0435\u0430\u043b\u044c\u043d\u043e  \u041e\u0448\u0438\u0431\u043a\u0430\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500\u2500Llama 8B Q5 (4060 Ti)       42       39      +7%Qwen 14B Q4 (4060 Ti)       22       18      +22%Llama 8B Q5 (3090)          138      115     +20%Llama 70B Q4 (3090)         25       22      +13%Phi-3.5 3.8B Q5 (M2 Pro)    80       64      +25%Llama 8B Q5 (M2 Pro)        35       28      +25%\u0421\u0440\u0435\u0434\u043d\u044f\u044f \u043e\u0448\u0438\u0431\u043a\u0430 \u043f\u0440\u043e\u0433\u043d\u043e\u0437\u043e\u0432 \u2014 \u043f\u0440\u0438\u043c\u0435\u0440\u043d\u043e +19% \u0437\u0430\u0432\u044b\u0448\u0435\u043d\u0438\u0435. \u042d\u0442\u043e \u0437\u043d\u0430\u0447\u0438\u0442: \u0440\u0435\u0430\u043b\u044c\u043d\u0430\u044f \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u043d\u0430 15-25% \u043d\u0438\u0436\u0435 \u0442\u043e\u0433\u043e, \u0447\u0442\u043e \u043e\u0431\u0435\u0449\u0430\u0435\u0442 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440. \u0414\u043b\u044f \u043f\u0440\u0430\u043a\u0442\u0438\u0447\u0435\u0441\u043a\u0438\u0445 \u0446\u0435\u043b\u0435\u0439 \u2014 \u043d\u043e\u0440\u043c\u0430\u043b\u044c\u043d\u0430\u044f \u043e\u0446\u0435\u043d\u043a\u0430. \u041c\u043e\u0436\u043d\u043e \u043c\u044b\u0441\u043b\u0435\u043d\u043d\u043e \u0443\u043c\u043d\u043e\u0436\u0430\u0442\u044c \u043f\u0440\u043e\u0433\u043d\u043e\u0437 \u043d\u0430 0.8 \u0438 \u043f\u043e\u043b\u0443\u0447\u0430\u0442\u044c \u043e\u0436\u0438\u0434\u0430\u043d\u0438\u0435 \u0431\u043b\u0438\u0436\u0435 \u043a \u0440\u0435\u0430\u043b\u044c\u043d\u043e\u0441\u0442\u0438.\u0417\u0430\u0442\u043e \u043f\u043e \u00ab\u0432\u043b\u0435\u0437\u0435\u0442 \/ \u043d\u0435 \u0432\u043b\u0435\u0437\u0435\u0442\u00bb \u0442\u043e\u0447\u043d\u043e\u0441\u0442\u044c 100%. \u0418\u0437 7 \u0442\u0435\u0441\u0442\u043e\u0432 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u043d\u0438 \u0440\u0430\u0437\u0443 \u043d\u0435 \u043e\u0448\u0438\u0431\u0441\u044f \u0432 \u044d\u0442\u043e\u0439 \u0447\u0430\u0441\u0442\u0438, \u0447\u0442\u043e \u0441\u043e\u0431\u0441\u0442\u0432\u0435\u043d\u043d\u043e \u0438 \u0435\u0441\u0442\u044c \u0433\u043b\u0430\u0432\u043d\u043e\u0435.\u0413\u0434\u0435 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u0441\u0442\u0430\u0431\u0438\u043b\u044c\u043d\u043e \u043e\u0448\u0438\u0431\u0430\u0435\u0442\u0441\u044f:\u041d\u0435 \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 overhead \u043d\u0430 CUDA workspace \u2014 \u0434\u043b\u044f \u043a\u0440\u0443\u043f\u043d\u044b\u0445 \u043c\u043e\u0434\u0435\u043b\u0435\u0439 \u044d\u0442\u043e 0.5-1 GB \u0441\u0432\u0435\u0440\u0445\u0443\u0417\u0430\u0432\u044b\u0448\u0430\u0435\u0442 \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u043d\u0430 Apple Silicon \u2014 \u0442\u0430\u043c \u043f\u0430\u043c\u044f\u0442\u044c \u0448\u0430\u0440\u0438\u0442\u0441\u044f \u0441 \u0441\u0438\u0441\u0442\u0435\u043c\u043e\u0439, \u0438 \u044d\u0444\u0444\u0435\u043a\u0442\u0438\u0432\u043d\u044b\u0439 bandwidth \u043d\u0438\u0436\u0435 \u0438\u0437-\u0437\u0430 thermal throttling \u0438 \u043e\u0431\u0449\u0435\u0439 \u043d\u0430\u0433\u0440\u0443\u0437\u043a\u0438\u041d\u0435 \u0443\u0447\u0438\u0442\u044b\u0432\u0430\u0435\u0442 \u043a\u0432\u0430\u0434\u0440\u0430\u0442\u0438\u0447\u043d\u0443\u044e \u0441\u043b\u043e\u0436\u043d\u043e\u0441\u0442\u044c attention \u2014 \u043d\u0430 \u0434\u043b\u0438\u043d\u043d\u044b\u0445 \u043a\u043e\u043d\u0442\u0435\u043a\u0441\u0442\u0430\u0445 \u0441\u043a\u043e\u0440\u043e\u0441\u0442\u044c \u043f\u0430\u0434\u0430\u0435\u0442 \u0440\u0435\u0437\u0447\u0435, \u0447\u0435\u043c \u043f\u0440\u0435\u0434\u0441\u043a\u0430\u0437\u044b\u0432\u0430\u0435\u0442 \u043c\u043e\u0434\u0435\u043b\u044c\u0418\u0433\u043d\u043e\u0440\u0438\u0440\u0443\u0435\u0442 \u043e\u0441\u043e\u0431\u0435\u043d\u043d\u043e\u0441\u0442\u0438 \u043a\u043e\u043d\u043a\u0440\u0435\u0442\u043d\u044b\u0445 \u0431\u044d\u043a\u0435\u043d\u0434\u043e\u0432 \u2014 Ollama vs llama.cpp vs vLLM \u0434\u0430\u044e\u0442 \u0440\u0430\u0437\u043d\u0443\u044e \u043f\u0440\u043e\u0438\u0437\u0432\u043e\u0434\u0438\u0442\u0435\u043b\u044c\u043d\u043e\u0441\u0442\u044c \u043d\u0430 \u043e\u0434\u0438\u043d\u0430\u043a\u043e\u0432\u043e\u043c \u0436\u0435\u043b\u0435\u0437\u0435\u0413\u0434\u0435 \u044d\u0442\u043e\u0442 \u043a\u0430\u043b\u044c\u043a\u0443\u043b\u044f\u0442\u043e\u0440 \u043b\u0443\u0447\u0448\u0435 \u0430\u043b\u044c\u0442\u0435\u0440\u043d\u0430\u0442\u0438\u0432\u042f \u0437\u043d\u0430\u044e \u0435\u0449\u0451 \u043f\u0430\u0440\u0443 \u043f\u043e\u0445\u043e\u0436\u0438\u0445 \u0438\u043d\u0441\u0442\u0440\u0443\u043c\u0435\u043d\u0442\u043e\u0432 \u0438 \u043c\u043e\u0433\u0443 \u0441\u0440\u0430\u0432\u043d\u0438\u0442\u044c.Hugging Face \u00abMemory Calculator\u00bb \u2014 \u043e\u0444\u0438\u0446\u0438\u0430\u043b\u044c\u043d\u044b\u0439&#8230;<\/p>\n","protected":false},"author":1,"featured_media":0,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"footnotes":""},"categories":[],"tags":[],"class_list":["post-479937","post","type-post","status-publish","format-standard","hentry"],"_links":{"self":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/posts\/479937","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/users\/1"}],"replies":[{"embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcomments&post=479937"}],"version-history":[{"count":0,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=\/wp\/v2\/posts\/479937\/revisions"}],"wp:attachment":[{"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Fmedia&parent=479937"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Fcategories&post=479937"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/savepearlharbor.com\/index.php?rest_route=%2Fwp%2Fv2%2Ftags&post=479937"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}