Update file 2025-02-09-server.md

pipelines/1734480055
mayx 2025-02-09 14:33:13 +00:00
parent b666bd16b2
commit 433d5110c2
1 changed files with 26 additions and 0 deletions

View File

@ -0,0 +1,26 @@
---
layout: post
title: 新旧服务器的使用体验与对比
tags: [服务器, Dell, 使用体验]
---
花更多钱可以收获更多吗?<!--more-->
# 起因
最近由于某些原因需要买点服务器,从我平时用的东西来看,其实很多年前的产品就已经满足大多数应用了,业务的发展跟不上时代的发展,就根本不需要更好的性能。所以既然要买服务器,还是买洋垃圾比较好,那些淘汰下来的服务器特别便宜。虽然这么说,但是我也好奇现在的技术到底发展到一个什么样的程度,所以也整个新的服务器玩玩吧。
# 选择服务器
那选哪个服务器比较合适呢我在大学里用过R730那款服务器给我留下的印象很不错拆装很方便也有很好用的带外管理功能iDRAC现在的R730已经非常便宜了我看了看CPU觉得既然洋垃圾很便宜那就要选个厉害的CPU最终我选择了双路20核40线程的[英特尔® 至强® 处理器 E5-2698 v4](https://www.intel.cn/content/www/cn/zh/products/sku/91753/intel-xeon-processor-e52698-v4-50m-cache-2-20-ghz/specifications.html)总共40核80线程另外配了4根32GiB 2400MT/s的DDR4内存看起来参数还是挺唬人的🤣而且价格才2k多CNY感觉还挺不错。
那新的用啥呢我上Intel的官网看了看至强6是现在最新的Intel服务器CPU至于AMD的……主要是给我买服务器的人不喜欢AMD🤣所以只能选Intel的。既然旧的选了Dell新的也选Dell吧我看搭载至强6的戴尔服务器是R770但是目前还买不到😅而且价格贵的吓人。次一级就是R760可以上第四或第五代至强可扩展处理器不过看了一眼价格也有点贵……但这个机器有个青春版叫R760xs也能上第四或第五代至强可扩展处理器扩展性稍微差一点但是价格比较便宜他们管这叫“成本优化版”。最终选来选去选了个单路16核32线程的[英特尔® 至强® Gold 6426Y 处理器](https://www.intel.cn/content/www/cn/zh/products/sku/232377/intel-xeon-gold-6426y-processor-37-5m-cache-2-50-ghz/specifications.html)外加4条16GiB 4800MT/s的DDR5内存总共花了将近4wCNY感觉还是相当贵啊……
# 使用体验与对比
服务器拿到手之后自然要先跑个分我给新服务器安装了Ubuntu Server 24.04旧的因为核心数多感觉应该能干点别的所以安装了Vmware ESXi 6.7然后在上面安装了个Ubuntu Server 24.04的虚拟机。跑分用的是sysbench。最终新的服务器单核跑分2853.45events/s多核47054.35events/s旧服务器单核876.22events/s多核52792.15events/s。从这里来看这个新服务器让人非常失望啊单核才3倍多点差距尤其我试了试13代i5的单核跑分能到4290.80events/s家用的处理器可是要便宜的多啊。多核虽然说16核比40核少了点能跑出差不多的分数已经很厉害了但是考虑到这两个服务器20倍的价格差还是深深的感到不值啊……
当然服务器的性能并不是它的优势扩展性才是但是R730的定位比R760xs的定位要高啊😂扩展性显然是旧服务器更强……那新服务器就没什么优势了吗倒也不是新服务器的处理器至少把漏洞都修完了除了幽灵漏洞之外至少不受其他漏洞影响安全性更强了。旧处理器和酷睿5代是同一个时代的所以会受各种CPU漏洞的影响。不过这个服务器又不会当云服务器租给别人用有没有漏洞根本无所谓啊😅。
那管理性呢新的带外管理用的是iDRAC9旧的是iDRAC8两个界面上差距倒是挺大的不过功能基本上都差不多从功能上来看9比8多了个修改BIOS的功能但是修改完还是得重启才能生效😅那不如花几十块钱买个企业版订阅然后用虚拟KVM直接重启进BIOS修改呢……不过如果是大规模的话可能是可以统一修改BIOS选项那就有点意义了不过对我来说没啥意义😥。
那还有别的优势吗我看网上说第四、第五代至强可扩展处理器新出了个指令集叫AMX可以用来加速AI推理正好最近国内一个叫DeepSeek-R1的模型挺火的那就拿来试试看呗要是这个AMX指令集能大幅提高CPU的推理速度那我还是挺认同它的价格的毕竟内存可以随便加显存……都被老黄垄断了价格巨贵无比😂。现在的[llama.cpp](https://github.com/ggerganov/llama.cpp)已经支持了AMX加速具体的使用方法可以看Intel官网上的[论文](https://www.intel.cn/content/www/cn/zh/content-details/791610/optimizing-and-running-llama2-on-intel-cpu.html)看起来需要安装Intel oneAPI的库才能编译使用。我折腾了一下编译完跑了一下DeepSeek-R1 32B Q4_K_M蒸馏版速度大概是5.2token/s。然后我安装了个[Ollama](https://ollama.com/)它自带的这个llama服务器只支持AVX2指令集加速但是我试了一下速度能达到4.8token/s也就是说AMX指令集加速了个寂寞几乎没起倒什么作用难怪没什么人讨论。不过我也听说纯CPU跑大模型主要瓶颈在内存带宽上我插4条也就是四通道其实也不是它的全部实力它最大支持八通道也许给它插满效果会好一些吧……
那旧服务器呢我倒也试了一下用Ollama跑一样的模型大概是2token/s多的速度也就是说新的相比旧的也只快了1倍多一点而且旧的每个CPU只有2条内存只有双通道速度也只有新的一半结果新的才领先了一倍多一点都上了那么多黑科技……看来Intel是真不行了。
当然5.2token/s的速度显然是无法接受的还是有点慢了再加上DeepSeek-R1还有思维链在回答问题前还要生成一堆废话那就更慢了其实要我说它那个思维链其实就是把之前的AutoGPT的结果作为训练材料训练的相当于集成到模型里了我自己测了一下水平还是不够用包括官网的满血版也一样。我之前听说有一种叫做“投机采样”的推理加速技术不知道为什么凉了llama.cpp编译的产物里还有这个技术的PoC。于是我就下了个DeepSeek-R1 7B Q4_K_M蒸馏版拿来试试看用它来加速32B的怎么样。首先我单独测试7B的速度可以达到20token/s然后我用“llama-speculative”测了一下感觉有点一言难尽……一阵快一阵慢的总体来说感觉不如直接跑的快难怪这个技术凉了😥不过也可能是因为这两个模型的什么token分布不太一致毕竟是蒸馏的模型估计还是有点区别所以体验不太好吧。
那除了大语言模型之外还有什么可测的吗?其实就像我开始说的,要说能满足业务,洋垃圾显然是绰绰有余,尤其还是顶尖的洋垃圾,普通的业务甚至都不能让洋垃圾产生瓶颈,新的不就更不可能了😥……
# 感想
从上面来看新服务器真的没什么优势啊性能提高了一些但是价格翻几十倍当然那些洋垃圾当年也是超级贵的东西只是被淘汰了所以失去了价值……不过说来这个价值也许并不是服务器硬件本身的价值“服务”也是很值钱的啊像那个支持服务比如远程诊断、上门服务现场响应之类的就是它贵的原因吧二手的旧服务器2019年就结束支持了新的有3年的支持期能到2027年不过我感觉在这支持期内恐怕没有能用到的地方啊服务器还是挺难坏的它最值钱的地方似乎只能被浪费掉了🥲。所以总的来说只有行业领先的业务才配得上最新的服务器小规模的业务还是用二手服务器吧😆。