微信扫码
添加专属顾问
我要投稿
英特尔核显跑120B大模型?实测告诉你真相!轻薄本AI性能大爆发,生产力革命就在眼前。核心内容: 1. 英特尔核显轻薄本实测运行120B大语言模型的技术突破 2. AI在NAS、音视频处理等场景的实际应用案例 3. 个人创作者如何利用AI工具提升视频制作效率
大家好,我是大路哥,前不久(2025/11/20)英特尔在英特尔技术创新与产业生态大会上专场论坛展示了多款核显轻薄本、迷你主机畅跑120B大语言模型的现场演示。
相关可以参考之前分享的:
酷睿 Ultra200H 处理器可分配 120GB 显存并运行 120BMoE 模型,这意味着什么?
当时我也在现场,讲真这次专场论坛含金量非常高。
从现场分享的信息来看,可以用爆炸来形容:
可以看到这几年来英特尔致力于AI的创新与落地,尤其是轻薄和边缘设备上两手抓,用粗暴的语言来概括——任何一台包含英特尔芯片的设备都能跑AI。比如说右下角的【AI HOME NAS】大路哥就已经实测并分享过 ,在NAS中可以很好的基于核显就能完成类似如下AI才能做的任务:
这在原来想都不敢想,但现在基于英特尔酷睿Ultra AI处理器很容易的做到了(当然实际做到这一点并不容易),我们把会议录音、通话录音导入NAS后,支持AI的NAS就可以方便的把音频中的内容基于时间轴的形式展现出来,一方面非常直观(让音频可视化),一方面基于此可以更好的提升生产力。
原来我们使用Windows电脑,能搜索的范围不过是文件名,深入一点也仅仅支持Word等文档的内容搜索:
这种搜索能力是很有限,但结合AI就可以实现图片中的文字识别,甚至能识别图片本身的内容,进一步就做到了视频、音频内容的识别和总结。而在TTS领域目前AI已经可以实现声纹克隆,只需要三五秒的音频素材就可以实现普通话甚至多国语言的二次创作,比如我们可以让皇后娘娘直接飙英语:
上述演示可以参考移步:
https://index-tts.github.io/index-tts2.githuB.io/讲真,这是配音演员的噩梦。
实际上大路哥有不少视频创作也会基于声纹克隆来“偷懒”,原因如下供参考:
我自己也分析过,如果没有结合AI的长视频内容是很难成为爆款的,播放量低到惊人;但通过上述操作后的视频,播放量不会太差。所以AI这个东西,尤其是这两年进步十分神速,一旦上手根本停不下来,因为实在是太香了,它不仅仅是提高生产力,还改变了生产方式。
但是对于很多朋友来讲,AI既熟悉又很陌生,熟悉是大家在生活中到处可见,比如你刷的短视频,大量千篇一律的声音旁白;一些比较搞笑二创的换脸、声音克隆的视频。这些你都见得很多,但是问题在于自己没用过,也不知道怎么用,甚至还没用就已经觉得这个门槛太高了,这辈子大概都用不上AI。
实际上不是这样的,首先2023年为【AI元年】,从这里开始出发主要是针对商用,而2025年已经为【AI应用元年】,粗暴的理解就是已经民用了,尤其是配合类似英特尔酷睿Ultra核显就可以实现这些,简单来说就是门槛在无限的下降,变低了,任何人都可以用起来,它就落地了。
基于这一点,今天大路就基于实测作为分享,并融入一些解读,也方便大家可以更快速的使用各种AI应用。
不过在分享之前还是想先跟大家交代一些细节和要素,比如就算力而言,它们的关系往往是GPU(独显)>iGPU(核显)≈NPU>CPU。对于大语言模型而言,往往越大的参数推理的速度就越慢,尤其是独显往往算力是核显的五倍、十倍、二十倍,所以基于核显来玩大模型或者其它文生图等应用,速度是关键。
按照以往的经验,一般支持AI加速的核显,至多能跑14B(140亿参数),主要存在两个瓶颈:
关于第一点共享显存方面近期Intel更新驱动后增加了一项参数的设置,可以说解决了该问题:
如上,根据不同的实际内存大小,英特尔支持动态分配更大的共享显存给核显或NPU使用,以48G x2双通道内存为例,至高可分90.7GB。但是有经验的朋友会提出一个疑问,96G分配了90.7G给核显,就剩那么一点系统也不够用啊?这根本不符合逻辑。实际英特尔的这项技术本质是共享,也就说分配的共享显存并不是由iGPU或NPU独占,它是可以动态给系统使用的。这个相比友商的【统一内存】反而更好,因为统一内存分配给集显是独占,而英特尔共享内存是非独占的,所以支持分配得更多,那么对于用户来说,这个就很省钱了,这是实实在在的。
那么关于第二个问题,从AI元年到AI应用元年,AI技术一直在不断的降本增效,简单来理解如下图:
可以看到我们的大模型分了好几种,从原有的稠密模型到蒸馏模型(将模型小型化),比如Q4量化版本,这样可以大幅度的提高参数上限,同时速度也能进一步提升。但是即便如此,成本还是不低,比如原来的核显至多能跑14B,光有更大的共享显存支持更大模型也没用,速度不理想就没法用。
于是稀疏模型应运而生了,比如千问近期推出的开源的A3B即稀疏模型:
而我们今天分享的实测中一方面包含A3B稀疏模型,也包含了量化模型如120B(基于Q4量化OSS模型)。那么类似A3B模型有什么优势或特点呢?
A3B其实是个简写,全称可以理解为Active 3B,比如上面的30B就是本身总计305亿参数(约30B),但仅激活33亿参数(3B)。其次它也有另外一个名字,叫【混合专家(MoE)模型】,以Qwen3-30B-A3B为例,采用128个专家模块架构,每个token激活8个专家,并应用全局批次负载均衡损失技术提升专家专业化程度。说人话就是模型可以更大(知识库更全),但是激活使用的时候仅激活关联的领域模型,所以速度更快。
所以这里省流的告诉大家:
后续的实测分享中速度都不会低于10token/s,这显然是一个好消息!
肯定有朋友对于10token/s是个什么概念是不了解的,简单来说就是语速跟不上它的输出速度,但是5token/s你就能跟上了,甚至要等待它输出。
所以一般把10token/s作为生成式对话推理能力的一个下限。
虽然前面主要讲的是大语言模型(LLM),不过这里实测还包含了主流的文生图(主要基于Z-image),还有OCR和TTS,至于T2V文生视频目前核显还不够格这么玩,所以这里就不分享了。其次实测的内容也尽量的趣味性,符合日常大家生活、工作方面的需求为主,希望大家喜欢。
下面的实测理论上只要基于英特尔酷睿Ultra 200H系列即可,差异如下:
英特尔酷睿Ultra 200H系列最大支持128GB内存,HX系列至高支持192GB
由于主要基于核显iGPU来跑,核显单元数量越多,效果肯定越好;更多的核心和更高的频率也能更好的满足生产力需求,所以这里基于Ultra9 285H实测。其次一般搭载Ultra5 225H的机型多数为板载内存,不能升级为更大的内存,所以在高可用性上不如顶配的U9,说人话就是U5能用,但有上限。
英特尔在创新生态大会上有不限于以下机型的推荐:
大路哥今天用的是上图左下角的极摩客EVO-T1迷你主机进行测试:
拆包实拍效果,从左至右分别是主机、电源和配件、说明书和保修卡
之所以选择它有几个因素 :
首先是性价比,以准系统(不含内存、固态硬盘、操作系统授权)和64G+1T套装对比:
两者的差价是2500元,但是当下2500元是买不到32GB x2加1TB固态硬盘的,也就说我们选择一些套装,性价比更高,相当于厂商补贴。
其次极摩客EVO-T1系列本身的设计就是一个六边形战士,非常适合生产力创作:
就基础条件而言,标配即顶配,且内置了一个AI助手工具(准系统没有),自带模型商店非常适合小白直接上手部署各种AI应用:
其次可以免费支持联网的DeepSeek v3、豆包满血模型,且本地部署的模型也支持联网功能:
当然这些对于非新手而言不算什么,更重要的是下面这几点:
首先性能释放不是问题,VC均热板+上下双风扇,不仅释放更好(最大80瓦,默认55瓦),风噪控制更加柔和,不是一干活就战斗机起飞了。
其次最重要的是它有3个PCIe 4.0 x4的2280固态支持:
因为AI类的需求对于硬盘容量的需求非常大,尤其是支持80B、120B甚至200B以后,3插槽就是比2插槽更好。最后极摩客迷你主机向来提供了OCuLink接口的支持(原生PCIe 4.0 x4),意味着你可以直接外接显卡坞外挂更强的独显加持,比如我自己就这么玩的:
可以看到前脸包含了3个USB-A 3.2 Gen2和1个Type-C(全功能10GBps+DP 1.4),背面包含1个HDMI 2.1和1个DP 1.4以及1个雷电4接口:
当然还有前面说的OCuLink接口,除此之外还包含了2个USB 2.0接口(可以更好的满足一些兼容性需求),从这些细节上来讲极摩客考虑的很周全。而且我们从底部的散热模块来看,用料也是相当扎实的。而且如下图可见侧面还有两个减震硅胶垫,意味着它不仅可以平放,还可以侧身立起来摆放:
从整体设计来看,底部的细节也十分到位,合金大冲网孔给底部的涡轮散热做了很好的美化隐藏设计:
双面一体的合金盖板设计也非常有意思:
除了logo铭牌外,左上方有Intel Core Ultra 9标识,而右上方还有一个物理风扇调速开关。
如上从内部来看,作为老牌的迷你主机厂商极摩客GMK,各方面的设计、走线和细节,都非常成熟!最后标配了一个约150瓦的迷你电源适配器:
好了,主机的介绍完毕,我们下面就直接分享实测了。
这里友情提醒,为了更好的给大家展示,下面会有大量的动图,当然也会提供【提示词】,对于一些还没上手的朋友可用做个示范。
首先基于20B(200亿)大模型来试水,如下该模型基于OpenAI 的开放权重模型GPT-OSS的20B Q4量化试试:
参数上做了最长输出限定为4096个令牌数量(可以满足日常需求),敲回车以后进入网页API管理对话框,进行生成式对话:
可以看到初始的内存占用不大,如下由于是20B模型,所以展开的内容可以很好的支持Markdown语法,在后续的内容中也就能提供表格支持:
下面我们就看动图的表现,这样更直观(动图时长有点长,后面有俄罗斯方块的试玩演示):
由于上传的动图长宽有限制,所以没法展现细节
可以看到20B大模型的能力还是很强的,代码输出的效率也很高,直接可用(AI代码输出不保证每一次都OK),最后我们看下高清截图的细节:
可用看到整体输出2380个令牌,最终速度和初始速度差异不大,所以整体的可行性是完全OK的。
接下来的120B(1200亿大模型)同样基于GPT-OSS的Q4精度模型:
由于是120B大模型,所以这一次显存的占用就非常大了,不过对于目前90.7GB显存来说,还有很大的冗余空间,所以128GB内存跑200B问题并不大:
既然如此,对于120B大模型的能力我们知道很强,不如这里我们直接让它直接创作一个新的《三打白骨精》:
可以看到初始的输出速度在10token/s以上,显存方面略有提高,但是预留的显存空间还很大,接下来我们还是看输出的整个流程(2倍加速):
内容确实很无厘头,不过重要的是输出2000多个令牌后,速度几乎没有任何下降:
相信这也是大家万万没想到的,在120B的高强度之下还能保持10token/s以上的速度,那么这一次的测试自然是非常满意的。当然我们用120B写一个贪吃蛇的网页游戏难度也是很低的,如下动图演示(2倍加速):
那么抛开GPT-OSS模型不谈,我们还是跑跑国内的开源大模型,比如我们前面说到的千问的A3B。
对于A3B的模型前面已经介绍过了,这里就直接略过。
不过这里要说的是对于开源大模型来说,我们可以借助很多AI工具来调用,比如前面讲到的极摩客自己的AIPC工具,通过自带的商店一键部署。除此之外我们还可以借助国内外很多AIPC工具,工具本身也可以方便我们更好的利用AI大模型,而且这些工具往往也是免费的。
比如我们今天就分享一个国内的AIPC工具——Flowy AI助手:
它同样包含了模型商店,比如我们前面用过的GPT-OSS模型,如下选择Qwen3-30B-A3B进行一键部署:
安装方式很简单,点击进入即可看到介绍,整个模型约18GB大小,我们只要点击【下载部署】即可使用:
我们在前面的一些测试中主要是输入需求,完成一个生成式对话,模型通过推理完成我们的需求。这里的测试就增加一点强度,我们可以上传Word或PDF文档,让AI去读取这些文档的内容,根据我们的需求来完成我们设定的目标,比如大路把之前写的测评内容,让它生成一个思维导图,这个对30B模型不难。
首先如上我们选择刚才一键部署的Qwen3-30B-A3B模型,然后可以根据需求选择一个符合自己场景的智能体(用起来会更方便),参考动图(不加速):
可以看到千问做的还是先梳理内容,梳理完以后形成一个文本拓扑结构,结构完成以后刷一下就直接生成导图了,生成的导图可以保存为png或PDF文件。
不过这里Flowy AI助手唯一的问题就是在输出中并不显示推理速度,从输出的速度来看大约在15token/s左右。除了导图外,智能体的加持可以方便做很多事情,比如安排一个旅行计划,这些均可以不联网即可实现:
其实从我们前面测试了120B以后,120B以内的模型肯定都没问题,所以剩下的演示我们不如基于不同的工具来解读。比如80B我们就基于英特尔创新大会上使用的千问的IntelXPU终端来完成:
我们也可以看到80B的量化模型并不大,尤其是A3B加持后一样可以保证速度,默认的推理是一个【续写红楼梦】的脚本,【提交】后如下:
可以看到如上开始续写后,显存使用暴涨,简而言之在使用大模型推理的时候更多的显存才能保证工作,所以这里选择的极摩客48G x2的套装是有必要的,而这一容量基本可以说是高端大语言模型的标配需求。既然官方的演示基于刘姥姥和宝玉滴血认亲,我们还可以玩的更花一点,比如王熙凤和宝玉滴血认亲,我们可以看看它是不是仅仅一套模式:
如上实测可以看到并不相同,采用的方式、故事背景也是完全不同的,这本身也是AI好玩的地方,可以脑洞大开,给我们提供思路。
上面的演示主要都是基于文字、文本内容来演示,相信大家也等不及基于文生图的演示了,那我们就开始吧。
关注AI领域的朋友应该知道,我们国内在AI方面的应用和创新实际一直走在世界前列的,不限于腾讯、阿里,甚至阿里都包括多个不同领域的团队。
Z-Image 是一个强大的、高效的图像生成模型,具有 6B 参数,看起来参数不大,但是能力可不容小觑:
它可以生成如上以假乱真的内容,在文生图中还有很多需要文字植入的需求,这在去年可以说很难,尤其是中文的植入,而在今年变化就很大了:
如上仅需简单的文字描述,即可生成对应的、关联的内容,而且可以满足多种风格的需求。
目前阿里团队主要放出了Z-Image-TurBo版本,官方的推荐和规格参考如下:
该模型默认并不支持Intel核显,但可以支持CPU(速度超慢,实测一般要50分钟左右),不过可以借助OpenVINO™加速引擎来部署,让它能通过英特尔酷睿Ultra核显即可实现文生图的需求,实测的速度1024 x1024 大约在70秒左右,相比上图参考的RTX3060来看其实并不慢,原因下面会讲:
这里使用Z-Image-TurBo是有原因的,我个人总结就两点:
尤其是第二点,对于刚入门的朋友来说,提示词是非常重要的,但是我们从这样的官图来看:
输入一句话,AI就能理解了时代、场景、意境,也就说我们可以省去很多步骤,尤其是门槛大大降低了,这些对于AI入门是非常友好的。
那么这个部分我们就玩一些花样,也分享创作的【提示词】,首先对于文生图我们往往借助ComfyUI这个导图式的工具更方便:
如上我们基于1024 x1024像素输出多个任务后,可以看到生成的时间约70秒左右。AI有个好处在于它每次生成的效果会附加一个随机因子,如果我们固定这个随机因子,那么每次出图的效果是差异很小的,所以结合这一点我们针对核显的时候可以先基于384 x384或512 x512像素来输出,实测时间少一半或以上。确认结果没问题,再基于相同的随机因子设定更高的分辨率出图,可以大大提升效率。
如上我们基于608 x 806像素,输入提示词【杨幂拿着手机在餐厅自拍】,这真的就是一句话,可以看到35.83秒完成了内容。是不是觉得酷睿Ultra核显也能玩了?门槛是不是真的很低?那么下面我们玩高级一点,比如创作一个经典的成语故事,以【守株待兔】为例吧:
如上我们首先做一个封面,农夫和兔子,农夫在种田,兔子在奔跑,为什么奔跑呢?应该有别的野兽在追它,所以它说【救命啊】,提示词如下:
垂直构图的卡通漫画,主角是宋朝的一位农夫和一只兔子的故事。图1:图中侧写蓝色衣服的农夫在田里干活,远处有一棵树。背景是蓝天白云和烈日。左边标题写着:“守株待兔”。图1占据70%面积。图2:图中一只白兔在奔跑,背景是模糊镜头的森林。兔子文本框显示:“救命啊”。
那么后续的内容呢?我们就基于三格漫画来描述故事:
垂直构图的3格卡通漫画,主角是宋朝的一位农夫图1:农夫正站在农田里干活,扶着锄头,正在擦汗。农夫侧面视觉。文字框显示农夫说:“今天太阳真大啊”。此图中不能包含兔子。图2:一只兔子,由于跑得太快,它一头撞在大树上。背景是农夫的田野旁,可以看到远处图1模糊视野的农夫。图3:农夫背向镜头,手里扶着锄头,望向远处模糊图2中场景的树。树下好像有一只躺在地上流血的兔子。文字框显示农夫说:“这只兔子,居然自己撞死了”。
我们就可以做出上面的效果(当然这个故事还有后续,演示就到这里),第三部分的提示词参考如下:
垂直构图的3格卡通漫画,主角是宋朝的一位农夫和妇女,需要注意三张图中角色衣服不能变。其中农夫的衣服为蓝色,妇女的衣服为橙色。图1:农夫背向镜头一手拿着锄头一手拎着一只死兔子。背景是一个宋朝的农家小院,用篱笆做的围墙、不高。院子里还有一个妇女,向农夫打着招呼,文字框显示妇女说:“官人,今天怎么这么早回家了?”。图2:拉近镜头,农夫举着死掉的兔子给农妇看,妇女羞红了脸望向农夫。文字框显示农夫说:“娘子,今天捡到一只兔子”。图3:餐桌前,农夫和妇女对坐着在吃饭,桌上摆着炖的兔子。妇女一手拿着一只兔腿啃着。文字框显示农妇说:“味道真不错!”
实际我们会发现基于AI来为故事配图不难,把自己当作一个导演即可,你负责指挥,它负责完成。
除了这样的,我们还可以基于一些经典的动画人物来延申一些创作,比如以极摩客主机为例,如何宣传它很厉害呢?对白+肯定就完事了:
可以看到动画有一些写实,但又保留了卡通形象,甚至这个形象还是3D的!如下仅仅用了52秒就完成了,时间就小于1分钟了:
那么它的提示词是什么呢?略复杂一点点:
汤姆猫与杰瑞鼠并肩站立,背对镜头。倚靠在城市天台边缘的金属栏杆上,栏杆表面略带锈迹与雨水痕迹。二者身体微微前倾,尾巴自然下垂,汤姆右爪搭在栏杆上。杰瑞左脚轻踮,姿态放松。头顶上方悬浮两个对话气泡:左侧气泡内文字为“你知道极摩客迷你主机可以跑120B大模型吗”,右侧气泡内文字为“知道啊,我已经用上了”。气泡呈半透明乳白色,边缘带有轻微阴影,字体为圆润无衬线体,黑色,字号统一,水平对齐。背景为黄昏时分的城市天际线,暖橙色天空渐变为深紫,远处摩天楼轮廓清晰,近处空调外机与排水管细节可见。微风吹动汤姆颈间红色领结与杰瑞耳尖绒毛,地面散落几片枯叶与空易拉罐。
有时候我们设定气泡对话不一定能完美的对准角色,如上我们可以用另一种方式来表达【左边和右边】,准确率就提升了,效率也提升了。
最后我们再分享一个关于兔子的段子创作,效果如下:
提示词如下:
生成三宫格胶片质感艺术感写真图,场景为天府广场、天空、傍晚。主体用一只兔子。第一张为兔子的上半身,露出兔子的侧脸,兔子在摩尔百货5楼窗边眺望天府广场.添加中英字幕“ 四川的外面是什么?-What's Beyond the Sichuan?-”;第二张为兔子的正面照,表情要自信,要傲慢,要放荡不羁,要桀骜不驯,要世人皆醉我独醒的感觉,添加中英字幕“你不用告诉我 -You don't have to tell me-”;第三张为双流老妈兔头的近景特写,在餐厅餐桌上,有整只兔头和分装拼盘的烤兔,添加中英字幕“我出不了双流 -I can't leave Shuangliu-”。整体色调清冷,带有富士胶片效果,过度曝光,画面粗粝且色调偏冷,暗部细节保留完整,高光区域呈现自然晕化、均采用柔和漫射光,无明显硬边阴影,营造出文艺且充满自我探索情绪的氛围,三张图合成一个三宫格,字幕位于底部居中。
从提示词和效果来看,背景的天空、建筑,上下衔接是比较明显的,我们需求的风格它也做到了,而这个就是一个核显就能做的。
当然前面也说了,如果你要用核显来文生视频,就有点强人所难了。但是我们也不能完全放下希望,就现在的AI发展速度,它并不是梦。
效率、成本、能耗都是AI领域重点考虑的。
所以我觉得在2025年,哪怕是年末了,大家如果手上本身有酷睿Ultra 200H的笔记本、迷你主机,可以尝试尝试学习AI的应用,再不用真的就落伍了。如果没有这样的机器和设备,在设备换新的时候也可以考虑选择酷睿Ultra的笔记本或迷你主机,英特尔在这方面的投入真的是老猛了。而且前面讲到的生态如NAS这些【边缘设备】都已经参与进来了,跟上时代肯定是没有错的。
除了文生图以外,OCR也是一个单独的赛道,OCR实际是个很老的技术,顾名思义就是在图片、视频中抠字,把图中、视频中的内容抠出来,并基于文本的形式输出。这个其实不用演示,目前Windows自带的截图都已经能做了,比如我们打开一张包含图片的文字:
那么我们在AI的应用中为什么还要讲这个OCR呢?因为很简单,之前的OCR技术并非基于当下的AI技术,是相对落后的,说人话就是准确率不高。
一篇Word 800字,结果有200字是错误的,讲真还不如提高打字速度,每分钟200字,多人分布式操作一样可以,但是显然这样的成本很高。不过历史的进程还就这么一步步过来的,到了最近几年才有了一些融入AI能力的俯拍仪,当然这种设备主要体现在快,或者是一些专利技术识别率更高。
我们下面演示的是基于DeepSeek的OCR应用:
可以看到OCR对于显存的需求不高,专业的AI应用可以方便的解决批量的内容、复杂的内容,比如演示中的样图基于512 x512像素的,文字有大有小,所以测试的模型就是解决这些问题,实际的效果高清截图如下:
可以看到这个AI模型可以把内容基于Markdown、Text文本等形式输出,方便快速的复制粘贴,并校订。因为新的AI技术只能提高准确率,相比之前更好,但是目前还达不到100%,毕竟输入的内容太复杂了,不是仅仅拍个车牌号那么简单。但准确率能提高1%,就相比以往效率更高。
TTS前面有介绍,顾名思义就是文生音频,输入一段文字,生成音频,这个其实应用的比较早,比如浏览器的朗读功能就属于TTS:
所以不仅要生成声音,还要克隆声音,不仅要克隆声音、还要克隆多人的声音。目前这样的开源闭源应用有很多,我测试过中的index-tts2,fireredtts2等都是不错的,通过名字就开源看出来有不断的迭代、优化,这里演示的是fireredtts2:
如上可以看到对于显存的占用不高,可以方便的导入不同的说话人的声音素材,通过【S1】和【S2】即可方便的控制对白。
如上这样一段分角色对白,预计的输出时间是3分19秒,同时它导入声音素材并理解和训练也是需要时间的,所以一般推荐不超过5秒的音频即可。
最终的效果如上解读,可以看到对白最终生成了一个36秒的音频,而这个音频用了1分40秒(即100秒),实际上这个效率已经很厉害了,不到三倍的耗时。可能有朋友会说,拿个RTX5090D来训练是不是更快?实际上大路哥真有RTX5090D v2,我自己的实测index-tts2实际效率大概是1:1,也就说我花一万六,实际效果提高都没三倍。
所以我说基于英特尔的AI加速是很牛逼的,核显可以更好地把能效放到第一位,不管是能耗还是效率,你要知道我用RTX5090D v2 跑TTS是400瓦以上,而基于酷睿Ultra 200H的这个核显,仅仅至高20瓦。所以日常的需求酷睿Ultra核显真的能给你办到,当然这些离不开英特尔持续不断的技术投入,也真因为这些真投入,越来越多的生态伙伴共同努力,把各种不可能变成可能。
生态大会上,也有不少厂商介绍了他们的产品,比如优盘大小的会议录音神器:
这些都离不开英特尔的持续投入,就AI的方案就包含了多种场景
而用户层面,英特尔也做了总结:
可以说只要使用计算机,AI就无处不在,它早已深耕到我们的方方面面,尝试去接受、去拥抱,就可以大大提高我们的生产力、学习能力。
上述主要是分享了AI方面在酷睿Ultra 9 285H上的AI落地应用多种场景,通过更大的内存,且官方支持获得更大的共享显存,即可完成了以往核显做不了、做的意义不大,变成了可以做、没想到居然还很不错,把不可能变成可能。
我们简单总结一下吧:
可以看到大语言模型均保持在10token/s以上,对于20B和30B还能做到15token/s以上,是可以满足日常的生成式对话需求的。在【造图】方面,结合越来越优秀的大模型、算法,更好的捕捉了用户的真实需求,每一次生图准确性更高、效率自然就上来了,核显的低算力缺点逐步降低,对比预算的投入是真的香。
最后我们再回顾一下本篇的首图:
虽然今天的分享仅从迷你主机来体现英特尔端侧(本地化的意思)AI全家桶的优势,在图中还可以看到有AI高(性能又安)静游戏本搭配移动级独显创造更大的生产力,以及各类需求的工作站(支持双卡、四卡ARC Pro B60)。在工作站领域,尤其是铭瑄的一款双芯单卡更有意思,一张显卡整合两个B60工作站卡,单卡24G显存变48G显存,四卡即可做到八卡的效果,有了这样的加持不论是训练AI模型,还是T2V(文生视频)都可以做到高效又降低成本。
Tips:这里悄悄说下,英特尔的ARC Pro B60工作站显卡单张仅为5000元左右,配合OpenVINO等加速引擎,性价比是真的高。
而类似于极摩客这样的迷你主机,前面有介绍它还包含了1个雷电4接口,除了本身可以外接显卡坞以外,它还可以这样做:
不过这个技术还在内测中,并不会很快出来,但是有一个从生态大会上了解的消息可以提前告诉大家,上面这个模式不仅仅是双机,还会有类似【雷电交换机】的周边产品,支持更多的雷电设备多机互联,实现真正的叠叠乐。这个有点类似于刀片服务器阵列。
前面介绍极摩客迷你主机还标配了OCuLink接口,意味着配合雷电4可以外接两个显卡坞!!结合当下显卡坞的价格已经打下来了,迷你主机的玩法其实更加的多样化,桌面级独显也不再是PC的专利,灵活多变也是可行之路。
上面这款为64G版本,目前96G版本可以找官方客服了解。
Tips:这里再补充一点,因为一般PC供电会有上限,并不能无限度叠加大功率显卡(接入PC主板的显卡并不支持外挂电源供电),所以显卡坞是非常有意思的产品,当然也基于这一点,我已经入手了两个不同场景的显卡坞,近期也会跟大家分享关于显卡坞的各种横评,欢迎大家关注,及时了解最新前沿技术。
既然讲到这里,不如简单分享下极摩客EVO-T1酷睿Ultra 9 285H基于OCuLink外接显卡坞的表现:
因为显卡坞接入以后是需要CPU加持的,所以一般多核和单核的表现都会略有下降,不过在需要大量GPU加持的时候,优势就上来了:
可以看到在Office方面独显的接入后影响波动不大,不过在照片处理器和视频编码上差异就越来越大了,尤其是编码方面。不过也需要注意我这里接入的是旗舰独立显卡,对于仅20瓦上限的核显而言,20倍功耗但仅五倍性能的差异已经足以看出英特尔在编码方面的优势了,关于编码的细节对比如下:
如上我们可以看到基于显卡坞和PC直连的场景下,显卡坞的损益不大,不到10%,所以迷你主机尤其是支持OCuLink的优势十分明显。
而在3D表现上,搭载旗舰显卡的极摩客借助U9 285H处理器的优势下(如果是U5损耗会大些),可以说损益也是非常小的了,当然这里少不了下面对比:
可以看到仅1440p下的Time Spy差异略大外,其它的损益是非常小的(再说一次,实测U5会大一些)。
所以就这里额外分享的数据来看,如果要选择迷你主机请直接选择酷睿Ultra9 285H,不需要任何犹豫,有额外性能需求,推荐雷电4+OCuLink双加持的极摩客EVO-T1系列,尤其是它还有双2.5G网口,细节上还配备了双USB 2.0接口满足各种外挂设备兼容性,妥妥的工作站迷你主机设计。
上面这款为64G版本,目前96G版本可以找官方客服了解。
好了,今天的分享就到这里,感谢大家能耐心读完!祝各位发财,提前祝大家新年快乐!马年大吉!马到成功!
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费POC验证,效果达标后再合作。零风险落地应用大模型,已交付160+中大型企业
2025-12-15
豆包“撕裂”AI手机
2025-12-15
树莓派AI产品,现已全面支持最新发布的树莓派操作系统Trixie版本!
2025-12-14
AI终端用户洞察:认知、行为与价值演进
2025-12-12
手机AI智能体助手的四大风险与五层防护
2025-12-12
趋境科技×智谱AI联手,把千亿大模型装进桌面小盒子:「灵启AI小盒子」开启个人超级AI Lab时代
2025-12-11
2000元搞定企业级AI算力!DellR730XD+双P100+ESXi8.0+AlmaLinux9直通部署终极指南
2025-12-10
出门问问发布全球首款4G AI录音耳机TicNote Pods,迈向“独立AI终端”
2025-12-09
豆包AI手机遭全网抵制,深度解析!
2025-09-19
2025-12-05
2025-11-09
2025-10-13
2025-10-24
2025-10-27
2025-12-01
2025-11-17
2025-12-09
2025-09-20