Ta好神秘,什么都没有留下。
注册3周年签到1天
IP属地:浙江

芝麻信用评估

芝麻信用评分是合法独立的信用评估及信用管理机构,授权后得到分数越高,代表信用越好

游戏玩家的短视……AI时代,谁还在乎那点消费端市场?游戏显卡6.4%的营收占比,能做什么? 完全放弃游戏市场也不过分。动辄几千亿的Blackwell大订单,哪个游戏消费群体能比得了?还整天AMD驱动……

03-22 21:58

我就想问下,联通5G 室内速度有改善吗?跟移动天壤之别。。。

03-21 14:29

Drop需要啥子科学……就是对标iPhone 的Airdrop

03-20 21:21

港版安卓满血,Drop功能,国行也是阉割的,哎……啥都阉割

03-20 12:27

╮( ̄▽ ̄"")╭我就说一个。 sparsebundle,不仅有分片,还能AES加密,就问除了MacOS 谁有。

03-20 01:39

让一群人鄙视Mac金子般的内存,继续装睡叫不醒吧。技术沉淀,科技创新的壁垒一旦形成,再也不是赢麻了能追赶的了。Mac的HBM深耕多年,CPU GPU直连, 再也不是Wintel联盟能追赶的了,毕竟Windows也大量迁移ARM。 😂也就是在国人圈里,还整天咒骂Mac内存贵。

03-12 16:39

Nope ~ GPU NPU本质都是硬件加速。用于AI计算(transformer 矩阵计算)……就是庞大数量的数学计算。同宗同源~

03-12 16:36

抛开功耗,就拿ARM指令集来说,x86 想实现的milestone,ARM全部走完且实现,反观x86 SEE4几乎是难产再推迟N多年……直到SEE4.1 4.2…包袱卸不下,新的东西也搞不进来。 大型云计算x86依旧为主,不过是架构稳定,大家不愿意尝试罢了……光是围绕x86建设的基础生态,ARM几乎完全没有。你有听过哪些服务器厂商为ARM定制的机器?很少……大多数的市场份额,还是Dell, HP, SuperMicro,甚至是联想。都是几十年的沉湎,各项技术,各种条件都有完整的解决方案,ARM? 就拿目前的市场份额来说,虽然小,不是没有……AWS,HUAWEI都在做,优势很明显,大并发下,多核数量,是x86比不了的……x86最后一块遮羞布也就剩下单线程的IPC高了。可是这事要是几年前,切换确实难,但是目前各个领域都有AI介入,这个升级速度相当快。。。云服务发展方向,越来越依赖GPU。。。模型作为最底层的原动力,驱动整个业务架构重来,根本不是以前的摩尔定律发展模式了。ARM架构下的CPU GPU RAM完美联合,x86拿什么比呢?intel 当年胜在AMD 就是内存控制器CPU内部集成。而ARM,早就是内部集成,而且全部升级到HMB,现在intel 搞个HMB这么困难,要下游厂商各种支持,走到下一个时代太难。试想下,ARM架构的云服务器,单机128Core + 512G HMB RAM,这个成本,x86得多少?日益复杂的并发数据发展,intel 没落不是没道理。

03-10 00:54

不会推理???😂,那我跨平台cpython 写的transformer是啥玩意????搞笑了吧,兄弟。喂,连显存堆叠怎么整合出512G都不清楚的你,到底在做啥?又是自己玩个别人蒸馏过的模型啊?😂 这会儿,不秀自己无知windows 配出来512G显存啦。又开始上升到transformer 训练啦?这到底训练的是啥。不会是部署别人蒸馏过的模型,直接跑吧?😂到底知不知道,transformer Inference 之间的关系?😂真的是越来越好笑了。

03-08 19:48

确实鸡同鸭讲,512G的HMB 内存……对标512G的显存。合着显卡叠加就成了?显然根本不清楚模型要做Memory Pooling的意义。能配出来512G显存的方案,只有NVLINK+NVSwitch,没别的方案……你那种只能叫分布式计算,跟训练模型所需要的VRAM完全不是一回事。最后……本地部署? 合着你就是纯本地玩玩具一样呗? 哪个公司专业做模型的,没个基础硬件服务? 而且Mac studio 192G版本,很多公司都采购过做边缘计算。 搞清楚,模型在attention产生大量中间值才是消耗大头……怎么靠你这并联方案,连个pool 都没,产生一个,交换一次,再寻找一次,做次Map?玩呢…… 抱着你的win好好玩吧,就那DX托后腿的执行效率。

03-08 18:58
社区达人榜 查看更多

小提示

您确定删除该评论吗?

关注数量超出限制,
请先删除部分内容再尝试