如果把今天的AI比作一辆超级跑车,那么算力就是它的发动机。没有强劲的发动机,再炫酷的外壳也只能原地打转。就在最近,OpenAI一口气拉来了NVIDIA、AMD和博通三位“发动机大师”,宣布要一起打造一条可以装进26座核电站能量的AI赛道。换句话说,他们准备把26GW——也就是2600万千瓦——的算力,稳稳地塞进全球的数据中心里。听起来是不是有点科幻?别急,咱们慢慢聊。
先说说26GW到底有多大。夏天最热的时候,全北京所有空调同时开,大概也就不到2000万千瓦。换句话说,OpenAI这次准备的算力,能让13个北京在最热的天同时吹上空调,还能再点亮几座不夜城。这么大的能量,不是拿来挖矿,也不是拿来给手机跑分,而是为了让我们日常用的ChatGPT、AI画图、AI写代码,甚至未来还没出现的AI新玩具,都能跑得飞快、便宜、还不掉链子。
那这三位“发动机大师”到底怎么分工?咱们用做菜来比喻。NVIDIA是主厨,锅铲翻飞,最拿手的是GPU爆炒;AMD是二厨,刀工细腻,GPU和CPU双刀流;博通则像顶级厨具供应商,锅碗瓢盆、抽油烟机、甚至厨房布线全包圆。OpenAI自己呢?它既是点菜的人,也是菜谱的撰写者——毕竟,只有它最清楚“顾客”到底想吃什么口味的AI大餐。
故事得从2024年秋天说起。那会儿,OpenAI发现自家厨房里排队的人越来越多:ChatGPT刚上线的时候,全球用户只有几百万,后来直接飙到几亿,每天提问次数比全世界图书馆一年借书量还多。于是,OpenAI做了一个大胆的决定:干脆自己造厨房,而且要造得又大又快。他们先找到NVIDIA,签了10GW的“超级炉灶”订单;转身又和AMD握手,再订6GW;最后拉上博通,一起攒10GW的“定制灶台”。一加一,再加一,26GW的巨型厨房就这么敲定了。
为了让厨房真正落地,OpenAI还拉来了富士康做“装修队”。富士康大家可能更熟——iPhone就是它组装的。但很多人不知道,富士康也是全球数一数二的AI服务器制造商。它在美国威斯康星、俄亥俄、得克萨斯等好几个州都有大工厂,专门生产机柜、电源、液冷管线这些“厨房硬装”。有了富士康,26GW的“厨房”才能从图纸变成钢筋水泥,再变成一排排闪着蓝光的机架。
说到这里,你可能会问:26GW听起来爽,但电费得吓死人吧?别担心,聪明的工程师们早就想到了。英伟达的老大黄仁勋,今年在自家GTC大会上提出了“AI工厂”的概念。简单来说,就是把数据中心当成一座真正的工厂,流水线24小时不停,每度电都要榨出最多的“智能”。为了达到这个目标,他们甚至把中国公司英诺赛科也拉进了朋友圈。英诺赛科专门做氮化镓电源芯片,能让800伏高压直流电直接给机架供电,省掉传统UPS的损耗,效率一下子提升好几个百分点。别小看这几个百分点,放到26GW的体量,一年能省下的电费足够让一个小城市免费吹一年空调。
更有趣的是,OpenAI现在连芯片都开始自己画图纸了。过去18个月,他们悄悄跟博通一起憋大招:用ChatGPT自己来设计下一代AI芯片。你没听错,让AI教AI怎么长得更快。结果人类工程师花一个月才能想明白的优化,AI几个小时就给出答案,面积还能再缩小一圈。于是,第一颗“OpenAI牌”芯片预计9个月后就能量产,堪称AI界的“M1时刻”。以后你问ChatGPT一个问题,它可能就是在用自己设计的芯片给你秒回,这感觉就像厨师用自己锻造的刀切菜,顺手又顺心。
26GW听起来像天文数字,但对OpenAI来说,这只是开胃菜。联合创始人Greg Brockman打了个比方:现在ChatGPT Pulse这样的高级功能,因为算力紧张,只能给付费用户尝鲜;未来如果算力像自来水一样拧开就有,每个人都能拥有一个24小时在线的AI小秘书,帮你写邮件、做PPT、甚至哄娃睡觉。到那时,AI不再是少数人的玩具,而是80亿人手里的瑞士军刀。
为了让这一天早点到来,OpenAI把“厨房”建在了美国本土。一来,离用户更近,延迟更低;二来,也给当地带来了大量高薪工作。威斯康星州的富士康园区,原本计划做显示器,后来项目搁浅,如今摇身一变,成了AI数据中心的工地。工人们笑着说,以前组装iPhone,现在组装“未来”。就连美国能源部都跑来站台,准备推出“创世纪计划”,把AI基建当成新时代的曼哈顿工程。
所以,下次当你对ChatGPT说一句“帮我写个请假条”,背后可能就是26GW的算力在飞速运转。它像一座隐形的城市,灯光不熄,风扇不停,只为让每个人的问题得到最聪明的答案。而这一切,才刚刚开始。
