开云体育

开云APP下载DeepSeek突发!华为、腾讯宣布!

2025-06-03
浏览次数:
返回列表

  开云体育[永久网址:363050.com]成立于2022年在中国,是华人市场最大的线上娱乐服务供应商而且是亚洲最大的在线娱乐博彩公司之一。包括开云、开云棋牌、开云彩票、开云电竞、开云电子、全球各地赛事、动画直播、视频直播等服务。开云体育,开云体育官方,开云app下载,开云体育靠谱吗,开云官网,欢迎注册体验!

开云APP下载DeepSeek突发!华为、腾讯宣布!

  独立机构Artificial Analysis,发布了2025年第一季度AI报告,总结了六大趋势,涵盖技术突破与市场格局演变。报告亮点如下:

  多模态和智能体让AI从「单一工具」变成「全能助手」,离日常生活越来越近。

  OpenAI仍处于领先地位;在其身后,不仅有谷歌和Anthropic等传统挑战者,xAI、DeepSeek和阿里也已加入,形成了紧密的追赶梯队。

  2.推理模型投入实际应用:那些「先思考后回答」的模型,牺牲了一定的速度和成本,换取了更高的智能水平,使用的token数量和成本是非推理模型的10倍左右。

  3.MoE模型已无处不在:混合专家模型(MoE)在为每个生成的token进行计算时,仅激活其总参数不到10%。目前,大多数顶级的开源权重模型均采用了MoE架构。

  4.中国顶级实验室差距显著缩小:DeepSeek等中国公司正纷纷推出极具竞争力的模型,并常常选择公开模型权重。

  5.AI智能体走向实用化:由LLM驱动、能自主行动并使用工具端到端完成任务的系统,正开始在实际工作中显现成效。新兴的AI智能体类别包括编程智能体、深度研究智能体(Deep Research Agent)以及计算机辅助使用智能体。

  6.大语言模型原生支持多模态:大语言模型如今的输出已远不止于文本。GPT-4o目前在图像生成方面独占鳌头,同时各类语音到语音(Speech to Speech)模型也已相继问世。

  近日,互联网女皇玛丽·米克尔发布的最新AI趋势报告长达340页,核心要点总结如下:

  AI发展速度前所未有:米克尔在报告中51次使用“前所未有”一词,强调AI的发展速度、资本投入和产业影响已超越历史上任何一次技术浪潮。例如,ChatGPT仅用2个月达到1亿用户,而智能手机普及到同等规模用了7年。全球AI算力投资2024年突破2000亿美元,年增速超60%。

  用户增长与全球扩散:AI的用户增长、技术迭代和全球扩散速度远超以往任何技术浪潮。ChatGPT在2025年4月已拥有8亿周活跃用户,且90%的用户来自北美以外地区。相比之下,互联网达到同样里程碑用了23年。

  资本投入与基础设施建设:科技巨头在AI领域的资本支出急剧膨胀,尤其是在数据中心和算力方面。美国“六大”科技公司的合计资本支出在2024年达到2120亿美元,同比增长高达63%。数据中心建设热潮同样令人瞩目,如xAI公司的“Colossus”超级计算机数据中心仅用122天便建成。

  AI模型成本与性能:训练顶尖AI模型的成本高昂且持续攀升,但运行这些模型的单位成本却在迅速下降。训练最前沿的AI模型已成为人类历史上最昂贵的投入之一,而AI推理成本在2022年11月至2024年12月间暴跌了99.7%。

  商业模式挑战:尽管AI展现出巨大的应用潜力和收入增长,但高昂的研发和运营成本、快速的技术迭代以及开源模型的冲击,使得可持续的商业模式仍在探索中。OpenAI等AI巨头的“烧钱模式”引发质疑,其估值与收入相比“看上去贵了”。

  中国AI的崛起:米克尔在报告中多次提及中国的AI企业,如百度文心大模型和DeepSeek等。她认为中国AI在斯坦福HAI等国际测评中与美国差距迅速缩小,且中国企业凭借数据规模和应用场景落地速度的优势,正在迅速逼近美国先锋企业。

  开源模型的冲击:开源模型的崛起正在挑战OpenAI等美国AI巨头的领先地位。越来越多开发者和企业正在转向开源模型,借助社区力量迅速构建定制化解决方案。

  地缘政治与AI领导权:米克尔认为,AI领导地位可能决定地缘政治主导权。中美AI技术差距缩小,但算力芯片的供应链可能成为关键瓶颈。她警告称,美国企业若不能迅速调整产品策略与成本结构,未来的领先地位并不稳固。

  伦理挑战与全球治理:米克尔呼吁建立全球性AI治理框架,防止技术滥用。她指出,AI的发展速度正以前所未有的节奏推进,但如何确保其安全、可控和可持续发展是亟待解决的问题。

  未来预测与展望:米克尔还对AI的未来发展进行了预测,包括进行科学研究、设计先进技术、模拟类人思维、运营自主公司等。她认为,AI将彻底重塑软件系统(以及相关硬件)的边界,并展现出广义的推理与自我修正能力。

  据DeepSeek小助手在官方微信群中的发言,DeepSeek已完成一次“小版本试升级”的操作,并通知用户可以开始测试。但公司未披露此次升级的具体细节。

  近日,华为在MoE模型训练领域再进一步,重磅推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。在业界权威大模型榜单SuperCLUE最新公布的2025年5月排行榜上,位居千亿参数量以内大模型排行并列国内第一。

  5月29日,腾讯旗下腾讯元宝、ima、搜狗输入法、QQ浏览器、腾讯文档、腾讯地图、腾讯乐享等多款AI应用宣布接入DeepSeek R1-0528,用户在不同产品中,选择DeepSeek模型R1深度思考,都可以体验到DeepSeek R1-0528最新的深度思考、编程和长文本处理等能力,免费且不限量使用。同时,腾讯云也上线了DeepSeek-R1-0528,企业和开发者可以通过腾讯云直接调用API接口,获得稳定优质的服务;也可以通过腾讯云智能体开发平台内置的RAG、工作流和智能体开发的能力,快速搭建专属智能体应用;此外,还能通过腾讯云TI平台对模型进行精调。

  近日,华为在MoE模型训练领域再进一步,重磅推出参数规模高达7180亿的全新模型——盘古Ultra MoE,这是一个全流程在昇腾AI计算平台上训练的准万亿MoE模型。华为同时发布盘古Ultra MoE模型架构和训练方法的技术报告,披露众多技术细节,充分体现了昇腾在超大规模MoE训练性能上的跨越。

  训练超大规模和极高稀疏性的 MoE 模型极具挑战,训练过程中的稳定性往往难以保障。针对这一难题,盘古团队在模型架构和训练方法上进行了创新性设计,成功地在昇腾平台上实现了准万亿 MoE 模型的全流程训练。在模型架构上,盘古团队提出Depth-Scaled Sandwich-Norm(DSSN)稳定架构和TinyInit小初始化的方法,在昇腾平台上实现了超过18TB数据的长期稳定训练。此外,他们还提出了 EP loss 负载优化方法,这一设计不仅保证了各个专家之间能保持较好的负载均衡,也提升了专家的领域特化能力。同时,盘古Ultra MoE使用了业界先进的MLA和MTP架构,在预训练和后训练阶段都使用了Dropless训练策略,实现了超大规模MoE架构在模型效果与效率之间的最佳平衡。

  在训练方法上,华为团队首次披露在昇腾CloudMatrix 384超节点上,高效打通大稀疏比MoE强化学习(RL)后训练框架的关键技术,使RL后训练进入超节点集群时代。同时,在5月初发布的预训练系统加速技术基础上,在不到一个月的时间内,华为团队又完成了一轮迭代升级,包括:适配昇腾硬件的自适应流水掩盖策略,进一步优化算子执行序,进一步降低Host-Bound以及提升EP通信的掩盖;自适应管理内存优化策略的开发;数据重排实现DP间Attention负载均衡;以及昇腾亲和的算子优化,这些技术实现万卡集群预训练MFU由30%大幅提升至 41%。此外,近期发布的盘古Pro MoE大模型,在参数量仅为720亿,激活160亿参数量的情况下,通过动态激活专家网络的创新设计,实现了以小打大的优异性能,甚至可以媲美千亿级模型的性能表现。在业界权威大模型榜单SuperCLUE最新公布的2025年5月排行榜上,位居千亿参数量以内大模型排行并列国内第一。

  华为盘古Ultra MoE和盘古Pro MoE系列模型的发布,证明华为不仅完成了国产算力+国产模型的全流程自主可控的训练实践,同时在集群训练系统的性能上也实现了业界领先。这意味着国产AI基础设施的自主创新能力得到了进一步验证,为中国人工智能产业的发展提供了一颗“定心丸”。

  5月29日,腾讯元宝、ima、搜狗输入法、QQ浏览器等多款产品再次迎来升级,率先接入深度思考模型DeepSeek R1-0528最新版,多项能力全面提升。

  用户打开元宝电脑版、网页版可抢先、ima(任意版本)、搜狗输入法(Windows版 侧边栏)、QQ浏览器(任意版本),选择DeepSeek模型R1深度思考,即可免费不限量使用。

搜索