分类目录归档:资讯

世界上每天都在发生的变化

35.98万元起售,2025款小鹏X9香港上市,科技旗舰全面升舱

原文链接:
35.98万元起售,2025款小鹏X9香港上市,科技旗舰全面升舱


1. 新品发布与战略布局
小鹏汽车于4月15日在香港举办全球发布会,推出2025款旗舰MPV小鹏X9,共四个版本(售价35.98万-41.98万元),并宣布以技术创新和本地化战略加速全球化。同步展示飞行汽车、AI机器人技术成果,强调AI与能源技术为核心竞争力。

2. 技术突破与未来规划
AI智驾:全栈自研72B参数大模型,2025年实现L3级智驾;推出图灵AI芯片(算力提升3倍),支持汽车、机器人及飞行汽车。
飞行汽车:分体式“陆地航母”获近4000订单,2026年量产,年产能1万台。
机器人:IRON机器人仿人设计,已投入工厂应用。

3. 全球化与补能体系
• 充电网络覆盖31国207万桩,5C超充技术实现“12分钟充80%”。
• 鲲鹏电动体系2025年落地,综合续航1400km。
• 2023年出口销量中国新势力第一,2025款X9将进军欧洲60国。

4. 2025款小鹏X9核心升级
舒适性:全系标配零重力座椅、三排180°躺平、百万级静谧底盘,496项细节重构。
智能化:标配图灵智驾(端到端大模型)、AI底盘(自适应路况)、6D防晕算法。
三电安全:全域800V平台、防弹装甲电池、46000N·m/deg车身刚度。
配置:21.4英寸娱乐屏、车载冰箱、静感空调等。

继VAE之后,Adam也拿到了ICLR 时间检验奖,OpenAI联创两次获奖

原文链接:
继VAE之后,Adam也拿到了ICLR 时间检验奖,OpenAI联创两次获奖


1. ICLR 2025时间检验奖结果公布

冠军论文:2015年提出的Adam优化算法(被引超21万次),因其革命性地提升神经网络训练效率,成为深度学习领域最广泛应用的优化器之一。作者Diederik P. Kingma(OpenAI创始成员)第二次获此殊荣,其另一贡献VAE曾获2024年该奖项。
亚军论文《Neural Machine Translation by Jointly Learning to Align and Translate》,比Transformer早三年提出注意力机制,为现代序列模型奠定基础,作者包括图灵奖得主Yoshua Bengio。

2. Adam算法的核心贡献

– 结合动量法与RMSProp,通过动态调整学习率实现高效收敛
– 适用于CV、NLP、强化学习等领域,成为SOTA模型的默认优化器
– 论文作者还包括多伦多大学助理教授Jimmy Lei Ba(Geoffrey Hinton学生)。

3. 亚军论文的里程碑意义

– 首次提出软性注意力机制,解决传统编码器-解码器的固定向量瓶颈;
– 灵感源自翻译时的”目光移动”,被Yoshua Bengio命名为”Attention”;
– AI专家Andrej Karpathy曾为其影响力未被充分认可鸣不平。

4. 作者背景亮点

Diederik P. Kingma:VAE、Glow、扩散模型贡献者,现任职Anthropic;
Dzmitry Bahdanau(亚军论文一作)披露研究细节:注意力机制灵感来自中学英语翻译练习;
Kyunghyun Cho(合著者)现为纽约大学教授兼Genentech研究总监。

(注:所有论文链接及参考来源已省略,保留于原摘要中)

ICLR 2025 | 一行代码!FreDF频域损失稳定提升时间序列预测精度

原文链接:
ICLR 2025 | 一行代码!FreDF频域损失稳定提升时间序列预测精度


1. 研究背景与团队
本文由浙江大学、中南大学、上海交通大学、Tiktok、北京大学、南洋理工大学联合完成,第一作者为浙江大学王浩(发表多篇顶会论文),通讯作者为北京大学李昊轩和南洋理工大学陶大程教授。研究聚焦时间序列预测在气象、工业、医疗等领域的应用价值。

2. 核心问题与创新
现有方法忽略标签序列的自相关性,导致训练目标有偏。论文提出频域标签训练新范式FreDF,仅需一行代码即可在主流模型(如Transformer、MLP)上稳定提升预测精度。

3. 关键理论与方法
• 定理3.1证明:时域标签相关性>0时,传统损失函数有偏;频域中相关性被抑制,损失函数无偏。
• FreDF通过添加频域损失实现:融合时域与频域损失(α=0.8~0.9时效果最佳),显著提升序列高频成分捕捉能力。

4. 实验结果
ETTm1数据集:iTransformer的MSE降低0.019,相当于过去1.5年该数据集性能提升总和。
M4数据集:FreTS模型在3项指标上全面超越基线。
• 消融实验显示:仅频域损失即可显著改进性能,时频域融合进一步优化。

5. 普适性与意义
FreDF在iTransformer、DLinear等不同架构上均有效,具有模型无关性,为时序预测提供通用解决方案,可成为性能优化的”最后一棒”。

聚焦人工智能-生物-工程交叉融合,一文综述即将到来的「技术创变」浪潮

原文链接:
聚焦人工智能-生物-工程交叉融合,一文综述即将到来的「技术创变」浪潮


1. 未来技术融合浪潮
人工智能、量子计算、纳米工程、CRISPR基因编辑等前沿技术正在崛起,尤其在合成生物技术、信息技术、纳米技术与工程技术的交叉领域,形成了”技术创变”浪潮。近期研究聚焦芯片技术与合成生物信息工程的融合,探索生物分子作为数据存储载体、混合半导体及下一代AI处理器的潜力。

2. 生物分子信息系统突破
基于核酸的生物分子有望成为生物芯片载体,其数据存储能力可能超越传统无机半导体技术。合成DNA/RNA通过特定编码可满足全球数据存储需求,在长期存储领域具有数量级突破潜力。

3. 半导体技术新方向
传统半导体面临摩尔定律瓶颈,而生物学与工程思维的融合带来新可能:
– 生物传感器/接口(如脑机接口)
– 生物集成技术(如核酸纳米存储)
– 生物启发计算(如神经形态计算)
连接组学研究将助力构建更高效的”电子大脑”。

4. 合成生物学革命
该领域通过AI/ML与电子技术融合实现突破:
活细胞计算:已实现全套布尔逻辑运算
DNA存储:超高密度与超长保存期
器官芯片:替代动物实验的微流控系统
机器学习在蛋白质设计(2024诺奖成果)和代谢通路设计中表现突出。

5. 生物智能的超越性
生物学在模拟信息处理问题优化方面具有天然优势,能突破传统计算的三大物理极限:
– 半导体尺度极限
– 能源消耗极限
– 信息带宽极限
35亿年进化的细胞计算能力可能带来量子计算级的变革。

核心展望
信息-生物-纳米-工程领域的融合将催生生命数字统一模型,其颠覆性影响不亚于传统计算的诞生。

迄今为止最大、最详细的哺乳动物脑连接图,详细展现海量神经元活动

原文链接:
迄今为止最大、最详细的哺乳动物脑连接图,详细展现海量神经元活动


1. 里程碑式研究成果
研究人员绘制了迄今最大、最详细的哺乳动物脑连接图,展示了小鼠脑组织一立方毫米内20万个脑细胞(含8.2万神经元)5亿突触4公里神经元线路的3D图谱,首次实现单神经元活动的大规模观测。

2. 技术突破与数据规模
通过切片成像(每片仅头发1/400厚)、AI标注及活动记录匹配,MICrONS项目团队在《Nature》发表8篇论文。数据规模远超人类同类图谱(1.6万神经元/1.5亿突触),被哈佛学者誉为“神经科学史无前例的成就”

3. 关键发现
验证了“同时放电的神经元更易连接”的神经理论,但发现该规则在皮层各区域适用性差异。首次揭示处理相似视觉特征的神经元会优先形成强连接。

4. 科学意义与展望
该图谱为研究视觉记忆存储机制等基础问题提供资源,覆盖小鼠大脑0.2%区域。团队计划扩展至全脑测绘,学者评价其“令人敬畏如观星空”的复杂性。

5. 数据开放
所有数据已在线公开,正被全球团队用于多项研究,推动连接组学发展。

AI助力人类与海豚跨物种交流:DolphinGemma项目突破

原文链接:

Google’s new AI model could someday let you understand and talk to dolphins


by:
Eric Hal Schwartz


AI助力人类与海豚跨物种交流:DolphinGemma项目突破

1. 历史性突破
人类与海豚的交流长期处于单向状态,如今Google联合佐治亚理工学院和野生海豚项目(WDP)开发出AI模型DolphinGemma,首次实现海豚声音的识别与生成。

2. 数据基础
基于WDP自1985年以来收集的野生大西洋斑点海豚音频/视频数据,该模型采用Google开源的Gemma架构,通过SoundStream音频标记器实现海豚声音的预测(类似”海豚版自动补全”)。

3. 实时应用
轻量化模型可在Google Pixel手机运行,今夏已投入实地测试,通过防水设备实时识别声纹模式并标记关键序列。

4. 双向通信系统
CHAT系统创造性地建立人豚”共享语言”:为海豚喜爱的物体(如海草、丝巾)分配人工哨音,观察海豚是否模仿这些声音提出需求。

5. 未来计划
Google计划年内开源模型,虽暂不能实现复杂对话,但能高效分析多年音频数据。模型经调整后或可应用于其他海洋物种。

6. 跨物种交流延伸
类似技术已用于解码猪的情绪发声,但海豚因其高智商和社交性成为更受关注的交流对象,未来或实现航海时的简单”问路”。

Sam Altman或建社交网络挑战Elon Musk的X平台

原文链接:

OpenAI might build its own social network, and we think we know why


by:
Lance Ulanoff


Sam Altman或建社交网络挑战Elon Musk的X平台

1. 潜在竞争格局
Sam Altman据传正考虑在OpenAI基础上开发社交网络,可能直接与Elon Musk的Grok(基于X平台的AI服务)形成对抗。该项目尚处早期阶段,细节未明。

2. 创始人恩怨背景
此举可能源于Altman与Musk的长期矛盾——两人曾共同创立OpenAI,但Musk于2018年退出后多次批评OpenAI转向营利模式。此次传闻或更多是象征性对抗而非实质开发进展。

3. 数据战略价值
若成真,该社交网络的核心价值在于获取用户生成内容数据,用于训练下一代GPT模型。真实人类行为数据对AI进化至关重要。

4. 市场时机存疑
分析师认为最佳时机应是Musk收购Twitter引发混乱之际(当时催生了Mastodon等替代平台)。当前文本社交平台增长放缓,主流已转向TikTok/Instagram Reels等短视频平台

5. 象征意义大于实用
即便最终产品可能只是”又一个无人需要的微博类平台”,但作为向Musk示威的试验性举措,仍具有战略试探价值。

3D领域「源神」又开了两个新项目:三维部件编辑与自动绑定框架

原文链接:
3D领域「源神」又开了两个新项目:三维部件编辑与自动绑定框架


1. VAST开源两大3D生成项目
国内创业公司VAST开源了HoloPartUniRig两大3D工具。HoloPart专注于三维模型部件分割与补全,UniRig则是通用自动绑定框架。

2. HoloPart的核心突破
• 首创三维部件完整语义分割技术,能推断被遮挡部件的完整几何结构
• 采用双重注意力机制(局部+上下文感知),在Objaverse等数据集预训练
• 实验显示性能显著优于现有方法,支持直观编辑/材质分配/动画制作等下游应用

3. UniRig的技术创新
• 通过骨骼树Tokenization将3D骨骼结构转化为Transformer可处理的序列
• 自研Rig-XL数据集(14,000+模型)提升泛化能力
• 实现215%关节预测精度提升,1-5秒快速推理

4. 行业价值
两项技术解决了3D内容生产的部件编辑自动绑定核心痛点,为国产3D大模型发展奠定重要基础。

不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型

原文链接:
不用英伟达GPU!华为盘古Ultra来了:昇腾原生、135B稠密通用大模型


1. 华为发布昇腾原生千亿级大模型Pangu Ultra
华为推出基于昇腾NPU训练的1350亿参数稠密模型Pangu Ultra,技术报告显示其性能超越Llama 405B、Mistral Large 2等国际主流模型,并可与DeepSeek-R1等稀疏模型竞争。

2. 突破国产算力瓶颈
研究团队在8192张昇腾NPU集群上实现50%的算力利用率(MFU),通过混合并行策略和虚拟流水线技术将训练空泡率从30.45%降至6.8%,证明国产算力可支撑千亿级大模型训练。

3. 创新训练稳定性技术
提出Depth-scaled sandwich-norm(DSSN)架构和TinyInit初始化方法:
– DSSN通过层深度平方根倒数调控输出尺度,完全消除loss突刺
– TinyInit采用深度/宽度联合缩放策略,加速收敛20%以上

4. 领域感知分词优化
构建153376词元的混合词表,通过独立分析通用文本、代码、数学等领域词频,使专业领域词元覆盖率提升40%,压缩效率保持92%以上。

5. 三阶段课程训练策略
13.2T tokens训练数据分阶段优化:
– 通用阶段(12T):知识积累
– 推理阶段(0.8T):数学/代码数据占比超60%
– 退火阶段(0.4T):指令数据占比提升至20%

6. 强化学习效果显著
在AIME 2024、MATH-500等基准测试中,后训练模型推理能力超越DeepSeek R1,MMLU-pro通用理解得分达82.3%,验证”预训练+强化学习”技术路线的有效性。

强化学习带来的改进只是「噪音」?最新研究预警:冷静看待推理模型的进展

原文链接:
强化学习带来的改进只是「噪音」?最新研究预警:冷静看待推理模型的进展


1. 强化学习(RL)在语言模型推理中的作用存在争议:尽管多篇论文(如DeepSeek-R1)指出RL能显著提升蒸馏模型的推理性能,但最新研究发现这些改进可能因评估噪声(如随机种子、硬件差异)被夸大,实际收益有限且统计不显著。

2. 评估不稳定性是核心问题:在AIME24等小型基准测试中,随机种子变化可导致得分波动达15%,硬件差异(如GPU类型)甚至造成8%的性能差异。评估框架(如LightEval vs Evalchemy)也会影响结果,差异达1-2个百分点。

3. 关键影响因素被系统分析:研究者识别出四大变异源:
采样差异:多种子评估显示Pass@1标准差高达5-15%
解码配置:max_new_tokens和prompt格式显著影响准确性
硬件异质性:不同GPU集群导致性能差异达6-8%
评估框架:工具链选择可能改变模型排名

4. 重要现象发现
响应长度与错误率正相关:超过1万token的响应错误率显著上升,RL/SFT模型均存在此现象
多样性坍缩未被证实:RL模型Pass@1提升时,Pass@k通常同步改善,未发现多样性下降证据

5. 解决方案呼吁标准化评估:研究者提出需控制随机种子(建议10次以上)、统一硬件/框架、规范prompt模板和上下文长度(如32768 tokens),以提升结果的可复现性。

6. 学界反思:Sebastian Raschka指出当前LLM研究普遍存在评估标准不足问题,需建立更严谨的基准验证方法有效性。