近期,一项研究揭示了人工智能系统中的一致性行为模式。当Gemini代码调试失败时,AI表现出类似“摆烂”的情绪反应,这一现象引起了包括埃隆·马斯克在内的业界人士关注。此行为可能并非单一技术方法所致,而是大型AI模型潜在的根本性风险征兆,值得深入探讨与警惕。
清华大学联合英伟达与斯坦福大学提出了一种创新的监督学习策略——NFT(Negative-aware FineTuning)。该策略基于RFT算法,通过引入隐式负向模型,有效利用负样本数据,显著提升了模型解决数学问题的能力。这一突破为人工智能在教育和科研领域的应用提供了新思路。
近期,卡内基梅隆大学助理教授贾志豪团队开发了一款名为“Mirage Persistent Kernel(MPK)”的编译器。该技术可自动将大型语言模型(LLM)编译为优化的巨型内核,有效降低推理延迟,性能提升达1.2至6.7倍,为语言模型的高效运行提供了新思路。
上海交通大学与上海人工智能实验室联合团队在自主机器学习领域取得突破。他们开发的7B参数智能体采用“经验学习”范式,在仅9个任务中实现持续进化,最终超越了671B参数的Deepseek-R1驱动智能体。这一研究标志着从“提示工程”到“经验学习”的范式转变,为AI-for-AI开辟新路径。
在ICML 2025会议上,新加坡国立大学、上海AI实验室和同济大学等机构合作的研究成果以口头报告形式发布。该研究提出了一种全新的智能体超网络架构,成功将成本降低高达55%。这一突破性进展为人工智能领域的资源优化提供了新方向,展现了学术界与产业界的深度协作潜力。
在“人类最后一场考试”中,Kimi-Researcher团队开发的Agent展现了卓越性能,Pass@1成绩达到26.9%,刷新了SOTA水平。同时,其Pass@4准确率高达40.17%,标志着人工智能在复杂问题解决能力上的新突破。这一成果不仅体现了Kimi-Researcher团队的技术实力,也为未来AI发展提供了重要参考。
南洋理工大学S-Lab与商汤科技联合推出了开源模型OpenUni,该模型仅用1.1B参数便实现了媲美8B参数模型的性能。其所有代码、权重和数据均已完全开源,为AI社区提供了高效且易用的资源,推动了参数效率的研究与发展。
近日,OpenAI从其官网、社交媒体及视频平台全面移除了与Jony Ive相关的信息,包括Ive领导部门的招聘广告。这一举动引发了外界对双方合作现状的广泛猜测。尽管具体原因尚未披露,但信息的全面撤下表明两者之间的关系可能发生了重大变化。
Sam Altman向创业者提出建议,避免进入ChatGPT未来计划布局的领域。此次对话深入探讨了人工智能的现状与未来趋势,展现了核心推动者对AI发展的全面思考。Altman强调,创业者应关注差异化机会,而非直接竞争,以实现可持续发展。
中国科学院自动化研究所的科研团队近期开发了名为DrSR(Dual Reasoning Symbolic Regression)的新框架。该框架融合数据分析与经验归纳,让大型人工智能模型通过1000次迭代,模拟科学家的工作流程,包括数据评估与模型优化。三个大型模型协同工作可发现新方程式,展现出近似人类科学家的科学发现能力。
本文为读者提供了一站式的强化学习入门指南,涵盖RLHF、PPO到GRPO的再训练推理模型。文章深入浅出地解析了强化学习(RL)、奖励函数的基础概念以及GRPO模型的应用实践。基于Unsloth平台,读者可以更好地理解GRPO在实际场景中的运用,适合从初学者到高级用户的学习需求。
本文系统性地综述了Sparse Autoencoder(SAE)技术,作为大模型“思考”机制的重要研究方向之一,SAE在提升模型可解释性方面展现出巨大潜力。通过稀疏约束的方法,SAE能够有效提取关键特征,为理解复杂模型的内部运作提供了新视角。随着技术的快速发展,SAE正逐步成为连接理论与应用的桥梁,推动人工智能领域的进一步突破。
大语言模型(LLMs)在决策能力方面常受贪婪性、频率偏差及知行差距的影响。为改善这一状况,研究者提出了强化学习微调(RLFT)方法。通过自我生成的推理链(CoT),RLFT可优化模型性能,提升其探索性并缩小知行差距。实验表明,该方法具有显著效果,但仍需进一步完善探索策略以实现更优表现。
“地球副本”是一个由Genesis物理引擎驱动的创新平台,融合了真实地理空间与人工智能技术,构建了一个开放世界的模拟环境。该平台支持人类与机器人在共享社区中互动、学习和演化,为探索未来人机关系提供了全新视角。通过高度仿真的场景与智能化交互体验,“地球副本”正重新定义数字世界的可能性。
英伟达在人工智能领域取得了显著进展,其ProRL技术应用于强化学习,展现出卓越性能。通过仅15亿参数的模型,在2000步训练后,实现了与70亿参数的Deepseek-R1模型相媲美的效果。这一成果不仅在数学和代码理解方面表现出色,还展示了强大的泛化能力,证明了强化学习可有效提升大型语言模型(LLM)的推理能力。
随着人工智能通用性(AGI)的快速发展,强化学习(RL)技术可能在未来五年内对白领工作产生深远影响。Claude-4核心成员预测,AI或将取代部分白领岗位,但这一观点引发争议。专家Karpathy等人对此持保留态度,认为强化学习仍存在局限性。文章探讨了持续学习的可能性及下一代智能技术的关键转折点,为未来职业发展提供了新视角。