5月23日至24日,AICon全球人工智能开发与应用大会将在上海盛大召开。大会将呈现超过50场实战演讲,聚焦大模型、多模态技术和AI Agent等前沿领域。通过深入剖析行业挑战并分享实用知识,助力参会者加速智能化转型,推动技术进步与产业升级。
由清华大学与星动纪元联合开发的AIGC机器人大模型“Sora”已正式开源,并成为ICML2025焦点项目。作为机器人领域的全新成员,“Sora”自2023年问世以来,推动了从“可灵”到“通义万相”等AIGC技术的全球性革命,为AI的实际应用开辟了新路径。
联想公司近期推出了一系列超级智能体产品,标志着端侧人工智能技术正式步入大规模应用阶段。2025年被视为超级智能体发展的起始年份,这一时间节点不仅象征着技术的飞跃,也预示着人类与人工智能协同发展的新纪元。通过端侧人工智能,超级智能体能够更高效地处理数据,为用户提供个性化的服务体验,推动人机协同迈向更高层次。
天翼云HBlock近期宣布推出一项创新的“异地多活”块存储服务,该服务以确保数据不丢失和业务连续性为核心优势,有效满足用户对数据安全与业务稳定性的需求。通过先进的技术架构,“异地多活”能够在多个地理区域同时运行,大幅提升系统的可靠性和容灾能力,为用户提供更高质量的服务保障。
本周,Cognition AI开源了名为Kevin-32B的大模型,该模型基于强化学习技术开发,专注于辅助编写CUDA内核代码。这一工具的推出,为那些在CUDA编程方面遇到困难的开发者提供了有力支持,有望降低相关技术门槛,推动AI与高性能计算领域的进一步融合与发展。
腾讯云产品研发总监许小川将在AICon上海会议上深入探讨技术管理者如何应对人工智能(AI)带来的变革。他将重点分析大型语言模型(LLM)对软件研发过程的影响,涵盖技术架构调整、人才技能需求变化、组织结构优化及研发流程改进等方面,揭示LLM日益增长的作用及其深远影响。
OTC-PO全新发布,聚焦o3模型的应用潜力,助力Agent助手实现更高效的智能决策。通过减少对传统工具的依赖,o3模型赋予Agent更强的自主任务处理能力,如Manus和OpenAI相关框架所展示的效果。这一技术突破将推动自动化智能体在多领域内的广泛应用,为未来智能化发展奠定基础。
强化学习(RL)作为人工智能领域的研究热点,在新时代的模型优化中扮演着至关重要的角色。通过不断迭代与环境交互,强化学习能够显著提升模型性能,同时为去中心化技术的发展提供了新思路。这种技术不仅推动了算法效率的提升,还可能重塑未来的分布式系统架构。
由浙江大学与哈佛大学合作开发的LoRA模型在图像编辑领域取得了突破性进展。该模型仅使用传统方法0.1%的数据量和1%的训练参数,以极低的成本实现了高质量的图像编辑效果,部分性能甚至超越了Gemini和GPT-4o等商业大模型。这一成果使其在Hugging Face平台上的排名迅速攀升至第二位,为图像编辑技术的发展提供了新思路。
谷歌近期发布了Gemini 2.5 Pro预览版,该模型以其卓越的编码能力在全网中排名第一。然而,尽管其在编码领域的表现堪称顶尖,但在其他方面的多面能力则表现平平。这一发布引发了业界对人工智能模型专项能力与综合能力平衡的广泛讨论。
近年来,网易游戏的产品线与品类迅速扩张,每日新增数据量高达数百TB。面对数据规模的爆炸性增长,Apache Doris在网易游戏的湖仓一体架构中发挥了关键作用,有效应对了海量数据处理挑战,为业务发展提供了坚实的技术支撑。
Devin公司推出了一款名为Kevin的开源工具,专为解决CUDA编程难题而设计。该工具的核心版本Kevin-32B基于QwQ-32B模型开发,并通过在KernelBench数据集上的多轮强化学习训练,采用GRPO算法进行优化,最终实现了超越o3和o4-mini的卓越推理性能。这一成果为CUDA编程用户提供了更高效、易用的解决方案。
OTC-PO框架是一项基于强化学习的研究成果,专注于优化语言模型的工具调用策略。通过简化工具调用过程,该框架使语言模型能够更高效、灵活地解决问题,显著提升答案的准确性和生成效率。这一创新方法为语言模型的应用提供了新的可能性,推动了人工智能技术的发展。
由清华大学与星动纪元联合开发的AIGC机器人大模型“Sora”正式开源,标志着机器人领域的新突破。该模型凭借卓越的AIGC生成式技术,在具身智能机器人领域展现了领先性能,并被选为ICML2025的焦点项目。这一成果将推动全球机器人技术的发展,促进学术与产业界的交流合作。
华为诺亚实验室在ICML 2025上推出了一种新型MoE架构——MoLE,专为端侧部署优化。该架构通过将专家输入转化为浅层嵌入标记,并以查找表替代传统矩阵运算,显著降低了推理阶段的显存消耗与传输延迟。实验表明,MoLE在保持与MoE相似性能的同时,在批量解码场景下展现出更优的推理延迟表现。
近期,浙江大学与哈佛大学联合开发的LoRA模型在图像编辑领域取得突破性进展,成功达到GPT-4o级别的图像编辑能力,并在Hugging Face平台模型排行榜中位列第二。随着Gemini、GPT-4o等大型商业模型的推出,基于文本的图像编辑任务备受关注。为提升图像编辑性能,高质量训练数据的获取及更大参数量模型的训练成为关键。