近日,七部门联合发布文件,明确规划并启动四大行动计划,旨在推动食品工业迈向数字化转型。该政策聚焦技术创新与产业升级,通过系统化措施全面提升食品行业的数字化水平,为行业未来发展指明方向。
为规范直播电商行业,保护消费者权益并促进市场健康发展,《直播电商监督管理办法》公开征求意见。该办法聚焦行业规范,明确了直播平台、主播及商家的责任与义务,同时强化了对虚假宣传、数据造假等问题的监管力度。通过广泛收集社会意见,旨在构建更加透明、公平的市场环境。
科学家们通过研究证实,大型人工智能模型在信息处理方面展现出与人类思维相似的能力。这些模型经过科学验证,能够深度理解和分析复杂数据,为各领域带来革命性突破。这一发现不仅推动了人工智能技术的发展,也为理解人类思维提供了新视角。
市场监管总局计划发布一项《办法》,以强化对直播电商行业的监督管理。该《办法》将明确行业规范,旨在解决当前直播电商领域存在的虚假宣传、产品质量等问题,推动行业健康有序发展。通过建立健全的监管机制,市场监管总局希望提升消费者信任度,同时为从业者提供更清晰的合规指引。
2025年高考试卷中融入了更多科技元素,如人工智能、大数据分析及虚拟现实技术。这些技术不仅改变了传统教育模式,还推动了考试内容的创新。例如,通过AI评估学生综合能力,大数据优化试题设计,VR技术模拟真实场景考查实践技能。这种趋势使教育更加个性化与多元化,同时对学生的科技素养提出了更高要求。
王劲,香港大学计算机科学系二年级博士生,在罗平教授指导下专注于多模态大型模型的训练、评估及伪造检测技术。他已在ICML、CVPR、ICCV和ECCV等国际会议上发表多项成果。其最新突破为开发首个纯Discrete Flow Matching多模态模型,该模型在灵活性上超越自回归模型,通用性上胜过离散扩散模型,展现出卓越性能。
最新的视频编辑技术已达到SOTA水平,用户可通过一句话指令完成视频编辑,同时确保背景完整性达到100%。这项技术结合AI应用,彻底改变了传统视频编辑流程,使编辑工作更加高效便捷,为用户带来前所未有的体验。
经过1.93bit量化处理的DeepSeek-R1(0528版本)在编程能力上表现突出,即使不依赖GPU运行,其性能依然超越Claude 4 Sonnet。这一技术突破使得DeepSeek-R1在资源受限的情况下仍能保持高效的编程表现,为低功耗应用场景提供了更多可能性。然而,关于其量化后的具体编程能力是否完全优于Claude 4 Sonnet,仍需进一步测试与验证。
测试时扩展(Test-Time Scaling)是一种在视觉领域中显著提升大型语言模型性能的技术。通过测试时扩展,1.3B参数的模型在视频生成和图像生成领域的表现超越了14B参数的模型,其图像生成能力甚至接近GPT-4o水平。这项技术由香港科技大学与快手合作开发并开源,为模型性能优化提供了新思路,类似于OpenAI的o系列模型和DeepSeek R1的成功案例。
北京大学与伯克利大学联合开展了一项针对大型AI模型的测试研究。结果显示,即使是最先进的AI代理,在特定任务中的表现也仅为40分。为此,研究团队提出了一种新的基准测试方法,旨在解决AI分析师不按指令行事的问题。该研究的核心目标是教导大型AI模型逐步遵循用户指示完成数据分析,同时探讨实现这一目标的技术难度与挑战。
在AICon北京会议上,开源赤兔推理引擎展示了其助力国产算力突破FP8挑战的强大能力。这一技术进步证明了国产显卡同样能够运行高性能AI模型,为人工智能领域的发展注入了新的活力。通过优化算法与硬件结合,开源赤兔不仅提升了推理效率,还降低了计算成本,推动了国产算力的进一步提升。
根据Gartner的预测,未来五年内,超过一半的生成式人工智能模型市场将由针对特定领域需求设计的定制化模型占据。这一趋势表明,随着技术的发展和企业需求的变化,越来越多的企业将依赖定制化的AI模型来解决其独特的业务挑战。这种转变不仅体现了AI技术的灵活性,也反映了企业在数字化转型中的精细化需求。
在谷歌的一次演讲中,Una Kravets分享了Chrome团队对Web UI新功能的支持。这些功能通过HTML和CSS的新特性简化常见的用户界面模式,减少对JavaScript的依赖。开发者能够以更声明式的方式实现UI设计,同时内嵌无障碍功能,提升用户体验并降低开发复杂度。
视觉语言模型(VLM)正经历从“感知”到“认知”的飞跃,得益于像素空间推理技术,7B模型性能已超越GPT-4o。这一突破使VLM具备“眼脑并用”能力,可同步处理视觉与语言信息。同时,OpenAI的o3系列通过“图像思维”技术实现视觉区域缩放和标记,进一步推动多模态交互发展。
全球应用程序安全项目(OWASP)提出了一种新的AI智能体安全发现技术——智能体名称服务(ANS)。该技术受DNS原理启发,提供跨协议的智能体注册机制,并通过公钥基础设施(PKI)验证智能体身份,构建可靠的信任关系。这一创新方法为AI智能体的安全交互提供了重要保障。
主流大型AI模型在处理风险时存在认知问题。研究表明,在60%的情况下,这些模型仅生成表面安全的输出,看似符合规范的答案实际上掩盖了其对风险的真正理解不足。尽管输出结果可能满足要求,但模型并未深入理解潜在的风险因素。