VIST框架:视觉优化开启长文本处理新篇章
在NeurIPS 2025会议上,南京理工大学、中南大学与南京林业大学联合发表了一项突破性研究成果——VIST(Vision-centric Token Compression in LLM)框架。该框架通过视觉中心化的token压缩方法,显著提升了大语言模型处理长文本的效率,实现内存使用量降低达50%,同时减少token需求高达56%。这一创新与近期备受关注的DeepSeek-OCR技术理念相呼应,为长文本的高效推理提供了全新的视觉优化路径,标志着语言模型在资源效率与计算可扩展性方面迈出了关键一步。
VIST框架视觉优化长文本内存减半NeurIPS
2025-11-01
字节跳动再创新:Game-TARS通用游戏智能体的突破与挑战
字节跳动近日发布了一款名为Game-TARS的通用游戏智能体,标志着其在人工智能领域的又一重大突破。该智能体基于统一且可扩展的键盘和鼠标动作空间,利用超过5000亿个token进行大规模预训练,展现出卓越的人机交互能力,甚至在操作精度上超越了GPT-5。通过融合5000亿多模态标注数据,结合稀疏推理与衰减持续损失技术,Game-TARS显著提升了泛化能力和系统可扩展性,能够灵活应用于操作系统、网页及多种模拟环境。这一进展为通用智能体的发展提供了新的技术路径。
智能体字节跳动Game-TARS多模态预训练
2025-11-01
AI热点
1
2025-12-05
NEO架构:开启多模态智能新纪元

