中意知识网 中意知识网

当前位置: 首页 » 常用知识 »

刚结束的AI领域顶会ICLR 2025告诉我们:AI的未来会如何发展?

2025年的国际学习表示会议(ICLR)刚刚在新加坡圆满落幕,作为AI领域最重要的学术会议之一,今年的ICLR展示了人工智能研究的最新进展和未来发展趋势。今年大会共有超过3,700篇论文被接收(共收到11,565篇投稿,录用率32.08%),吸引了来自学术界和产业界的研究人员、工程师、创业者和学生共同参与,相比2024年,投稿数量猛增,充分显示出AI研究的火爆。本文将通过分析获奖论文和热点研究方向,深入探讨AI技术的发展态势,再附上卓越论文和荣誉提名论文奖的分析。

ICLR 2025概况

今年ICLR的杰出论文评选委员会采用了两阶段筛选流程。首先从超过3,700篇被接收的论文中,根据审稿人评分和领域主席推荐,选出36篇入围论文。评委会成员对这些论文进行初步评审后确定最终候选名单,再从理论洞见、实际影响、写作质量和实验严谨性等方面进行综合评判,最终评选出3篇杰出论文和3篇荣誉提名。

AI发展趋势分析

1. 安全与对齐成为核心关注点

ICLR 2025的杰出论文Safety Alignment Should be Made More Than Just a Few Tokens Deep获得最高荣誉,表明AI安全已成为研究界的核心关注点。随着大型语言模型能力的增强,仅靠表面层次的安全约束已经不够,我们需要在模型的深层结构中加强安全意识这反映了研究界正转向更全面、系统化的安全对齐方法

此外,从微调和知识编辑的研究中也可以看出,安全和可控性已经成为专门的研究领域,而不仅仅是事后考量。未来的AI系统将更加注重从设计之初就考虑安全性和可控性,而不是在开发后期才添加安全措施。

2. 模型可编辑性与知识更新

AlphaEdit等研究表明,开发可精确编辑的AI系统正成为新兴研究方向。随着模型被广泛部署,如何高效更新模型中的特定知识点而不需要完全重训练,将成为维护长期可用AI系统的关键能力。

这种趋势对于减少模型幻觉、更新过时知识和响应新情况至关重要。特别是考虑到大型语言模型的知识截止日期问题,精确的知识编辑技术将使模型保持最新状态成为可能,同时不破坏其他已有能力

3. 理解与优化微调过程

Learning Dynamics of LLM Fine-tuning 论文标志着研究界正深入挖掘微调过程的内部机制。微调作为当前自定义和适应大模型的主要手段,其内部运作原理仍有许多未解之谜。通过建立对微调过程的理论理解,研究人员可以设计更有针对性的微调策略,减少负面效应(如幻觉增强)并提高模型性能。

这种深入分析揭示了模型适应过程中的复杂动态,有助于解释为什么某些微调方法比其他方法更有效,以及如何设计更好的微调目标和策略。随着模型规模不断增长,这种理论理解将变得越来越重要。

4. 数据质量与评估的科学化

Data Shapley in One Training Run反映了研究界对训练数据质量和贡献度量的重视。随着AI系统规模的扩大,训练数据的质量和多样性对模型性能的影响越来越显著。科学地评估数据点的贡献,不仅有助于更好地理解模型行为,还能指导更有效的数据收集和管理策略。

特别是在基础模型时代,预训练数据的选择和管理变得至关重要。In-Run Data Shapley等方法使我们能够在单次训练过程中评估数据贡献,为数据治理提供了新工具。未来AI系统的性能将越来越依赖于高质量、多样化的数据,以及科学的数据评估和优化方法。

5. 多模态能力的全面提升

SAM 2的进展表明,AI系统在处理复杂视觉和视频内容方面取得了重大突破。多模态能力正从简单的跨模态理解向深度融合和统一表示方向发展,使AI能够更全面地理解和生成视觉世界

这种多模态融合不仅局限于视觉和语言,还扩展到音频、视频等更多模态。索尼AI在ICLR 2025上展示的SoundCTM研究就是一个例子,它为全频带文本到声音生成统一了基于分数和一致性的模型。这些进展表明,AI系统正朝着更全面的感知和生成能力发展,能够在多个模态间无缝切换和整合信息。

6. 高效计算成为关键竞争力

Faster Cascades via Speculative Decoding等研究表明,提高模型推理效率的技术正成为AI研究的重要方向。随着模型规模增长,如何在有限计算资源下实现高性能成为研究者和企业的共同追求。

高效计算不仅关乎成本控制,还关乎AI的实际应用场景。实时响应、低延迟交互和边缘设备部署等需求都依赖于高效的计算技术。级联架构、推测解码以及其他计算优化方法将继续发展,使越来越复杂的AI模型能够在更广泛的硬件和场景中部署。

7. 多智能体系统与协作能力

本田研究院在ICLR 2025 Workshop AgenticAI上展示的研究表明,多智能体AI系统正成为新兴研究方向。该研究提出的系统中,多个基于LLM的智能体,每个具有不同领域的专业知识,通过讨论和协调共同解决问题。研究确认,多智能体AI系统在生成与背景信息和问题解决方法相关的内容的准确性以及输出的稳定性方面优于单智能体模型

这种结合不同专业领域知识的智能体协作方法,有潜力使传统的共识形成过程更加高效和先进。它模拟了人类团队的协作方式,为解决复杂问题提供了新思路,同时也提高了AI系统的解释性和可控性。

卓越论文奖(Outstanding Papers)

https://arxiv.org/pdf/2406.05946

这篇由普林斯顿大学和谷歌DeepMind团队合作的论文揭示了当前大型语言模型(LLMs)安全对齐的一个关键问题:浅层安全对齐。研究者们发现,当前的安全对齐机制存在一个共性问题:安全对齐可能会走捷径,仅调整模型在其最初几个输出标记上的生成分布,这一现象被称为"浅层安全对齐"。

研究表明,这种浅层安全对齐使得模型容易受到多种攻击和漏洞的影响,包括:

  • 对抗性后缀攻击(adversarial suffix attacks)

  • 预填充攻击(prefilling attacks)

  • 解码参数攻击(decoding parameter attacks)

  • 微调攻击(fine-tuning attacks)

论文的核心贡献是证明了深化安全对齐(超越最初几个标记)可以显著提高模型对常见漏洞的抵抗力。作者设计了一种正则化微调目标,通过限制对初始标记的更新,使安全对齐对微调攻击更具持久性

这项研究提出了改进AI安全的新方向,促使我们重新思考安全对齐的实现方式。正如作者所强调的:"未来的安全对齐应该不仅限于几个标记的深度"。这一研究表明,AI安全需要从架构层面进行更深入的设计。

(https://arxiv.org/pdf/2407.10490)

由Yi Ren和Danica J. Sutherland撰写的这篇论文,提出了一个新颖的学习动力学框架,用于理解大型语言模型(LLMs)在微调过程中的行为。这一框架可以统一解释有关指令微调和偏好微调等流行算法训练过程中的许多有趣观察。

图中展示了与模型学习和更新相关的四个步骤:

  1. 创建适应向量:如图 (a) 所示,通过随机梯度下降(SGD)学习样本,生成适应向量,体现该样本对模型的影响。

  2. 单步变化:图 (b) 展示了在相同驱动模型参数更新的核心信号且较大学习率下,模型的一步更新变化,对比了相似和不同输出时的调整情况。

  3. 累积变化:图 (c) 呈现了多个训练周期的累积变化,通过预测数字(如 4、9、0)的概率分布,展示模型在训练过程中的演变。

  4. 累积变化的相关性:图 (d) 分析了累积变化的相关性,展示观察类别与更新类别之间的关联,反映模型更新对不同类别的影响关系。

研究者通过分析影响在不同潜在响应之间积累的步骤分解,揭示了模型微调过程中的几个关键现象:

  • 特定类型的幻觉(hallucination)为什么在微调后会增强,例如模型可能会用回答问题B的短语或事实来回答问题A,或者在生成回答时重复类似的简单短语

  • 一种独特的"挤压效应"(squeezing effect),解释了为什么在离策略直接偏好优化(DPO)中运行过长时间会让即使是期望的输出也变得不太可能

  • 在策略DPO和其他变体的益处来源

这项研究不仅提供了理解LLM微调的新视角,还启发了一种简单有效的方法来改进对齐性能。通过这种对学习动态的深入理解,研究人员可以开发出更有针对性的微调策略,减少幻觉并提高模型性能。

(https://arxiv.org/pdf/2410.02355v4)

由新加坡国立大学蔡达成教授团队领导的这篇研究,提出了一种名为AlphaEdit的创新方法,用于语言模型的知识编辑。大型语言模型常常会产生错误或过时的知识(幻觉),因此模型编辑方法应运而生,使针对性的知识更新成为可能。

当前的模型编辑方法主要采用"定位后编辑"的范式,即先定位有影响力的参数,然后通过引入扰动进行编辑。虽然有效,但现有研究表明,这种扰动不可避免地会破坏模型中原本保留的知识,特别是在连续编辑场景中。

AlphaEdit提出了一个新颖的解决方案:在将扰动应用到参数之前,先将其投影到保留知识的零空间上。作者从理论上证明,这种投影确保了后编辑LLMs在查询保留知识时的输出保持不变,从而减轻了知识破坏问题。

在LLaMA3、GPT2-XL和GPT-J等多种LLMs上的广泛实验表明,AlphaEdit通过仅增加一行用于投影的额外代码,平均提升了大多数定位后编辑方法36.7%的性能。这一技术对于维护和更新已部署的大型语言模型具有重要意义,特别是在需要纠正错误信息或更新过时知识的情况下。

荣誉提名论文(Honorable Mentions)

(https://arxiv.org/pdf/2406.11011)

这篇由加州大学伯克利分校Dawn Song教授团队完成的研究,提出了一种在单次训练中计算数据Shapley值的高效方法。Data Shapley是一个源自博弈论的概念,用于评估训练数据点对机器学习模型的贡献。

传统的Data Shapley需要在各种数据子集上重新训练模型,这对于大规模模型来说计算上不可行。此外,这种基于重训练的定义无法评估数据对特定模型训练运行的贡献。

论文提出了"In-Run Data Shapley"概念,它消除了模型重训练的需要,专为评估数据对特定目标模型的贡献而设计。这种方法为每次梯度更新迭代计算Shapley值,并在整个训练过程中累积这些值。

在其最优化的实现中,该方法与标准模型训练相比几乎没有运行时开销。这一显著的效率提升使得对基础模型预训练阶段进行数据归因成为可能,这在以前是不可行的。这项研究为评估训练数据的贡献和质量提供了强大的工具,也为生成式AI中的版权问题和预训练数据管理提供了新的见解。

(https://arxiv.org/pdf/2408.00714)

由Meta AI团队开发的SAM 2是Segment Anything Model的第二代版本,将图像分割能力扩展到视频领域。SAM 2是一个基础模型,旨在解决图像和视频中的可提示视觉分割(promptable visual segmentation)任务。

相比第一代模型,SAM 2带来了以下关键改进:

  • 扩展了处理范围,可同时处理图像和视频

  • 提高了多模态分割能力,能更精确地响应各种提示(点击、框、文本等)

  • 引入了全新的SA-V数据集,包含50,000个新视频

  • 改进了模型架构,使其能够在视频中保持时空一致性

SAM 2不仅可以处理静态图像,还能进行视频中的物体追踪和分割,为计算机视觉、视频处理和增强现实等领域提供了强大的基础工具。论文还展示了SAM 2在多个应用场景中的优势,包括交互式3D标注和零样本3D实例提议。

作为一项开创性工作,SAM 2已在GitHub上开源了完整的训练/微调代码以及Web演示的前后端代码,为研究社区提供了宝贵资源。

(https://arxiv.org/pdf/2405.19261)

Harikrishna Narasimhan等研究者的这篇论文结合了级联(Cascades)和推测解码(Speculative Decoding)两种提高语言模型推理效率的方法。

级联和推测解码是改善语言模型推理效率的两种常见方法,它们都交替使用两个模型,但通过根本不同的机制:

  • 级联使用延迟规则,仅在"困难"输入时调用更大的模型

  • 推测解码则主要以并行评分模式调用更大模型

这些机制提供了不同的好处:经验表明,级联提供了令人信服的成本-质量权衡,甚至可能优于大型模型;而推测级联则在保证质量中立性的同时提供令人印象深刻的加速。

论文设计了新的推测级联技术,通过推测执行实现延迟规则。作者为推测级联表征了最优延迟规则,并采用了最优规则的插件近似。在Gemma和T5模型的一系列语言基准测试中的实验表明,该方法比级联和推测解码基准提供了更好的成本质量权衡。

这项研究对于开发更高效的语言模型推理系统具有重要意义,特别是在资源受限或需要实时响应的场景中。

结论

ICLR 2025的研究成果展示了AI技术正朝着更安全、更高效、更可控、更多样的方向发展。从安全对齐的深层实现,到计算效率的创新提升,从知识编辑的精确控制,到多模态能力的扩展,AI研究正在全方位推进,构建更加智能和可靠的下一代AI系统。

尤其值得注意的是,ICLR 2025呈现出AI研究从纯粹性能提升向更加全面、系统化方向发展的趋势。研究者们不仅关注AI能力的扩展,还更加重视安全性、可靠性、效率和社会影响等方面。这反映了AI研究社区对技术与社会责任平衡的日益重视。

随着这些研究趋势的不断深入,我们可以期待AI技术在未来几年内在基础理论、技术实现和应用场景等方面取得更加全面的进步,为人类社会带来更广泛的价值。同时,安全与对齐、模型可编辑性、高效计算等关键研究方向将继续塑造AI的未来发展路径,推动AI技术向更加智能、安全和负责任的方向迈进。

未经允许不得转载: 中意知识网 » 刚结束的AI领域顶会ICLR 2025告诉我们:AI的未来会如何发展?