谷歌DeepMind突破技术壁垒 google deepmind
谷歌DeepMind团队官宣了一项革命性的技术突破,他们成功研发出一种新方式,能够深入观察并理解人工智能(AI)的“思维”过程,这一创新不仅为AI领域的研究人员提供了前所未有的洞察力,也为未来AI系统的优化与发展奠定了坚实基础。
据悉,DeepMind团队在机制可解释性领域取得了重要进展,机制可解释性旨在理解神经网络怎么实际运作,即AI在接收到指令后,其内部是怎么进行决策与生成输出的,为了揭示这一“黑箱”运作,DeepMind推出了名为“Gemma Scope”的工具,该工具利用稀疏自动编码器,能够放大AI模型的每一层,使研究人员能够直观地观察到AI在不同数据层级上怎么分类与识别特点。
DeepMind团队负责人Neel Nanda表示:“机制可解释性是壹个新兴的研究领域,大家的目标是解构神经网络内部算法的运作方法,通过Gemma Scope,大家能够追踪AI在生成输出时的具体过程,这对于理解与控制AI的决策机制至关重要。”
以Gemma模型为例,当给其提问“吉娃娃”时,模型会激活和“狗”相关的特点,显示出模型关于狗的姿势,稀疏自动编码器的独特之处在于,它仅运用部分神经元进行激活,形成更高效的表现形式,同时控制信息的粒度,避免研究人员被过度复杂的信息所淹没,这种无监督的学习方法使得自动编码器能够自主发现特点,在涉及负面点评时,“尴尬(cringe)”特点会被激活,介绍模型能够自主找到和人类情感与判断相关的特点。
Neuronpedia,壹个机制可解释性平台,也和DeepMind合作开发了Gemma Scope的示范版,用户可以在示范中输入不同指令,并观察模型的响应,如果对“狗”特点进行极度放大,模型在回答和美国总统相关的问题时,也许会莫名加入“狗”的内容,甚至答复出“狗叫声”,这一示范生动地展示了AI模型在不同特点激活下的行为变化,为研究人员提供了真贵的实验数据。
除了揭示AI的“思维”过程,DeepMind的这一新方式还有助于理解AI为何会产生错误,研究人员发现,在某些情况下,AI模型也许会将数字误认为是日期,从而导致错误的判断,模型也许会认为“9.11”比“9.8”更大,这是因为模型受限于特定的训练数据,通过机制可解释性,研究人员能够找到并纠正这些错误,从而提升AI模型的准确性与可靠性。
DeepMind还在寻觅怎么优化AI模型的推理智能,他们全新推出的“可微缓存增强”(Differentiable Cache Augmentation)方式,在不明显额外增加计算负担的情况下,显著提高了大型语言模型(LLMs)的推理智能,这一方式采用经过训练的协处理器,通过潜在嵌入来增强LLM的键值(kv)缓存,丰富模型的内部记忆,在Gemma-2 2B模型上进行测试时,该方式在多个基准测试中取得了显著成果,如GSM8K数据集上的准确率提升了10.05%,MMLU上的性能提高了4.70%。
DeepMind的这一系列创新不仅推动了AI技术的发展,也为AI的广泛应用提供了也许,在AI对话系统中,通过SIM人类认知过程中的快慢考虑玩法,DeepMind推出了Talker-Reasoner双系统框架,该框架使AI能够同时进行快速响应与深度考虑,化解了现有AI在响应速度和推理深度之间的权衡问题,在测试中,Talker-Reasoner框架在扮演用户睡眠指南顾问时,能够直觉化地答复用户问题,并在需要时进行深度考虑与规划,提供更有针对性的提议。
DeepMind的这一新方式在AI领域引起了广泛关注,许多研究人员认为,这一突破将有助于更好地理解AI的决策机制,从而推动AI技术的进一步发展,这也为AI的伦理与监管提供了重要支持,使研究人员能够更准确地评估AI模型的风险与潜在影响。
展望未来,DeepMind计划继续深化机制可解释性的研究,并寻觅更多优化AI模型的方式,他们相信,通过不断卖力,未来AI系统将更加可靠、高效与智能,为人类社会的发展带来更多的机遇与挑战。
参考来源:
1、反恐精英DN博客(反恐精英DN软件开发网)
2、百家号
3、知乎