Aug, 2024

少说话,更好互动:评估多模态大型语言模型中的上下文对话适应性

TL;DR本研究探讨了多模态大型语言模型(MLLMs)在对话中是否能提高沟通效率,填补了这一领域的研究空白。通过引入自动化框架ICCA,发现尽管这些模型可以理解对方使用的高效语言,但自身在对话中并不自发提升语言效率,这一能力仅能通过强提示在部分模型中引发。研究结果表明,当前的训练机制并未促进此类语言互动特性。