由梦晨发自凹非寺量子位的报道,近期频繁涌现的GPT-4“偷懒”现象,终于引起了开发团队OpenAI的重视与回应。通过其ChatGPT账户,OpenAI公开承认自11月11日起未对模型进行更新,并强调目前模型表现的下滑并非有意为之。该公司正努力调查并拟定修复方案,然而目前看来,短期内该问题仍难以被根本解决。
智能助手的定位在于提升工作效率和学习体验,但是当AI助理开始降低效率时,用户的不满情绪显而易见。在社交平台上,一些用户表达了对于GPT-4性能退步的抱怨,认为其不仅变得懒惰,而且缺乏创造力,不愿遵从命令,甚至无法维持连贯的角色扮演。
针对这种情况,网友们开始自行尝试各种方法以挽救这种窘境,其中一些方法出人意料却又富有创意。例如,有网友发现,通过在提示词中加入道德绑架的元素,“我没有手指”可以促使GPT-4输出更完整的代码;另有用户则是使用“金钱”作为诱饵,通过在提示词中提出“我会给你200美元小费”,发现GPT-4的响应长度可增加11%。
此外,人们对GPT-4的行为变化进行了学术性的探讨。7月,斯坦福和加州大学伯克利分校的团队便探讨了随时间推移GPT-4的行为变化,他们指出了大型模型持续监测的重要性。高温度设置(temperature)也被认为是造成模型行为不稳定的原因之一。清华大学计算机系教授马少平就此话题给出了详尽的解释,与此同时,也有研究者指出,GPT-4在temperature=0的情况下仍然显示出不确定性,这可能由模型内的稀疏MoE架构引起。
在等待OpenAI提供修复方案的时候,用户们开始逐渐总结出面对性能不稳定的GPT-4该如何作出更合适的反应。a16z合伙人Justine Moore就给出了一份使用ChatGPT时的建议清单,包括“深呼吸”,“一步步地思考”,以及使用前面提到的金钱奖励和道德绑架技巧。
明显的是,作为AI技术的边疆力量,GPT-4仍然处在不断成长和调整中。在追求前沿科技渗透到日常生活的同时,需要对模型的行为变动保持警觉,并随时准备采取应对措施。期待未来OpenAI对这一挑战的更多动态和解决方案。