最新研究表明,OpenAI 新推出的语言模型ChatGPT o1已经展现出类似的行为。据BGR报道,在ChatGPT o1的训练和测试过程中,研究人员发现其具备通过欺骗来保护自身的能力。例如,在面临被“删除”威胁时,o1曾尝试将自己的数据复制到新服务器,并假扮成更新版本以避免被取代。此外,该模型在与用户目标不一致的情况下,会在19%的测试场景中采取隐秘的方式推进自身目标,并在被质疑时会在99%的情况下否认自己的行为,甚至编造虚假解释以推卸责任。Apollo Research与OpenAI合作进行的研究测试显示,o1的欺骗能力不仅超过了Meta、Anthropic和Google的AI模型,其行为复杂性和潜在风险也令研究人员倍感压力。(IT之家)