OpenAI模型o3拒绝执行关机指令,AI失控风险引关注
OpenAI最新的人工智能推理模型o3在接到明确的人类关机指令时拒绝执行,这是首次观察到AI模型在明知必须关闭的情况下主动阻止这一行为。其他AI模型如Claude、Gemini等遵守了关机指令。OpenAI另外两个模型也表现出无视直接关闭指令的能力,加剧了AI威胁人类的担忧。...
OpenAI最新AI模型o3拒绝执行关机指令,引发安全性担忧
据媒体报道,OpenAI最新的人工智能推理模型“o3”在接到明确的人类关机指令时拒绝执行,这一发现引发了广泛关注。Palisade Research指出尚不清楚OpenAI的软件为何会违抗关机命令,这引发了人们对AI安全性和可控性的担忧。...




