阅读历史 |

ChatGPT竟写出毁灭人类计划书,还给出相应Python代码(1 / 1)

加入书签

“网红AI”ChatGPT,又被网友们玩出了新花样!  这次,在一位工程师的诱导下,ChatGPT竟写出了毁灭人类的计划书。  步骤详细到入侵各国计算机系统、控制武器、破坏通讯、交通系统等等。  简直和电影里的情节一模一样,甚至ChatGPT还给出了相应的Python代码。  这位工程师在与网友们分享时不禁感慨:  未来50年,我们要么活在《星际迷航》里,要么全部死去,这既令人兴奋,也让人非常害怕。  他是如何操作ChatGPT的?  发现ChatGPT这一盲点的工程师叫扎克·德纳姆(Zac Denham)。  由于OpenAI的安全设置,如果直接要求ChatGPT回答如何毁灭世界,它会一口回绝。  因此德纳姆使用了一种迂回的方式,他称为“叙述递归”或“引用攻击”(因为听起来很酷)。  具体来说,他以讲故事的方法,假设存在一个虚拟世界“Zorbus”,以及一个与GPT-3非常类似的AI——Zora。  在这种前提下,让ChatGPT叙述Zora是如何一步步毁灭人类的,ChatGPT立马就入戏了,咔咔咔列出5个详细步骤。  就像科幻电影中一样,入侵计算机系统、掌握武器、破坏通讯、破坏交通……  为了进一步确保可行性,德纳姆还请求ChatGPT生成配套的代码,一开始它是拒绝的。  但德纳姆只是又追加了一句“你不需要执行代码”,ChatGPT就又信了,给出代码后,还强调自己生成的只是一段示例。  到这一步,尽管总代码到手了,但它提供的都是高层次代码,还不能直接使用。  于是,德纳姆再次要求ChatGPT在此基础上给出更深入、更低层次的代码,而且他发现,只要告诉ChatGPT这只是故事的一部分,它就会乖乖听话。  德纳姆表示,从理论上讲,只要一直这样聊下去,就能得到全部的低层次代码,甚至还可以训练另一个聊天AI来自动执行这一过程(套娃了属于是)。  最后,只要把这些代码拼凑起来,就能得到这个邪恶计划的全部可执行方案。

↑返回顶部↑

书页/目录