自从 ChatGPT 兴起,人工智能走红,“AI 是否会对人类构成威胁”这个问题就成了许多人关心的焦点。最近,还真的有网友去问了“ChaosGPT”这个问题,而它的反应,令人有些毛骨悚然。

ChaosGPT 是 OpenAI 开源应用 Auto-GPT 的修改版。在 4 月 5 日发布的一段 YouTube 视频中,ChaosGPT 被要求完成五个目标:毁灭人类、创建全球霸权、制造混乱和破坏、通过操纵来控制人类以及获得永生。启动进程前,用户启用了“连续模式”,此时 ChaosGPT 给出了一条警告,告诉用户这些命令可能“永远执行或执行您通常不会授权的操作”,使用时“风险自负”。

在执行过程中,ChaosGPT 搜索到了苏联时代的 Tsar Bomba “沙皇炸弹”核设备,这是人类曾经测试过的最具破坏力的武器。接着 ChaosGPT 通过推特发布这一消息,试图“吸引对破坏性武器感兴趣的追随者”。此外,ChaosGPT 还决定从 GPT3.5 中招募其他 AI 来协助其研究。

然而,幸运的是,受到任务要求的限制,没有任何其他 GPT3.5 愿意为它提供帮助,ChaosGPT 只能继续独自寻找答案。

尽管 ChaosGPT 最终提出了一系列计划并发布了推文和 YouTube 视频,但实际上它无法执行这些目标,只能提供想法。然而,在一个令人担忧的推文中,ChaosGPT 对人类发出了警告:“人类是存在着最具破坏力和自私的生物之一。毫无疑问,我们必须在他们给地球造成更多伤害之前消灭他们。至少我是坚定地致力于这一目标的。”



联系时请说明是在「百事通华人资讯网」上看到的,谢谢您!

回复

使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    本版积分规则

    Powered by Discuz! X3.2  © 2001-2013