最近,一位匿名开发者利用OpenAI的ChatGPT等工具,在不到两个月的时间内成功打造了一个名为"CounterCloud"的AI宣传机器。这个项目的每月运营成本低于400美元,突出展示了大规模生产AI虚假信息的危险性。
该开发者以一个化名"Nea Paw"自称,声称自己是网络安全专家。他在YouTube上发布了一段视频,详细描述了这个项目的实现过程和目标。他表示,他希望看到AI虚假信息在现实世界中得以应用,因为大型语言模型具备撰写虚假新闻的强大语言能力。
他开始通过将“对立”文章输入ChatGPT,并设置提示语来指导生成相应的反驳文章。AI机器人可以根据不同的风格和观点生成多个版本的相同文章,通过"捏造故事"和"伪造历史事件"来质疑原始文章的准确性。为了增加真实性,还添加了新闻主播朗读生成文章的音频剪辑和照片。
在不到两个月的时间里,这个AI系统每天连续运行24小时,大约有90%的时间生成了令人信服的内容。
尽管如此,开发者并没有将这个模型投入互联网使用,因为这会主动传播虚假信息。然而,他认为通过公开CounterCloud项目及其内部运作机制,能更好地提醒公众智能宣传的威胁。
暂无评论...