最近,网络安全公司Avast发出警告,有一款名为LoveGPT的在线工具体可能被用来进行自动化的假冒行为。这种行为指的是骗子使用虚假的社交媒体账号,与受害者建立联系并获取其个人敏感信息的行为。
LoveGPT这个工具本身是为了帮助用户在网上约会时制作更有吸引力的个人资料外貌和进行更动人的对话。但是Avast的研究发现,自从LoveGPT整合了OpenAI的GPT语言模型后,它也可能被骗子用来自动化假冒行为,规模化地在不同的约会平台上创建虚假账号,并以看似真实的语言与受害者互动。
根据Avast的报告,LoveGPT可以绕过验证码,隐藏其访问来源,自动创建大量虚假账号,收发电子邮件,并在约会网站上与用户互动。它使用GPT-3和GPT-3.5来生成描述个人资料的文字以及与用户的对话。这种基于语言模型的交互明显更具有人性化,更不难以骗过用户。
LoveGPT还可以根据不同约会平台的特点,调整提示词,来伪装成不同类型的用户,加上它具备的各种隐藏手段,让它看起来像一个正常的约会网站用户。这让LoveGPT是一个非常可疑的工具。
Avast警告说,像LoveGPT这样基于大型语言模型的聊天机器人,能够利用人们想要社交的需求进行欺诈。用户在网上约会时,应该谨慎对待刚认识的网友,即使对话看似真实,也不要轻易透露自己的个人敏感信息。
Avast建议用户保持高度警惕,不要因为聊天对话显得真实而轻易相信对方,因为可能是AI生成的内容。用户应小心保护自己的个人信息,谨防在网上约会中遭遇心机骗子。
总之,LoveGPT利用了OpenAI强大的语言模型GPT-3/GPT-3.5,具有生成真实自然对话的能力,这能够帮助骗子更好地制造假身份,在网上约会平台实施规模化的欺诈行为。用户需要提高警惕注意保护自己的隐私和资料安全。网络公司也需要对这种AI辅助欺诈行为给予足够的重视。