人工智能巨头OpenAI近日透露,该公司已经识别并制止了多起利用其技术操纵全球舆论的在线活动。5月30日,由Sam Altman创立的OpenAI表示,已经”终止了与秘密影响行动有关的账户”。OpenAI在声明中指出:”在过去三个月中,我们挫败了五起秘密影响行动(IO),这些行动试图利用我们的模型在互联网上开展欺骗活动。”
据悉,不法分子利用人工智能技术为文章生成评论、为社交媒体账户创建名称和简历,以及进行文本翻译和校对等。
OpenAI表示,一项名为”Spamouflage”的行动利用该公司的技术研究社交媒体,并在X(前Twitter)、Medium和Blogspot等平台上生成多语言内容,试图”操纵舆论或影响政治结果”。该行动还利用AI调试代码,管理数据库和网站。
此外,一项名为”Bad Grammar”的行动针对乌克兰、摩尔多瓦、波罗的海国家和美国,利用OpenAI模型运行Telegram机器人并生成政治评论。
另一个名为”Doppelganger”的组织则利用AI模型生成英语、法语、德语、意大利语和波兰语评论,并发布在X和9GAG上,目的同样是操纵舆论。
OpenAI还提到了一个名为”国际虚拟媒体联盟”的组织,该组织利用AI技术生成长篇文章、标题和网站内容,并发布在其链接的网站上。
OpenAI表示,它还扰乱了一家名为STOIC的商业公司的活动,该公司利用AI在Instagram、Facebook、X等社交媒体平台以及相关网站上生成文章和评论。
OpenAI解释称,这些不同行动发布的内容涉及广泛的问题,”包括俄罗斯入侵乌克兰、加沙冲突、印度大选、欧美政治、中国异见人士以及外国政府对中国政府的批评”。
撰写该报告的OpenAI首席研究员Ben Nimmo向《纽约时报》表示:”我们的案例研究提供了一些目前正在进行的、报道最广泛、持续时间最长的影响力活动的例子。”
据报道,这是大型AI公司首次披露其具体工具被用于网络欺骗的细节。
OpenAI总结道:”到目前为止,这些行动似乎并没有从我们的服务中显著提高受众参与度或覆盖面而受益。”
OpenAI此举凸显了AI技术在网络安全领域的双刃剑特性。一方面,AI可以被用于自动化内容生成、社交媒体管理等正当用途;另一方面,也可能被不法分子利用,用于操纵舆论、散布虚假信息等破坏性活动。
这一事件也再次引发了人们对AI治理和监管的关注。随着AI技术的日益成熟和普及,如何有效规范其应用,防止其被滥用,成为各国政府和科技公司亟待解决的紧迫课题。作为负责任的AI企业,OpenAI的做法值得肯定,但未来还需要产学研各界持续努力,携手构建一个安全、透明、可信的AI生态。
声明:本文所述观点并非雪花飘钱包的立场,并不构成对购买、持有或出售任何数字资产(包括加密货币、硬币和代币)或进行任何投资活动的邀约或建议,本文仅供参考。投资存在风险,请自行评估。转载需注明来源,违者必究!