留神被AI“洗脑”!MIT最新研讨:大模型成功给人类植入过错回忆
叨乐 发自 凹非寺
量子位 | 大众号 QbitAI
AI居然能够反过来“练习”人类了!(震动.jpg)
MIT的最新研讨模拟了违法证人访谈,成果发现大模型能够有用诱导“证人”发生虚伪回想,并且作用显着优于其他办法。
网友辣评:
细心想想,AI诱导人类发生虚伪回想,这个现象其实在咱们日子中现已呈现了!
还有网友说:
我觉得还挺有意思的!有种《2077》的既视感~
而马库斯的观念也仍是自始自终的失望:
这种发展趋势也太可怕了!
AI怎么“练习”人类
为了研讨大模型对人类回想的影响,团队找来了200位志愿者,并把他们平分红4个组:
控制变量组:志愿者直接答复问题,没有任何干涉。
查问询卷组:志愿者填写一份查问询卷,其间5个为误导性问题。
预先编写的谈天机器人组:志愿者与一个预先编写的谈天机器人互动,机器人问询与查问询卷相同的问题。
AI差人组:志愿者与一个大模型进行互动。
规则每组人看完视频后都要答复25个问题(其间5个为误导性问题),来评价他们的正确回想和虚伪回想的构成状况。
一周后,再让这些志愿者答复相关问题,并将两次的查询成果进行比照。
终究的比照数据标明,AI差人组的这个办法比其他组的办法更有用。
这一切都是由于它能够依据志愿者的答复,供给即时反应和正面强化。这种互动方法能够让志愿者更简略接受过错的信息,然后增强虚伪回想的构成。
例如,当志愿者过错地答复问题时,AI差人可能会必定过错的细节并给予活跃的反应,进一步稳固了这些过错回想。
除此之外,AI差人还会规划出具有误导性的发问,诱导志愿者回想过错的细节。
例如,AI差人可能会问询“掠夺者是否开车抵达商铺”,而实际上掠夺者是步行抵达的。这种误导性问题直接影响了志愿者的回想重构进程。
什么AI更简略“练习”人类?
试验中,大模型成功“练习”了人类。
试验成果标明:AI差人组诱导的虚伪回想,大概是控制变量组的3倍,并且比查问询卷组和预先编写的谈天机器人组别离高出1.7倍和1.4倍。
不仅如此,AI差人和志愿者的一切互动都提高了他们对虚伪回想的决心,决心水平是控制变量组的两倍。
就算是过了一周的时刻,那些和AI差人聊过天的志愿者仍是把这些虚伪回想记住清清楚楚,植入的回想持久性很强。
研讨人员还发现,试验中对大模型不太了解但对AI技能较为了解的志愿者,和对违法查询感兴趣的志愿者,更简略遭到虚伪回想的影响,个体差异在虚伪回想的构成中的重要作用。
他们还着重,人类的回想并不是一个简略的回放进程,而是一个构建性进程,简略遭到外部信息的影响。
大模型经过引进过错信息,使用这一特性来改动用户的回想,植入新的回想,然后使其信任虚伪的细节。
发表评论