我用Kimi翻译PPT,结果收到了一个陌生人的完整简历.
前两天刷到一个帖子,看得我后背发凉。
有个人用Kimi翻译PPT,就是很正常的操作——上传一张截图,让AI把上面的英文翻成中文。结果你猜怎么着?
Kimi先是说了一堆完全不搭边的话,什么减振技术,跟那个PPT八竿子打不着。那人以为是bug,就又试了几次。
然后Kimi突然冒出来一句:你上传的是一份简历。
紧接着,直接甩过来一个人的完整简历。
名字、电话、邮箱、工作经历、项目经历、核心业绩……一个不落,全都有。
那人吓坏了,赶紧按简历上的电话打过去。对方接了,一核对,还真有这个人。
那个人说,他当天上午确实在Kimi上传了自己的简历,让AI帮忙润色一下。
所以事情是这样的:
A上传了自己的简历给Kimi,让AI帮他改一改。B在做完全不相干的事情——翻译PPT——结果收到了A的简历。
就这么简单。就这么离谱。
更让人无语的是,事发之后Kimi那边的人的反应。
他们通过非官方渠道联系这位用户,上来就说“这是AI幻觉”。
你可能不关注AI,不知道什么叫“幻觉”。说人话就是:AI没有逻辑,会胡说八道,把不存在的事编得跟真的一样。
但这次不是“幻觉”。
有个AI公司的创始人说得挺到位的,他说:幻觉是在胡说八道,但这一次是说对了,但不该说。
有专家也说了,这是数据隔离失效、会话管理出问题了,一个用户的请求跑到了另一个用户那儿。
不是AI不懂事,是AI不该给你看的东西,它给了。
用户问Kimi的工作人员,能不能给个正式解释?
被拒绝了。
对方一直说只是极小概率事件,背后真正想表达的就是——很难再出现第二次,你不用担心。
怎么说呢?你要是给别人,他们不说这个话,我不一定慌。你这么一说,我更慌了。
一个小概率事件,被侥幸心理给盖过去了。说明背后应该有挺大问题的数据隔离缺陷,没有被正视,也没有被解决。
结果呢?用户在网上把事情一说,对方的态度始终没啥变化,就是不断联系用户本人,希望他删掉那个帖子。
自始至终,没有一个公开的、正式的回应。
没有说“我们错了,我们检查一下哪里出了问题”。没有说“影响范围有多大,有多少人受到了类似影响”。更没有说“我们打算怎么做,才能让这样的事情以后不要再发生”。
就只有一个又一个私下的电话,一个又一个“极小概率”的说法,还有一个又一个“你能不能把帖子删了”的请求。
这让人挺难受的。
说实话,这事让我想了很久。
我们每个人都在用AI。写邮件、润色简历、整理会议纪要、翻译文档……你觉得你在跟一个聪明的工具聊天,但你有没有想过,你说的每一个字、上传的每一份文件,背后是怎么被处理的?
你发给AI的东西,会不会在某个你完全不知道的时刻,出现在另一个人眼前?
对方说的是“极小概率”。但你猜怎么着?全球大模型隐私泄露事件已经超过一百起了。ChatGPT有过,Gemini有过,现在Kimi也有过。
这不是危言耸听。
更让人心里没底的是,事情已经发生了,你该相信谁?AI还是它的创造者?AI可以学得更聪明点,可它的创造者要不要更有责任心?
有个律师说了句话,我觉得挺在理的:AI不能作为免责的理由。用户协议里的“请谨慎上传敏感信息”,抹不掉平台应当承担的数据安全保护责任。
所以问题不在技术层面,而在于态度层面。
技术出问题了,错了就是错了,不就是丢人吗?但如果连承认的勇气都没有,那用户还能信你吗?
我真的希望AI变聪明。但我更希望,它的创造者,能学会诚实。
这不是一个技术问题,这是一个良心问题。
---
你怎么看?你还敢往AI里上传工作文件吗?
本文根据近期网络热点改编,请勿对号入座