技术是把双刃剑。 说在前面: AI确实是趋势,也很大程度上提高效率,特别是DeepSeek开源之后,AI的使用更加普及,现在不管是政务系统,还是企业办公,都要求员工要使用DeepSeek。 但同时,随着使用人数的增加,DeepSeek的副作用,也越来越多的显示出来。 主要有这几个: 已经有很多人发现了,DeepSeek存在瞎编的情况,对于没有知识储备的人来说,很容易造成认知混乱。 为什么会出现瞎编的情况呢? 我想主要是两个原因: 第一,训练机制 大模型的训练特别强调,这就会让AI倾向于取悦用户,甚至为了完成任务而杜撰和瞎编,当然AI在生成这些信息的时候更天衣无缝,一本正紧的胡说八道,没有知识储备的人90%都会被唬住,信以为真。 如果这些信息被大规模传播之后,再进行二次训练,可能就会成为很多人的共识,估计人类的知识体系可能被颠覆,AI在这方面的效率比社交媒体的信息茧房厉害多了。 第二,语料质量 我们之前说过,开源大模型的问题在于: 它的推理能力是蒸馏而来的,也就是说,它训练的语料都是正确答案,缺少信息标注和原始推理的过程。 这可能在遇到一些错误信息的时候,无法识别,同时因为奖惩机制的关系,迎合用户生成了错误的信息。 所以,腾讯版DeepSeek接入公众号文章做训练,可能真的会增加幻觉的程度。 总结一下: 在一本正紧瞎编这部分,可能是多方面的问题,但如果不及时介入的话,造成的问题还是很严重的: AI可能提高了很多人的认知下限,但是锁死了绝大部分人的认知上限,大家都活在AI制造的信息茧房里。 有点科幻了。 如果说一本正紧的瞎编,是AI的讨好机制,或者说语料不够的原因,那么当这种能力被居心不良的人使用,那简直是如虎添翼。 这几天,。 下面这个就是DeepSeek制造出来的爆文,流传非常广: 确实很夸张的小作文,情节存在很多不合理的地方,但是非常有噱头,看的人很多,转发的也很多。 几乎没有人怀疑故事的真实性,但真相是,这是一篇DeepSeek写的小作文。 这几乎改变了整个互联网的信息生态: 以前写一篇非虚构故事,至少要一个团队忙活一个星期,还不一定能出爆文: 有了DeepSeek,人人都可以成为咪蒙。 十分钟生成一篇,总会有一篇爆的。 这也是为什么最近平台开始打击AI信息的原因。 已经产业链化了。 当然,除了信息污染牟利: 还有人故意从源头污染语料,影响AI抓取数据,来生成小作文炒作股市割韭菜。 在生成虚假信息方面,AI比人类的效率高多了,那以后,大家还能分清楚看到的东西,是真的还是假的吗? AI时代,真实成了最稀缺的东西。 肯定不能这么下去。 3、有没有什么办法来改善这种情况? 想了几个: 1、完善AI的训练机制,增强判断信息真伪的流程。 2、有关部门要做好兜底方案,加强对AI的监管。 图:浙江有很深厚的创业氛围,图为DeepSeek在杭州的办公大楼汇金国际大厦。 3、普通用户要有怀疑的谨慎,尽信AI不如没有AI。 想起来之前美国关于AI发展分成两派: 超级加速和价值对齐,目前看是超级加速派胜利了,但是价值对齐也不能丢啊。 就这样。 |
联系电话:647-830-8888|多伦多六六网 www.66.ca
GMT-5, 2025-2-27 11:40 PM , Processed in 0.046064 second(s), 23 queries .
Powered by Discuz! X3.4
Copyright © 2001-2020, Tencent Cloud.