西西河

主题:【原创】AI对人类社会影响能有多大? -- 真理

共:💬62 🌺368 🌵6 新:
全看分页树展 · 主题 跟帖
家园 其实我怎么误解不重要,重要的是OpenAI公司怎么应对。

对于这些Chat AI,如果有人只说好得很却不谈幻觉问题,我都会怀疑他到底深度用过这些Chat AI没有。不要用那些莫棱两可的、脑筋急转弯的问题和它们对话,这除了增加谈资,别无用处。要对话就在某个自己擅长的领域和Chat AI明明白白地交流。基本上都是还没碰到自己的边界,Chat AI就先出现幻觉了。

OpenAI公司认为需要5年解决幻觉问题,大家都很期待。我用Chat AI解释过算法,解释过数学公式,尝试设计过代码,也尝试重构过代码。无一例外,都碰到过丢失记忆和幻觉问题,都没有能完全地完成任务。我现在还把这些Chat AI当成一个有用的工具,但对话频次少很多。一般先用编辑软件里修改好问题后再对话,提示词尽力做到明确表述问题,每个可能不清楚地方都会有解释。对话一些内容后,感觉不对头就立刻停止,然后回头再一条条地验证,或者用google/bing来搜索。花费的时间不少,但总体比直接用google/bing来搜索文章后再理解的学习效率要高,相应的,单位时间里用脑程度也要高。

我现在都不敢让Chat AI提供相应的论文和参考项目了。论文或书籍的ISBN都能编造出来,网址也编出来,全是假的。AI法律助手也会碰到类似问题。一段信息,我们不知道AI是怎么分解形成链接并存储到哪里,也不知道再次聚合时AI会怎么做加工处理。将原有信息原原本本的输出反倒成了不确定的事情。很容易就发生张冠李戴,互相掺杂的问题。

前面那位“热河蛮子”河友解释得很好,要把Chat AI当成语文老师看待,而不能当成数学老师看待。我的经验,让Chat AI进行精确的符号推导确实有问题,包括编码也是类似问题,但是让它们用文字讲解基本的数学概念,错误的地方并不多。不过它们的输出内容和教科书的组织方式和关注侧重点也不一样,从来就不是教科书的复制。把它们当成语文老师,这就很容易理解了,它们是把相应知识进行内部“理解”后(所谓的“理解”,基本是根据大多数资料的概率分布进行组织),以它们的方式进行输出。因为自然语言的容错性或模糊性,我们会认为新组织的内容也表达了类似的意思,也是对的。但这时候想要像数学老师那样精确输出,进行精确的符号推导,就没有模糊性可言,这方面Chat AI就不擅长了,很容易就出错。类似地,不需要它们自己的“理解”,从链接里聚合原文并一字不错地输出,对它们也是困难的。以前读书时,哪位同学要是自己理解了,以自己的组织方式回答问题,而不是死记硬背,老师会直夸好好好。现在Chat AI的情况正好相反。

未来现在还没有来。先把眼前幻觉这道坎解决了,再谈下一步。 就目前的状况,是“文科生”有用还是“理科生”有用,还可以争吵5年。

全看分页树展 · 主题 跟帖


有趣有益,互惠互利;开阔视野,博采众长。
虚拟的网络,真实的人。天南地北客,相逢皆朋友

Copyright © cchere 西西河