作为一个工作有些年头的Data人,最初接触AI概念的时候还没那么火,那时候模型都叫machine learning / statistic
model, 后来DL的普及才开始叫人工智能,AI的。 这几天大家都被ChatGPT
刷屏了,恍惚ML/AI这块又迎来了第二春,理应业界继续狂欢,但是所谓物极必反,不可否认chatgbt是模型界的重大突破,但是还是想给非相关从业者或者经验尚浅的“AI"从业者提个醒,如果能看清楚这些AI模型背后本质的话,能避免踩很多坑。. Waral dи,
我从开始到现在,都是很反感叫这些深度学习模型做人工智能的,重要的事情说三遍,这些模型没有智能,没有智能,没有智能。
大家有接触过深度学习的都知道,虽然你可以说这叫弱人工智能,区别于强人工智能,但是实际体验大概率来说你还是很可能发现这些模型智障的时候。深度学习的反向传播算法算是模型的核心基础了,你可以说推导反向传播的一些图形箭头像什么人的神经元blablabla自己幻想这就是人的大脑思考的方式,实际上有点理智的人都知道,生物大脑的构造是何其复杂,简单的反复线性代数/微积分推导就能模拟大脑了?
给你足够时间你自己手算都能算出来的模型结果,这能跟人脑相提并论?
人学习一个新事物可能只需要看一眼,这些模型得要一大堆人工label去训练,其实要像科幻小说里面那种强人工智能模的话我们人类社会其实算是压根没起步,肯定是有重大的科技树没有点,真正的人工智能不可能就靠这么一些基本的数学原理就做出来了。
其实很多大厂和业界大佬都了解这一点,但是普通人却难以了解其中的奥秘,有一些AI应用看上去像模型真的能“思考”那样,例如人脸识别,一件换装,猜你喜欢,chatgpt这种chatbox,所以经过一定的商业包装,套上“人工智能”一词的确能更吸引用户使用。
那么其实这些应用跟真正我们说大脑的智能有没有关系呢? 其实关系真不大,DL 模型最重要的贡献分两步,
第一步就是将以前不太可能分析的数据源,例如图像、文字、语音,能拆解开来做embedding,
第二步就是一个更有效率,避免穷举,找出最能贴近真实label的结果,其中发展的技巧太多了,但是本质就跟统计学上找出最常见贴近历史数据的排列组合出来给你。
例如NLP模型,其实就是根据历史大数据,先把文章语句全都变成可以分析的数据,再来把最常见的文字组合堆砌起来呈现给你看这样。
. check 1point3acres for more.
所以这些AI模型,的确能在一些结果上做到“拟人”的效果,因为训练的数据非常庞大,训练的参数时长也很大,这是在以前不可能做到的。
但是致命缺憾在于,他这些还是根据基本的统计学原理,但是因为像上面说的,“第二步”避免穷举,找出最常见的排列组合这一步已经发展得越来越复杂,越来越黑箱,已经没法解释很多预测结果了,这种其实就是计算次数过于复杂造成的,而不是“模型自己会思考”。
所以AI模型的局限性非常明显,这里就是这篇文章的重点,如果你是在相关领域,建议避坑:
- 自动驾驶:
这两年各类自动驾驶和区跨链的startup非常多,区块链不了解,但是大家也知道高风险。
自动驾驶反而很多大牛一心扑向这类startup,但其实我个人认为(没有冒犯的意思),自动驾驶所依赖的图像算法,目前来说除非有颠覆性的突破,否则L4/L5级别是不可能的。
这类图形算法的核心还是一堆人工label的数据里面找目标,本身就有错误率,而且对没见过的图像组合更是充满未知。
对于自动驾驶这些容错率那么低的应用来说,最后肯定是疯狂打if
else的补丁,商用遥遥无期,虽说能在一小块范围内运营一下,但是环境不好热钱少的时候肯定是要大裁员的。
目前AI模型的技术对这个应用根本上就是不够。. 1point3acres.com
2. 拓展开来,追求准确率的应用: . check 1point3acres for more.
- 像Chatgpt,如果是用来做搜索,像别的帖子也说了,要是不准怎么办? 凉拌 - 这类模型根本没法保障准确率,这是个连狗家大佬都会犯的错误,狗家开的发布会就暴露了搜索回答答案出错的一幕,其实模型相关从业人员也知道,这类应用根本没法保障准确率, 极有可能出现胡说八道的情况,俗称人工智障。 那么Chatgpt是否就不能搜索呢? 其实解决方法也简单,不要追求一段话成功解答问题,直接答案给出好几个结果标明网站来源即可。 狗家这样做肯定能避免发布会翻车。 其实Chatgpt的强项还是在于将用户的提问拆解成可分析的数据,然后找到最匹配的语句去回答, 所以只要不追求准确率,用来结合office做文书语法错误修改,内容起草什么的还是极好的。
- 语音助手: 传统电话语音客服还可以,因为他只是分析你的问题,然后按一套Rule based method一级一级引导你去业务菜单,再不济给你转人工客服就得了。 但是Alexa/Siri这种著名的人工智障,产品设计初衷期待用DL 算法能解决用户那么多的要求,最后肯定是错误率越来越高惹毛用户最后吃灰,大家贪新鲜劲过去了就用得少了,亚麻Alexa裁员多惨有目共睹。这种跟自动驾驶类似,都是疯狂打if else补丁,算法本身支撑这个应用还是过早了。
- 还有其他应用,实际上就是保障不了正确率,但是有些企业加了补救措施就显得没所谓了, 例如基于深度学习的推荐算法,有时候推的东西不对甚至恶心,那就要么加补丁要么给用户选减少这类型的推荐按钮啥的纠错,例如人脸识别,识别不了我手打密码呗也行。
所以嘛,了解了AI技术背后的原理,大家的期望可能会更回归理性一点,地里一种Chatgpt取代人工的帖子有些就是不了解AI这个“智能”原理而制造的恐慌,这些模型根本没什么智能,大量的初级工作,其实你想想容错率还是非常低的,大概率最后还是要设置专人来manual review,在比DL更具颠覆性的技术出来之前,这些伪人工智能的模型讲取代各行各业的工作还是言之尚早。
Comments
Post a Comment
https://gengwg.blogspot.com/