Skip to main content

[职场感言] 火爆ChatGPT背后别忘了AI的本质 - 老年从业者吃瓜想法 |只看干货

 作为一个工作有些年头的Data人,最初接触AI概念的时候还没那么火,那时候模型都叫machine learning / statistic model, 后来DL的普及才开始叫人工智能,AI的。 这几天大家都被ChatGPT 刷屏了,恍惚ML/AI这块又迎来了第二春,理应业界继续狂欢,但是所谓物极必反,不可否认chatgbt是模型界的重大突破,但是还是想给非相关从业者或者经验尚浅的“AI"从业者提个醒,如果能看清楚这些AI模型背后本质的话,能避免踩很多坑。. Waral dи,

我从开始到现在,都是很反感叫这些深度学习模型做人工智能的,重要的事情说三遍,这些模型没有智能,没有智能,没有智能。
大家有接触过深度学习的都知道,虽然你可以说这叫弱人工智能,区别于强人工智能,但是实际体验大概率来说你还是很可能发现这些模型智障的时候。深度学习的反向传播算法算是模型的核心基础了,你可以说推导反向传播的一些图形箭头像什么人的神经元blablabla自己幻想这就是人的大脑思考的方式,实际上有点理智的人都知道,生物大脑的构造是何其复杂,简单的反复线性代数/微积分推导就能模拟大脑了? 给你足够时间你自己手算都能算出来的模型结果,这能跟人脑相提并论? 人学习一个新事物可能只需要看一眼,这些模型得要一大堆人工label去训练,其实要像科幻小说里面那种强人工智能模的话我们人类社会其实算是压根没起步,肯定是有重大的科技树没有点,真正的人工智能不可能就靠这么一些基本的数学原理就做出来了。


其实很多大厂和业界大佬都了解这一点,但是普通人却难以了解其中的奥秘,有一些AI应用看上去像模型真的能“思考”那样,例如人脸识别,一件换装,猜你喜欢,chatgpt这种chatbox,所以经过一定的商业包装,套上“人工智能”一词的确能更吸引用户使用。 那么其实这些应用跟真正我们说大脑的智能有没有关系呢? 其实关系真不大,DL 模型最重要的贡献分两步, 第一步就是将以前不太可能分析的数据源,例如图像、文字、语音,能拆解开来做embedding, 第二步就是一个更有效率,避免穷举,找出最能贴近真实label的结果,其中发展的技巧太多了,但是本质就跟统计学上找出最常见贴近历史数据的排列组合出来给你。 例如NLP模型,其实就是根据历史大数据,先把文章语句全都变成可以分析的数据,再来把最常见的文字组合堆砌起来呈现给你看这样。
. check 1point3acres for more.

所以这些AI模型,的确能在一些结果上做到“拟人”的效果,因为训练的数据非常庞大,训练的参数时长也很大,这是在以前不可能做到的。 但是致命缺憾在于,他这些还是根据基本的统计学原理,但是因为像上面说的,“第二步”避免穷举,找出最常见的排列组合这一步已经发展得越来越复杂,越来越黑箱,已经没法解释很多预测结果了,这种其实就是计算次数过于复杂造成的,而不是“模型自己会思考”。 所以AI模型的局限性非常明显,这里就是这篇文章的重点,如果你是在相关领域,建议避坑:


  • 自动驾驶: 这两年各类自动驾驶和区跨链的startup非常多,区块链不了解,但是大家也知道高风险。 自动驾驶反而很多大牛一心扑向这类startup,但其实我个人认为(没有冒犯的意思),自动驾驶所依赖的图像算法,目前来说除非有颠覆性的突破,否则L4/L5级别是不可能的。 这类图形算法的核心还是一堆人工label的数据里面找目标,本身就有错误率,而且对没见过的图像组合更是充满未知。 对于自动驾驶这些容错率那么低的应用来说,最后肯定是疯狂打if else的补丁,商用遥遥无期,虽说能在一小块范围内运营一下,但是环境不好热钱少的时候肯定是要大裁员的。 目前AI模型的技术对这个应用根本上就是不够。. 1point3acres.com


   2. 拓展开来,追求准确率的应用: . check 1point3acres for more.
  • 像Chatgpt,如果是用来做搜索,像别的帖子也说了,要是不准怎么办? 凉拌 - 这类模型根本没法保障准确率,这是个连狗家大佬都会犯的错误,狗家开的发布会就暴露了搜索回答答案出错的一幕,其实模型相关从业人员也知道,这类应用根本没法保障准确率, 极有可能出现胡说八道的情况,俗称人工智障。 那么Chatgpt是否就不能搜索呢? 其实解决方法也简单,不要追求一段话成功解答问题,直接答案给出好几个结果标明网站来源即可。 狗家这样做肯定能避免发布会翻车。 其实Chatgpt的强项还是在于将用户的提问拆解成可分析的数据,然后找到最匹配的语句去回答, 所以只要不追求准确率,用来结合office做文书语法错误修改,内容起草什么的还是极好的。
  • 语音助手: 传统电话语音客服还可以,因为他只是分析你的问题,然后按一套Rule based method一级一级引导你去业务菜单,再不济给你转人工客服就得了。 但是Alexa/Siri这种著名的人工智障,产品设计初衷期待用DL 算法能解决用户那么多的要求,最后肯定是错误率越来越高惹毛用户最后吃灰,大家贪新鲜劲过去了就用得少了,亚麻Alexa裁员多惨有目共睹。这种跟自动驾驶类似,都是疯狂打if else补丁,算法本身支撑这个应用还是过早了。
  • 还有其他应用,实际上就是保障不了正确率,但是有些企业加了补救措施就显得没所谓了, 例如基于深度学习的推荐算法,有时候推的东西不对甚至恶心,那就要么加补丁要么给用户选减少这类型的推荐按钮啥的纠错,例如人脸识别,识别不了我手打密码呗也行。


所以嘛,了解了AI技术背后的原理,大家的期望可能会更回归理性一点,地里一种Chatgpt取代人工的帖子有些就是不了解AI这个“智能”原理而制造的恐慌,这些模型根本没什么智能,大量的初级工作,其实你想想容错率还是非常低的,大概率最后还是要设置专人来manual review,在比DL更具颠覆性的技术出来之前,这些伪人工智能的模型讲取代各行各业的工作还是言之尚早。

Comments

Popular posts from this blog

OWASP Top 10 Threats and Mitigations Exam - Single Select

Last updated 4 Aug 11 Course Title: OWASP Top 10 Threats and Mitigation Exam Questions - Single Select 1) Which of the following consequences is most likely to occur due to an injection attack? Spoofing Cross-site request forgery Denial of service   Correct Insecure direct object references 2) Your application is created using a language that does not support a clear distinction between code and data. Which vulnerability is most likely to occur in your application? Injection   Correct Insecure direct object references Failure to restrict URL access Insufficient transport layer protection 3) Which of the following scenarios is most likely to cause an injection attack? Unvalidated input is embedded in an instruction stream.   Correct Unvalidated input can be distinguished from valid instructions. A Web application does not validate a client’s access to a resource. A Web action performs an operation on behalf of the user without checking a shared sec

CKA Simulator Kubernetes 1.22

  https://killer.sh Pre Setup Once you've gained access to your terminal it might be wise to spend ~1 minute to setup your environment. You could set these: alias k = kubectl                         # will already be pre-configured export do = "--dry-run=client -o yaml"     # k get pod x $do export now = "--force --grace-period 0"   # k delete pod x $now Vim To make vim use 2 spaces for a tab edit ~/.vimrc to contain: set tabstop=2 set expandtab set shiftwidth=2 More setup suggestions are in the tips section .     Question 1 | Contexts Task weight: 1%   You have access to multiple clusters from your main terminal through kubectl contexts. Write all those context names into /opt/course/1/contexts . Next write a command to display the current context into /opt/course/1/context_default_kubectl.sh , the command should use kubectl . Finally write a second command doing the same thing into /opt/course/1/context_default_no_kubectl.sh , but without the use of k

标 题: 关于Daniel Guo 律师

发信人: q123452017 (水天一色), 信区: I140 标  题: 关于Daniel Guo 律师 关键字: Daniel Guo 发信站: BBS 未名空间站 (Thu Apr 26 02:11:35 2018, 美东) 这些是lz根据亲身经历在 Immigration版上发的帖以及一些关于Daniel Guo 律师的回 帖,希望大家不要被一些马甲帖广告帖所骗,慎重考虑选择律师。 WG 和Guo两家律师对比 1. fully refund的合约上的区别 wegreened家是case不过只要第二次没有file就可以fully refund。郭家是要两次case 没过才给refund,而且只要第二次pl draft好律师就可以不退任何律师费。 2. 回信速度 wegreened家一般24小时内回信。郭律师是在可以快速回复的时候才回复很快,对于需 要时间回复或者是不愿意给出确切答复的时候就回复的比较慢。 比如:lz问过郭律师他们律所在nsc区域最近eb1a的通过率,大家也知道nsc现在杀手如 云,但是郭律师过了两天只回复说让秘书update最近的case然后去网页上查,但是上面 并没有写明tsc还是nsc。 lz还问过郭律师关于准备ps (他要求的文件)的一些问题,模版上有的东西不是很清 楚,但是他一般就是把模版上的东西再copy一遍发过来。 3. 材料区别 (推荐信) 因为我只收到郭律师写的推荐信,所以可以比下两家推荐信 wegreened家推荐信写的比较长,而且每封推荐信会用不同的语气和风格,会包含lz写 的research summary里面的某个方面 郭家四封推荐信都是一个格式,一种语气,连地址,信的称呼都是一样的,怎么看四封 推荐信都是同一个人写出来的。套路基本都是第一段目的,第二段介绍推荐人,第三段 某篇或几篇文章的abstract,最后结论 4. 前期材料准备 wegreened家要按照他们的模版准备一个十几页的research summary。 郭律师在签约之前说的是只需要准备五页左右的summary,但是在lz签完约收到推荐信 ,郭律师又发来一个很长的ps要lz自己填,而且和pl的格式基本差不多。 总结下来,申请自己上心最重要。但是如果选律师,lz更倾向于wegreened,