2025.3.5
前言
年初,DeepSeek的爆火,算是点燃了大语言模型应用的第一炮,随后各类AI应用层出不穷,估计很快就要落实到实际生产上了。我也浅尝了一下,这玩意确实在写代码领域太有活了。以前要读api文档,然后不停的debug。现在好了,只要说了要求,代码不仅能给出草稿,还能不停按照要求进行精进,一个应用瞬间就开发好了…
LLM的能力对一些领域来说,绝对是革命性的。
我也准备步入职场了,这篇文章就好好理一理LLM对未来职场领域可能的影响,以及个人应该如何做准备。
大语言模型简介
LLM再如何超神,它的本质依旧是一个统计模型,做的任务很简单,即统计下一个词出现概率的模型。但是由于量变产生质变,导致LLM的智能表现非常之高,足以辅佐人类进行各种工作。
LLM的运行机理至今人类仍然没研究明白,人类只是仿照大脑神经元的链接结构,将一堆Transform密集连接了起来,最终产生了超出预期的效果。
现在的LLM几乎能通过对话的方式解决所有基础性问题,并且应用在了各种领域。我估计也不需要介绍了,因为确实大家或多或少都已经使用过了。
大语言模型的能力
1、超大知识库
网络中所有以文本形式记录的知识,几乎都会被当做语料来训练LLM;也就是说,LLM对文字记录的知识,都是精通的。简直就像一位上知天文下知地理贯通古今无所不学的超级学者,你可以向他提问任何问题,他总能给出高精确度的回答。
2、融会贯通
大语言模型也不止是依样画葫芦,它能“融会贯通”。有研究让大语言模型使用一个非常偏门的语言来绘制一个独角兽,这个研究是基于这样的假设:
-
由于语言非常偏门,因此网络上有关该语言绘制独角兽的文章(参考资料),要么并没有,或者非常稀少。
-
因此,LLM需要同时拼合两项知识:一是该语言绘制图形的代码知识,二是独角兽的基本结构。
实验结果证明,LLM它确实能绘出近似独角兽的形状,这证明了LLM对于知识的把握并不是仅仅复述而已,而是提炼出了更深层次的特征。
3、能接受相当程度的外部知识
在一次对话的上下文当中,LLM可以记住用户之前输入的信息,这就使得LLM帮助用户处理文档,管理数据等成为了可能。LLM可以像一位真实的助理一样,帮忙处理各种简单档案。
大语言模型的局限性
1、无法创新
基于LLM的底层训练机制是基于以前人类积攒下来的各类文本语料,因此有一个结论可以确定:大语言模型对知识的理解,都基于旧的人类已经产生的知识,因此不可能指望大语言模型可以提出某种颠覆式创新。
2、幻觉现象
什么是幻觉现象?
LLM(Large Language Model,大语言模型)的幻觉现象(Hallucination)是指模型在生成文本时,输出与输入不一致、不符合事实或逻辑的内容。这种现象通常表现为模型“编造”信息,生成看似合理但实际上并不准确或不存在的内容。
幻觉现象的主要表现:
-
虚构事实:模型生成的内容包含不存在的事件、数据或知识。例如,编造历史事件、虚构人物或错误引用研究结果。
-
逻辑错误:模型生成的文本在逻辑上不连贯或自相矛盾。例如,回答问题时前后不一致或给出不符合常理的结论。
-
过度自信:模型以高度肯定的语气输出错误信息,给人一种“权威”的错觉,但实际上内容并不准确。
-
脱离上下文:模型生成的内容与输入提示或上下文无关,偏离了用户的需求或意图。
目前从社区的反馈来看,即便先进如DeepSeek,也存在相当程度的幻觉现象。
一个比较经典的例子就是,如果你要求LLM一定要列出参考资料的网址,它给你的网址基本都是访问不了的。
当然,幻觉现象可以通过Prompt的合理设计进行规避,但是终究无法避免。因此,人类想要用好LLM,首先需要自身对知识有一定的了解与驾驭能力,否则就可能产生差错甚至是事故。
对个人的影响
1、又一个新的工具需要学习
这有点类似计算器诞生后,人类不应该和计算器比四则运算一样;现在时代的旋律,是人类终于从繁琐的查资料然后复现这种工作中脱身了。
计算器时代,比如说解一个方程,人类需要理解方程的解法,将方程化简后,将繁琐的数值计算交给计算器。
代码编程时代,解一个方程,只需要理解代码的底层工作原理,以及各类工具包的使用,人类可以不用自己化简方程,直接交予编程语言全权解决。
那么AI时代,人类写篇报告,查一些定理,只要自己能把握大方向,且有能力鉴别真伪,就可以将这些事情交付于AI,自己去投身更有意义的工作。
因此,理解LLM,掌握LLM的用法,将LLM应用于工作场景中,这是新时代的人类所必需面对的。
2、大局观大于细节
AI能帮助人类处理各种琐碎的事情,因此人就更需要着眼于问题整体,派遣AI处理劳力部分,节约人类的细节。
一个例子是,假设现在有一个需求是利用百度网盘API制作私人加密云盘,那么人要做的事情就是分析需求,确定项目架构,制定任务计划。至于API如何使用,交予LLM去读API文档;前端用什么做,交予LLM去寻找符合要求的前端;选定了前端,自己设计模块,交予LLM去实现…
简单来说,粗活累活交予LLM处理,人类完成更宏观的工作即可。这也要求人去学习更多高屋建瓴的、统领全局的知识点与方法论,并且避免去学习那种浅层的知识以免浪费时间。
3、辅助学习
LLM能够获取人类语料所触及到的所有知识,因此让它指导学习,会比查资料迅速的多,这点非常适合用以查漏补缺的情况。但是如果要系统的学习一门学问,还是上课阅读等传统学习方式为佳。
对于供应链可能的应用场景
说实话,我其实对供应链的了解甚微,作为一个还没进入社会的小屁孩,在这里高谈阔论供应链其实并不现实,所以这里可以当做我的胡思乱想,仅供扩展思路!
LLM的生产应用适配特征:
1、信息量有限:研究表明LLM能接收的上下文是有限度的,不能放入一个太大的语料环境进行诸如信息检索或者归纳之类的任务,如果确实有此类需求,就需要进行相关任务拆解。话虽如此,LLM同时处理几十个文档应该不在话下。
2、任务层级简单:网上有个很有趣的比喻:如果你不清楚这个活AI是否能做,那就使用你准备给AI的Prompt,指示让一个刚毕业的大学生来做同样的事情。如果大学生能做,那么AI大概率是能做。
另外,一个大型任务其实能分解成各种小型任务,这样一来可以尝试由我们分解业务逻辑,让LLM处理其中能处理的部分,从而提高生产效率。
以下举例一些设想:
1、作为供应链系统的助理
从目前LLM的应用范围来看,LLM作为一个文档助理的能力是十分强大的。对于律师行业,LLM能够帮忙检索各种法条;对于编程行业,LLM能够帮助程序员敲定代码框架,替代程序员去检索说明文档等。
供应链需要面对许多类似于检索资料,归档资料的任务,比如订货:
我现在需要一批新货,他的物料清单有A,B,C,其中A可以向a1,a2…等厂家订货,他们提供的A的质量和价格各有千秋…好的,让我调查一下a系列厂家,看看谁生产的好…
这些资料往往都在不同的渠道,比如订货软件中,比如生产商提供的一个清单中,比如一个网页中。往往我们需要获取这些资料,自己进行整理并进行对比。其中LLM能做的就很多了,比如整合多渠道信息到一个表格中,或者干脆代替你直接对多元渠道进行分析,给你筛选一个初步的清单,这样工作量就会少很多。
2、监视市场热点
LLM有能力结合现在的互联网内容进行分析理解,而服装行业非常重要的一点就是寻找爆款,然后提前做出足够数量的服装进行备货。然而互联网的风向,由于可变因素过大,信息结构复杂,几乎没有什么办法进行监视或者捕捉。
而这里的设想是,利用大语言模型对主要的几个社交平台的语料进行分析,捕捉可能的爆款。不过其实技术细节还有很多待考究,比如主流的媒体平台都拥有健全都反爬虫措施,如何获取语料?另外,给AI设计如何的Prompt,才能让他从复杂的语料中获取有关服装行业的信息?现有的联网搜索的技术细节,主要是利用搜索引擎的api,获取搜索前十几条网页的数据进行分析,其实文本量相当小,而监视市场舆论所需要的文本量肉眼可见的非常大,如何处理?
参考
【吴恩达】2024年公认最好的【LLM大模型】教程!大模型入门到进阶,一套全解决!附带课件代码-Generative AI for Everyone_哔哩哔哩_bilibili
【人工智能】万字通俗讲解大语言模型内部运行原理, LLM /词向量/Transformer/注意力机制/前馈网络_哔哩哔哩_bilibili
[文章导入自 http://qzq-go.notion.site/1ad49a7b4e7580b09515e084d8e90f89 访问原文获取高清图片]