上面第点的延伸没有企业愿意承担数据泄露的风险将自身的私域数
Posted: Mon Apr 21, 2025 10:27 am
第二缺乏对生成结果的可解释性。LLM大模型本身就是一个黑盒这个模型使用了什么数据进行训练对齐策略是怎么样的使用者都无从得知。所以对于大模型生成的答案更加难以追踪溯源。 第缺乏对专业领域知识的理解。
LLM大模型知识的获取严重依赖训练数据集的广度但目前市面上大多数的数据训练集都来源于网络公开数据对于企业内部数据、特定领域或高度专业化的知识大模型无从学习。因此大模型的表现更像是一个及格的通才但是在一些专业场景比如企业内部的业务流一个及格的通才是无法使用的需要利用企业的专属数据进行喂养和训练打造为优秀的专才。
第四数据的安全性。这是对上面第点的延伸没有企业愿意承担数 苏里南电话号码列表 据泄露的风险将自身的私域数据上传第方平台进行训练。因此完全依赖通用大模型自身能力的应用方案在企业场景下是行不通的。 第五知识的时效性不足。
大模型的内在结构会被固化在其被训练完成的那一刻但是当你询问大模型一些最新发生的事情则难以给出答案。 为了克服这些问题第一种方式是微调即Finetune。但是由于生成模型依赖于内在知识也就是各类参数的权重即使做了微调模型还是无法摆脱幻觉问题。
LLM大模型知识的获取严重依赖训练数据集的广度但目前市面上大多数的数据训练集都来源于网络公开数据对于企业内部数据、特定领域或高度专业化的知识大模型无从学习。因此大模型的表现更像是一个及格的通才但是在一些专业场景比如企业内部的业务流一个及格的通才是无法使用的需要利用企业的专属数据进行喂养和训练打造为优秀的专才。
第四数据的安全性。这是对上面第点的延伸没有企业愿意承担数 苏里南电话号码列表 据泄露的风险将自身的私域数据上传第方平台进行训练。因此完全依赖通用大模型自身能力的应用方案在企业场景下是行不通的。 第五知识的时效性不足。
大模型的内在结构会被固化在其被训练完成的那一刻但是当你询问大模型一些最新发生的事情则难以给出答案。 为了克服这些问题第一种方式是微调即Finetune。但是由于生成模型依赖于内在知识也就是各类参数的权重即使做了微调模型还是无法摆脱幻觉问题。