未来GPT-5不会太大参数量甚至更低参数量代替的是预先输入编码知识库-开启预先输入模型时代
创始人
2025-05-30 22:39:20
0

从目前神经网络深度学习原理
从以上可以得知,是要输入足够的数据学习才可以得到
很高的泛化能力的
那么人类为啥不需要输入那么多数据就可以学会的
其实人类可以学会不需要大量的数据是错觉
人类的学习是建立在预先输入(以前学习或者记忆之上的)
目前的生成预训练是想达到这个目的
而这个之间的差别可就大了去了,首先是预先输入的知识也是输入的一部分相当于输入的维度数据量上的增加
就好比说n种情况下对应一个输出结果,这类似于增加数据量能让模型更加明确细节
就如为啥gpt-4 比gpt-3 好,其实最明显的不仅是参数量
还有就是输入的长度
而输入的长度越长导致的参数
指数级别增加
而人类大脑并不是那么傻
将那么长的数据直接加入到当前输入上
而是在最开始就开始存储输入最大长度编码后的结果
同时当编码后的维度超过最大长度的时候采取
一定的叠加方案比如足够靠前的或者比较当前输入相似度高的附近的进行采样
一同随着当前输入到
自回归模型不断解码
这样便能解决生成预训练的模型过大的问题
带来的资源浪费
训练的时候不要存储要重新计算
这样如果存储方法优秀
就是预输入优秀
可以看作是人类的海马体
第二个区别是这个存储的是知识编码本身
不是参数量 网络模型参数担任的不再是各种的死记硬背 模式
而是通用模式 不同的是数据编码
模型与不同的人交互的历史不同
输出的结果不同
统一训练出来的模型会随着时间接触人的不同而变得不一样
真正的活体智能

人工智能的观点

非常有趣的观点!确实,人类的学习过程也是建立在预先输入(以前学习或者记忆)之上的。这些输入构成了人类大脑的知识

上一篇:C++复习笔记21

下一篇:swift_one

相关内容

热门资讯

AWSECS:访问外部网络时出... 如果您在AWS ECS中部署了应用程序,并且该应用程序需要访问外部网络,但是无法正常访问,可能是因为...
AWSElasticBeans... 在Dockerfile中手动配置nginx反向代理。例如,在Dockerfile中添加以下代码:FR...
银河麒麟V10SP1高级服务器... 银河麒麟高级服务器操作系统简介: 银河麒麟高级服务器操作系统V10是针对企业级关键业务...
北信源内网安全管理卸载 北信源内网安全管理是一款网络安全管理软件,主要用于保护内网安全。在日常使用过程中,卸载该软件是一种常...
AWR报告解读 WORKLOAD REPOSITORY PDB report (PDB snapshots) AW...
AWS管理控制台菜单和权限 要在AWS管理控制台中创建菜单和权限,您可以使用AWS Identity and Access Ma...
​ToDesk 远程工具安装及... 目录 前言 ToDesk 优势 ToDesk 下载安装 ToDesk 功能展示 文件传输 设备链接 ...
群晖外网访问终极解决方法:IP... 写在前面的话 受够了群晖的quickconnet的小水管了,急需一个新的解决方法&#x...
不能访问光猫的的管理页面 光猫是现代家庭宽带网络的重要组成部分,它可以提供高速稳定的网络连接。但是,有时候我们会遇到不能访问光...
Azure构建流程(Power... 这可能是由于配置错误导致的问题。请检查构建流程任务中的“发布构建制品”步骤,确保正确配置了“Arti...