吧务
level 9
这个我在Copilot中也遇到过这种情况。这个原理我还不知道
2024年02月14日 01点02分
2
可能是decoder这里乱了吧,毕竟我也是按照知乎文章的指导,跟着GPT-4从零开始了解自然语言处理这些的
2024年02月14日 01点02分
吧务
level 9
今天,我又了解了一些关于Transformer模型的内容,我感觉Transformer模型生成回复的原理跟我们回答分析题的原理有点像。Transformer模型回答问题的过程就像是用户给他出了一道简答题“简述拉丁字母如何适应不同语言的细微需求”,Transformer模型回答的时候,根据被训练的知识(也相当于我们考前准备的背题过程背到的一些内容),开始答题,给你回复的过程就相当于进行答题,而且不允许划掉重写的那种。Transformer模型答题的时候写到了“某些语言的特殊因素或字母,可以添加特殊符号来表示”,(我认为这里回答的时候可以用法语中的ç这个字母来举例,当然,我不是搞语言研究的),然而,Transformer模型没背过这类题,不知道该怎么往后回答了,就卡壳了。实际上我们参加考试的过程中考前训练不足也会出现答了一半答不下去的情况。
说到底,应该是知识库训练不到位的问题。如果允许AI请求网上的知识(考试的时候,这当然是不允许的,但是AI是为了服务于广大人民群众的,肯定允许这样),然后AI基于他学到的答题模式,继续给你做好解答。
希望能有大佬能帮我们详细解答
2024年02月14日 07点02分
4
吧务
level 9
我还了解到“生成式对抗网络”(GAN),就相当于答题前先想好该怎么写,自己认为不符合答题规范,或者是考前看过的该怎么回答这个题的模式,就重新想下面的话该怎么说,然后继续作答这种吧。
我向GPT-4请教的时候忘记多说一句话了,感觉GPT-4的回答有可能会被我带偏,后来,我在网上亲自查阅相关资料,才知道GPT-4给我讲解的时候基本没被我的理解带偏。据了解,生成对抗网络还在生成文本任务的训练中也起到了一定的作用
2024年02月14日 07点02分
6