说明。此文是美国一名系统设计师发布的视频文字转录。原文是英文,我通过OpenAI的Whisper模型将音频文字转成英文,然后利用GPT-TURBO-3.5翻译成中文。这是我见到的对大语言模型通俗解释最好的文章之一,所以特别分享给朋友们。
我们来看一下ChatGPT是如何工作的。我们从制作这个视频中学到了很多东西,希望你们也能学到一些。让我们开始吧。ChatGPT于2022年11月30日发布,仅用两个月就达到了1亿活跃用户。而Instagram则花费了两年半的时间才达成同样的里程碑。这是历史上增长最快的应用程序。那么ChatGPT是如何工作的呢?ChatGPT 的核心是一个LLM(大型语言模型),默认使用 GPT 3.5 模型,也可以使用最新的 GPT-4 模型,但目前还没有太多关于 GPT-4 的技术细节可供讨论。
LLM 是一种基于神经网络模型类型,通过对海量文本数据进行训练以理解和生成人类语言,并利用训练数据来学习语言中单词之间的统计模式和关系,并预测后续单词逐个输出结果。
LLM 往往根据其大小和包含参数数量进行表征,在神经网络中有96层、1750亿参数规模为最大规格。
该模型输入和输出由标记组织, 标记是单词或更准确地说部分单词数值表示形式, 使用数字代替单词因为它们可以更有效地处理。
GPT 3.5 是在大量的互联网数据上进行训练的,源数据包含5000亿个标记。换句话说,该模型是在数千亿单词上进行训练以预测给定输入标记序列的下一个标记。它能够生成结构良好、语法正确且与其所训练的互联网数据在语义上相似的文本。但如果没有适当引导,则该模型也可能生成不真实、有毒或反映有害情感的输出。
即使存在这种严重缺陷,该模型本身已经非常有用,但只能以一种非常结构化的方式使用,并可以通过精心设计的文本指令或 PROMs 来教授执行自然语言任务。这就是新领域 PROM 工程学问产生之处。
为了使模型更安全并具备类似于聊天机器人式问题和答案功能,还需要进一步微调模型成为 Chat GPT 版本。微调是将不完全符合人类价值观念的模型转变为 Chat GPT 可以使用的精调版本过程, 称作来自人类反馈强化学习(LLHF)。
OpenAI 解释了他们如何对该模型运行 LLHF 的方法,但对于非 ML 专业人士来说
