天津科技大学带你世界观是否会被颠覆跟随 ChatGPT 告别宇宙绕口令

我最近也入了一帮“言必谈 ChatGPT”的小伙伴,感叹于它的诸多应用场景,如何应用在学习和工作中提高效率等等问题已成了热门讨论话题。甚至在如何向 ChatGPT发出提问和对话等实践中,还衍生出了一门名为“Prompt Engineering”的新学科。 为了能够最大程度地发挥 ChatGPT 的价值,我在这里分享一下我对它的研究和理解,希望可以用大白话的方式探讨一下它的原理。 首先要了解的是 ChatGPT 和 GPT 的关系。简而言之,ChatGPT是一 kind of “产品”,而 GPT 是一种人工智能领域的大型语言模型 。 ChatGPT 可以提供自然语言对话的方式,与大模型进行交互,给出用户需要的答案。而大型语言模型,就是可以处理自然语言模型,并对它们进行建模,预测和生成。语言模型是一种可以处理文本数据的程序,能够针对自然语言(如中文、英文、日语等)进行处理,最厉害的地方在于基于之前给定的文本内容,预测接下来可能出现的文本内容。比如,我们使用手机输入法或者百度搜索的时候,输入“明天天气”,那么系统就可能会提示“明天天气怎么样”,这就是类似技术的应用。只不过,大语言模型用来学习和训练的数据量更大,能预测和生成的内容也更加丰富,可以直接生成一整段话甚至一篇文章。 关于 GPT 是什么意思,它的全称是生成式预训练转换器模型 (Generative Pre-trained Transformer)。虽然中文的翻译通常会把 Transformer 略过不译,但恰恰是“Transformer”的存在,使 GPT 与 一般自然语言模型区分开来,并且具有得到广泛应用的潜力。该图为 GPT 处理数据的基本框架。我了解到 Transformer 在电影中是「变形金刚」的英文名,但在自然语言处理领域中,它可以被理解为一种「变形转换器」。这种模型可以将我输入的文本内容转换为包含丰富维度信息的数学信息,以便计算机更好地理解我的意图,这样也就可以输出与我预期匹配度更高的内容。至于生成式预训练技术,它表示该模型除了基于输入自动生成内容外,还要在开发之前进行模型预训练,而不是实时计算。我可以理解为备考做真题。比如我在考试前做了10套真题,当我遇到做过的或者类似的问题时,我可以使用相同的思路得出答案。我的备考做真题过程就是「预训练」,而 GPT 与备考的不同之处在于它的训练数据是海量的互联网数据。以下图片展示了 GPT 的处理数据的基本框架。如果我想更快地抄作业,我可以参考这个开源库的指令示例合集 https://github.com/f/awesome-chatgpt-prompts/blob/main/prompts.csv,里面有许多例子,相信可以给我带来启示。同时,下面是一张图片,展示了该技术的处理框架。