GPT-4:OpenAI的多模态语言模型
GPT-4模型预计将于2023年3月17日公布,参数达到了3.5万亿,创造了新的人工智能语言生成纪录。
GPT-4是OpenAI开发的第四代大型语言模型,将是一个多模态模型,将提供完全不同的可能性,例如文字转图像、音乐甚至视频。GPT的全称是Generative Pre-trained Transformer,是一种使用人工神经网络的深度学习技术,能够使机器像人一样聊天交流并进行创作。
GPT-4是建立在GPT-3之上的,GPT-3于2020年5月发布,迅速成为使用最广泛的自然语言处理模型之一。GPT-4比GPT-3更大更强,能够更准确、更流畅地处理和生成文本。
在GPT-4之前是GPT-3.5,由该模型开发的聊天机器人ChatGPT一经面世,便引爆了AI界的军备竞赛。
多模态或成GPT-4最大亮点
多模态AI不仅可以将文本转化成相应的图像、音乐甚至是视频。微软AI技术专家Holger Kenn和Clemens Sieber对多模态AI的相关功能进行了介绍。根据Kenn的说法,多模态AI不仅能够将文本转化成相应的图像、音乐甚至是视频,还可以将电话呼叫的语音直接记录成文本,从而节省时间和成本。根据估算,该功能能为微软位于荷兰的一家大客户节省500个工作小时/天。这项技术已经发展到基本上“适用于所有语言”,也就是说“可以用德语提问,然后用意大利语得到答案”。
GPT的演变历史
在GPT系列模型推出之前,传统的NLP模型都是针对特定任务(如分类、翻译等)进行训练的,并且往往使用监督学习,这导致了两个问题:缺乏大量的标注数据,模型也无法概括和泛化任务。
GPT-1是OpenAI在2018年推出的,模型参数数量为1.17亿,通过未标注的数据训练出一种生成式语言模型,再根据特定的下游任务进行微调,将无监督学习作为有监督模型的预训练目标。
时隔一年后,2019年具有15亿参数的GPT-2出现。与GPT-1相比,GPT-2在结构上并没有太多创新与设计,使用了更大的数据集和更多的模型参数进行训练,以此强化并提高模型性能。
2020年,GPT-3的参数量翻了100倍,达到了1750亿,其预训练数据量也高达45TB。事实证明,海量参数确实让GPT-3具备了更强大的性能,它在下游任务表现得非常好。即便是复杂的NLP任务,GPT-3也表现出惊人的能力,可以模仿人类写作,编写SQL查询语句、React或JavaScript代码等。
2022年初,OpenAI推出了全新的InstructGPT模型,只有13亿参数,但效果比GPT-3更好。InstructGPT能根据用户的反馈数据进行训练。
ChatGPT是由GPT-3.5系列中的模型微调而成的聊天机器人。自从去年11月发布以来,ChatGPT迅速走红全球。根据Similarweb的测算,其访问量已经从1月的6.16亿达到了目前的超过10亿。
ChatGPT API是OpenAI在3月1日发布的,它是GPT-3.5-turbo模型的API,每1000个tokens仅售0.002美元,相当于每输出100万个单词,价格才2.7美元(约合18元人民币),比现有的GPT-3.5模型便宜10倍。
关于GPT-4,OpenAI的首席执行官Sam Altman近期接受媒体采访时直接否认了一些传言,比如GPT-4可能会使AGI有和人类一样的意识。Altman强调,GPT-4是一次进化,而不是一项革命性的技术。ChatGPT的下一个版本不会是AGI,也不会有100万亿个参数。但是,OpenAI的首席技术官Mira Murati认为,GPT-4可能会为人们拓宽发展机会。
总之,GPT系列模型是目前自然语言处理领域最强大的预训练语言模型之一,已经在NLP任务中取得了显著的成就。随着技术的不断进步,我们可以期待GPT-4带来更多的创新和突破,为AI技术的未来发展提供更多可能性。
评论 (0)