完胜GPT-4,秒杀闭源模型!Code Llama神秘版本曝光_tiknovel-最新最全的nft,web3,AI技术资讯技术社区

完胜GPT-4,秒杀闭源模型!Code Llama神秘版本曝光

2023-08-27 23:00:58  浏览:185  作者:管理员
完胜GPT-4,秒杀闭源模型!Code Llama神秘版本曝光

Meta开源的Code Llama即将迎来大波二创,WizardCoder以73.2%的胜率碾压GPT-4。OpenAI员工爆出Llama 3能打GPT-4,仍将开源。

发布仅2天,Code Llama再次引爆AI编码的变革。

还记得Meta在Code Llama论文中出现的能够全面持平GPT-4的神秘版本Unnatural Code Llama吗?

大佬Sebastian在自己博客里做出解释:

是使用了1万5千条非自然语言指令对Code Llama- Python 34B进行微调之后的版本。

图片

Meta通过在论文里隐藏这样一条非常隐蔽的信息,似乎是想暗示开源社区,Code Llama的潜力非常大,大家赶快微调起来吧!

于是刚刚,基于Code Llama微调的WizardCoder 34B,在HumanEval基准上,直接打败了GPT-4。

图片

具体来说,WizardCoder以73.2%的胜率碾压GPT-4的3月份版本(67%)。

另外,WizardCoder 34B的性能超过了最新版本GPT-3.5,以及Claude 2。

图片

编程大模型WizardCoder,是由微软联合香港浸会大学在6月发布的。据称,微调的13B/7B版本即将推出。

英伟达顶级科学家Jim Fan表示,这基本上是「Unnatural Code Llama」的开放版本。

虽然基准数据看起来不错,但HumanEval只测试了窄分布,可能会过度拟合。自然场景下的数据测试才是真正重要的。编码基准需要重大升级。

图片

01

Code Llama神秘版本诞生?

周五,Meta正式开源了三个版本的Code Llama。

在HumanEval和MBPP基准图中,许多人发现了一个未在Meta官方中提到的版本——Unnatural Code Llama。

图片

这个神秘版本在HumanEval pass@1上取得了62.2%性能。

图片

而在今天公布的微调WizardCoder 34B在HumanEval pass@1上性能高达73.2%。

根据介绍,WizardCoder 34B是使用合成数据集Evol-Instruct对Code Llama模型进行微调的版本。

如下是和所有开源和闭源模型性能对比可视化。

图片

在和OpenAI模型比较中,研究人员指出GPT4和ChatGPT-3.5有两个HumanEval结果:

OpenAI的官方GPT4报告(2023/03/15)提供的结果分别是:67.0%和48.1%。而 研究人员使用最新的 API(2023/08/26)测试的结果是82.0%和72.5%。

图片

另外,研究人员强调,这个性能结果100%可重现!

图片

WizardCoder 34B的演示已经开放,任何人都可以对对其进行测试。

图片

有人指出了问题,过度拟合公共排行榜是开源模型在实际应用中举步维艰的主要原因之一。这里有一个例子,wizard-coder的数据准备使用HumanEval pass@1的分数来决定是否进一步发展数据集。仅针对测试集进行优化有违测试集的初衷。

图片

同样就在昨天,来自Phind组织的研究人员,微调Code Llama-34B在HumanEval评估中击败了GPT-4。

图片

02

ChatGPT与Code Llama对打

图片

Code Llama在实际的代码任务中表现到底怎么样?

有一位网友做了一个GPT-3.5和Code Llama Instruct-34B的对比测试。它通过Perplexity.AI提供的Code Llama 34B的访问服务进行了测试。

图片

它分别给两个模型喂了8个同样的代码任务,比较他们的生成代码的质量。

结果是GPT-3.5以8:5的优势取胜。

以下是具体的测试结果。

第一题

使用Python完成这个任务,给定两个字符串word1和word2。通过以交替顺序添加字母来合并字符串,从word1开始。如果一个字符串比另一个字符串长,请将附加字母附加到合并字符串的末尾。

最后输出合并后的字符串。

例如:

输入:word1 =「abc」,word2 =「pqr」 输出:「apbqcr」

图片

图片

GPT-3.5和Code Llama都能完成——1:1

第二题

使用Python完成这个任务,给定一个字符串 s,仅反转字符串中的所有元音并返回它。

元音为「a」、「e」、「i」、「o」和「u」,它们可以以小写和大写形式出现多次。

例如:输入:s =「hello」 输出:「ello」

图片

图片

GPT-3.5完成,Code Llama没有完成——2:1

第三题

使用Python完成这个任务,给定一个整数数组 nums,将所有 0 移至其末尾,同时保持非零元素的相对顺序。

请注意,您必须就地执行此操作,而不制作数组的副本。

例如:输入:nums = [0,1,0,3,12] 输出:[1,3,12,0,0]

图片

图片

GPT-3.5完成,Code Llama没有完成——3:1

第四题

使用Python完成这个任务,你有一个长长的花坛,其中有些地块种了花,有些没种。

但是,相邻的地块不能种植花卉。给定一个包含 0 和 1 的整数数组花坛,其中 0 表示空,1 表示非空,以及一个整数 n,如果可以在花坛中种植n 朵新花而不违反无相邻花规则,则输出true,否则就输出false。

例子1:输入:花坛 = [1,0,0,0,1], n = 1 输出:true 例子2:输入:花坛 = [1,0,0,0,1], n = 2 输出:false

图片

图片

两个模型都完成了——4:2

第五题

使用Python,给定一个输入字符串s,反转单词的顺序。单词被定义为非空格字符的序列。s中的单词将至少由一个空格分隔。

输出由单个空格按相反顺序连接的单词字符串。请注意,s可能在两个单词之间包含前导或尾随空格或多个空格。

返回的字符串应该只有一个空格来分隔单词。请勿包含任何额外空格。

例子:输入:s =「the sky is blue」 输出:「blue is sky the」

图片

图片

两个模型都完成了——5:3

第六题

使用Python完成这个任务,给定一个字符串s和一个整数k,返回s中长度为k的任何子串中元音字母的最大数量。

英语中的元音字母有「a」、「e」、「i」、「o」和「u」。例子:输入:s =「leetcode」,k = 3 输出:2

解释:「lee」、「eet」和「ode」包含 2 个元音。

图片

图片

两个模型都完成了——6:4

第七题

使用Python完成这个任务,给定一个字符串s,其中包含星号*。通过一次操作,你可以:在s中选择一个星号。

删除其左侧最接近的非星号字符,并删除星号本身。删除所有星号后输出字符串。例子:输入:s =「leet**cod*e」 输出:「lecoe」

图片

图片

GPT-3.5完成了,但是Code Llama没有完成——7:4

第八题

使用Python完成这个任务,给定一个表示每日温度的整数温度数组,返回一个数组答案,其中answer[i]是在第i天之后您必须等待的天数才能获得较温暖的温度。

如果未来没有一天可以这样做,则保留answer[i] == 0。例如:输入:温度 = [73,74,75,71,69,72,76,73] 输出:[1,1,4,2,1,1,0,0]

图片

图片

两个模型都完成了——8:5

针对两个模型的表现,这位网友认为这不算是一个严谨的研究,只是一个简单的测试,每次让模型再次生成代码时基本都能得到更好的答案,但是测试中没有。

所以测试的结论并不是最终两个模型的表现。

03

堪比GPT-4,Llama 3要开源

自Llama和Llama 2开元发布后,引爆机器学习社区ChatGPT平替热潮,各种微调模型泉涌而出。

OpenAI的研究人员Jason Wei称,在Meta GenAI社交活动上了解到,未来Llama 3和Llama 4也会开源。

我们拥有训练Llama 3和4的计算能力。我们的计划是让Llama-3和GPT-4一样好。哇,如果Llama-3和GPT-4一样好,你们还会开源吗?是的,我们会的。对不起,对齐工作人员。

图片

又一位网友称,Meta希望开源一个GPT-5级别模型,并且在AGI之前似乎一直坚持开源。

我想说清楚这意味着什么:没有死亡开关。

如果出了问题--一个智能体失控了,或者一个坏人把它武器化了--没有简单的方法把它关掉。它可以在任何小型集群上运行。这样就没有安全性可言了。

安全研究变得毫无意义。

人们为让人工智能系统诚实、一致、合乎道德等所做的所有工作都变得毫无意义。世界上的人工智能系统将朝着哪个系统能产生最大经济效益的方向发展,而不管它们有什么价值观或动机。没有护栏。任何人都可以随心所欲地改变人工智能的价值观或能力,无论好坏。

Prev Chapter:ChatGPT给出的癌症治疗方案充满错误信息

Next Chapter:如何避免AI带来的竞争性破坏

评论区

共 0 条评论
  • 这篇文章还没有收到评论,赶紧来抢沙发吧~

【随机内容】

返回顶部