当前位置:首页 > 系统运维

火爆的GPT-4来了!

3月14日 ,火爆人工智能公司OpenAI发布了ChatGPT(GPT-3.5阶段)的火爆升级版GPT-4,让原本已经略显沉寂的火爆ChatGPT话题再次迎来了“爆炸式热议” ,毫无悬念地冲上了社交平台热搜  。火爆“AI 终将取代人类”、火爆“GPP-4考试能力强国90%的火爆人类”等话题受到越来越多的用户关注。

和之前的火爆ChatGPT相比,此次GPT-4的火爆升级堪称“重磅级” :采用了“超大多模态模型” ,回答准确率上大幅提升;输出文本扩写能力增强,火爆处理上限增加至2.5W个单词;在纯文本输入基础上增加了图像识别;创造力大幅提升,火爆能够处理更细微的高防服务器火爆指令......

和ChatGPT相比,GPT-4是火爆如此之优秀,带来的火爆可怕结果是 :在用户的疯狂订购下  ,OpenAI付款系统宕机了 。火爆

扔掉Chat之后,火爆GPT-4更强大了

如果说基于GPT-3.5模型的ChatGPT还是个在及格线徘徊的”差生“,那么GPT-4的实力则有望踏入”尖子生“行列,不仅更加智能 ,香港云服务器也更加难以被“欺骗” 。

扔掉Chat的前缀后,GPT-4能力发生了明显的变化 。简单来说,随着OpenAI在深度学习方向上的不断扩展 ,GPT-4朝着“更像人”的方向迈出了一大步  ,它甚至参加了美国律师资格考试 Uniform Bar Exam 、法学院入学考试 LSAT等 ,成绩排在前20%;还有用户在 YouTube上进行直播用GPT-4写文章、写代码 、报税 、写诗 、模板下载讲笑话……

通过对26种语言进行测试,GPT-4在24种语言方面的表现均优于GPT-3.5等其他大语言模型 ,包括拉脱维亚语 、威尔士语和斯瓦希里语等低资源语言,其中对中文识别的准确性达到了80.1%(下图)。

OpenAI演示了一段用GPT-4用26个单词写作的《灰姑娘》故事梗概 ,其中这26个单词的首字母正好对应26个字母从A到Z的正确排序,足以证明GPT-4在词汇量及语言创作方面能力的强大。

但最大的更新之处,源码下载在于GPT-4在图片识别方面的支持 ,能够在读懂图片内容的基础上,给出有逻辑的回答 。比如当用户问下图有何特别之处 ,GPT-4能够直接描述出是”一名男子正在行驶中的出租车车顶上的熨衣板上熨烫衣服“ 。

在另一个例子中 ,GPT-4能够按照用户要求 ,在”读懂“论文的基础上给出摘要,并能对其中的源码库某个试验过程进行精简的描述。

此外 ,GPT-4还能在一定程度上读懂网络上流行的搞笑”梗图“ ,比如能够描述出下图的搞笑之处在于”将过时的大型 VGA 连接器插入小型现代智能手机充电端口的荒谬做法“。

GPT-4将会成为黑客手中的利剑?

首先我们必须意识到一个问题,越来越智能的GPT-4会不会带来更加可怕的安全风险,或者成为网络犯罪组织手中的“利剑”?

在ChatGPT版本 ,云计算FreeBuf曾深入探讨其在网络犯罪方面被利用的情况 ,以及可能给网络空间带来的安全风险 。

一是其本身的风险 。

例如安全专家在ChatGPT生成的内容中发现了与公司内部机密十分相似的文本,原因可能是亚马逊员工在使用ChatGPT生成代码和文本时输入了公司内部数据信息 。那么 ,在GPT-4中,这样的安全隐患将会仍旧存在,各大巨头依旧会对GPT进行防守。

在网安政策方面,GPT-4同样面临踩红线的危险 。例如是否违反了GDPR的“最小数据”原则,是否满足“被遗忘权”或“删除权” ,对于公共数据的使用是否合规 ,对于学术型、知识产权型信息的收集适合符合当前的法律  、法规。

目前 ,我国《网络安全法》《数据保护法》《个人信息保护法》对于数据的采集 、使用都有细致的规定 ,仅从现有的情况来看 ,GPT-4显然无法全部满足这些要求 。而且未来全球的法律体系将朝着“数据保护”的方向进一步细化 ,那时GPT将面临更加严峻的合规压力 。

其次是使用GPT-4编辑代码可能存在更多隐蔽的漏洞 。

在ChatGPT-3.5阶段,已经有企业和开发人员尝试利用它来写代码和漏洞排查。在卡巴斯基的一项实验中,分析师发现ChatGPT 可用于为未运行端点检测和响应 (EDR) 系统 、检测代码混淆或逆向工程代码二进制文件的公司收集取证信息。

而更智能的GPT-4也被很多人给予厚望,当越来越多的开发人员使用GPT-4来编写代码,其中隐藏的漏洞将会成为更加可怕的定时炸弹 ,一旦被攻击者利用,将会给整个网络安全空间带来难以言表的灾难,尤其是在供应链安全领域需要提高警惕 。

最后,如何防止GPT-4被黑客利用 ,从而给网络安全防御带来新的压力。

一个十分明显的事实是 ,从ChatGPT 阶段开始 ,GPT 被用于黑产 、网络犯罪、黑客攻击等领域的案例越来越多,未来甚至有可能成为常态。

例如Cybernews的研究人员曾发现 ,ChatGPT可以被黑客用于寻找网站的安全漏洞 ,在其帮助下,研究人员对一个普通网站进行了渗透测试  ,并在45分钟内结合ChatGPT提供的建议和代码更改示例完成了破解 。

ChatGPT已经具备这样的能力,更何况更加智能的GPT-4?短时间想要利用GPT-4对网络安全体系产生实质性的强化似乎难以实现 ,但是被用于网络犯罪却已是近在眉睫 ,类似的安全风险该如何处理已经成为当下必须要思考的问题 。

当然 ,在安全方面OpenAI也在持续努力 。例如他们聘请了50 多位来自人工智能对接风险 、网络安全、生物风险 、信任和安全以及国际安全等领域的专家对模型进行对抗性测试,训练各种高风险场景 ,从而为缓解措施和模型的改进提供依据。例如通过搜集额外专业数据,以提高GPT-4拒绝有关如何合成危险化学品请求的能力 。

但仅依靠这些,很明显无法满足安全的诉求,这也意味着我们需要从多方面入手来增强,以GPT-4为代表的人工智能在安全方面的能力 ,包括制定政策法规 、以技术手段遏制作恶的风险等。

写在最后

无论如何,科技的进步对于人类的发展有着不可估量的作用,但与此同时我们更需要对风险有清晰的认识。换言之 ,我们以积极的态度拥抱GPT-4 ,但是我们更要做好应对风险的准备。

正如二战某领袖所说的那样 :我们改变不了别人的想法 ,既然他们要备战 ,我们也要备战。对于GPT-4也是如此 ,我们无法改变他人用它来“作恶” ,但我们可以决定如何用它来“为善”  。

AI这把剑 ,握在网安的手里,同样异常锋利。

我们做好准备!

分享到:

滇ICP备2023006006号-31