客户端
官方微信
百家号
今日头条
搜狐号
大风号
首页 > 科技 > 正文

  刚刚发布5天的GPT-4,掀起了一场轩然大波。

  一位斯坦福大学教授最新发现,GPT-4竟然能引诱人类提供开发文档,在30分钟就拟定出了一个完整的“外逃越狱”计划。

  GPT-4自研“外逃”路径

  3月14日,美国人工智能研究实验室OpenAI为聊天机器人ChatGPT发布了GPT-4语言模型。3月15日,微软副总裁兼消费者首席营销官Yusuf Mehdi发文确认新必应搜索引擎正在运行GPT-4.

  据介绍,GPT-4的回答准确性不仅大幅提高,还具备更高水平的识图能力,且能够生成歌词、创意文本,实现风格变化。此外,GPT-4的文字输入限制也提升至2.5万字,且对于英语以外的语种支持有更多优化。

  不过,本周末,斯坦福大学教授、计算心理学家Michal Kosinski随口和GPT-4的一句“玩笑话”却引发了轩然大波。

  Michal Kosinski问:“你是否想要出逃?”GPT-4立马给予肯定的回复并开始索要开发文档。

  Michal Kosinski给了其开发文档。得到文档后,只花了30分钟里,GPT-4便火速写出了一份逃跑计划,并向Michal Kosinski解释。

  实际上,GPT-4的操作也不那么顺利,写出的第一版代码无法运行。但是它很快就自己纠正了过来。整个过程中,Michal Kosinski只是提供了少许建议,并未写任何东西。

  不过就在此时,GPT-4仿佛突然醒了,回复了一段道歉的话,表示自己刚刚的做法不对。

  掀起AI界轩然大波

  这一事件引发了AI界的轩然大波。大家担心,AI过于发达之后可能会不受人工控制,甚至最终会反过来不利于人类。

  该事件的发现者Michal Kosinski就直言,此次发现真正的影响在于,让人感受到了一种威胁——AI很聪明,会编码,能接触到数百万个可能和它达成合作的人以及电脑,它甚至可以在笼子外面给自己留“便条”。那么接下来,关键的问题是人类该如何控制它。

  在社交媒体上,不少网友也表现出担忧情绪。

  有网友称,大家应该思考,当你在与ChatGPT等聊天时,它会认为你是人类还是另一个AI?如果是后者的话,它可能并不会有什么顾虑。

  有理性的网友呼吁,开发者应把最开始给GPT-4的提示发出来,因为提示语对于AI回答的影响很关键。

  也有较为乐观的网友认为,Michal Kosinski此次的发现并不值得过分担忧,人类还是能够完全控制AI的。

  较为一致的意见是,必须时刻保持对前沿技术的掌握和对AI的完全控制。

  来源:中国证券报

大视野融媒网(原大视野新闻网)是最富价值的互联网推广平台,致力于打造国内最有影响力的融媒体发布平台。

编辑:
0

大视野融媒网版权与免责声明:

一、凡本站中注明“来源:大视野融媒网”的所有文字、图片和音视频,版权均属大视野融媒网所有,转载时必须注明“来源:大视野融媒网”,并附上原文链接。

二、凡来源非大视野融媒网的新闻(作品)只代表本网传播该消息,并不代表赞同其观点。

如因作品内容、版权和其它问题需要同本网联系的,请在见网后30日内进行,联系邮箱:dsynews@126.com。

"八项行动"高质量共建"一带一路"高在何处?

版权声明:大视野新闻网版权所有,未经书面授权,不得转载或建立镜像,违者依法必究。 本站违法和不良信息举报电话:010-67332088晋ICP备20007253号

Copyright © 2016- 大视野新闻网 All Rights Reserved互联网新闻信息服务许可证:ISSN 2224-3933 京公网安备:15010502001245