“ChatGPT之父”关于人工智能有哪些新观点

2024-01-22 07:14 来源:新华每日电讯

  新华社瑞士达沃斯1月20日电(记者郭爽 陈文仙 陈斌杰)在瑞士达沃斯,美国开放人工智能研究中心(OpenAI)首席执行官萨姆·奥尔特曼无疑是炙手可热的“明星”之一。

  奥尔特曼被誉为“ChatGPT之父”。2022年11月,OpenAI推出大语言模型ChatGPT,掀起了生成式人工智能的热潮。近日在世界经济论坛2024年年会上,奥尔特曼发表了哪些关于人工智能的最新观点?

  人工智能会降低我们对彼此的关注吗?

  1997年,当IBM公司研制的人工智能系统“深蓝”击败国际象棋世界冠军加里·卡斯帕罗夫时,有评论员预测“这将是国际象棋的终结”,此后没有人会再费心看棋或下棋。

  但时至今日,“我们仍对人类所做的事情非常感兴趣,几乎没人观看两个人工智能对弈,”奥尔特曼说,他在读完自己喜欢的书后,第一件事就是了解作者的生活,“我想感受到与那个引起我共鸣的人之间的联系”。

  奥尔特曼说,人类始终在获得更好的工具,但有一点不会改变,那就是“今天我们仍然非常关注彼此”。

  需要担心人工智能取代人类工作吗?

  奥尔特曼认为,人工智能将对人类工作产生巨大影响。如今,人工智能已经成为“令人难以置信的生产力工具”,但尚未以经济学家担心的规模取代工作岗位。

  人类还能从事哪些工作?奥尔特曼以自己为例说,“我并不是人工智能研究人员,我的角色是弄清楚我们将做些什么,然后与其他人合作并实现目标。”他认为,未来,人类将在更高的抽象层次工作,也将获得更多能力。

  人工智能监管是好事情吗?

  奥尔特曼表示对人工智能技术实施监管表示欢迎。他认为各方在发展人工智能技术过程中“遵守高标准是件好事”,科技行业有责任将社会意见纳入诸如价值观和安全阈值等决策中,以保证收益大于风险。

  奥尔特曼强调,“应让社会和技术共同发展,构建这些(人工智能)系统时,应通过非常严格的反馈循环和路线修正使其逐步发展,在符合安全要求的同时提供巨大价值”。

  比技术更难的问题

  奥尔特曼指出,对人工智能进行“迭代部署”意味着社会可以逐渐习惯这项技术,并让“我们的机构有时间展开讨论,以弄清楚如何监管”。

  奥尔特曼认为, GPT-3和GPT-4在对价值观保持一致方面取得了“巨大进展”。但他认为,比技术更难的问题是:谁来决定这些价值观、默认价值观是什么、界限是什么?它在不同国家如何运作?用它可以做什么以及不可以做什么?“这是一个重大社会问题。”他说。

  AGI是不是“严重危害”?

  通用人工智能(AGI)是人工智能的重要研究方向。去年2月,奥尔特曼曾警告通用人工智能(AGI)的“严重危害”。在世界经济论坛上,奥尔特曼的态度有所软化。

  与微软首席执行官萨蒂亚·纳德拉对话时,奥尔特曼表示,AGI将是一个“令人惊讶的持续性事物”,“每年我们都会推出一个新模型,而且会比前一年好得多”。

  在另一场对话中,奥尔特曼认为,AGI可能会在“相当近的未来”得到开发,但“对世界的改变将比我们想象得要小得多,对工作的改变也比我们想象得要小得多”。

查看余下全文
(责任编辑:马常艳)
手机看中经经济日报微信中经网微信
当前位置     首页 > 新国际首页 > 要闻 > 正文
中经搜索

“ChatGPT之父”关于人工智能有哪些新观点

2024年01月22日 07:14   来源:新华每日电讯   

  新华社瑞士达沃斯1月20日电(记者郭爽 陈文仙 陈斌杰)在瑞士达沃斯,美国开放人工智能研究中心(OpenAI)首席执行官萨姆·奥尔特曼无疑是炙手可热的“明星”之一。

  奥尔特曼被誉为“ChatGPT之父”。2022年11月,OpenAI推出大语言模型ChatGPT,掀起了生成式人工智能的热潮。近日在世界经济论坛2024年年会上,奥尔特曼发表了哪些关于人工智能的最新观点?

  人工智能会降低我们对彼此的关注吗?

  1997年,当IBM公司研制的人工智能系统“深蓝”击败国际象棋世界冠军加里·卡斯帕罗夫时,有评论员预测“这将是国际象棋的终结”,此后没有人会再费心看棋或下棋。

  但时至今日,“我们仍对人类所做的事情非常感兴趣,几乎没人观看两个人工智能对弈,”奥尔特曼说,他在读完自己喜欢的书后,第一件事就是了解作者的生活,“我想感受到与那个引起我共鸣的人之间的联系”。

  奥尔特曼说,人类始终在获得更好的工具,但有一点不会改变,那就是“今天我们仍然非常关注彼此”。

  需要担心人工智能取代人类工作吗?

  奥尔特曼认为,人工智能将对人类工作产生巨大影响。如今,人工智能已经成为“令人难以置信的生产力工具”,但尚未以经济学家担心的规模取代工作岗位。

  人类还能从事哪些工作?奥尔特曼以自己为例说,“我并不是人工智能研究人员,我的角色是弄清楚我们将做些什么,然后与其他人合作并实现目标。”他认为,未来,人类将在更高的抽象层次工作,也将获得更多能力。

  人工智能监管是好事情吗?

  奥尔特曼表示对人工智能技术实施监管表示欢迎。他认为各方在发展人工智能技术过程中“遵守高标准是件好事”,科技行业有责任将社会意见纳入诸如价值观和安全阈值等决策中,以保证收益大于风险。

  奥尔特曼强调,“应让社会和技术共同发展,构建这些(人工智能)系统时,应通过非常严格的反馈循环和路线修正使其逐步发展,在符合安全要求的同时提供巨大价值”。

  比技术更难的问题

  奥尔特曼指出,对人工智能进行“迭代部署”意味着社会可以逐渐习惯这项技术,并让“我们的机构有时间展开讨论,以弄清楚如何监管”。

  奥尔特曼认为, GPT-3和GPT-4在对价值观保持一致方面取得了“巨大进展”。但他认为,比技术更难的问题是:谁来决定这些价值观、默认价值观是什么、界限是什么?它在不同国家如何运作?用它可以做什么以及不可以做什么?“这是一个重大社会问题。”他说。

  AGI是不是“严重危害”?

  通用人工智能(AGI)是人工智能的重要研究方向。去年2月,奥尔特曼曾警告通用人工智能(AGI)的“严重危害”。在世界经济论坛上,奥尔特曼的态度有所软化。

  与微软首席执行官萨蒂亚·纳德拉对话时,奥尔特曼表示,AGI将是一个“令人惊讶的持续性事物”,“每年我们都会推出一个新模型,而且会比前一年好得多”。

  在另一场对话中,奥尔特曼认为,AGI可能会在“相当近的未来”得到开发,但“对世界的改变将比我们想象得要小得多,对工作的改变也比我们想象得要小得多”。

(责任编辑:马常艳)

分享到:
中国经济网版权及免责声明:
1、凡本网注明“来源:中国经济网” 或“来源:经济日报-中国经济网”的所有作品,版权均属于
  中国经济网(本网另有声明的除外);未经本网授权,任何单位及个人不得转载、摘编或以其它
  方式使用上述作品;已经与本网签署相关授权使用协议的单位及个人,应注意该等作品中是否有
  相应的授权使用限制声明,不得违反该等限制声明,且在授权范围内使用时应注明“来源:中国
  经济网”或“来源:经济日报-中国经济网”。违反前述声明者,本网将追究其相关法律责任。
2、本网所有的图片作品中,即使注明“来源:中国经济网”及/或标有“中国经济网(www.ce.cn)”
  水印,但并不代表本网对该等图片作品享有许可他人使用的权利;已经与本网签署相关授权使用
  协议的单位及个人,仅有权在授权范围内使用该等图片中明确注明“中国经济网记者XXX摄”或
  “经济日报社-中国经济网记者XXX摄”的图片作品,否则,一切不利后果自行承担。
3、凡本网注明 “来源:XXX(非中国经济网)” 的作品,均转载自其它媒体,转载目的在于传递更
  多信息,并不代表本网赞同其观点和对其真实性负责。
4、如因作品内容、版权和其它问题需要同本网联系的,请在30日内进行。

※ 网站总机:010-81025111 有关作品版权事宜请联系:010-81025135 邮箱:

精彩图片
关于经济日报社关于中国经济网网站大事记网站诚聘版权声明互联网视听节目服务自律公约广告服务友情链接纠错邮箱
经济日报报业集团法律顾问:北京市鑫诺律师事务所    中国经济网法律顾问:北京刚平律师事务所
中国经济网 版权所有  互联网新闻信息服务许可证(10120170008)   网络传播视听节目许可证(0107190)  京ICP备18036557号

京公网安备 11010202009785号