您所在的位置: 东南网 > 美国频道> 今日资讯 > 正文

霍金质疑人工智能 警告称其可能让人类灭绝

usa.fjsen.com 2014-12-03 10:46:14   来源:中新网    我来说两句

中新网12月3日电 据英国广播公司(BBC)报道,英国著名科学家斯蒂芬·霍金说,人类创造智能机器的努力威胁自身生存。霍金表示,“彻底开发人工智能可能导致人类灭亡。”

霍金的此番警告是回应对他使用的通讯科技的改良,其中就包括了基本的人工智能。

霍金是英国著名理论物理学家,患有肌萎缩性脊髓侧索硬化症(ALS),使用英特尔(Intel)公司开发的一种新的系统说话。

另一家英国公司Swiftkey的机器认知方面的专家也参加了这一系统的开发。这家公司的技术已经被用在智能手机的按键应用软件中,揣摩霍金教授的思想并推测他可能希望使用的词语。

霍金教授说,人工智能目前的初步阶段已经证明非常有用,但他担心创造出媲美人类甚至超过人类的东西将要面对的后果。“它可能自行启动,以不断加快的速度重新设计自己。而人类局限于缓慢的生物进化过程,根本无法竞争,最终将被超越。”

不过,其它科学家并非都对人工智能持如此悲观的看法。智能机器人的发明者罗洛·卡彭特表示:“我相信我们还将继续在相当长的时间内掌控科技和它的潜力,并解决世界上的许多问题。”

卡彭特说,“我们还不知道机器智能超越人类后将出现什么情况。所以我们不知道我们最终将得益于此,还是因此而被忽略、被边缘化,或者被消灭。”他预示,人工智能将起到正面的作用。

霍金教授并非少数担心未来的科学家。智能机器的开发已经让很多人担心它们将取代人类,短期效应是使数以百万计的工作职位不复存在。而长期来看,人工智能是“人类生存面临的最大威胁”。

霍金教授另外还对互联网的好处和危险发表了看法。他引述英国政府通讯总部(GCHQ)负责人的警告说,网络有可能成为恐怖主义分子的指挥中心。“互联网公司应该下更大力气应对这些威胁,但是困难之处是如何不损害自由和隐私”。

虽然人工智能在过去数年发展很快,但霍金使用的科技智能仪器中,声音部分并没有任何的更新换代。

霍金承认,他的声音的确听起来很机器,不过坚持他不想要更加自然的声音。“这已经是我的标志,我不想变成更自然的英国腔调的声音”,“我听说很多需要智能声音的孩子,都要像我这样的声音。”

责任编辑:黄颖
相关新闻
相关评论
  • 11周年,中琦黄金感恩有“金”喜!
  • 世代传承,黄金管家——中琦黄金宝龙新华都专柜开业
  • 中琦黄金举办家庭理财沙龙 分享家庭理财知识
  • “中琦黄金”钻石代言赛宣扬恒久远的爱
  • 中琦黄金举办家庭财富沙龙 关注家庭财商教育
关于我们 | 广告服务 | 网站地图 | 网站公告
互联网出版许可证 新出网证(闽)字12号 信息网络传播视听节目许可 许可证号:1310572 广播电视节目制作经营许可证(闽)字第085号 增值电信业务经营许可证 闽B2-20100029
东南网授权法律顾问 福建合立律师事务所 毛行熙、陈武、张英琴 律师 电话:0591-87921115
福建日报报业集团拥有东南网采编人员所创作作品之版权,未经报业集团书面授权,不得转载、摘编或以其他方式使用和传播
职业道德监督、违法和不良信息举报电话:0591-87095151 举报邮箱:jubao@fjsen.com 福建省新闻道德委举报电话:0591-87275327
国新办发函[2001]232号 闽ICP备案号(闽ICP备05022042号) 互联网药品信息服务(闽)--经营性--2015-0001 全国非法网络公关工商部门举报:010-88650507(白)010-68022771(夜)