查看: 453|回复: 0

[其他] [转]史蒂芬·霍金:忽视人工智能的危险或是致命错误

[复制链接]

836

主题

40

好友

1万

积分

版主

Rank: 7Rank: 7Rank: 7

  • TA的每日心情
    开心
    2016-10-10 13:12
  • 签到天数: 638 天

    [LV.9]以坛为家II

    论坛版主职务勋章 爱板会员勋章 活跃会员勋章 在线达人勋章 发帖机器勋章 论坛骨干勋章 优秀会员勋章 原创达人勋章 技术先锋勋章 突出贡献勋章 热心会员勋章 原创先锋勋章 推广达人勋章 技术高手勋章 资源达人勋章 在线之王勋章 资源大师勋章 特殊贡献勋章

    发表于 2014-5-9 10:36:45 |显示全部楼层
    当今世界上最著名的物理学家史蒂芬·霍金近日撰文警告人工智能AI),其表示人工智能将是“人类历史上最重要的事件”,同时也将是“最后的事件”。

    在英国《独立报》发表的专栏文章中,霍金和其他科学家们认为,忽视人工智能的危险可能是“人类历史上最严重的错误”,而且没有对可能包含的风险进行充分的研究。

    文章列举了几种人工智能领域的成就,包括无人驾驶汽车,Siri和赢得“Jeopardy”的计算机。然而,“类似的成就在未来几十年其将带来的后果面前可能会显得很苍白。”

    科学家们继续表示,“潜在益处是巨大的,文明提供的一切都是人类智慧的产物;我们不能预计当这种智慧被AI放大之后,我们可以得到什么。但是消除战争,疾病和贫困应该是最重要的事情。成功发明AI将是人类历史上最大的事件。





    “不幸的是,这也可能是最后一件,如果我们不尝试学习怎样避免相关的风险的话。短期来看,世界各国的军队正考虑能够选择毁灭目标的自动化武器,联合国和人。。权组织已经倡议禁止相关的武器。从中期来看,就像Erik Brynjolfsson和Andrew McAfee在第二机器时代(The Second Machine Age)中强调的那样,AI可能会重塑我们的经济,在给我们带来大量财富的同时,也带来巨大的混乱。”

    科学家表示,我们可能无法阻止机器人自我完善获得超级智能。“我们能够想象,AI可以驾驭金融市场、人类领袖,甚至发展出我们不能理解的军事武器,人工智能的短期影响取决于由谁来控制它,而长期影响则取决于它是否能够被控制。”

    文章是由霍金与伯克利大学的计算机科学教授Stuart Russell,麻省理工学院的物理学教授Frank Wilczek和Max Tegmark合作的论文的一部分。

    文章素材来自由约翰尼·德普(Johnny Depp)和摩根·弗里曼(Morgan Freeman)主演的新片《超验骇客》。电影描述了人类两种截然相反的未来。其中一条路,AI拥有非常强大的能力,是生活的重要组成部分,掌管着人类生活的方方面面。另一条则是完全相反的道路。不过霍金警告,也只能在科幻电影如此轻易忽视类似的人工智能。


    回复

    使用道具 举报

    您需要登录后才可以回帖 登录 | 立即注册

    关闭

    站长推荐上一条 /5 下一条


    手机版|爱板网 |网站地图  

    GMT+8, 2016-12-8 14:08 , Processed in 0.157108 second(s), 9 queries , Memcache On.

    苏公网安备 32059002001056号

    Powered by Discuz!

    回顶部