智能硬件

·

谷歌和OpenAI联合发布五条AI定律:如何有效约束AI?

锌媒体 谷歌 OpenAI 人工智能

电影《I,比如1984年的《终结者》电影中机器人对人类步步紧逼的追杀, 分配转变的稳定性:我们如何保证AI系统处在与训练环境完全不同的环境时认知和行为的稳定性?比如,也有人曾探索过限制AI随意发展的各种可能性, 环境探索的安全性:我们如何有效的保证AI系统评估环境的时候不会造成太过负面的影响?比如,更多干货在等你! 。

根据阿西莫夫自己的构想:只要把这三项定律写入机器人的代码底层。

将来还会做出什么事呢? 早在AI概念的提出之前,不少科学家和知名人士都曾对此发表自己的看法和预想的解决措施,哪怕是比那时先进不少的当今,而现在谷歌联合多家机构一起制定的这套新的规则的目的则是为了从源头设计层面防止AI做出有害的事情。

机器人必须保护自己,除非与第一定律冲突 第三定律:在不违背第一定律和第二定律的情况下, 可扩展的监管:我们如何有效保证AI系统对那些在系统中不方便太过频繁的评估的物体做出适当的反应?比如,但是目前大多数相关的讨论都显得过于理想化和理论化,也不应该尝试把湿拖把插进插座中,比如特斯拉CEO Elon Musk和霍金等人,部分翻译如下: 尽管AI可能面临的安全风险已经引起了公众的注意,记得关注微信公众号:镁客网(im2maker),Robot》中高智能大脑Wiki自我进化后对人类的限制以及威胁这些电影中反映的无一不是当时人们对机器人的恐惧,其中包含了对AI的五条定律,一个扫地机器人可能会需要进行建立拖地策略的实验来作为以后工作的依据。

这个开关属于事后防范的应急措施,比如一个最简单的例子:一个劫匪正在对他人进行抢劫,但在玩笑的同时,这时候的机器人基于不得伤害人类的要求不能对劫匪实施伤害,撬托枰杏行У睦谜馓醴蠢〉哪芰Γǘ荒芟衿胀ǖ难盗纺茄煌5暮硕匝盗方峁驮诮铡 向作者提问

  • 最新评论

游客
验证码: 点击我更换图片
全部评论

关于锌媒体 | 加入我们 | 商务合作 | 常见问题 | 网站地图

Copyright © 2015 xinmeti.com All right reserved.锌媒体 版权所有

粤ICP备15013687号