作者私密文章,无浏览权限
因版权限制,过往内容只提供给老鸟级别及以上用户访问
QQ好友
微博
微信好友
QQ空间
复制链接
随着人工智能技术的迅猛发展,科学家也开始担忧人类未来会不会被快速成长的人工智能所反噬。
著名科学家霍金在最近的一场研讨会上的表示,人工智能会在未来100年内淘汰人类,而人类所要做的就是从现在开始扼杀掉人工智能的“独立思考”能力,让其无法自我进化,彻彻底底的为人类服务。
说到这里我们有必要重新提一下1940年由科幻作家阿西莫夫所提出的“机器人三原则”:
1、机器人必须服从人类的命令;
2、机器人不得伤害人类;
3、机器人必须保护自己。
【本文结束】如需转载请务必注明出处:快科技
责任编辑:
支持0人
反对
打赏
手机扫码下载
支持Android/iOS/iPad
爆料群
爆料1群
打开微信扫一扫 扫描入群,加入爆料