| 
 新書推薦:
 
  《 
			DK草药大百科
			》
 售價:HK$ 
			1367
 
  《 
			甲骨文丛书·英国人在印度:三百年社会史
			》
 售價:HK$ 
			806
 
  《 
			唯美手编.17,绚丽的春夏毛衫
			》
 售價:HK$ 
			250
 
  《 
			朱可夫回忆录:艰难的胜利
			》
 售價:HK$ 
			653
 
  《 
			儿童与青少年异常心理学(第四版)
			》
 售價:HK$ 
			1010
 
  《 
			积弊:清朝的中叶困境与周期感知(一部政治思想史力作,反思传统时代的王朝周期)
			》
 售價:HK$ 
			403
 
  《 
			江河回望:中国文化与人生价值  许倬云 著 许先生最后的凝望与嘱托 人文精神 中国文化内核
			》
 售價:HK$ 
			398
 
  《 
			从概念到思维——写给法科新生的12堂法学导读课
			》
 售價:HK$ 
			347
 
 
 | 
         
          | 編輯推薦: |   
          | 人工智能的安全性是当今人们广泛关注的热点话题。人们在享受人工智能技术给生活带来各种便利的同时,无时无刻不在担心人工智能技术可能会带来的各种风险。 本书就为读者答疑解惑,全方面、多视角地深入剖析人工智能安全这一主题,内容丰富精彩。
 本书由中国工程院院士方滨兴亲自主编,作者格局大、站位高,具有强烈的使命感、责任感,以全方位、多学科的研究方法,开创性地诠释了人工智能安全主题,使本书具有创新性、前瞻性、实用性。
 |  
         
          | 內容簡介: |   
          | 本书在简要介绍人工智能发展历程、世界各国人工智能战略规划之后,重点围绕人工智能安全主题,提出人工智能安全体系架构,讨论了人工智能助力安全、人工智能内生安全、人工智能衍生安全等相关内容,并深入研究了人工智能安全伦理准则。本书还详细分析了人工智能行为体及其可能引发的安全问题,提出了人工智能保险箍的解决方案,并给出了人工智能行为体的安全评估与检测方法。本书*后还探讨了人工智能的前沿技术,以及人工智能安全的未来发展趋势。本书适合人工智能及安全领域的研究人员、管理人员以及广大爱好者阅读。 |  
         
          | 目錄: |   
          | 目录 第1章人工智能技术发展概述
 11人工智能的研究方向及起源
 111人工智能的研究方向
 112人工智能起源
 12人工智能发展的三次高峰
 121人工智能第一次高峰
 122人工智能第二次高峰
 123人工智能第三次高峰
 13人工智能的三个学术流派
 131符号主义
 132连接主义
 133行为主义
 134关于三个学术流派的评论
 14人工智能第三次发展高峰的技术推手
 141深度学习的贡献
 142软件框架成为人工智能应用的推手
 143解决不同软硬件的适配
 144算力大幅提升的贡献
 145大数据的贡献
 146移动互联网与传感器的贡献
 15人工智能带来的巨大冲击
 151人工智能对经济的冲击
 152人工智能对社会的冲击
 153人工智能对人类思维的冲击
 154人工智能对教育与就业的影响
 155人工智能对隐私的冲击
 16本章小结
 参考文献
 第2章世界各国人工智能发展战略规划
 21美国人工智能发展战略
 211美国人工智能发展职能机构
 212美国人工智能发展战略
 213美国制订人工智能发展计划
 214美国人工智能监管政策
 22欧盟及英国人工智能发展战略
 221欧盟及英国的人工智能战略
 222欧盟人工智能发展计划
 223欧盟及英国的人工智能伦理原则
 224欧盟及英国人工智能立法及监管
 23其他一些国家人工智能发展战略
 231日本人工智能发展战略
 232俄罗斯人工智能发展战略规划
 233韩国、新加坡、加拿大、印度等国的人工智能战略
 24我国人工智能发展战略
 241我国人工智能发展的总体要求
 242我国人工智能发展的主要任务
 243我国人工智能产业发展的资源配置
 244我国人工智能发展的保障措施
 245我国人工智能发展的组织保障
 246我国人工智能人才培养政策
 25国内外人工智能标准研究
 251国际人工智能标准研究
 252中国人工智能标准研究
 26本章小结
 参考文献
 第3章人工智能安全概述
 31人工智能与安全的辩证关系
 32人工智能安全架构与分类
 321人工智能安全体系架构
 322人工智能助力安全
 323人工智能内生安全
 324人工智能衍生安全
 33人工智能安全所处位置及外部关联
 331人工智能安全性、可靠性和可控性的关系
 332人工智能安全与法律、政策和标准的关系
 333人工智能安全与伦理之间的关系
 334人工智能安全评测与防控
 34本章小结
 参考文献
 第4章人工智能助力安全
 41人工智能助力安全概述
 42人工智能助力防御
 421物理智能安防监控
 422军用机器人
 423智能入侵检测
 424恶意代码检测与分类
 425基于知识图谱的威胁猎杀
 426用户实体行为分析
 427垃圾邮件检测
 43人工智能助力攻击
 431自动化网络攻击
 432助力于网络攻击,提升网络攻击效率
 433助力于有害信息的传播
 434助力于虚假信息内容的制作
 435智能恶意代码
 436神经网络后门
 437对抗机器学习
 438智能工具被用于恶意攻击
 439助力自主武器研发
 44本章安全小结
 参考文献
 第5章人工智能的内生安全
 51数据安全
 511数据集质量影响人工智能内生安全
 512数据投毒可人为地导致人工智能算法出错
 513对抗样本成为人工智能内生安全的新关注点
 52框架安全
 53算法安全
 531算法的可解释性
 532对抗样本体现出人工智能算法缺乏可解释性
 54模型安全
 541模型存储和管理的安全
 542开源模型被攻击
 55运行安全
 551客观原因导致的运行安全问题
 552主观原因导致的运行安全问题
 56本章小结
 参考文献
 第6章人工智能衍生安全问题
 61人工智能系统失误而引发的安全事故
 611自动驾驶汽车失效
 612智能机器人失效
 613智能音箱失效
 614人工智能系统失控
 615会话人工智能的偏激言论
 616医疗人工智能的危险治疗意见
 62人工智能武器研发可能引发国际军备竞赛
 621各国人工智能武器化发展情况
 622人工智能武器军备竞赛带来的风险
 63人们对人工智能技术失控的担忧
 64人工智能行为体失控三要素
 641人工智能行为体具有行为能力以及破坏力
 642人工智能行为体具有不可解释的决策能力
 643人工智能行为体具有进化能力,可进化成自主系统
 65预防人工智能技术失控的举措
 651人机协作国际规范
 652阿西洛马人工智能原则
 653自我终结机制防范系统性失控风险
 66本章小结
 参考文献
 第7章人工智能行为体
 71人工智能行为体的定义
 72人工智能行为体类型1传统型
 721工业机器人
 722专用服务机器人
 723家用型机器人
 73人工智能行为体类型2自动驾驶的交通工具
 731自动驾驶简介
 732自动驾驶汽车
 733人工智能无人机
 734无人驾驶船舶
 74人工智能行为体类型3人工智能武器
 741人工智能武器简介
 742杀人蜂 武器
 743炮塔型AI战斗机器人
 744人形战斗机器人
 75人工智能行为体类型4类人机器人
 751Jules机器人
 752Bina48机器人
 753Sophia机器人
 76人工智能行为体的特性
 761人工智能行为体的移动特性
 762人工智能行为体的决策特性
 763人工智能行为体的自主特性
 77本章小结
 参考文献
 第8章人工智能行为体保险箍
 81体系架构
 82基本功能
 821远程控制组件
 822能源控制组件
 823宿主交互组件
 824数据记录组件
 83安全机制
 831设备安全
 832数据安全
 833运行安全
 84安全围栏
 841工作过程
 842移动范围限制
 843速度与距离监控
 844输出功率与力约束
 845安全策略
 85增强功能
 851内置传感器
 852人的识别
 853黑AIA识别
 86防控中心
 861态势感知
 862指挥控制
 863应急处置
 864专家研判
 87生态环境
 871准入制度
 872标准规范
 873生态基础
 88本章小结
 参考文献
 第9章人工智能行为体的安全评估与检测
 91人工智能行为体的安全管理概述
 911从术语的角度感受个人助理机器人的安全要素
 912个人助理机器人的风险评估要求
 913个人助理机器人的安全要求
 914个人助理机器人的功能安全
 92人工智能行为体安全评估和检测的目标
 921动能安全:对AIA动能的评估
 922决策安全:对决策系统安全的评估
 923自主安全:对AIA自主能力失控风险的评估
 93人工智能行为体安全评估的方法与指标
 931动能安全评估
 932决策安全评估
 933自主安全评估
 934安全评估过程
 94人工智能行为体检测能力与检测方法
 941针对AIA动能的检测方法
 942针对AIA决策机制的检测方法
 943针对AIA自主能力的检测方法
 95人工智能行为体的检测流程
 951针对AIA动能的检测流程
 952针对AIA决策机制的检测流程
 953针对AIA自主能力的检测流程
 96本章小结
 参考文献
 第10章人工智能安全伦理准则
 101人工智能技术引发的伦理问题
 1011人权问题
 1012伦理地位问题
 1013责任伦理问题
 1014风险问题
 102人工智能技术发展的伦理准则
 1021各国政府及社团组织关于人工智能技术发展的伦理准则
 1022国际组织关于人工智能技术发展的伦理准则
 1023企业和高等院校关于人工智能技术发展的伦理准则
 103人工智能行为体的伦理决策
 1031人工智能行为体的伦理决策能力
 1032人工智能行为体的伦理决策设计
 1033人工智能行为体的伦理决策考量
 104人工智能行为体的责任归咎
 1041责任主体
 1042责任分配
 1043无人驾驶汽车的责任追究
 105小结
 参考文献
 第11章人工智能前沿技术
 111学术前沿
 1111强化学习
 1112迁移学习
 1113联邦学习
 1114分布式机器学习
 1115表示学习
 1116元学习
 1117可解释的人工智能
 1118对抗训练
 1119人工智能芯片
 11110技术前沿安全挑战
 112应用前沿
 1121计算机视觉
 1122自然语言处理
 1123智能语音
 1124智能驾驶
 1125拟人和仿生
 1126智能攻防
 1127应用前沿安全挑战
 113交叉领域
 1131人工智能与互联网
 1132人工智能和工业40
 1133人工智能和医学生物
 1134人工智能和军事
 1135人工智能和商业模式
 1136人工智能和人文社会
 1137交叉领域安全挑战
 114本章小结
 参考文献
 第12章人工智能安全的未来展望
 121人工智能内生安全的未来展望
 1211数据是否会制约人工智能内生安全
 1212对抗样本是否会出现在实际应用场景中
 1213是否存在安全的智能模型
 1214人工智能执行过程是否安全
 122人工智能衍生安全的未来展望
 1
 |  
         
          | 內容試閱: |   
          | 前 言 无论何时,只要人们谈及网络空间安全的形势,一定会有形势严峻、应对能力不足等悲观的说法,这往往会让决策者感到迷惑:网络空间安全领域为何总是缺少作为呢?到底该如何做才能让网络空间安全问题不再时刻困扰人们呢?其实这一切都是由于网络空间安全的动态属性所决定的。习近平总书记在2016年4月19日网络安全和信息化工作座谈会上指出:要树立正确的网络安全观,网络安全是动态的而不是静态的。也就是说,网络空间安全的形态是不断变化的,一个安全问题解决了,另一个安全问题又会冒出来。而在网络空间安全的动态属性中,新技术安全是导致网络空间安全具有动态特征的主要因素之一,这是因为新技术必然会带来新的安全问题,而各种新技术、新系统源源不断地出现,自然会引发各种新的安全问题与安全事件。如果我们有能力让各种新技术都停止出现,五年内信息技术不更新,那么当前所有的信息安全问题可能将被全部解决掉,将会有一个十分安全的网络空间展现在人们的眼前。然而,社会不可能停滞不前,新技术也不可能从此就销声匿迹,网络空间安全将伴随着新技术的出现持续动态地变化。
 新技术必然会带来新的安全问题,这是新技术在安全方面的伴生效应。这种伴生效应会产生两方面的安全问题:一是由于新技术的出现,其自身的脆弱性会导致新技术系统出现不稳定或者不安全的情况,这方面的问题是新技术的内生安全问题;另一方面是新技术自身缺陷可能并不影响新技术系统自身的运行,但这种缺陷却给其他领域带来了问题,导致其他领域变得不安全,这方面的问题是新技术的衍生安全问题。
 除了伴生效应以外,新技术的出现一定会提升相关领域的势能,当新技术运用于安全领域的时候,自然也会赋能安全领域,这可称为新技术的赋能效应。当然,新技术在安全领域的赋能,既可以赋能于防御,也可能赋能于攻击,即新技术被恶意利用而导致其他领域不安全。显然,新技术赋能攻击是导致网络空间安全形势始终不够乐观的推手之一。
 人工智能技术尽管产生于20世纪50年代,但其几起几落,形成了螺旋式的发展轨迹。人工智能技术在21世纪里因为其在应用领域中取得了突出的成就,从而被认定是信息领域中的一种推动社会发展的新技术。事实上,推动人工智能快速发展、使之在应用领域中切实发挥作用的那些具体技术也的确是21世纪所出现的新技术,例如深度学习、软件框架等。因此,将人工智能技术看作是信息领域的新技术并不为过。人工智能技术被认定为新技术的另一原因表现在世界各国政府对人工智能技术的高度重视,以及在人工智能技术领域所给予的巨额投资,展示出国际社会对人工智能技术造福人类所给予的极大期望。
 但是,作为新技术,人工智能技术自然也会存在着安全问题的伴生效应与安全领域的赋能效应。从伴生效应的视角来看,人工智能存在着内生安全问题。例如,人工智能算法大量依赖统计结果,尤其是神经网络等智能学习系统,这种系统通过调整隐藏层内部的连接权值来记录系统通过统计学习后获得的特征信息。但这些权值意味着什么几乎是无法解释的,所以人们对之只能使用,无法预判。在这种情况下,系统对哪些权值进行了怎样的修改、修改后会导致系统的判断结果会怎样跳出人们的预期都是不可知的,而且什么样的学习过程会导致这种修改也是不可知的,这就为目前普遍流行的被称为对抗样本攻击的人工智能攻击手段敞开了大门。由此,对抗样本攻击可以被归为人工智能技术伴生的内生安全问题。同样的情况,人工智能系统的不可解释性也许不会影响人工智能系统在一般情况下的运行状态,但是否会导致人工智能系统可能出现失控的情况,造成系统可能会不按照人类所预计的或所期望的方式运行?而这种不可预计的情况是否会给人类带来威胁?这些问题都令人细思极恐。如果一个助残机器人不按照人类期望的方式运动,其结果反倒会伤害人类,这时人们反而会发现助残机器人的智能越低其失控的概率也许越小。所以这类可能出现的失控问题是人工智能技术伴生的衍生安全问题。
 就人工智能技术在安全领域中的赋能效应而言,我们可以举出许多利用人工智能技术进行安全防御或者进行安全攻击的例子。将人工智能技术运用到网络安全态势感知是典型的赋能防御的案例;而利用人工智能技术来攻击人脸识别系统用Deepfake技术来进行实时换脸以绕过人脸识别过程中的新鲜度检测的手法则是典型的赋能攻击的案例。
 正是因为人工智能技术受到了各国政府的重视,国际社会也期望通过人工智能技术来显著地改善人们的生产与生活方式,甚至包括国家的治理模式,这使得人工智能技术领域的研究视角大都集中在如何发展人工智能技术、如何推进人工智能技术的市场化应用上来,而这种高速推动人工智能技术发展的力量会进一步强化人工智能技术的发展与人工智能安全被忽视之间的不均衡态势。人们沉浸在人工智能技术所带来的社会变化的喜悦中,很容易忽视人工智能技术安全问题的伴生效应,以及人工智能技术在安全领域中的赋能攻击效应。作为专业从事网络空间安全技术研究的团队,我们认为是时候要让人们对人工智能安全问题警醒了。事实上,人工智能技术所伴生的已经不仅仅是内生安全问题和衍生安全问题,还涉及到伦理、法律等一系列与社会治理有关的挑战性问题。为此,以广州大学网络空间先进技术研究院的团队为主,本人组织了一批学者编撰了本书,旨在让人们在高度关注人工智能技术发展的同时,也注意到人工智能安全问题及相应技术的演进。
 本书共12章。其中,第1章人工智能技术发展概述由方滨兴、韩伟红主笔,第2章各国人工智能发展战略规划由李树栋、方滨兴主笔,第3章人工智能安全概述由崔翔主笔,第4章人工智能助力安全由廖鹏主笔,第5章人工智能的内生安全由顾钊铨主笔,第6章人工智能衍生安全问题由苏申、田志宏主笔,第7章人工智能行为体由鲁辉主笔,第8章人工智能行为体保险箍由田志宏、崔翔主笔,第9章人工智能行为体的安全评估与检测由方滨兴、蒋琳主笔,第10章人工智能安全伦理准则由方滨兴、尹捷主笔,第11章人工智能前沿技术由李默涵主笔,第12章人工智能安全的未来展望由方滨兴、顾钊铨主笔。全书由方滨兴、顾钊铨、崔翔通稿。本书在撰写过程中得到了高文院士的指导,在此表示诚挚的谢意。此外,还要感谢电子工业出版社的赵丽松和沈艳波两位副总编,她们为本书的出版做了大量辛勤工作。
 人工智能技术的发展历史很长,先后出现了不同的研究方法与技术路线,尽管大部分的研究结果可以说是殊途同归,但学者们仍然存在着各执己见、自成体系的情况。在这种情况下,本书难以涵盖所有学术流派的研究路线,也就无法针对各种情况来论述相应的安全问题。本书只求抛砖引玉,仅就所关注到的人工智能技术论述其所关联到的安全问题及相关技术,疏漏之处,还望读者理解。
 |    |