1. 自动驾驶汽车1.1. 自动驾驶汽车的成功在很大程度上要归功于机器学习,特别是深度学习,尤其是汽车的计算机视觉和决策部分1.2. 自动驾驶汽车具有能够极大改善我们生活的潜力,它们可以大大减少交通事故造成的伤亡1.3. 自动驾驶汽车能够使人类乘客在乘车时间里更具生产力而不会虚度光阴2. 机器学习2.1. 机器学习正被应用在影响人类生活的多个领域的决策中2.1.1. 创建新闻源、诊断疾病、评估贷款申请,甚至给出监狱刑罚建议2.1.2. 当机器在做这些事时,我们如何保证它已经掌握了足够的知识,因而可以作为一个可信赖的决策制定者?2.2. 我们最终必须在人工智能今后的许多积极用途与对其可信度和可能被滥用的担忧之间做好权衡3. 人工智能大权衡3.1. 人工智能是新‘电能’。正如100年前电能几乎改变了所有行业一样,今天我真的很难想到有哪个行业在未来几年内是不会被人工智能改变的。3.1.1. 吴恩达3.1.2. 很快人工智能就会如电能一样,尽管看不到,但对电子设备来说却非常必要3.1.3. 电能在被广泛商业化之前就已经被充分认识,我们非常了解电能的功用3.1.4. 对于如今许多人工智能系统的情况,我们却没有足够的认识3.2. 我们是应该拥抱人工智能系统,利用其能力来改善我们的生活,甚至帮助拯救生命,并且允许这些系统被更加广泛地使用呢?3.3. 考虑当下人工智能存在难以预见的错误、易受偏见影响、易被黑客攻击以及缺少透明度等特点,应该更谨慎地使用人工智能来制定决策?3.4. 悲观的预测3.4.1. 大批的工作被自动化技术接管导致的人类失业3.4.2. 由于人工智能监视而造成的对公民的隐私和权利的侵犯3.4.3. 不道德的自动化武器3.4.4. 由不透明和不可信的计算机程序做出的未经审查的决策3.4.5. 种族和性别偏见被放大3.4.6. 大众媒体被操纵3.4.7. 网络犯罪增多3.4.8. 真实,但与人类无关4. 人脸识别的伦理困境4.1. 人脸识别是使用文字来标注图像或视频中的人脸的任务4.2. 好处4.2.1. 帮助人们从照片集中检索图像4.2.2. 使视力受损的用户能够识别他们所遇到的人4.2.3. 通过扫描照片和视频中的人脸定位失踪儿童或逃犯4.2.4. 检测身份盗用4.3. 隐私问题是人脸识别技术应用中一个显而易见的问题4.4. 失去隐私并不是唯一的风险,人们对于人脸识别还有一个更大的担忧,那就是可靠性4.4.1. 人脸识别系统会犯错4.5. 可信度、可解释性、偏见、易受攻击性和使用过程中出现的道德问题4.6. 许多高科技公司宣布他们反对将人脸识别用于执法和监管5. 人工智能的监管5.1. 赞成人工智能技术应该受到某种监管5.2. 监管不应该仅仅掌握在人工智能研究人员和相关公司的手里5.3. 与技术问题一样,都是牵涉社会和政治方面的问题5.4. 将监管的职责交给人工智能从业者,就像将其完全交给政府机构一样,都是不明智的5.5. 对人工智能的监管应该参照其他领域的技术监管,尤其是那些在生物和医学领域的技术,例如基因工程5.6. 现在已经建立了生物伦理学和医学伦理学领域,这些领域对技术的研发和应用方面的决策具有相当大的影响5.7. 该领域在制定监管和道德规范的优先事项方面,尚未达成普遍共识5.8. 人们对超级智能可能带来的风险给予了太多关注,而对于深度学习缺乏可靠性和透明性,及其易受攻击性的关注则远远不够6. 有益的人工智能6.1. 语音转录6.2. GPS导航和出行规划6.3. 垃圾邮件过滤6.4. 语言翻译6.5. 信用卡欺诈警报6.6. 书籍和音乐推荐6.7. 计算机病毒防护6.8. 建筑物能源利用优化6.9. 如果你是听力受损人士,如今你可以在YouTube上看到非常精准的字幕,在某些情况下,你甚至可以在一次演讲中获得实时的语音转录6.10. 如果你是摄影师、电影制作人、艺术家或音乐家,你可能正在使用人工智能系统来协助开展创作,例如用以帮助摄影师编辑照片、协助作曲家编曲的计算机程序6.11. 如果你是学生,你可能会从适合你自己学习风格的“智能教学系统”中受益6.12. 如果你是视力存在障碍的人,你可能会使用智能手机的计算机视觉应用程序来阅读手写的或印刷的文字,例如标牌、餐馆菜单或钞票上的文字6.13. 人工智能相关应用可能会在医疗保健领域得到广泛普及6.14. 机器人已经被广泛地用于琐碎和重复的工厂任务了6.15. 未来人工智能应用的具体实例包括:自动驾驶卡车和出租车,用于收割水果、扑灭大火、扫除地雷和清理环境等7. 可解释的人工智能7.1. 在人工智能“自动决策制定”的情况下7.1.1. 任何一个影响公民的决策都需要提供其中所涉及的与逻辑有关的有意义信息7.1.2. 这些信息需要使用清晰明了的语言7.1.3. 以简洁、透明、易懂和易于访问的形式来沟通和传达7.1.4. 打开了有关解释问题的闸门8. 创建有道德的机器8.1. 著名的“机器人三定律”8.1.1. 阿西莫夫在1942年首次提出8.1.1.1. “逃跑”的故事8.1.1.1.1. 如果一个机器人遵循第二定律向危险物质移动8.1.1.1.2. 这时第三定律将会生效,机器人随即远离该物质8.1.1.1.3. 此时第二定律又重新开始生效8.1.1.1.4. 于是,机器人将被困在一个无尽的循环中,最终对机器人的人类主人造成了灾难性的后果8.1.1.2. 除非机器人能够理解不同场景下伤害的内涵,否则它无法可靠地执行避免伤害人类的命令8.1.2. 机器人不得伤害人类个体,或者对人类个体将遭受的危险袖手旁观8.1.3. 机器人必须服从人类给予它的命令,当该命令与第一定律冲突时例外8.1.4. 机器人在不违反第一、第二定律的情况下,要尽可能地保护自己8.2. 不完整的规则和意外所引发的问题已经妨碍了所有基于规则的人工智能方法,道德推理也不例外8.3. 2001:太空漫游8.3.1. 科幻小说家亚瑟·克拉克(Arthur C. Clarke)在其1968年出版8.3.2. 人工智能计算机HAL被编程为始终对人类保持诚实8.3.3. 同时又要对人类宇航员隐瞒他们的太空任务的真实目的8.3.4. 他意识到隐瞒真相与保持忠诚之间的这种冲突正在慢慢地破坏他的心智8.4. 人工智能程序员面临的挑战是,如何确保人工智能系统的价值观与人类保持一致8.4.1. 人类的价值观又是什么?8.4.2. 假设存在社会共享的普世价值有任何意义吗?8.5. 电车难题8.5.1. 如果你什么都不做,电车就会直接撞到5名工人身上8.5.2. 如果你把电车开向右边,电车就会撞死1名工人8.5.3. 从道德上来说更可取的做法是:司机把电车开到支线上,杀死1名工人,救下另外5名工人8.5.4. 对本质上相同的困境选取一个不同的框架,就会导致人们给出相反的答案8.6. 类似电车问题的自动驾驶汽车可能面临的场景8.6.1. 76%的参与者回答,自动驾驶汽车牺牲1名乘客比杀死10名行人,从道德上来说更可取8.6.2. 当被问及是否会购买这样一辆被编程为会为了救下更多行人而选择牺牲其乘客的汽车时,绝大多数参与调查者的回答是否定的8.7. 可信任的道德理性的一个先决条件是通用的常识8.7.1. 即使在当今最好的人工智能系统中也是缺失的