本文由站腾网网站SEO优化团队网络整编而成,不代表本站观点,如需了解更多SEO优化的文章、新闻、工具和SEO优化技巧、案例、各种网站优化知识百科请进入:http://www.zhantengwang.com/news/并且可以对站腾网优化师进行一对一问答
本文地址:【刷网站权重】网站的seo优化建议:http://www.zhantengwang.com//news/action/10719.html
本文由站腾网网站SEO优化团队网络整编而成,不代表本站观点,如需了解更多SEO优化的文章、新闻、工具和SEO优化技巧、案例、各种网站优化知识百科请进入:http://www.zhantengwang.com/news/并且可以对站腾网优化师进行一对一问答
本文地址:为什么有人会使用黑帽来进行引擎优化:http://www.zhantengwang.com//news/action/10718.html
本文由站腾网网站SEO优化团队网络整编而成,不代表本站观点,如需了解更多SEO优化的文章、新闻、工具和SEO优化技巧、案例、各种网站优化知识百科请进入:http://www.zhantengwang.com/news/并且可以对站腾网优化师进行一对一问答
本文地址:【是什么意思】企业做网站优化的作用有哪些:http://www.zhantengwang.com//news/action/10717.html
本文由站腾网网站SEO优化团队网络整编而成,不代表本站观点,如需了解更多SEO优化的文章、新闻、工具和SEO优化技巧、案例、各种网站优化知识百科请进入:http://www.zhantengwang.com/news/并且可以对站腾网优化师进行一对一问答
本文地址:SEO每日工作标准及考核内容:http://www.zhantengwang.com//news/case/10716.html
本文由站腾网网站SEO优化团队网络整编而成,不代表本站观点,如需了解更多SEO优化的文章、新闻、工具和SEO优化技巧、案例、各种网站优化知识百科请进入:http://www.zhantengwang.com/news/并且可以对站腾网优化师进行一对一问答
本文地址:【网站查询】哪些因素影响网站的质量判断:http://www.zhantengwang.com//news/case/10715.html
本文由站腾网网站SEO优化团队网络整编而成,不代表本站观点,如需了解更多SEO优化的文章、新闻、工具和SEO优化技巧、案例、各种网站优化知识百科请进入:http://www.zhantengwang.com/news/并且可以对站腾网优化师进行一对一问答
本文地址:这几个搜索技巧让SEO效率提升200%!:http://www.zhantengwang.com//news/case/10714.html
本文由站腾网网站SEO优化团队网络整编而成,不代表本站观点,如需了解更多SEO优化的文章、新闻、工具和SEO优化技巧、案例、各种网站优化知识百科请进入:http://www.zhantengwang.com/news/并且可以对站腾网优化师进行一对一问答
本文地址:【查排名】网站建设品牌价值的优势:http://www.zhantengwang.com//news/case/10713.html
本文由站腾网网站SEO优化团队网络整编而成,不代表本站观点,如需了解更多SEO优化的文章、新闻、工具和SEO优化技巧、案例、各种网站优化知识百科请进入:http://www.zhantengwang.com/news/并且可以对站腾网优化师进行一对一问答
本文地址:关键词排名上不去应该如何应对:http://www.zhantengwang.com//news/case/10712.html
本文由站腾网网站SEO优化团队网络整编而成,不代表本站观点,如需了解更多SEO优化的文章、新闻、工具和SEO优化技巧、案例、各种网站优化知识百科请进入:http://www.zhantengwang.com/news/并且可以对站腾网优化师进行一对一问答
本文地址:【快站群】如何定期分析网站的相关数据:http://www.zhantengwang.com//news/case/10711.html
本文由站腾网网站SEO优化团队网络整编而成,不代表本站观点,如需了解更多SEO优化的文章、新闻、工具和SEO优化技巧、案例、各种网站优化知识百科请进入:http://www.zhantengwang.com/news/并且可以对站腾网优化师进行一对一问答
本文地址:做不好seo优化是有哪些原因吗:http://www.zhantengwang.com//news/case/10710.html
人工智能(ArtificialIntelligence,AI)一词自1956年由达特茅斯学院(dartmouth college)提出后,随着科技,尤其是全球智能技术的进步,AI越来越多地出现在人们的视野中。AI是一个融合计算机科学、统计学、脑神经学和社会科学的前沿综合学科,可以代替人类实现某种识别、认知、分析和决策等功能。
人工智能技术的发展被称为第四次工业革命,已经成为当今世界各国一争高下的战场。人工智能技术在全球迅猛发展,从基础科学、学术研究、特种应用开始进入社会各行各业以及千家万户的日常生活。
一、AI的主要技术构架及研究成果
当前,AI的主要技术构架有五层,第一层,也就是最底层是基础设施构架,主要包含数据和计算能力两部分,数据越大,人工智能的能力越强;第二层主要是算法,如卷积神经网络、LSTM (Long Short-Term Memory 长短期记忆网络)序列学习、Q-Learning、深度学习等算法,都是机器学习的算法;再次,第三层为重要的技术方向和系统,如计算机视觉,语音工程,自然语言处理系统等。还有另外的一些类似决策系统,像 reinforcement learning(增强学习),或像一些大数据分析的统计系统,这些都能在机器学习算法上产生;第四层为具体的技术,如图像识别、语音识别、机器翻译等等;第五层,也就是最顶端的行业解决方案,即应用层,如人工智能在金融、教育、医疗、交通等领域的具体应用,这是我们所关心和感觉到的AI能带来价值的部分。
人工智能的第三次浪潮(2006年-现在)代表性研究成果就是机器的深度学习技术,机器学习与深度学习之间具有质上的区别,机器学习是指计算机的算法能够像人一样,从数据中找到信息,从而学习一些规律。虽然深度学习是机器学习的一种,但深度学习是利用深度的神经网络,将模型处理得更为复杂,从而使模型对数据的理解更加深入。深度学习技术由于能够自动从数据中学习复杂的特征,因此被认为是现代人工智能最重要、应用最广泛的技术。
然而,在AI飞速发展的背后,特别是谷歌AIPHAGO和AIphaGo Zero的出现,人类突然感到AI的发展给社会带来了忧虑。尤其是当我看了谷歌DeepMind(AI团队) 在《自然》杂志上发表的一篇关于描述AlphaGo Zero成长经历的论文,更使我感到不安,我们研究AI的初衷究竟是什么? DeepMind这篇论文描述了新一款围棋程序 AlphaGo Zero 从其诞生开始的臭棋手到业余棋手,再成长为一个能够考量每一步围棋战略意义的国际性超围棋大师的过程,而这样一个过程却是一个飞跃式成长的过程,这个过程仅仅花费了几天的时间,这是一项极其惊人的创举。
二、AI的内涵与发展远景
到目前为止,AI并没有确切的定义,让我们从世界权威的韦伯词典先了解一下什么是“智能”(Intelligence),韦伯字典对“Intelligence”的定义是“Ability of learning orunderstanding things,or dealing with new or difficultsituations”,从这个定义中,我们可以总结三个关键词:一是Learning(学习—目的是获得知识或规则),二是Understanding(理解—基于知识做出评判或决策),三是Dealing(行为—基于理解做出相应行动)。可见,智能是智力和能力的总称,而“学习”、“理解”和“行动”是“智能”最基本的三大要素,而现代AI代表性的成果就是深度学习(Deep learning),深度学习技术由于能够自动从数据中学习复杂的特征,因此被认为是现代人工智能最重要、应用最广泛的技术。
有人推测人工智能的发展远景将经历三个阶段:一是弱人工智能阶段(ANI);二是强人工智能阶段(AGI);三是超人工智能阶段(ASI)。笔者认为,目前,所有的AI技术,不管多先进,都属于弱人工智能阶段,也就是讲仅仅在某一个方面做了跟人差不多的单一事项。
在“弱人工智能”(Artificial NarrowIntelligence)阶段,ANI只专注于完成某个特定的任务,例如语音识别、图像识别和翻译,是擅长于单个方面的人工智能,类似高级仿生学。它们只是用于解决特定具体类的任务问题而存在,大都是统计数据,以此从中归纳出模型。谷歌的AlphaGo和AlphaGo Zero就是典型“弱人工智能”,它们充其量也就是一个优秀的数据处理者,尽管它们能战胜象棋领域的世界级冠军,但是AlphaGo和AlphaGo Zero也仅仅会下象棋,是一项擅长于单个游戏领域的人工智能,如果让它们更好地在硬盘上储存和处理数据,就不是它们的强项了。
在“强人工智能”(Artificial GeneralIntelligence)阶段,AGI就属于人类级别的人工智能了,在各方面都能与人类媲美,拥有AGI的机器不仅是一种工具,而且本身可拥有“思维“。有知觉和自我意识的AGI能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习等,人类能干的脑力活它基本都能胜任。
目前,国际上的AGI技术研究进展如何呢?国际人工智能联合会前主席、牛津大学计算机系主任 Michael Wooldrige教授一语道破,他在2016 年 CCF-GAIR 大会上指出:强人工智能的研究“几乎没有进展,甚至几乎没有进步和严肃的活动”(little progress, little serious activity)。事实上,人工智能国际主流学界所持的目标也就是弱人工智能(ANI),据了解目前很少有人致力于强人工智的研究,也没有相应的成果。
关于ASI是指“超人工智能”(Artificial Superintelligence)阶段,另一位来自牛津大学的哲学家,也是一名知名人工智能思想家Nick Bostrom认为,ASI “在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”。我本能地觉得,他描述的这类场景,现在和将来都不可能出现。尽管AI技术不像其他技术一样,它并不限于单一维度,而是多种认知类型和模式组成的复合体,每一种类型或模式都是一个连续统一体。但是人类与AI最大的区别就是人类具有高级思维能力,正是人类的高级思维构成了丰富多彩的社会。
人类的思维,是人脑借助于语言对客观事物的概括和间接的反应过程,而思维本身以感知为基础,但又超越感知的界限。人类的思维是多元的,除了逻辑思维之外,还有形象思维、直觉思维、顿悟等等。如果像Nick Bostrom教授所描述的那样:ASI几乎在所有领域都比最聪明的人类大脑都聪明很多,那么要想达到这个境界,ASI必须要超越人类的多元思维模式,如果真能超越的话,我以为唯一的方法就是在人类的血肉组织上构造复杂的算法,然而这几乎是天方夜谭。
三、AI面临的伦理与法律问题
已故著名物理学家、剑桥大学教授史蒂芬·霍金(Steven Hawking)在世时曾警告:在我的一生中,我见证了许多社会深刻的变化,其中最深刻的,同时也是对人类影响与日俱增的变化,就是人工智能的崛起。简单来说,我认为强大的人工智能的崛起,要么是人类历史上最好的事,要么是最糟的。霍金认为人工智能的发展,本身是一种存在着问题的趋势,而这些问题必须在现在和将来得到解决。
笔者认为,AI在其发展进程中面临的最大问题不是技术本身,而是AI的伦理和法律问题。2017年6月,笔者在日内瓦参加了由联合国国际电信联盟主办的一个主题为“人工智能造福人类”的全球峰会。国际电信联盟主办的这次峰会聚焦了AI的两大国际性问题,一是加速人工智能的研发和应用,以应对贫困、饥饿、健康、教育和环境保护等全球性挑战;二是探讨如何确保人工智能的安全性并符合伦理规范,防止其带来意想不到的后果。
2016年,标准制定组织IEEE发布了首份AI报告(2016),其名称为:“利用人工智能和自主系统(AI/AS)最大化人类福祉的愿景”。该报告提出了一个发展IA的一般性原则,主要涉及的是高层次伦理问题,报告认为,AI发展的一般性原则将适用于所有类型的人工智能和自主系统。在确定一般原则时,主要考虑三大因素:一是体现人权;二是优先考虑最大化对人类和自然环境的好处;三是削弱人工智能的风险和负面影响。
原则之一:人类利益(Human Benefit),人类利益原则要求考虑,如何确保AI/AS不侵犯人权。为了实现AI/AS尊重人权、自由、人类尊严及文化多样性,在使用年限内是安全、可靠的,一旦造成损害必须能够找出根本原因(可追溯性)等目的,应当构建治理框架,包括标准化机构和监管机构,增进公众对AI/AS的信任;
原则之二:责任(Responsibility),责任原则涉及如何确保AI/AS是可以被问责的。为了解决过错问题,避免公众困惑,AI系统必须在程序层面具有可责性,证明其为什么以特定方式运作。
首先,立法机构/法院应当阐明AI系统开发和部署过程中的职责、过错、责任、可追责性等问题,以便于制造商和使用者可以知晓其权利和义务分别是什么;其次,AI设计者和开发者在必要时考虑使用群体的文化规范的多样性;再次,当AI及其影响游离于既有规范之外时,利益相关方应当一起制定新的规范;第四,自主系统的生产商/使用者应当创建记录系统,记录核心参数。
原则之三:透明性(Transparency),透明性原则意味着,自主系统的运作必须是透明的。AI/AS是透明的意味着,人们能够发现其如何以及为何做出特定决定。AI的不透明性,加上AI开发的去中心化模式,加重了责任确定和责任分配的难度。透明性对每个利益相关方都意味重大。
第一,对使用者,透明性可以增进信任,让其知道AI系统可以做什么及其这样做的原因;第二,对AI/AS批准和认证机构,透明性则确保AI系统可以接受审查;第三,如果发生事故,透明性有助于事故调查人员查明事故原因;第四,事故发生之后,参与审判的法官、陪审团、律师、专家证人需要借助透明性来提交证据,做出决定;第五,对于自动驾驶汽车等颠覆性技术,一定程度的透明性有助于增强公众对技术的信心。
原则之四:教育和意识(Education and Awareness),教育和意识原则涉及,如何扩大AI/AS技术的好处,最小化其被滥用的风险。在AI/AS越来越普及的时代,需要推进伦理教育和安全意识教育,让人们警惕AI/AS被滥用的潜在风险。这些风险可能包括黑客攻击、赌博、操纵、剥削等。
2018年7月,中国发展研究基金会在其发布的一份《未来基石—人工智能的社会角色与伦理》的报告中也指出,尽管有少数哲学和社科领域的学者开始关注人工智能带来的伦理问题和社会挑战,但是这些讨论并未进入公共政策视界,而且讨论的重点也多集中在超级人工智能这样仍相对遥远的议题上。该报告认为,在人工智能问题上,围绕可能出现的挑战,无知、忽视、偏狭、误解交织在一起,可能会导致真正的风险。该报告建议:在社会层面,高校和研究机构开展前瞻性的科技伦理研究,为相关规范和制度的建立提供理论支撑;各国政府、产业界、研究人员、民间组织和其他利益攸关方展开广泛对话和持续合作,通过一套切实可行的指导原则,鼓励发展以人为本的人工智能;人工智能企业应该将伦理考量纳入企业社会责任框架中。
事实上,人工智能和自主系统(AI/AS)带来了许多复杂的伦理问题,这些伦理问题往往直接转化为具体的法律挑战,或是引发复杂的连带法律问题。每个伦理问题一般都涉及相关法律问题。笔者认为,当前的人工智能本质上是一种建立在大数据基础上的自我学习、判断和决策的算法,算法的核心是基于网络的编程技术,但这种编程技术绝非中立,人工智能的算法决策具有典型的“黑箱”特点,这应当引起现代法律人的高度警惕和深入地研究,应当从伦理学和法律融合的角度深入审视和研究AI的算法。笔者呼吁,AI的算法必须确立法律的可追溯性原则,AI的行为决策全程应当处于法律监管之下。
四、构建公开透明的AI全过程监管
我国应当建立健全公开透明的人工智能监管体系,重点应当在AI的设计问责和应用监督并重的双层监管结构上做充分的准备,实现对人工智能算法设计、产品开发和成果应用等的全过程监管。促进人工智能行业和企业自律,切实加强AI协同一体化的管理体系,加大对AI领域数据滥用、算法陷阱、侵犯个人隐私、违背道德伦理等行为的惩戒力度。
在人工智能技术研发的同时,要加强人工智能相关法律、伦理和社会问题的同步研究,尤其要关注AI模仿人类传播错误信息或将商业无人机转化为目标武器攻击人类,建立和优化保障人工智能健康发展的法律法规和伦理道德框架。法律研究领域要开展与人工智能应用相关的民事与刑事责任确认、隐私和产权保护、机器伦理与破坏力评价等伦理与法律问题的交叉研究,建立Ai的可追溯和问责制度,明确AI的设计者、控制者、使用者等相关法律主体的权利、义务和责任。
关于IA监管的原则,我以为科幻作家艾萨夫·阿西莫夫于1942年在《我,机械人》小说中提出的“机器人学三律”仍具有参照价值,非常值得借鉴:
LawⅠ:A ROBOT MAY NOT INJURE A HUMAN BEINGOR, THROUGH INACTION, ALLOW A HUMAN BEING TO COME TO HARM.
第一定律:机器人不得伤害人类个体,或者目睹人类个体将遭受危险而袖手不管;
LawⅡ:A ROBOT MUST OBEY ORDERS GIVEN IT BYHUMAN BEINGS EXCEPT WHERE SUCH ORDERS WOULD CONFLICT WITH THE FIRST LAW.
第二定律:机器人必须服从人给予它的命令,当该命令与第一定律冲突时例外;
LawⅢ:A ROBOT MUST PROTECT ITS OWN EXISTENCEAS LONG AS SUCH PROTECTION DOES NOT CONFLICT WITH THE FIRST OR SECOND LAW.
第三定律:机器人在不违反第一、第二定律的情况下要尽可能保护自己的生存;
笔者建议:国家有关部门或行业组织应当制定人工智能产品研发设计人员的道德规范和行为守则,加强对人工智能潜在危害与收益的评估,构建人工智能复杂场景下突发事件的解决方案。同时,我国应当积极参与人工智能的全球治理,加强机器人异化和安全监管等人工智能重大国际共性问题研究,深化在人工智能法律法规、国际规则等方面的国际合作,构建我国AI领域的国际制度性话语权。
作者:系南京邮电大学教授、工业和信息化部信息通信经济专家委员会委员、中国法学会网络与信息法研究会常务理事、联合国世界丝路论坛网络空间国际合作委员会主席
电话:18024312752 邮箱 :info@china-csa.org
Copyright© 2017.中国云安全与新兴技术安全创新联盟 All rights reserved 粤ICP备16001302号-1