欢迎访问爱发表,线上期刊服务咨询

人工智能的伦理思考8篇

时间:2023-06-20 17:05:36

绪论:在寻找写作灵感吗?爱发表网为您精选了8篇人工智能的伦理思考,愿这些内容能够启迪您的思维,激发您的创作热情,欢迎您的阅读与分享!

人工智能的伦理思考

篇1

关键词:人工智能影视教育课堂在场价值观

人工智能技术作为社会媒介化发展的特殊产物,不仅能够建构起智能媒介化的信息社会,更能深入到传媒研究领域,引导影视传媒研究朝着“互联网+教育”的方向发展。当前影视传媒教育正面临重要的转型阶段,如何通过媒介信息技术调整现有的理论学习模式和教学培养目标,已经成为影视教育进行改革创新的突破口。基于人工智能为教育信息化带来的机遇和挑战,影视教育正致力于从“刀切教育”迈向“精准教育”,从“课堂缺席”转为“课堂在场”,从人才培养模式到教育信息平台搭建,都在不断强化智能教育培养,力求为影视传媒教育的智能化改革和实践提供决策依据。

一、影视教育智能化发展的应用价值

智能化影视传媒研究是教育信息化极为重要的应用场景,人工智能技术不仅拓宽了影视传媒教育的研究方向,同时也在技术手段、渠道搭建、傳媒伦理等层面发挥着重要作用。

1.消除数据鸿沟,发挥智能传媒教育技术赋能和知识平权的双重功能。影视传媒研究是以实践为基础的理论性教学,以培养创新型和复合型人才为教育目标。教育学者是影视文化传播的驱动者,因个体间存在传播技能、信息储备和交往行为方面的差异,造成影视传媒教育具有严重的知识鸿沟。在影视研究学者步入算法教育的重要阶段,智能教育平台可通过读取人的反馈改变原有的教学模式,调整每一位受教育者的天赋类型。与此同时,教育学者能够充分利用算法技术和人工智能手段,获取定制化的影视资源和学习条件,以技术逻辑引导学习流程,用分析框架提高教学模式的理论性和可操作性,通过强化教与学的变革场景,激活文化创作的想象力和逻辑性思维,使科技创新在理性与感性、理论与实践的引导作用下,从一般的理论教学形成智能媒介化的信息教学模式,从单向传授转变为双向互动的学习教育模式。

2.拓宽学习渠道,推动教育形态从理论课堂到智能媒体教育课堂的变革。人工智能技术与影视教育教学的深度融合,正引发起一场新的教学革命。从教育手段和学习途径上来看,原有的课堂教学已无法满足理论和实践的双重需求,大数据催生出的智能化影视教育,在虚拟世界和现实世界间搭建起新的算法课堂,利用人工神经网络简化理论教学的概念,又通过具有超强运算能力和通讯能力的技术手段协助实践操作。例如,人工智能照相机作为辅助型的教学工具,被运用于智慧课堂的摄影实践教学中,借助云端技术和物联网连接远程数据中心,可以帮助不懂摄影技术的学习新手尽快了解电影拍摄的理论框架和基本技能,推动教学场景从应用性教学到智慧型课堂的氛围建构。人工智能与影视教学的跨界融合,成为智能传媒教育进行颠覆式创新的重要表现形式,教育形态正逐渐从智慧课堂过渡到智慧校园,从传统的理论范式过渡到智慧媒体的应用型范式,帮助构建起新的学科话语体系。

3.重视传媒伦理,推动智能化影视传媒教育价值观和技术性的生成。人工智能是以追求效益为初心的理性工具,在技能研发阶段尚未对伦理规范提出强制要求,技术伦理向来是人工智能难以逾越的一道鸿沟;影视传媒教育则是以培养学生的伦理观和价值观为出发点,重视以道德审美为核心的理性意识。智能化传媒教育将信息技术和影视教学进行结合,使得理性工具得以同理性意识深度融合,人文关怀建立在技术作用之上,这既是培养受教育者核心价值观的时代需要,亦是强化人工智能技术伦理的有效途径。人工智能时代,强调智能化影视传媒教育技术性和价值观的生成,与其说是建立在影视教育应用场景上的技术伦理规范,不如说是借信息技术完成对传媒伦理和受教育者价值观的理性建构,让人工智能发展紧密联系意识形态和伦理道德问题,加深技术手段和教育学习的彼此作用,从而获得传媒教学在伦理层面的共识。随着传媒影响力的逐步扩大,以内容为载体的影视教学活动意味着要担负起更重要的教学责任,学科研究核心价值观的建设必须以注重传媒伦理和技术伦理为教学基础,重新建构现有的伦理道德观念,为人工智能技术注入价值观的活的灵魂。

二、影视教育智能化发展的风险问题

人工智能技术的迅速发展,赋予影视传媒教育极大的应用价值,与此同时也面临着潜在的风险问题。

1.灌输式教育仍占据主流,智能化影视教学陷入价值认知困境。在人工智能技术出现以前,理论+实践的教学策略已经成为一种固定的形态存在于传统影视教学工作中,受教育者根据统一的培养目标规划自己的学习方式,包括影视创作及影视理论等相关课程都按照相同的培养模式进行。由于教育主体对人工智能的认知存在两极分化的现象,过往只能够通灌输式对学生进行强制教育,智能化影视教学则是处于小范围内的实践和创新。对影视教育而言,理论与实践是学习的内容,继承与创新才是研究的实质。明确人工智能教育的价值认知,从灌输教育逐步迈向定制化教育,为高校的人才培养提供重要的智力支持,应当是影视教育智能化转型发展的着力点。

2.智能教育应用场景缺乏思考,其深度和广度有待进一步挖掘。当前,智慧课堂、智慧校园的出现奠定了智能传媒教育的基本雏形,依靠大数据、物联网等信息技术支撑的智能传媒教育,在平台搭建层面已出现显著性成果,但对应用场景的深度和广度挖掘还存在明显问题。影视教育智能化应当以追求个性化和定制化教育为目标,崇尚的是终身学习的教学理念,不应当将人工智能技术仅局限于传统的教学课堂,除了要从“线下”走向“线上”,还需要考虑到以人机交互为主要形态的教学应用场景,挖掘人工智能教育更多的应用情境和展现方式,从而对影视课堂的理论与实践教学价值提供合理的在场性证明。

3.专业壁垒依然存在,智能化教学成果马太效应极为明显。智能教育世界要求培养更加多元化的应用型人才,但人工智能的马太效应逐渐渗透到影视传媒教育工作中,也会导致教学成果受到出现严重的失衡现象,难以满足高校对人才培养的多元化需求。作为艺术研究的影视教学活动,其科学精神和创新实践同样重要。尤其在媒介融合背景下,要想推进受教育者从“影视学者”逐渐过渡到“影视作者”,人工智能不仅需要满足师生的定制化教学任务,还应当破除专业和行业的壁垒,对其相关联的学科和传媒领域进行合作,才能够改变当前智能化影视教育在教学模式上面临的不足,不断为社会输送更多的应用型人才。

三、影视教育智能化发展的转型实践

面对智能传媒教育的风险与挑战,影视专业更应当立足于自身的教育发展特色,从人才培养模式、应用场景建设、教育资源整合等方面,推进影视教育智能化发展的转型实践。

1.从“灌输教育”走向“精准教育”,创建新的人才培養模式。智能传媒教育范式的自主性建构,应当立足于对传统教学效率和人才培养模式的颠覆。基于当前影视传媒智能化发展在人才培养模式层面的不足,其转型实践需要从受教育者的个性化需求出发,在师生、家长和社会的通力合作下,创建新的人才培养模式,利用碎片化学习完成系统化的学习过程,逐渐从“灌输式教育”走向“精准化教育”。例如,人工智能时代对影视学生的培养更趋向于“以个人为导向的系统化学习”,通过前期对受教育者的大数据整理,对每一位同学的逻辑性、想象力、创造性和沟通能力等进行分析,从影视理论和影视创作两大方向出发对受教育者形成定制化的学生画像,并提供针对性的智慧作业,帮助教师采集学生的学习情况,从而实现规范化的信息管理。可以预见的是,智能传媒时代,“互联网+教育”学习模式的生成,在推动知识平权化等方面发挥重要价值,成为影视教育智能化追求的重要转型路径。

2.从“课堂缺席”走向“课堂在场”,打造新的传媒教育平台。人工智能不仅要改变传统的人才培养模式,同样也应当提供更加多元化的学习应用场景。过去的影视研究多局限于单一的课堂场景,采用课上理论和课下实践的方式进行授课,完成影视教学的闭环。人工智能时代,影视传媒教育应当调整原有的受教育模式,通过搭建合理的人工智能应用平台,可以巧妙地将课堂场景与智能技术结合起来,为受教育者提供更加多样性的教学应用场景,从而实现成长课堂的“在场共生”。例如,人工智能可以带动影视制作的推陈出新,通过搭建智慧超媒体系统,将电影屏幕从影院搬到校园,自动生成无穷界面。与此同时,影视传媒的智能化还可以帮助教师自动生成电影梗概,将理论性教学转变为可视化形象,使电影理论同定制化的影像人物之间建立匹配关联,让教育场景从线下逐步延伸到线上,为影视研究提供重要的云服务。

3.从“媒教分离”走向“共建合作”,实现产研学的自主对接。影视教育智能化发展的最终目的是为了寻求理论与实践的融和,帮助构建起传媒教育和传媒业界的良性生态关系。传媒教育智能化也可以全面提高受教育者的学习效率和工作效率,通过优化教育资源,带动影视内容的高质量生产、影视人才的高质量创作。因此,从“媒教分离”走向“共建合作”,引导产研学的自主对接也成为了影视教育智能化转型实践的有效探索。未来的影视传媒发展,能够抓取海量资源建构独立的影像景观模型,为机器人参加艺考创造可能性,并且也可以紧抓电影内容的智能化生产,从前期的电影脚本自动化写作到后期的虚拟演员个性化定制,系统均可以对剧本创作、电影拍摄等课程进行精准化评估,从中筛选出符合影视公司要求的作品,进入后续的市场化操作。

篇2

因为他相信,“未来是属于人工智能的。”

人工智能,Artificial Intelligence,英文缩写AI。在人工智能领域的经典教材,出版于2013年的《人工智能:一种现代的方法(第3版)》中,著名人工智能专家罗素和诺威格从4个方面对人工智能进行了定义,即:能够像人一样思考、像人一样行动、合理地思考、合理地行动的机器。

人机大战只是人工智能开始改变人们生活的一个小例子,事实上,以往只存在于科幻电影的未来世界,正在加速迎面而来,和现实热烈拥抱,甚至让人猝不及防。

“苹果Siri、新闻阅读软件、在线翻译等,都是人工智能技术的代表。”为人工智能摇旗呐喊的不止创新工场创始人李开复一人,微软CEO萨提亚・纳德拉、谷歌CEO桑达尔・皮查伊、百度创始人李彦宏、物理学家斯蒂芬・威廉・霍金……但凡人们叫得上名号的科技公司巨头、计算机科学家无不在向人们诉说着同样一个事实,“人工智能引领的第四次技术革命已经进入爆发的前夜”。

聚焦今天这个时间点,人工智能最耀眼的还是商业化的起步。随着国外科技大佬对于人工智能各种应用场景的开发,国内互联网三巨头BAT也在加速布局,一场真正的AI商业化战争,已经蓄势待发。

每一次技术革命都将带来全球竞争格局的重塑,这一次,中国幸运地与世界站在了同一条起跑线上。伴随着“人工智能”首次被写入全国政府工作报告,以及《“互联网+”人工智能三年行动实施方案》的出台,占据数据和场景优势的中国正在筹划部署人工智能的顶层设计。

篇3

人工智能和机器学习的进步速度如此迅猛,我们的社会将迎来一些重要的伦理和经济问题,应对这些问题恐怕会费心费力。

总体而言,人工智能(AI)和物联网将同时改变互联网和全球经济。在未来5年内,我们可以预期人工智能和机器学习将会被整合到各种各样的技术中,这些技术包括数据交换和分析。这将带来巨大的机遇,如全新的服务和科学突破,人类智力的提升,以及它与数字世界的融合。

在人工智能领域存在相当大的不确定性,如决策转由机器执行,缺乏透明度,技术变革将超过治理和政策规范的发展。自动化可能会深刻地改变行业,影响就业和公共服务的交付。政府和社会需要为其影响做好准备:

经济和社会必须为人工智能以及物联网带来的颠覆做好准备。

在人工智能的设计和部署中,必须优先考虑伦理问题。

人工智能和自动化将带来全新的社会经济机会,但对个人和社会的影响和取舍还不清楚。

人工智能正改变着我们的决策方式,我们必须确保人类仍然处于“驾驶座”的主导位置。

在社会内部和社会之间,人工智能的益处分配将不均衡,进而加剧当前和未来的数字鸿沟。这种现象发生的风险极高。

人工智能世界的治理与伦理问题

人工智能引发了对伦理问题的广泛担忧。技术人员表示,这项技术需遵从人类的价值观,在人工智能系统的设计、开发和部署的每一个阶段,都必须优先考虑伦理层面的问题。

目前,人工智能和相关技术正在开发和部署,短期内将需要大量的投资和努力,以避免对社会和人类造成意想不到的影响。在未来,我们需要把焦点放在研究上以及有效的管理架构上,以确保人工智能技术带来的是契机,而不是损害。目前,开发算法的工作仍然由人类完成。对我们所做的事,我们仍拥有些许控制。

然而,如果我们把这类工作拱手相让给中介机构,而中介机构又让算法来设计算法。那么在五年内,开发算法的工作可能就不是人类在做了,而是人工智能在掌控。是否将出现这样的前景:我们打交道的中介机构将被人工智能替代。

此外,人工智能引发的重要考虑事项涵盖了隐私、透明度、安全性、工作性质,以及整体经济。例如,基于面部识别技术可以提升用户在社交媒体上的体验。但同样的技术也可以用来提升监视效果,牺牲个人隐私。亦或是,如果人工智能成为社交媒体网络和在线平台的永久功能,在这些平台上,算法被用来管理在线体验、有关自由选择和偏见的问题将会加剧。人们将对数据收集和决策的透明度和责任性感到担忧。这种担忧将会加速伦理原则的制定。而这些原则的作用是什么?用以指导人工智能的设计和部署。

一个社会如果完全以数据收集为基础,那么从商业角度来看,在没有适当的民主监督和平衡的情况下,将助长社会过度依赖监督。机器提供了太多自动选择,人类无需过多思考,从而失去了某些自我决策的机会。

数据分析技术产生的自动化将对人类行为和决策产生更大的影响。

政府将如何应对人工智能带来的更大的经济和社会影响?政府是否具备这样做的能力和资源?在政府内部,由于政策的制定和调整越来越多地受到数据的驱动,人工智能可能会带来一种根本性的决策调整。此外,人工智能可能成为未来政策选择的一种决策工具,而且使用起来可能会草率而不透明。

物联网和人工智能的发展将为政府决策提供科学依据,并帮助它们快速应对民众的需求。

许多人预见,未来几年将展开一场激烈的竞争,以争夺商业人工智能领域的霸主地位。尽管这可能会推动创新,并有可能颠覆当前的市场结构,但也存在竞争方面的担忧。预测者认为,在可预见的未来,如今的领先科技公司将会控制人工智能市场。

人工智能对互联网经济的影响

一些人认为,预测人工智能是一种营销炒作,但很多业内人士和政府都在为人工智能的普及做准备。CB Insights估计,2016年超过50亿美元的风投资金流向了人工智能创业公司,比前一年增长了62%。人工智能为创造新工作、新产业和新沟通方式提供了巨大机遇。

随着人工智能和自动化在各个行业推动重大结构变革,工作的本质将发生改变。随着人工智能获取用户数据,改变产品和服务的交付方式,许多现有的工作岗位可能会被取代。如何适应变化的步伐将是未来一项重大的全球性挑战。

与人工智能和物联网相关的项目引领了我们很长一段时间,提升了我们现有的技术,让普通人生活更加方便。

人工智能系统和技术可以改变工作的性质,让员工能力得到提升,从而减少人类之间和国家之间的不平等。人工智能让我们承担和解决更大的挑战。正如一份调查报告所显示,“人们的大脑和互联网之间的距离会变得越来越近,而两者之间的交叉会变得越来越复杂。”

机器与机器之间的通信增加了成本压力,人们正在被取代。这只会随着时间的推移而不断增加,这对经济有好处,但会对就业提出挑战。

人工智能为科学研究、交通运输和服务提供带来了巨大潜在收益。如果可访问性和开源开发胜出,人工智能有可能给发达国家和发展中国家带来红利。例如,依赖农业生产的国家可以利用人工智能技术分析作物产量,优化粮食产量。在医疗保健领域使用人工智能可能会改变低收入地区的疾病检测方法。

人工智能是一种创造性的毁灭,它将淘汰许多工作岗位,但也将创造新的角色和工作岗位。

但是,社会本身是否已经准备好接受这种变化,我们是否为新型经济做好了充分的准备?对于发展中经济体而言,新技术总是能创造出更多的可能性,尽管部署人工智能(以及物联网)的基础设施非常重要。人工智能的好处也可能不均衡:对于依赖低技能劳动力的经济体,自动化可能会挑战它们在全球劳动力市场中的竞争优势,并加剧当地的失业形势,影响经济发展。

用于管理制造业或服务业的智能和服务,可能仍集中在发达国家。人工智能可能会在很大程度上加剧数字鸿沟,这将会带来政治上的影响。

确保互联网技术创造市场就业机会,且不会对就业市场造成损害,这是未来5年必须解决的一个挑战,也是国际上一个紧迫而严重的问题。

人工智能对互联网安全和网络智能的影响

算法开始做出决策,它们比人类决策更快,并且可以代表我们的意志。此外,系统越来越不透明。我们不知道他们在哪里,他们在做什么决定。

虽然安全与信任对人工智能的未来至关重要,但这项技术也可以帮助解决安全挑战。随着网络和信息流变得越来越复杂,人工智能可以帮助网络管理人员理解交通模式,创建识别安全威胁的方法。在基本的企业层面上,人工智能可以执行由IT帮助台执行的任务,比如解决员工的电脑问题。

这将为企业IT专业人员提供更多的时间来实现安全最佳实践,并更好地保护公司系统和网络。除了人工智能决策,人工智能还可以在网络上对日益增长的安全威胁进行分类。

篇4

什么是算法?

算法是指由计算机执行的一系列独立的指令和动作。从初始状态和初始输入开始,这些指令描述了完整的计算步骤――通过一系列有限的、确切的指令,产生并输出答案和数据,最终止于结束状态。

人工智能的算法是一套利用机器智能解决问题的复杂手段。过去,我们给计算机下达规则式的指令来解决问题;现在,我们只要告诉计算机想解决的问题,它就可以自行选择算法来解决问题――这便是人工智能带来的根本性变革。

人工智能最重要的是学习能力,即根据机器以往的经验来不断优化算法。第一次人工智能的浪潮始于上世纪70年代,当时的人工智能算法采用的是符号逻辑推理规则,以实现知识表征。由于缺乏自我学习能力,那时的人工智能无法解决新领域中出现的问题。第二代人工智能虽然在学习和感知能力上表现更佳,但由于当时的机器学习模型不具备大量吸收训练数据的能力,与人类的水平仍有很大差距。

算法的发展

大约在10年前,深层与结构化机器学习,或称为深度学习的新范式,让人工智能算法的智能程度越来越高。传统的机器学习方法让电脑学习的“知识”,要由人来设计并输入,因为需要掌握大量的专业知识,导致特征工程成为机器学习的瓶颈。深度学习打破了这一瓶颈,通过多层结构算法,机器对数据集的“特征”进行筛选和提取,通过反复训练,最终获得了提取抽象概念的能力。

随着神经网络研究的深入,计算机视觉和听觉等让人工智能技术再次迎来发展的拐点,计算机的算法也越来越精进。未来,计算机对自然语言的应用还将大幅提高,电脑可以听懂、读懂人类平常所用的语言,而不仅仅是机器指令。这样,存在于互联网和局域网中的海量信息,都可以成为深度学习的素材。

篇5

关键词:科幻;伦理;爱

中图分类号:J905 文献标识码:A 文章编号:1005-5312(2013)20-0140-01

一、科幻世界

影片为我们营造了一个未来的、虚构的科幻世界。无论是影片伊始科学家们在研究室里展示新型人工智能机器人,讨论“能够疼爱父母”的机器人小孩,还是对未来世界和未来“人类”的构想与描绘,都是对科学、对科技的大胆假设。影片中对高科技的彰显,可谓让人应接不暇。

在影片虚构的未来世界里,人工智能机器人为人类提供了各种各样的服务,他们拥有与人类一样的外形,有思想、有意识甚至有爱有疼痛。他们与人类一样来自各行各业,为社会为人类的发展提供服务。这一切都是对人工智能这门科学发展到现阶段的美好展望。

影片中对冰封2000年后的“未来”的描绘一样让我心旷神怡。未来人类的形象、智慧,未来世界的境况似乎都凌驾于现实之上又以优越于现实的形式而存在,这一切都显示了科幻的美好。

二、伦理困境

观影过程中我常有这样一种想法:《人工智能》与其说是一部科幻片,不如说是一部极具科幻色彩的。《人工智能》对伦理的思考用蒙太奇的手法通过几个镜头的表达层层推进。第一个镜头是大卫被马丁激怒吞食菠菜。第二个镜头是大卫与马丁落水后被遗弃游泳池的画面。第三个镜头则是大卫被莫妮卡永远地抛弃时的情景。

莫妮卡和亨利选择了机器孩子大卫替代自己沉睡不醒的孩子马丁,起初莫妮卡十分的抵触、反对,大卫的人工智能系统也未被激活,他的行动例如大笑声都十分僵硬的,直至莫妮卡决定接受他并且说出了激活码的瞬间,大卫喊出了“妈妈”这个让人心碎的单词。大卫是机器,马丁是人,他鄙视大卫,在马丁的眼中,大卫仅仅是一个新开发的。马丁时刻压迫着大卫作为一个“人”所应有的那份权利。斯皮尔伯格用了大量的细节镜头来表现这种人与机器人之间的不平等性。

影片中对《机器屠宰场》的描绘是矛盾冲突的一个顶点。与人类有着类似外形的机器人以种种酷刑和死亡为代价为人类进行表演。机器人的形象与真人相似度极高,这样的画面让我想起纳粹对犹太人的屠杀同类的情景。在这里,影片似乎在昭示:我们生活的现实世界比电影残酷得多。且不论其他生物,每年有多少孩子在饥饿中丧生,在病痛中,但只因为他是黑人、是孤儿、是残疾,我们就悄悄地背过头,把自己的疼痛感应器关掉了。

三、爱的轮回

大卫的故事本身就是一种爱的轮回。他极尽全力表现着自己的爱,祈求一种守恒和轮回能招致他所期盼的爱。大卫的追求似乎是一个悖论:他希望自己成为一个最普通的真人小孩,他觉得自己是独一无二的,这二者只有在爱的领域内才是互不矛盾的表述。任何一个普通的甚至是丑陋的、笨拙的孩子,都拥有一种自信,觉得自己是父母独一无二的,不可替代的宝贝。而任何一个平凡的人,都有可能在爱人的眼里成为世界的中心。而这种独特性受到侵犯的时,爱就被动摇。这就是为什么说大卫看到与自己同名同姓、同样相貌身高的机器人时失控的、怒不可抑砸毁对方,并几近崩溃地反复喊道:“你不能占有她,我是独一无二的。”这并不是单纯的嫉妒而是一个人守护自身独特存在性的需求,这也是大卫在无法摧毁更多机器人时选择自我毁灭的缘由。

篇6

但即便象棋下不过、围棋下不过、力气也比不过,机器依然并不能取代人类。

人工智能会说“爱你”,但它不会真的爱你,它像一面镜子,照耀的是人类的善与恶,美与丑,爱与恨。杨澜说,一想到未来手机、空调都在搜集她的数据,这种裸奔的感觉让她不寒而栗。

杨澜又说,科幻片中的人机大战是天方夜谭。

不出意外,柯洁输了。

关于那个在第一局比赛结尾露出的笑容,柯洁的解释是:当然是苦笑了,因为我很早就知道我要输了。而搜狗总裁王小川点评比赛时则更加直接:我们的关注点不是机器能否赢,而是机器用什么姿势赢。所有人在这一回输赢问题上达成了共识。

资本与市场宣称,这已经是人工智能的时代了。

4月末,我们带着一个普通人对人工智能的疑问,与过去一年内探访了30多个人工智能研究机构及实验室的杨澜深谈。当时,她就预判道:AlphaGo还会赢。

果然,可以算得上波澜不惊,天才少年柯洁的完败远并不如去年李世石的失败那样让世人震惊。

杨澜说:她还记得,1997年,当IBM的电脑深蓝战胜了国际象棋冠军卡斯帕洛夫的时候,她曾经在一个节目中断言,这样的事情在围棋领域是绝对不可能发生的。

因为蕴含着古老东方智慧的围棋变化万千,它的布局走法可能性多达10的172次方,比宇宙中的原子数量还多。不止杨澜,围棋专家和人工智能领域的专家,当时也纷纷断言:机器要在围棋比赛中战胜人类,至少还要一百年。

但是只用了不到20年的时间,机器就做到了。数次人机大战,机器都无可辩驳地完胜了人类,甚至表现出了创造力和直觉这些人类最引以为傲的特质。当AlphaGo去年走出让人汗毛倒竖的那一步棋之后,当时比赛的解说员称,再管它叫电脑程序已经不合适了,你完全能感觉到人工智能的“智能”的存在。

什么是人工智能?它们和人类是什么关系?世界上最顶尖的人工智能实验室里都在发生什么?为什么很多名人都让人们警惕人工智能?人机共生,人类准备好了吗?

对人工智能做了深度探访的杨澜一一给出了回答。 杨澜在成为工业文明遗迹的伦敦旧码头上思绪万千

Q=《北京青年》周刊

A=杨澜

相较人工智能,人的可贵之处恰恰在于我们不完美

Q:你在去年春节前就启动了这个专题片的策划,那时AlphaGo还没赢李世石呢,为什么这么有先见之明?

A:是,我团队都在说“杨澜姐你太超前了”。我的确对人工智能特感兴趣,人工智能不只是一个新的技术,它会影响到人类的生产、生活,以及人和人之间的相处模式和这个社会的运行模式。我只是隐隐约约地觉得它的影响要深远得多,而且这一次的规模会来得很大。同时在我身边像李开复、张亚勤这些老友,在说到自己的一些研究和投资的方向的时候,也在不停地说到人工智能。让我觉得这件事情非常了得,却很少有人能说明白。

那我就觉得其实观众也会有同样的兴趣和同样的迷惑,以一个媒体人的嗅觉,我觉得应该去探索这件事儿。

Q:你们花了非常大的工夫,做了到目前为止最全面也最有深度探索人工智能的纪录片,我想知道这个过程中你有什么独特的发现和结论?

A:有很多有意思的发现。

人的智能有很多局限性,比如我们经常健忘,然后我们三分之一的生命是在睡眠中度过的,还会做各种各样奇怪的梦,从纯产出的角度,我们肯定不像人工智能一样可以24小时在那计算和下棋。还有,我们的头脑不是用来处理大数据的,我们不可能同时做50万人的人脸识别,我能认清楚我身边这两百个人已经很不错了。我们人类有这么多的局限,那我们的可贵之处在哪里呢?其实这个可贵之处恰恰在于我们不完美。

正如采访中麻省理工学院的一个教授对我说的,“会忘记是人的高级智慧的体现”,如果我们什么都记得住,我们一进了这个屋子,“啪啪”眼睛一拍照,把@个屋子哪有灰尘哪有小虫子等所有细节都记住,我们就不可能把自己有限的能力集中到我们需要去创造、需要去抓住核心的东西上。

所以人类不用妄自菲薄,不要以为一个机器在围棋上不可战胜了,它就在各个方面都超越了人的智慧,人的智慧是有它的独一无二之处的。

Q:走访世界各地做了这么多功课,有没有哪些场景让你受到震撼?

A:我觉得这种震撼既有你看到的东西,也有你可以想象的东西。

当我到了伦敦的旧码头,作为工业文明的遗迹,那边有很多遗留下来的旧的大库房,库房之间有很多铁的天桥。这个当年是多么宏伟,那种蒸汽腾腾,你都可以想象到伦敦的雾天的那样的场景,但是今天,静谧极了,已经成为一个纯粹的历史遗迹了。

于是你会想到工业革命当时在英国,把几百万的农民变成了工人,让他们进入了城市。其实每次大的技术革命和工业革命发生的时候,就会产生剧烈的社会矛盾,我觉得很震撼的就是:那接下来的这一次技术革命,又会带来怎样的社会冲击?

Q:李开复先生说,“人工智能将会给传统行业带来血腥的颠覆”,“十年之内,50%的工作会被AI取代”, 你怎么看?

A:我更愿意说成是未来十年,50%的工作都会受到冲击和影响。受冲击和被取代不是一个概念,至于是不是“50%的人都要失业”,我认为需要商榷。

但是有些行业肯定会受到比较大的影响。比如卡车司机这个职业,他们有可能在十年之内,真的失去他们的工作,那他们该去哪里?甚至如果将来都是无人驾驶的话,我们都不需要拥有私家车,就像今天的共享单车一样,将来汽车也是共享的,那会对现在的汽车制造业产生多大的影响?

还有,如果说蒸汽机替代了人的肌肉的话,那么这一次的人工智能会替代掉很多简单的白领工作,人的脑力工作也被取代了。比如说律师的助理,可能就是一个人工智能,它可以帮助你查到所有需要的案例和卷宗。比如医生的助理、读片师,人工智能已经可以掌握到一千万个关于肺癌的影像资料,就不需要一个老专家在那儿看半天,还有一定的失误率。还有记者,如果你只是做一个五个W的报道,那现在的人工智能已经在帮你做了。所以这一次的影响更深远,涉及到的人会更多。

Q:无人驾驶使卡车司机失去工作的场景,你觉得在十年之内真的会出现吗?

A:我认为在十年之内,无人驾驶是最容易实现的改变。你可以想象,在一些发达国家或是像中国一样的高速公路非常发达的国家,负责运输的司机可能真的不需要了。也许某些场合还需要有一个人把手放在方向盘上,随时准备着人机切换,但是从理论上讲,起码不需要现在这么多司机了。

我们不排除外星人进攻地球的可能性,但是不是现在就要马上建立一套防御系统呢?

Q:在片子中我们看到,科学界对人工智能的认知也不尽相同,甚至还有核心观点分歧,是这样吗?

A:对。我会发现,人工智能这个领域的科学家,往往都是抱有比较乐观的态度。他们认为人工智能不过是自动化的一个新阶段而已,最终还是可以被人类所控制的。

但是,周边学科的科学家和社会公众,似乎对于人工智能的忧虑更多一些。也可能是因为我们看了不少科幻小说和科幻电影,所以就总会假想,如果机器有了人类不可控的能力怎么办?

斯坦福大学有一位人工智能的专家卡普兰教授,他说,其实人对于未知的,但是又很有力量的东西,总是心怀恐惧的。卡普兰教授比喻,这就像一个人在爬树,然后你就会担心他要是爬到月亮上了该怎么办呢?

Q:你自己更倾向于那种观点?

A:我更倾向于:我们眼前有足够多的事情需要去做。与其去担心一个所谓的智能机器将来会统治我们,不如好好来考虑一下随着人工智能的发展,我们的交通规则是否需要改变,失业的人如何能够维持一家庭的生计,还有由于大数据的发展所带来的我们的隐私问题到底该怎么保护?我觉得眼前的这些事情,已经足够我们烦恼了。

就像我采访哥伦比亚大学诺贝尔奖的获得者、著名的脑科学专家埃里克,他是研究人的学习能力、人的神经系统的。他说“I worry more about Trump”,他说我更担心的是川普的问题,而不是未来的一个机器……这就像说,我们不能够排除外星人来到地球的可能性,但我们现在是不是要马上建立一个专门为了防御外星人入侵的防御系统呢?

Q:所以你是偏向于更乐观,也更务实的态度?

A:我不代表乐观,我觉得技术永远是一把双刃剑。

人类其实可以仰望星空,让自己的想象力无边地驰骋,但是人工智能将要带来的冲击已经在敲门了,我们还是应该首先来应对目前就已经要发生的改变。而且技术的革命和科技的发展,在人类的历史上,从来没有因为人主观的乐观或者悲观,就停止脚步。从来没有!

Q:科幻片中说的那种人机大战是天方夜谭吗?

A:我认为是天方夜谭!在科幻电影里,是机器人一伙,人类一伙,两方产生了不可避免的冲突。但在现实生活中更可能出现的情况是,一群人带着自己的机器,和另外一群人带着他们的机器,所产生的冲突。所以最终要协调的,还是人的利益冲突,而不是说机器突然有了整体的自我意识,决定要把人给颠覆了。这个我认为只是科幻的场景。

Q:那么你觉得机器人可以具有人的价值观和思维方式吗?

A:我认为它们可以因为被输入的游戏规则而展现出某种人类表达的特质。比如说它被输入了“在某种情况下就要说我爱你”,但这并不意味着它感受到了爱;或者说它可以下一千万盘棋,但它不会像一个人那样,真正地享受下棋的过程。

实际上,我们现在只能证明,人工智能在一些需要处理大数据的垂直的领域具有超快的学习能力,但并没有证据表明它们会形成自我意识。

Q:所以你如何看待柯洁5月份将与AlphaGo进行的终极人机大战?(本刊记者采访杨澜时比赛还未进行)

A:虽然从我的判断上来说,它还是会战胜柯洁的,但是从另外一个角度来说,明明知道面对AlphaGo胜率并不高,柯洁还是愿意接受这个挑战,我觉得这就是体现了人类的智慧。而且,即便它能够战胜世界上所有的围棋高手,So what?

中国现在应该开始为迎接人工智能的时代做制度安排

Q:你认为,人工智能最有可能从什么领域进入到常规的日常生活?

A:我想到的是三个方面,一是无人车,就是无人驾驶,它可能会改变我们的出行方式。

第二个,在中国的场景下,就是医疗。因为中国的医疗资源实在分布得太不均衡,医疗能力实际上是集中在一些大城市的顶级专家的手里。但是因为中国人口基数大,医疗数据库也非常庞大,所以如果能够借用人工智能,就可以给那些乡镇级、社区级的医生提供非常好的诊断服务。

第三个方面,如果你要问李开复先生,他可能会说金融了,但是实际上中国在高频交易这些方面还是有限制的。比如股票,如果它用高于人零点几秒的能力下单的话,它就不得了了,但是它也会扰乱整个市场的秩序。

但我觉得,在法律援助这个方面其实是可以考量的,其实现在律师的很大一部分工作是在搜索和查询相关案例和相关法律条例,以及其他类似案件的判决情况。如果有了人工智能的帮助,可能以后基础的法律咨询就不需要请那么昂贵的律师了。

Q:这次的采访涉及全球,你感觉人工智能领域,中美之间的差距大不大?

A:其实中美两国在人工智能领域都是属于第一方阵的,在技术发展的水平上,我觉得各有优势。

的确在原创核心技术的突破方面,还是美国的实验室能力相对要强。但中国是一个大数据的王国,而所谓的机器学习,实际上是大数据学习,这是我们的天然优势。美国在这方面的资源远不如中国。

Q:中国之前的发展受益于所谓的人口红利,在人工智能时代到来的时候,这会不会成为劣势呢?

A:我认为不能简单地说是优势还是劣势。因为中国巨大的人口规模,会使中在大数据采集和人工智能的应用层面,具有得天独厚的优势。

但另一方面,过去几十年我们依赖低的劳动力成本和出口所带来的制造业的繁荣,也必然要进入一个新的阶段。如果你不能提升品牌的价值和品质,那么劳动力这个优势,其实正在迅速失去。

那如果很多蓝领要失业了,那这些蓝领应该怎样安排?会给社会带来什么样的不安定因素?这都是应该去面对的。

Q:你会有这样的担心吗?

A:我觉得现在就应该做制度安排,这个事情其实是说来就会来的。你现在去东莞看看,很多流水线都是无人工厂了,工人被机器人取代就是眼下正在发生的事情。所以我觉得像特朗普还在跟美国失业的蓝领工人说“我们要把工作从中国人的手里夺回来的时候”,我心里一阵冷笑,其实拿回美国也只是给机器人做而已,因为这是一场巨大的技术革命,它已经不是从什么人手里夺回来一份工作而已。

所以我觉得像中国这样的制造业大国应该开始做一些制度的安排,来更好地应对随之而来的比如失业问题,再培训问题,和税收的问题。

人工智能必然会带来伦理问题,而且已经就在眼前了

Q:斯坦福大学的李飞飞教授多次提到人工智能带来的伦理问题,你是什么观点?

A:人工智能一定会产生伦理问题,而且涉及很多层面。比如微软做了一款人工智能情感机器人“小冰”,当时放在网络上进行测试的时候,就有很多人故意教它说脏话,教它说一些种族主义和充满暴力的话,那么这个人工智能就像我们说鹦鹉“嘴脏了”一样学会了。其实人工智能就像一面镜子,它照耀的是人类的善与恶,美与丑。

还有像自动驾驶,如果出现一个两难的局面,它究竟应该牺牲车上的一个人,还是牺牲路边的很多人,甚至包括孩子?你要把这个选择权交给一个机器吗?如果你交给了机器的话,那么谁又会出钱买一辆将要牺牲自己的车呢?这是一个极致的问题,却不能说它不存在。

还有隐私问题,它其实也是一个伦理和道德范畴的事情。比如商业机构在多大程度上可以使用我的消费行为数据?我在多大程度上愿意暴露我的私生活?在什么样的环境不允许装这个数据采集器?我觉得这些其实就在眼前了。

Q:这么多的伦理问题又应该怎么解决呢?

A:我觉得这是我们需要面对的问题,但不是无解的问题。就像当年从马车变成了汽车,才有了红绿灯和人行道。社会的治理方式和制度的安排,一直都是跟着技术的发展而不断调整和改变的。

Q:前面说到人口红利和大数据采集,但是这其实也面临一个信息安全的问题。事实上我们今天的消费行为甚至个人资讯已经是透明的。

A:这一点我就觉得挺恐怖的,将来绝不仅仅是某些明星和名人的隐私,而是我们每个人的隐私、我们的消费习惯是不是能够得到足够的保护?因为我不想将来我得到的每一个推送,其实都是人工智能很有心机、很有套路地推送的。你还以为是你自己的要求,其实是别人对你的行为的预测。

并且我觉得中国当下应该开始研究隐私方面的法律保护了,可以说中国是摄像头最多的国家,从人脸识别到人工智能的使用,能够让像G20峰会这样的大型会议在开办之前,可以非常高效地抓到在这个城市潜伏的嫌疑犯,因为他们哪怕是一个侧面(被捕捉)都可以被认出来。

技术进步在推动社会发展的同时,法规和制度建设上的配套一定要跟上。

在我有生之年,我的工作不可能被人工智能替代

Q:你目前的生活跟人工智能的关联度高吗?

A:我主要是用手机,我们家还没有用扫地机器人。包括我现在,到睡觉的时候我都希望把手机彻底关掉,或者把它放到另外一个房间去充电。但是一想到未来的手机也好,空调也好,都在搜集我的数据,我就感到不寒而栗,好像有一种裸奔的感觉。所以我觉得未来可能我会比较有意识地把我的工作环境和我的卧室分开,虽然可能分开了也没啥用……

Q:你觉得自己的生活需要跟机器人隔离开吗?

A:那不会。如果是在工作的场景下,我可能很需要一个人工智能的助理,来帮我安排一些琐碎和需要数据处理方面的事情。比如我做采访之前做功课,需要好几个研究员或编辑来做案头的工作,其实将来可以让语音搜索和图像搜索帮助完成很多工作,所以我觉得它还是会为我的工作和生活带来很大的便利的。

Q:你觉得你的工作会被人工智能替代吗?

A:不会,我认为在我的有生之年,我的工作不会被取代。因为我不仅仅是在做一个简单的播报的工作,背后还有很多综合性的思考。我觉得机器在短期内,没法取代我的工作。

关于人工智能的“权威碰撞”

许多年前有一本小说,书名是《海底两万里》。这部幻想作品中的人,发明了一艘使用核动力的潜水艇。如今这早已经成为寻常的现实了。

某种意义上,我们已经进入了前人所预言的时代。

硅谷流行这样一句话:预测未来的最好方式就是创造它。

人类创造了机器,机器又改变了人类。

2016年5月,一辆特斯拉汽车在美国佛罗里达州与一辆拖车相撞,驾驶员丧生。事故原因是处在自动驾驶模式的汽车没能在明亮的天空下发现拖车的白色车身。

特斯拉汽车“自动驾驶”是一项辅助功能,每一次自动驾驶启动时,车辆都会提醒驾驶员“请始终握住方向盘,准备随时接管”。

放开方向盘,意味着人类将一部分掌控权交给了机器。

这也带来了更多的法律和伦理问题:

例如谁来为交通事故负责?

当汽车成为智能的移动空间万一有黑客入侵,谁来保证乘客的安全呢?

机器也将面临人类的道德困境:

在f不得已的情况下,自动驾驶汽车到底该优先保护车内的乘客,还是路边的人群呢?

如果选择后者,谁又会愿意购买一辆会牺牲自己的汽车呢?

英国著名物理学家史蒂芬?霍金多次公开表示对人工智能的担忧,他认为:“对于人类来说,强大的人工智能的出现可能是最美妙的事,也可能是最糟糕的事,我们真的不知道结局会怎样。”

特斯拉汽车公司掌门人伊隆・马斯克甚至宣称:随着人工智能的发展,我们将召唤出恶魔。

马文・明斯基是人工智能的先驱之一,他有个著名的说法“如果我们走运的话,机器或许会把我们当宠物养着。”

但是,更多人工智能专家的观点是:

现在担心邪恶的智能机器人奴役人类,就像担心火星上人口过剩。――百度前首席科学家吴恩达

在整个人类历史上,其实只有两次大事件是从根本上改变了人类生存状态,一次是工业革命,一次是农业革命。这一次的智能革命是堪比这两次革命的重大事件,可能更为重要。而且,要快速的多。――牛津大学人类未来研究院院长尼克・博斯特罗姆

人工智能会改变人类社会。因为作为一个那么强大的科技,它不光是针对情感、或意图,它也是对智能本身,对有知觉的存在本身的一个挑战。这是一个很好的哲学社会话题。――斯坦福大学人工智能实验室主任李飞飞

篇7

关键词:人工智能;犯罪主体;刑罚

新事物的发展会对社会原有规范产生冲击,因此社会规范需要不断调整来应对这些问题。人工智能的出现对传统社会规范特别是刑法犯罪主体认定、罪名设置等提出了深刻地挑战。[1]面对这些刑法应该如何应对值得我们深入思考。

一、人工智能对刑法传统制度的冲击

人工智能大致可分为弱人工智能、强人工智能和超人工智能阶段。超人工智能在当下来看太过科幻化,我们暂且不在本文中讨论。弱人工智能具有超强的运算和学习能力,但只能在人类设定的算法程序下实施着特定动作;而强人工智能除了具备弱人工智能的优点外还可能像人类一样拥有自主意识。

(一)弱人工智能对刑法的影响

1.弱人工智能对犯罪主体认定的冲击。无人驾驶汽车造成的交通案件是人工智能对犯罪主体认定提出挑战的典型代表。无人驾驶技术参与的交通肇事与一般交通肇事在本质上是一样的,唯一的争论焦点就在于人工智能可否成为交通事故的责任者。在现行刑法领域内,犯罪都是“人”在实施的,这里的“人”指的是自然人和法人,从目前的刑法条文来看人工智能不是犯罪构成要件中的“人”。[2]无人驾驶汽车可以完全由人工智能来操作,那么在“人”退居幕后的情况下交通肇事的行为是由谁实施的呢?刑法学上刑事主体的归责原则是“无行为无犯罪”,如今人工智能仍只是被视为高科技产品,违反交通法规并不是它的“本意”。既然其没有支配行为的意志,将其认定为犯罪主体在目前来看是不合适的。

2.弱人工智能对罪名设置的影响。弱人工智能在现阶段仍被视为工具,它在特定程序的控制下“听命”于人类,这使其很容易被不怀好意之徒利用而成为“得力”的犯罪工具,但是由于人工智能的类人化特点使其与传统的犯罪工具相比大相径庭,例如有人利用人工智能进行在现阶段应该如何定罪呢?我们发现现行刑法并没有针对这种行为的罪名设置,根据罪刑法定原则无法对其定罪。

(二)强人工智能对刑法的影响

1.人工智能对主体责任判断的冲击。强人工智能可能像人类一样拥有自主意识而被赋予主体资格独立承担刑事责任,而刑事责任的承担需要分析积极因素和消极因素两个方面,积极因素包括罪过(故意、过失)、目的等,消极因素包括责任阻却事由等,所以说刑事责任的判断是需要分析主体的主观意识的。而主观意识往往是不可观的,在传统犯罪中我们可以通过客观行为判断出主体的主观意识;而强人工智能体的算法逻辑和人类的思维逻辑可能是完全不同的,也就是说我们无法通过客观行为来判断它的主观意识,那么在这种情况下我们该如何判断人工智能的主观意识呢?

2.人工智能对刑罚制度的影响。人工智能从本质上来讲是由特定程序控制的计算机。鉴于人工智能心智和形体可分离的特殊性,一旦被赋予刑事主体资格,在人工智能触犯刑法时要规制的是控制它行为的特定程序,而不是该程序的外在载体即计算机。因此我们对人工智能适用刑罚时,重点是如何限制其程序的自由或者剥夺其程序的生命等。简单的切断电源、断开网络或者单纯地限制人工智能形体的自由,并不能达到规制人工智能的目的,因为人工智能的程序是由预先输入的命令语句所决定的,以上措施可使人工智能体暂时无法工作但是其内在特定程序并未改变,在接通电源和网络或者解除对其自由地限制后很难保证其不会犯同样的罪行。

二、人工智能时代刑法的制度重构

(一)刑法对弱人工智能阶段所产生问题的回应

1.刑法关于弱人工智能对犯罪主体认定带来的冲击的回应

以无人驾驶汽车造成的交通肇事案件为例,按照“无行为无犯罪”的传统刑法规则原则来看,似乎传统意义上的肇事者已经“难觅踪迹”了。[3]笔者认为,可以从如下方面来应对人工智能对犯罪主体认定带来的冲击:

(1)以交通肇事罪追究无人驾驶汽车使用者的责任。在无人驾驶汽车的行驶中,虽然无人驾驶汽车主要靠车内智能驾驶仪来实现车辆的行驶,但这并不是说免除了使用者的一切注意义务,特别是车辆在情况复杂的道路上行驶时,使用者更要尽到注意义务,若是由于使用者未尽到注意义务造成重大交通事故,则可以交通肇事罪追究无人驾驶汽车使用者的责任。

(2)以产品犯罪追究无人驾駛汽车生产者和销售者的责任。在现阶段无人驾驶汽车仍被当做产品来看待,那么无人驾驶汽车的生产者和销售者就要为此承担一定程度的产品质量保证责任,如果不是由于现有技术瓶颈,而是无人驾驶汽车存在质量问题导致重大交通事故的发生,则可以生产销售伪劣产品罪等产品犯罪来追究生产者和销售者的责任。[4]

(3)由社会保险来承担责任。如果说该事故是由于当下技术瓶颈等非人为因素造成的,是社会发展所带来的风险。[5]那么此时可以选择由社会保险来承担这份责任。

2.刑法关于弱人工智能对罪名设置影响的回应。针对可能有人利用人工智能犯罪而法无明文规定的情况,在罪名设置方面有增设新的罪名或者对传统刑法罪名进行修正两种方案。增设新的罪名如“滥用人工智能罪”等口袋罪名,在人工智能的外延尚未彻底界定清楚的情况下贸然增设口袋罪会显得过于宽泛而无法准确定罪量刑。鉴于此笔者认为可以对传统刑法罪名作出针对性修改使其可以囊括该种类型的犯罪行为,这样就可以达到制裁此类犯罪维护社会秩序的目的。

(二)刑法对强人工智能阶段所产生问题的回应

1.强人工智能阶段刑法对人工智能主体责任判断的回应。上文中我们提到由于人工智能的特殊性我们可能无法通过传统方式分析出它的主观意识。[6]对于此笔者认为,既然人工智能是由算法程序控制的,我们不妨通过探究算法逻辑并摸索出算法程序的特点,进而通过分析人工智能的算法程序来判断它的主观意识,最终得出其应当承担的刑事责任。

2.强人工智能阶段刑法对人工智能刑罚制度的回应。由于人工智能体的特殊性,现行刑罚制度无法对其直接适用,因此我们需要创造出针对人工智能程序的特有刑罚。比如我们可以考虑通过更高级别的命令语句修改或者重新编写其程序,以此降低或者终止它的学习和运算能力,这样就可以达到规制人工智能程序的目的。

结语

人工智能已全面参与到我们的生产生活之中,并对我们的现行社会规范产生了深刻的影响,刑法作为人类社会稳定的重要调节器受到了人工智能的多方面挑战。因此刑法需要做出针对性的改变,尽量减少人工智能对人类社会造成的消极影响并让其更好的服务于人类的当下与未来。

参考文献 

[1] 王军:《人工智能的伦理问题:挑战与应对》,载《伦理学研究》2018年第4期。 

[2] 何丽:《基于人工智能视域下的法律主体研究》,载《政法学刊》2018年第3期。 

[3] 谭钊:《浅谈无人驾驶汽车的前景和面临的挑战》,载《东方法学》2017年第8期。 

[4] 林伟杰:《产品质量法释义》,中国民艺出版社2006年4月版。 

[5] 林伟:《关于预防人工智能反叛的初步探讨》,载《机器人技术与应用》2017年第4期。 

篇8

人工智能的监管与责任,其实和安全与公共福利一样,都像是硬币的正反面。监管的目的,是为了确保人工智能系统尽可能的安全;而责任,其实就是为了当人工智能系统出错时,我们可以找到可以追究问题的人,或者再说的准确一点儿,就是找谁可以获得法律上的赔偿。

应该向谁追责呢?

让我们先来谈谈责任问题吧。首先,我们可以模拟一个侵权(民事)责任问题,想象下,在不远的将来可能会发生这样一个场景:一辆无人驾驶拖拉机原本应该按照指令在A农民的田里播种,但是奇怪的是,它却把种子播种到了B农民家的田里。

让我们先假设A农民是完全按照操作手册来使用那辆无人播种拖拉机的,同时,我们也假设A农民无需再做其他额外的操作,比如在农田交界处设置无线电信标,等等。那么现在,假设农民B要来控告这次错误播种事件(我们暂且不考虑诸如滋扰和侵犯等问题),会遇到哪些问题呢?。

实际上,有很多问题需要被回答,这个事故是农民A的责任吗?可能不是;那么,是无人播种拖拉机厂商的责任吗?有可能,但在此之前,我们是不是该明确与这些问题相关的责任和标准呢?比如无人播种拖拉机的行业标准是什么,制造商的产品规格是否符合相关标准呢?不仅如此,如果自己的土地被他人种植上了其他农作物,这是否算是财产损失,又是否能否追溯经济赔偿呢?

在一连串问题之前,我们其实是先假定了无人播种拖拉机里面的系统软件是由制造商开发的。那么接下来又有新的问题出现了,如果那套人工智能系统是由第三方开发公司完成开发的,该如何处理?还有,系统内部的软件代码是由多人合作完成的,又该如何界定各自的职责?

随着时间的推移,人工智能系统将会越来越不依靠传统的经典算法和代码,而且他们也会展示出更多我们无法预料到的行为,值得一提的是,这些行为没有人可能预测得到,甚至包括人工智能系统的创造者也无法预料。但重要的是,可预见性,其实是处理责任过失问题中一个非常关键的组成部分。

为了能够让读者更好地理解可预见性问题,我们才会假设了上面那个无人播种拖拉机的案例,或许十年、二十年之后,人工智能已经不再是简单的种错庄稼这件事儿了,它可能会是某个意外让人们受伤,更严重一些,人工智能可能会不小心杀人。所以,如果我们的法律无法适时作出改变,那么未来将会导致更多问题出现。就拿上面那个人工智能种错庄稼的事情为例,当无法实现可预见性,最终的结果就是没人承担责任!

责怪人工智能机器人

为什么我们不干脆去责怪机器人呢?毕竟,关于人工智能人格也有过讨论,而且人工智能系统本身也有担负刑事责任的可能。

但是,这种方法在实际应用时又有什么不一样呢?这里,还是借用别人曾经说过的一句话吧。“人工智能系统真的会像著名小说家艾萨克·阿西莫夫笔下的机器管家那样吗?遵守法律,遵从道德良知,还能保护银行存款?”

我们姑且不去讨论人工智能系统是否可以被起诉,但人工智能制造商和开发商们必须受到监管。只有这样,才有可能将一些无法归责的各方,用严格责任赔偿(注:严格责任赔偿是指只要造成了损害,不论行为人有无过错,都要承担赔偿责任。常见的适用于无过错责任原则的,有从事高压、剧毒、高速、放射等作业造成他人损害的。工伤是典型的适用无过错责任原则的,也就是说只要劳动者在工作期间因公受伤了,排除劳动者个人主观故意的因素之外,雇用单位无论有无过错都要承担工伤赔偿的责任的。)约束起来,

实际上,在我们的日常生活里,严格责任赔偿已经应用到了很多地方。当然除了这种责任赔偿之外,如果需要对人工智能追责,其实也可以采用无过错责任赔偿和赔偿方案池等方式。

规章制度

如果从监管的角度来看人工智能,那么你会发现,严格的安全标准,以及建立完善的安全认证流程也都是非常必要的。不过,如何设计一个合适的机构与流程框架,并且让这个框架得以有效运行,依然是一个非常棘手的问题。

人工智能领域复杂难懂,而且外部世界对于人工智能研发圈子普遍缺乏认识,这也就是人工智能专家需要尽快创建行业框架的原因所在。实际上,这里所说的框架,就是规章制度,说通俗些也就是游戏规则。因此,这意味着人工智能顾问委员会需要和政府一起,尽快立法,建设行业标准。

我们不得不承认,人工智能行业存在巨大的潜在效益;但是标准和流程,需要不断的创建、更新、并且执行,这样才能达到一种持续性平衡,继而最大限度地提高公共福利和安全;当然,也只有这样,才不会扼杀创新,更不会出现不必要的法律负担。

事实上,站在国家的角度上,建立任何一个法律框架或游戏规则,都必须要足够灵活,监管机构不仅需要考虑到本国利益,也要从全球角度出发。这意味着在某种程度上,你不仅要考虑本国的人工智能产量,以权衡进口其他各国人工智能技术,同时,你还要思考该如何任何不同国家之间的安全标准和认证,必要的时候,你是否还需要遵守未来可能出现的国际条约或公约,等等。所有这一切,远比我们想象的要复杂得多。

推荐期刊