期刊 科普 SCI期刊 投稿技巧 学术 出书 购物车

首页 > 优秀范文 > 人工智能带来的思考

人工智能带来的思考样例十一篇

时间:2023-06-16 09:26:40

序论:速发表网结合其深厚的文秘经验,特别为您筛选了11篇人工智能带来的思考范文。如果您需要更多原创资料,欢迎随时与我们的客服老师联系,希望您能从中汲取灵感和知识!

人工智能带来的思考

篇1

机器学习是一种高级形态的模式识别,能够让机器通过分析大量数据来做出判断。这有望大大辅助人类思维。但这种与日俱增的能力引发了近乎“科学怪人”(Frankenstein)式的担忧:开发人员能否控制他们创造出的机器?

加州大学伯克利分校计算机科学教授、人工智能专家斯图亚特?拉塞尔表示,自动系统的失误(就像去年驾驶一辆特斯拉汽车,部分自动驾驶汽车的美国驾车者死亡那样)促使人们关注安全。他表示:“这种事件可能会严重阻碍行业的发展,因此这里有着非常直接的经济自身利益。”

除了移民和全球化,对人工智能驱动的自动化的担忧,正引发公众对于不平等和就业安全的担忧。唐纳德?特朗普当选美国总统以及英国投票退出欧盟在一定程度上就是受到这类担忧的推动。尽管一些政治人士声称,保护主义政策将有利于劳动者,但很多行业专家表示,多数就业损失是由科技变革(主要是自动化)造成的。

英国《金融时报》与高通联合开展的Essential Future调查发现,全球精英(那些收入和受教育程度高、生活在首都城市的人)τ诖葱乱比普通大众热情得多。除非弥合这种差距,否则它将继续引发政治摩擦。

美国企业家、撰写道德和科技文章的学者维微克?瓦德瓦认为,新的自动化浪潮具有地缘政治上的潜在影响:“科技公司必须对他们所创造出的东西承担责任,并与用户和政策制定者合作,缓解风险和负面影响。他们必须让员工花时间思考哪里可能出错,就像他们花时间宣传产品那样。”

人工智能行业正在准备应对反弹。人工智能和机器人领域的进步,已经把自动化引入白领工作领域,例如法律文书和分析财务数据。麦肯锡的一项研究称,在美国员工的工作时间中,大约有45%用在可以借助现有技术实现自动化的任务上。

为了确保人工智能有利于人类,已经建立了一些行业和学术计划。其中包括由IBM等公司创建的人工智能造福人类和社会合作组织,以及涉及哈佛大学和麻省理工学院的一项2700万美元计划。得到埃隆?马斯克和谷歌支持的OpenAI等组织已取得进展,拉塞尔教授表示:“我们看到了一些论文,它们针对安全性的技术问题。”

这方面有一些过去应对新技术影响努力的回声。微软首席执行官萨蒂亚?纳德拉将其与15年前相比,当时比尔?盖茨动员公司的开发人员抗击电脑恶意程序。他发起的“可信计算”倡议是一个分水岭。纳德拉在接受英国《金融时报》采访时表示,他希望采取类似的举措以确保人工智能造福于人类。

然而,人工智能带来了一些棘手的问题。机器学习系统从大量数据中得出见解。

微软高管埃里克?霍维茨去年底在美国参议院听证会上表示,这些数据集可能本身就存在问题。他表示:“我们的很多数据集是在假设我们可能并不深入理解的情况下收集的,我们不希望让我们的机器学习应用放大文化偏见。”

新闻机构ProPublica去年进行的一项调查发现,美国司法机构用来确定刑事被告人是否有可能再次犯罪的算法存在种族偏见。再次犯罪风险较低的黑人被告比白人被告更容易被标记为高风险。

提高透明度是一条出路,比如明确人工智能系统使用了哪些信息。但深度学习系统的“思维过程”不容易加以审查。霍维茨表示,人类很难理解这种系统。“我们需要理解如何证明(它们的)决策合理,以及这种思考是如何完成的。”

随着人工智能影响更多政府和企业决策,影响将是广泛的。“我们如何确保我们‘培训’的机器不会固化和放大困扰社会的人类偏见?”麻省理工学院媒体实验室主任伊藤穰一问道。

纳德拉等高管认为,答案将是结合政府监督(言外之意,这包括对算法的监管)和行业行动。他计划在微软成立一个道德委员会,以处理人工智能带来的任何棘手问题。

他说:“我希望有一个道德委员会,它会这样说,‘如果我们要在任何作出预测、可能具有实际社会影响的场合使用人工智能,那么它不带有内置的一些偏见’。”

确保人工智能在不会带来一些意想不到的后果的情况下造福人类,是很困难的。拉塞尔教授说,人类社会无法界定自身想要什么,因此通过编程让机器为最多数量的人谋求最大幸福是存在问题的。

这就是人工智能所谓的“控制问题”:智能机器将一心追逐武断的目标,甚至当这些目标并不可取的时候也是如此。“机器必须考虑到人类真正想要的东西具有不确定性,”拉塞尔教授说。

篇2

人工智能,英文缩写为AI。它是研究、开发用于模拟、延伸和扩展人的智能的理论、方法、技术及应用系统的一门新的技术科学。

人工智能是计算机科学的一个分支,它企图了解智能的实质,并生产出一种新的能以人类智能相似的方式做出反应的智能机器,该领域的研究包括机器人、语言识别、图像识别、自然语言处理和专家系统等。人工智能从诞生以来,理论和技术日益成熟,应用领域也不断扩大,可以设想,未来人工智能带来的科技产品,将会是人类智慧的“容器”。人工智能可以对人的意识、思维的信息过程的模拟。人工智能不是人的智能,但能像人那样思考、也可能超过人的智能。

人工智能是一门极富挑战性的科学,从事这项工作的人必须懂得计算机知识,心理学和哲学。人工智能是包括十分广泛的科学,它由不同的领域组成,人工智能研究的一个主要目标是使机器能够胜任一些通常需要人类智能才能完成的复杂工作。

(来源:文章屋网 )

篇3

近年来大数据、云计算等信息技术飞速发展,人工智能在一些特殊领域(如图像识别、语音识别、自然语言等)不断取得突破性进展。人工智能作为新的技术驱动力正引发第四次工业革命,为医疗、教育、能源、环境等关键领域带来新的发展机遇。人工智能专家预测,人工智能在通用技术领域可能尚不能替代人类,但在一些特殊领域,人工智能将会淘汰现有的劳动力。在国外,许多国家纷纷把人工智能作为国家发展的重要竞争战略,我国学者也密切关注着人工智能的最新理论进展和实践应用,国务院于2017年7月颁布《新一代人工智能发展规划》,明确人工智能发展的重点策略。“人工智能变革教育”的潮流,引发了教育研究领域的“人工智能热”。当前全球范围内,人工智能在教育领域的大量研究和应用催发形成了教育人工智能概念。目前梳理学术上关于研究人工智能与教育的文献主要集中于:

(一)教育理念的革新。“人机一体”将成为未来新的教育方式[1],由新技术和新手段的出现所应运而生的智慧教育[2],将对原有教育进行改进和完善。智能技术在改变教育的手段和环境的同时,还有利于构建出系统解决教育问题的教育新体系,从而真正触及教育的根本[3]。

(二)关注技术的革新。机器深度学习、智能学习的算法、视觉识别以及智能语言识别这些基础技术的突破,为人工智能的教育应用奠定了坚实的基础[4]。

(三)探究教育的应用。人工智能在学校教育中的学业测评、交叉学科、角色变化等应用领域具有巨大潜力,教师角色内涵也将在与人工智能的协同共存中发生改变。AI监课系统能够数据化、可视化评估教师的授课情况,将人工智能技术的运用渗透到整个教学过程中,教师可以根据评分实时调整授课内容,以促进个性化学习,从而提升教学效果。教育深受技术发展的影响,新技术融入教育并促进教育方式的转变已成为必然趋势。一方面技术为教育提供了新的、更加广阔的可能性;另一方面技术具有变革人类的教育方式与学习方式的能力。然而,技术是一把“双刃剑”,如何获取或实现以人工智能为代表的新兴信息技术所拥有的特征、优势与功能,使其在教育中最大限度地发挥其应有的价值呢?人工智能技术如何继续被安全使用到教育领域?如何通过教育变革来促进新兴信息技术在教育教学中的广泛与深入应用,实现教育深层次革命等问题,是目前需要关注和探讨的主要问题。

1人工智能时代下教育变革的背景

1.1人工智能的内涵及具备的强大能力

人工智能最早由美国达特茅斯学院于1956年提出,其研究主要包括机器人、图像识别、自然语言处理、语音识别等,实质是一种自动感知、学习思考并做出判断的程序。人工智能具有自主学习、推断与革新的能力,推动了图像识别、自然语言处理等方面的技术突破。人工智能同时具有理性判断力、超强的工作力,只要电力供应不断,几乎可以无限制地工作下去,而且适应不需要情感投入的工作。它的超强能力,源于三个重要的技术:深度学习、大数据和强算力。

1.2人工智能时代的机遇和挑战

人工智能在精力、记忆力、计算力、感知力以及进化力等方面与人类相比,具有突出优势。在医药领域,人工智能的出现使普通民众可以享受更为高效、稀缺的医疗资源,解决医疗诊断领域诊断质量不均衡、医生资源不足等问题。在教育领域,人工智能促进教学质量进一步提升、教师角色多样化、学生学习能力的提升;为教育研究提供新技术和数据支撑;极大拓展了教育研究新视域;使教育在立德树人方面、教育方法创新方面、教育手段和环境方面以及教育服务供给方式方面均发生改变。然而,看到人工智能以其强大的处理能力带来机遇的同时,也需要正视人工智能带来的新挑战。在人工智能浪潮冲击下,如何借助人工智能发展的机遇推进教育的变革与创新?人工智能技术如何继续被安全使用?首先,人工智能专家大都认为,人工智能将会淘汰大量现有的依靠非脑力劳动为生的劳动力,需要培养人工智能时代的新型劳动力。而且,人工智能技术本身的不太成熟使很多人工智能技术只是应用在儿童教育领域,再者,人工智能潜在的道德伦理问题缺乏法律制度规范。除此之外,人工智能时代将对社会结构以及人的地位构成挑战。综上所述,人工智能时代所带来的机遇是大于挑战的。教育需适应人工智能技术所带来的突破和飞跃,不断调整和更新教育的方向和目标,实现育人成人的发展目标。

2人工智能与教育变革

2.1人工智能与教育目的的变革

人工智能带来的巨变不仅影响人类未来如何发展,而且极大释放了人类的生产力,这些在一定程度上使得人类需要重新思考教育是何目的。人工智能影响教育目的的变革主要表现在:第一,人工智能可能会使人类陷入精神危机。这源于两方面的结果:一方面,人工智能将取代大部分人的工作岗位,工作的丧失将会导致人的价值和尊严丧失。另一方面,人工智能技术的发展将可能导致所有基于自由主义的想法破产,转而人类所拥有的价值和尊严可能转化为一种“算法”,人工智能带来的职业替代风险在教育领域同样存在,主要是对教师角色的挑战。第二,人工智能有利于培养人的学习能力。从某种角度上讲,人工智能剥夺人的就业机会,但同时,人工智能助教机器人将协助教师实现个性化指导,从而有利于将学习的过程视为寻求自我价值和意义的过程。除此之外,人工智能有利于使教育注重培养人的精神能力,这种精神能力大致包括实践动手能力、价值追求能力以及创造能力,从而有利于学生知识以便于更好地完善自我、丰富自我,使教育跳脱“知识为本”的陷阱,发挥“立德树人”的正向作用。

2.2人工智能与学习方式的变革

第一,深度学习。深度学习也称为深度结构学习或者深度机器学习,是一类算法的集合。深度学习概念的提出,一方面尊重了教学规律,另一方面也是应对人工智能时代下的挑战。深度学习在机器学习、专家系统、信息处理等领域取得了显著成就,提倡学教并重、认知重构、反思教学过程,进而达到解决问题的目的。第二,个性化学习。个性化学习区别以往传统班级课堂授课,尊重学生的个性发展,因材施教。人工智能技术与大数据的应用有利于学生享受个性化的学习服务,可提供个性化的学习内容,可视化分析学生的学习数据,快速提高学生的学习效率。第三,自适应学习。自适应学习是指人工智能基于对个体学习进行快速反馈的基础上,根据学习者特征,为其推荐个性化的学习资源和学习路径,从而最大程度上适应学生的学习状态,是实现个性化学习的重要手段。人工智能技术有利于快捷、科学地判断学生的学习状态,进行学习反馈;持续收集学生的学习数据,其中包括学习目标、学习内容;高效地为学生提供海量的学习资源。

2.3人工智能与学习环境的变革

首先,有利于搭建灵活创新的学校环境。不仅可以使空间规划更具弹性,而且可以调节性增强物理环境。其次,人工智能时代的教育区别于以往传统教育强调的统一秩序,更注重个体的用户体验。创客空间、创新实验室等学习环境的不断增加以及人工智能技术的不断发展,个性化的空间环境与学习支持将改变目前学习的学习空间环境。除此之外,随着对话交互技术的逐渐成熟与不断普及,有利于实现虚实结合的立体化实时交互。VR、AR等技术的同步协作也有利于搭建新的学习环境,满足学习者的一系列要求。脑机互动技术的突破有利于实现将人工智能植入人脑,从而改变人类自然语言的交流方式。最后,人工智能通过即时、准确、高效的大数据分析有利于进行精准且个性的学习评价与反馈。人工智能将综合收集所有同学的学习记录,互相比对、优化,从而进行综合提升。更为重要的是,人工智能的人脸识别以及语音识别技术可以运用到教师的教学过程中,进行学生的学习情绪感知,学习状况的了解,从而促进学生学习的科学化;智慧校园、智慧图书馆等的出现,为教学环境的建设提供重要参考。

3人工智能在教育领域的应用

篇4

DOI:10.16640/ki.37-1222/t.2017.07.119

0 简介

人工智能((Artificial Intelligence)),它是一门新的技术科学,主要用于模拟、延伸以及扩展人类的智能的方法、理论、技术以及应用系统。人工智能主要就是对人类的思维、意识的信息过程的合理化的模拟。人工智能它并不是人的智能,但是,它却能像人那样的思考,而且也可能会超过人类的智能。总的说来,人工智能研究的一个主要目标是使机器能够胜任一些复杂工作。

1 人工智能的运用现状

目前,在很多方面人工智能有着运用,其中一个主要表现就是全球人工智能公司数量在急剧的增加,专家系统在目前来看是在人工智能各领域中最为活跃,且最为有成效的一个领域。它是一类基于知识的系统,并可以解决那些一般仅有专家才能够解决的复杂问题。我们这样定义专家系统:专家系统是一种具有特定领域内大量知识与经验的程序系统,它是基于程序系统依靠人工智能技术,来模拟人类专家求解复杂问题的过程,大多情况下,专家系统的水平甚至可以超过人类专家。专家系统的基本结构图如下图所示:

2 人工智能的影响

人工智能对经济的影响:人工智能的的确确会影响到社会、生活、文化的方方面面,特别是对于实体经济将来会有巨大的影响。以后,每个行业几乎都会产生颠覆性的变化。在人工智能的研究上,中国并不落后,将来的中国一定可以从中获得非常大的收益。一成功的专家系统可以为它的用户带来很明显的经济效益。用比较经济的办法执行任务而不需要具有经验的专家,从而极大地减少开支。专家系统深入各行各业,带来巨大的宏观效益,促进了IT网络工业的发展。

人工智能对文化的影响:在人工智能原理的基础上,人们通常情况下会应用人工智能的概念来描述他们的日常状态和求解问题的过程。人工智能可以扩大人们知识交流的概念集合,描述我们所见所闻的方法以及描述我们信念的新方法;人工智能技术为人类的文化生活提供了巨大的便利。如图像处理技术必将会对图形艺术和社会教育部门等产生深远影响。比如现有的智力游戏机将会发展成具有更高智能的一种文化娱乐手段。随着技术的进步,这种影响会越来越明显地表现出来。当然,还有一些影响可能是我们目前难以预测的。但可以肯定,人工智能将对人类的物质文明以及精神文明产生更大的影响。

人工智能对社会的的影响:一方面,AI为人类文化生活提供了一种新的模式。现有的游戏将逐步发展为更高智能的交互式文化娱乐手段,今天,游戏中的人工智能应用已经深入到各大游戏制造商的开发中。另一方面,人工智能能够代替人类进行各种脑力劳动,所以,从某种意义上来讲,这将会使一部分人失去发展的机遇,甚至可能失业。由于人工智能在科技以及工程中的应用,一部分人可能会失去介入信息处理活动的机会,甚至不得已而改变自己的工作方式;人工智能还可能会威胁到人类的精神。一般人们觉得人类与机器的区别就是人类具有感知精神,但如果有一天,这些相信只有人才具有感知精神的人也开始相信机器能够思维和创作,那他们就会感到失望,甚至于感到威胁。他们会担心:有朝一日,智能机器的人工智能可能会超过人类的自然智能,从而使人类沦为智能机器的奴隶。

3 人工智能的发展趋势

有机构预测,2017年人工智能投资将同比增长300%以上,在技术上将会更迅猛发展,工控自动化商城的智能语音、智能图像、自然语言以及深度学习等技术越来越成熟,就像空气和水一样将会逐步地渗透到我们的日常生活。行业专家关于2017年人工智能的发展方向主要有以下几点:(1)机器学习目前正在被应用在更复杂的任务以及更多领域中,且被更多的人作为挖掘数据的方式。无监督的学习会取得更多进展,但也存在很大的挑战,故在这一方面离人类的能力还是差得很远的。计算机在理解和生成自然语言方面,预计最先会在聊天机器人和其他对话系统上落地。 (2)深度学习、其他的机器学习、人工智能技术的混用,是成熟技术的典型标志。将深度学习应用到医疗领域中(医疗图像、临床数据、基因组数据等),各种类型数据上的研究以及成果将会大大的增加。 (3)聊天机器人和自动驾驶汽车可能会取得较大的进展,预计更多人类基准将会被打破,特别是那些基于视觉以及适合卷积神经网络的挑战。而非视觉特征创建和时间感知方法将会变得更加频繁、更加富有成果。

4 结论

人工智能是人类长久以来的梦想,同时也是一门富有挑战性的学科。尽管人工智能带来很多问题,但当人类坚持把人工智能只用于造福人类,人工智能推动人类社会文明进步将毋庸置疑。就像所有的学科一样,人工智能也会经历各种挫折,但只要我们有信心、 有毅力,人工智能终将成为现实,融入到我们生活的方方面面,为我们的生活带来更大的改变。

参考文献:

[1]朱祝武.人工智能发展综述[J].中国西部科技,2011,10(17):8-10.

篇5

中图分类号:TP18

文献标识码:A

一、人工智能技术的发展及其影响

人工智能技术研究开始于20世纪50年代中期,距今仅有60年的发展历程,但是其迅猛的发展速度,广泛的研究领域以及对人类产生的深远影响等令人惊叹。调查显示,77.45%的人认为现实生活中人工智能技术的影响较大,并且86.27%的人认为人工智能技术的发展对人类的影响利大于弊;认为人工智能技术对人类生活影响很小且弊大于利的人权占很小一部分。人工智能技术的发展和应用直接关系到人类社会生活,并且发挥着重要的作用。人工智能技术的发展方向和领域等由人类掌控着,所以人类应该尽可能地把人工智能技术的弊处降到最低以便更好地为人类造福。2016年3月份,围棋人工智能AlphaGo与韩国棋手李世h对弈,最终比分4∶1,人类惨败。4月份,中国科学技术大学正式了一款名为“佳佳”的机器人,据了解,机器人“佳佳”初步具备了人机对话理解、面部微表情、口型及躯体动作匹配、大范围动态环境自主定位导航和云服务等功能。而在这次正式亮相之前,“佳佳”就担纲主持了2016“首届全球华人机器人春晚”和“谁是棋王”半Q赛。人工智能技术确实给人类带来了诸多的便利,给人类生产生活带来便利;但是,人工智能技术的快速发展超乎人类的预测,引起了人类的恐慌和担忧。百度CEO李彦宏称,人工智能是“披着羊皮的狼”。毋庸置疑,科学技术是一把双刃剑,当人类醉心于科学技术所带来的福利中时,更应当注意其带来的负面作用。人类发明和创造科学技术最终是为了造福人类,而非受到科技的异化。

随着科技的发展,人工智能技术越来越成熟,在此整体趋势之下,不同的人群对人工智能技术的不断成熟与应用有着不同的看法。调查结果显示,在关于机器人会不会拥有人类的思维甚至超过人类的问题方面,27.45%的人认为机器人会拥有人类的思维和超过人类;而56.86%的人认为机器人不会拥有人类的思维和超过人类,小部分人对此不是很清楚。由于受到人工智能技术迅猛发展的冲击,如机器人保姆、AlphaGo围棋等智能产品对人类发展带来的威胁,一部分人仍然对人工智能技术的发展担忧甚至认为终有一天机器人将代替人类、征服人类、控制人类。但是,大部分的人在机器人是否能够超过人类方面,保持乐观积极的态度,认为机器人永远不会拥有人类的思维并且超越人类,因为人类是技术的主导者,人类掌握着技术的发展方向,技术终究是为了人类服务。这一看法肯定了人类的无止境的创新,然而,在人类醉心于技术创新的同时,应意识到某些创新确实超出了人类的预料,如AlphaGo与李世h围棋人机大战就是人类在技术面前失败的惨痛教训。因此,面对科技对人类的异化,人类要时刻保持警惕,适时地总结“技术异化”的缘由和解决对策。

二、人工智能技术发展面临的问题及其原因

随着技术的革新,人工智能技术的应用越来越广泛,与人们的日常生活联系也愈加密切。从智能手机的普及到自动驾驶汽车的研制成功,再到生产、建设、医疗等领域人工智能技术的应用,都表明了人工智能技术正悄无声息地改变着我们生活方式。诚然,人工智能技术使我们的生活更加丰富多彩,给我们带来了极大便利,但与此同时,人工智能技术也给社会带来了一系列不可忽视的问题:人工智能技术在社会生产领域的应用对劳动市场造成冲击;人工智能系统在收集、统计用户数据过程中个人隐私及信息安全方面的隐患;人类对人工智能产品的依赖引发的身心健康问题;人工智能引起的责任认定问题等。斯蒂芬・霍金在接受BBC采访时表示,“制造能够思考的机器无疑是对人类自身存在的巨大威胁。当人工智能发展完全,就是人类的末日。”表示同样担忧的还有特斯拉的创始人马斯克,他曾直言,“借助人工智能,我们将召唤出恶魔。在所有的故事里出现的拿着五芒星和圣水的家伙都确信他能够控制住恶魔,但事实上根本不行。”不可否认,人工智能技术是把双刃剑,有利亦有弊,争议从来就没有停止过,而最不容忽视的莫过于人工智能技术引发的一系列伦理困境,关于人工智能的伦理问题成了重中之重。

调查发现,47.55%的人认为人工智能所引发的伦理问题是因为人性的思考,占比较大;而22.55%的人认为是由于人们价值观念的改变;29.9%的人认为是利益分化与失衡以及一些其他的原因导致的。由此可以看出导致人工智能伦理困境的原因是多方面的。主要总结为以下几个方面。

第一,从技术层面来看,人工智能技术在现阶段仍然有很大的局限性。人工智能是对人脑的模仿,但人脑和机器还是存在本质区别的,人脑胜于人工智能的地方,就是具有逻辑思维、概念的抽象、辩证思维和形象思维。人工智能虽能进行大量的模仿,但由于不具备形象思维和逻辑思维,仅能放大人的悟性活动中的演绎方法,不可能真正具有智能,这决定了机器不能进行学习、思维、创造。此外,智能机器人也不具备情感智能,它们根本无法去判断自己行为的对错,也无法自动停止自己的某项行为,所以如果人工智能技术一旦被不法分子利用,后果不堪设想。可见,由于人工智能自身技术上的局限性导致的伦理问题已经影响到其未来发展。

第二,从规制层面来看,伦理规制的缺失和监督管理制度的不完善是导致伦理问题产生的重要原因。科技的发展目标是为人类谋求幸福,但我们必须认识到,无论是在科技的应用还是发展过程中总是存在一些难以控制的因素,倘若没有相应的伦理原则和伦理规制加以约束,后果难以想象。在目前人工智能领域,缺乏一套成体系的关于人工智能技术产品的从设计、研究、验收到投入使用的监督管理方案,也没有一个国际公认的权威性的规范及引导人工智能技术的发展及运用的组织或机构。现有的监督体制远远滞后于人工智能技术的发展速度,无法匹配技术发展的需要。缺乏相关监管制度的约束,人工智能技术就不可避免会被滥用,从而危害社会。

第三,从社会层面来看,公众对人工智能技术的误解也是原因之一。人工智能作为一门发展迅猛的新兴学科,属于人类研究领域的前沿。公众对人工智能技术的了解十分有限,调查显示,对人工智能技术只是了解水平较低的人较多,占62.75%,以致部分人在对人工智能技术没有真实了解的情况下,在接触到人工智能技术的负面新闻后就夸大其词,人云亦云,最终导致群众的恐慌心理,从而使得更多不了解人工智能技术的人开始害怕甚至排斥人工智能技术。我们必须清楚,人工智能是人脑的产物,虽然机器在某些领域会战胜人,但它们不具备主观能动性和创造思维,也不具备面对未知环境的反应能力,综合能力上,人工智能是无法超越人脑智能的。在李世h对弈AlphaGo的旷世之战中,尽管人工智能赢了棋,但人类赢得了未来。

三、人工智能技术的发展转向

人工智能技术的发展已经深入到人类社会生活的方方面面,其最终发展目标是为人类服务。但是,科学技术是把双刃剑,它在造福人类的同时,不可避免地会给人类带来灾难,因此,人类应该趋利避害,使人工智能和科学技术最大化地为人类服务。这就要求人类必须从主客体两个角度出发,为人工智能技术的健康发展找出路。

1.技术层面

(1)加强各个国家人工智能的对话交流与合作。人工智能自20世纪50年代被提出以来,尤其是近六十年来发展迅速,取得了许多丰硕的成果。如Deep Blue在国际象棋中击败了Garry Kasparov; Watson 战胜了Jeopardy的常胜冠军;AlphaGo 打败了顶尖围棋棋手李世h。从表面上看,人工智能取得了很大的进步,但深究这些人工智能战胜人类的案例,我们发现这些成功都是有限的,这些机器人的智能范围狭窄。造成这一现象的很大一部分原因就在于国际间人工智能技术的对话交流与合作还不够积极,所以加强各个国家人工智能的对话和交流迫在眉睫,同时也势在必行。

(2)跨学科交流,摆脱单一学科的局限性。从事人工智能这项工作的人必须懂得计算机知识、心理学和哲学。历史的经验告诉我们,一项科学要想走得长远就必须有正确的意识形态领域的指导思想的介入。在人工智能这项技术中,有些科学家们可能只关注经济利益而没有引进相应的伦理评价体系,最终使得技术预测不到位,没有哲学的介入,等真正出现问题时就晚了。所以要加强科学家与哲学家的沟通交流,令科学家能更多地思考伦理问题,提高哲学素养,在人工智能技术中融入更多的哲学思想,保证人工智能技术能朝着正确、健康方向发展。

(3)人工智能技术的发展,要与生态文明观相结合。在人工智能技术发展中,要注入更多的生态思想,这关系人民福祉、关乎民族未来的长远大计。在人工智能发展中,若是产生资源过度消耗、环境破坏、生态污染等全球性的环境问题时,人类必须制止并进行调整。人工智能技术要想发展得更好,前景更加明亮,前途更为平坦,就必须保持与生态文明观一致,与人类自身利益一致,为人类造福。

2.人类自身层面

(1)增强科学家道德责任感。科学技术本身并没有善恶性,而研发的科学家或是使用者有善恶性。人工智能将向何处发展,往往与研发人工智能的科学家息息相关。科学家应打破“个体化原理”,要融入社会中去,关注社会道德伦理问题,承担起道德责任,为自己、他人、社会负责,多去思考自己研发的技术可能带来的后果,并尽可能去避免,多多进行思考,严格履行科学家的道德责任。

(2)提高公众文化素养。调查发现,对人工智能技术了解水平较低的人较多,占62.75%;而非常了解的人较少,占4.41%;另外,对人工智能技术了解的人占21.08%,不了解的人占11.76%。由此可以看出,大部分的人对人工智能技术都能有所了解,但都不是很深入,而且仍有部分人对人工智能技术丝毫不了解,所以,人工智能技术对于个体的影响是比较微小的,其发展还没有深入到个人的日常生活中。特别是在一些关于人工智能的科幻电影的渲染,可能使那些对于人工智能技术并不了解或是一知半解的人产生偏见。在日常生活中,人工智能给人类带来了极大的便利。通过提高公众的文化素养,使公众正确认识人工智能技术,将是缓解甚至是解决人工智能技术某些伦理问题的重要途径之一。

(3)加大监督力度。人类需要通过建立一个完善的监督系统引导人工智能技术的发展。对于每项新的人工智能技术产品从产生到使用的各个环节,都要做好监督工作,以此来减少人工智能技术的负面影响,缓解甚至减少人工智能技术的伦理问题。

3.道德法律用

(1)通过立法规范人工智能技术的发展。调查发现,90.69%的人认为有必要对人工智能技术所引发的科技伦理问题实行法治,由此可以看出,要想保证科技的良好健康发展,必须要建立健全相关法律条例。然而我国在这一方面的法律还存在很大的漏洞,相关法律条文滞后于人工智能的发展,并未颁布一套完整的关于人工智能的法律体系。没有规矩不成方圆,在人工智能领域亦是如此。我们都无法预测将来人工智能将发展到何种地步,这时就需要人类预先加以适当的限制,利用法律法规加以正确引导,使其朝安全、为人类造福的方向发展。

(2)构建人工智能技术伦理准则并确立最高发展原则。要构建以为人类造福为最终目的的伦理准则。人工智能技术的伦理问题已经给人类造成了很多负面影响,而要防止其带来更多负面影响,构建合适的人工智能技术伦理准则势在必行。

此外,要确立以人为本的最高发展原则 。一切科学技术的发展都应把人的发展作为出发点。人工智能的发展也是如此,要将以人为本、为人类服务为出发点,并作为最高发展原则。

四、结语

科学技术是把双刃剑,人类只有消除人工智能技术的潜在威胁,发挥人工智能技术最大化效用,避免伦理困境重演,才能实现人机交互的良性发展,实现人工智能与人类的良性互动。

参考文献:

[1]王文杰,叶世伟.人工智能原理与应用[M].北京:人民邮电出版社,2004.

[2]甘绍平.人权伦理学[M].北京:中国发展出版社,2009.

[3]杨怀中.现代科技伦理学概论:高科技伦理研究[M].武汉:湖北人民出版社,2004.

[4]王志良.人工情感[M].北京:机械工业出版社,2009.

[5]邹 蕾,张先锋.人工智能及其发展应用[J].信息网络安全,2012(2).

[6]王 毅.基于仿人机器人的人机交互与合作研究[D].北京:北京科技大学,2015.

[7]田金萍.人工智能发展综述[J].科技广场,2007(1).

[8]郝勇胜.对人工智能研究的哲学反思[D].太原:太原科技大学,2012.

篇6

算法是指由计算机执行的一系列独立的指令和动作。从初始状态和初始输入开始,这些指令描述了完整的计算步骤――通过一系列有限的、确切的指令,产生并输出答案和数据,最终止于结束状态。

人工智能的算法是一套利用机器智能解决问题的复杂手段。过去,我们给计算机下达规则式的指令来解决问题;现在,我们只要告诉计算机想解决的问题,它就可以自行选择算法来解决问题――这便是人工智能带来的根本性变革。

人工智能最重要的是学习能力,即根据机器以往的经验来不断优化算法。第一次人工智能的浪潮始于上世纪70年代,当时的人工智能算法采用的是符号逻辑推理规则,以实现知识表征。由于缺乏自我学习能力,那时的人工智能无法解决新领域中出现的问题。第二代人工智能虽然在学习和感知能力上表现更佳,但由于当时的机器学习模型不具备大量吸收训练数据的能力,与人类的水平仍有很大差距。

算法的发展

大约在10年前,深层与结构化机器学习,或称为深度学习的新范式,让人工智能算法的智能程度越来越高。传统的机器学习方法让电脑学习的“知识”,要由人来设计并输入,因为需要掌握大量的专业知识,导致特征工程成为机器学习的瓶颈。深度学习打破了这一瓶颈,通过多层结构算法,机器对数据集的“特征”进行筛选和提取,通过反复训练,最终获得了提取抽象概念的能力。

篇7

在厦门市思明区浅水湾畔一座十分普通的两居室内,有一个人正在为人类的命运焦虑不安。

"我正在建造一个在未来几十年内,将会成为神一样无所不能的东西。制造神一般的生物的期望,带给我一种宗教般敬畏的感觉,这感觉进入我的灵魂深处,强烈地激发我继续这项工作,尽管那可怕的负面效应,可能会接踵而来。……在21世纪末,人工智能机器将会比人类聪明亿亿倍,并且关于物种支配问题将会引发一场重大的战争,并导致几十亿人的死亡。

我们是在制造上帝,还是制造我们潜在的终结者?"

这不是科幻片中的台词,而是雨果《智能简史》一书中的一个段落。这个"人工大脑之父",就坐在《绿公司》记者对面,硕大的脑门、蜷曲蓬松的头发、一双炯炯有神的眼睛、有点奇怪的举止使他看起来与其说是一个职业科学家,不如说更像是一个异教的先知。现在,他再一次告诉我们,他所预言的"人工智能战争"无法避免。

谁将成为21世纪的主导物种?

雨果告诉我们,他写《智能简史》这本书的目的就是,促使人们开始思考人工智能带来的问题。作为一个人工智能科学家,他对于人工智能在本世纪的发展前景充满信心,而对人类的未来却表示悲观。

在通往书房的门廊墙壁上,一张雨果在厦大举办讲座的蓝色海报分外抢眼,醒目的标语是"谁,将入侵上帝的?"及"谁将成为21世纪的主导物种?",从日期上看,这是两个月前刚刚举办过的一次讲座。

这恰恰是雨果关心的问题。他认为随着人工智能研究的突破性进展,围绕上述问题将会引发人类政治冲突和战争。"这并不只关系到一个国家,它关系到整个人类。" 他用一种略带夸张的庄严语气告诉我们。

眼前这个不休边幅、年过6旬的老人,在"人工大脑"领域有近20年研究经历。雨果1947出生于澳大利亚,23岁时取得了墨尔本大学"应用数学"和"理论物理"两个学位后,远赴英伦深造。在剑桥大学学习工作了四年,他发现了自己人生的目标,遂返回布鲁塞尔大学攻读人工智能和人工生命博士学位,成为一名研究员,正式涉足人工智能研究领域。1992年,雨果获得博士后奖学金,离开欧洲来到日本进行研究,历时8年开发出制造世界上第一个人工大脑CBM。从那一刻起,他就认识到自己的研究可能会为人类带来一场浩劫。在2000年Discovery欧洲频道邀请他与著名物理学家罗杰・彭罗斯爵士进行对话的节目中,他就提出这一观点。

如今,他仍然坚持这种看法。他深信在"摩尔定律"趋势下,随着纳米技术、量子计算等关键技术的发展,人类在本世纪制造出神一样具备超级智能的"人工智能机器"已是必然。这些"人工智能机器"的智慧将会比人类智慧高出万亿个万亿倍(10的40次方)。

届时,人类将会面临一种风险,那就是事态终将会失控,人类的存在对于这些神一样的"人工智能机器"将会变得无足轻重。只要这些"人工智能机器"愿意,我们随时会像"蚊子"和"细菌"一样被它们消灭掉。

为了更形象地说明自己的观点,他突然用手掌拍了另外一只胳膊一下,"你知道这一下,多少细菌被消灭掉了?将来的人类也是这样的命运。"

此时此刻,《终结者2018》正在影院上演,片中数十年来"机器人"与人类之间残酷的战争,使雨果形象的比喻更加真切。

物种主导权争议引发"人工智能战争"

雨果是目前唯一一个预言人工智能会引发人类大战的人。

在 2005 出版的《智能简史》中,他系统性地阐发了自己的观点:从技术上讲"超级人工智能机器"一定会产生,而且智慧远胜于人类。这种人工智能机器将会与人类争夺地球上的物种主导权。这就有一种风险,人类极有可能被这种超级人工智能机器消灭掉。因此,地球主义者为了捍卫人类的物种主导权,将会禁止科学家展开人工智能研究,以防止这种可怕的局面出现;而宇宙主义者出于自身的信仰和现实需求,将会从经济和政治上坚持这种研究,展开激烈对抗。两派的争议会形成现实的政治冲突,一场战争不可避免。

"很多战争都源于人们不能达成统一的认识,比如说资本主义与社会主义之争。今天只有几千个科学家在讨论,10年后可能就会因此形成不同的党派。战争很有可能发生。" 雨果摊开手掌,用一种确信无疑的语气说。

雨果的"预言"一旦成真,那么就像他和斯蒂芬・霍金一起参与录制的BBC影片《地球的末日》所说的那样,人类将迎来自己的末日。

因为按照雨果的研究图表显示,从19世纪拿破仑战争以来,人类战争的死亡人数是以10的几何级数倍增的。21世纪战争所动用的武器,将拥有空前规模的杀伤力,死亡人数将会达到10的9次方到10次方,也就是令人沮丧的几十亿。

一个宇宙主义者的矛盾和渴望

就像半个世纪之前发现了核链式反应的秘密,并预言一颗核弹可以毁灭一座城市的匈牙利裔犹太科学家利奥・希拉特一样,雨果感觉自己是孤独的。

因为自他的观点在主流媒体上传播开来之际,他就不断受到质疑。很多人不相信他所说的一切,更有人对他的研究表示质疑和愤怒。既然,明知道这样一种研究会带来如此令人恐惧的局面,为什么他还要进行这种危险的研究?

作为问题的制造者,雨果耸耸肩,坦然承认"这就是我的矛盾。"然而他不能放弃他所进行的研究。他认为这个领域还有许多事情可以做。他说"对于我个人来说,我很希望继续进行人工智能研究"。在"人工智能"争议中,他为自己选择的立场是"宇宙主义者"。尽管他没有任何,但是他和其他人工智能科学家一样,将 "创造"当作自己的宗教。

说到这里,他起身从旁边的书架上取出一本厚厚的天文学著作来,翻到一张宇宙图片,指着无垠宇宙中恍若尘埃的点点星云, 跟我们说,"人类就像是宇宙中的蚂蚁。与其继续做人类,我宁愿选择去创造更高级的生物。" 人类是一定要被超越的。而创造'神一样的人工智能机器',是超越人类的一种必由方式。在某种程度上,他相信我们的宇宙就是被一些智能机器创造的,因为我们生存的星球和宇宙都是那么的精确有规则。

这是宇宙主义者们的信仰,也是雨果坚持"人工大脑"研究的理由。

正因如此,20年来雨果在6个国家辗转奔波,唯一没有放弃的就是自己的观点和坚持不懈的研究。事实上他的研究工作并非一帆风顺:在日本实验室取得初步研究成果之后,受到排挤,被迫离开。在布鲁塞尔的私立实验室中投资10万美元,随着实验室解体,血本无归。9.11之后只身来到美国,却受困于经费不足,无法展开"人工大脑"制造。

然而,这期间他先后制造出4台人工大脑。毫无争议的成为"人工大脑"之父。

人类命运的终极追问

和著名的人工智能科学家雷・库兹威尔一样,雨果相信他的研究会使生活更美好,而这也是技术存在的意义。库兹威尔也相信超人工智能一定会出现,还可以帮助人们解决困扰人类生活的疾病、能源和气候问题,使人长生不老、生活更加美好。

篇8

然而,从今往后的一个世纪里,没有人会在意人工智能的发展需要多久,只会关心将会出现哪些先进的人工智能。或许在这个世纪末,人工智能就会变得比人类更加智慧――不仅可以解决国际象棋、琐碎小事等等,基本可以处理所有的事物,无论从数学、工厂还是科学和医药。还剩下一小部分创造类工作留给人类,比如演员,作家或是其他创意类工作。最终的电脑系统可以完成自我编程,获取大量的最新信息。我们这些“碳基生物”的模糊印象,他们能够在分分钟就分析处理完成,也不需要长时间的睡眠或休息。

对于支持者来说,人工智能的未来充满希望。库兹韦尔就曾撰文发表自己一个大胆的设想,就是人类与智能机器结合,将人类的灵魂上传到人工智能中,使我们的灵魂永生;彼得・迪亚芒蒂斯则认为人工智能是开启“富裕时代”,拥有富足食物、水源、消费工具的重要因素。不过,反对者像埃里克・布林约尔松和我很担忧机器人职业化和人工智能带来的隐患,即使不去考虑高级人工智能对劳动力市场的影响,功能强大的智能机器也会威胁人类的生活,与人类争夺有限的资源。

大多数人把这种担心看作是科幻小说里的蠢话――像《终结者》和《黑客帝国》这类。在一定程度上,我们需要未来很长一段时间做好打算,我们要担心小行星会撞地球,化石燃料产量下降,全球变暖等问题,而不用担心机器人问题。可是,詹姆斯・巴雷特的黑暗系新书《我们的最终发明:人工智能和人类时代的终结》,描述了一种严峻的情况,我们至少应该有所思考。

如果机器最终取代了人类――正如在人工智能领域工作的人所坚信的那样,真正的问题在于价值观:我们如何把价值观输入机器中,当它们的价值观与我们的价值观发生了很大的冲突时,我们该如何和这些机器协商呢?牛津的哲学家尼克・博斯特罗认为:我们不能乐观地假设,超级智能一定会分享人类的智慧和智能发展形成的价值观――对科学的求知欲,对他人的关心和仁慈,精神启发和沉思,克制物质占有欲,高雅的文化品位,对感受简单生活的快乐,谦虚无私等等。或许通过专门的训练,能够创造出拥有这些价值观的超级智能,或是珍惜人类财富和高尚道德的超级智能,或是设计者想要它拥有一些复杂目标的智能。这是可能的――可能从技术上说更简单――打造一个能够把最终价值都放在计算圆周率小数上的超级智能。

英国控制论学者凯文・沃里克曾问道:“当机器不在我们人类所处的思维次元中思考时,你如何跟它理论,如何与它做交易,如何能明白它的想法?”

如果说巴雷特黑暗系理论有漏洞的话,那就是他未经思考就提出的假设:如果机器人聪明到可以下棋,那它可能也会“想要制造宇宙飞船”――在任何足够复杂,有目标驱动的系统中都是天生具有自我保护和获取资源的本能。现在大部分机器都非常先进,比如,IBM公司的深蓝系列电脑,但是目前它们还没有显示出想要获得资源的兴趣。

可是,在我们感到沾沾自喜,确定无需担心时,别忘了有一点非常重要:我们要意识到随着机器越来越聪明,它们的目标也是会变化的。一旦电脑能够有效地重新给自己编程,成功地提升自己的性能,达到所谓的“技术奇点”或“智能爆炸”,那么我们就不能忽视机器在与人类抢夺资源和自我保护的较量中会有胜过人类的风险。

篇9

人工智能逐渐演变为一种社会需要,机器也不再是人们眼中冰冷的工具,而是拥有自我意识的机器。

 

作为科幻作品中很大的母题,人工智能经常在科幻电影中出现,比如《我,机器人》《黑客帝国》《机械姬》,其中人工智能往往扮演反叛者的角色,对人类造成伤害。结合现实来说,这样的事情会不会发生?

 

清华微电子专业毕业后在外资企业从事半导体研发,这只是江波的工作之一。更令人瞩目的是,作为中国更新代的科幻作家,从处女作《最后的游戏》到《时空追缉》,再到恢弘磅礴的《银河之心》三部曲,他用冷峻而优雅的文字、超越寻常的想象力以及对人类未来发展的终极关怀征服了一众科幻爱好者。江波认为,“将机器赋予文明,将文明赋予机器。这是人类的使命,也许是最后的使命。”这是他对人工智能的期待和展望,也是未来人工智能科技发展的方向。

 

生物智能与自我意识

 

回答这一问题,首先要提到生物智能。生物智能是目前已知唯一产生了自我意识的智能,所以它是人工智能唯一的参考。将人类和蚂蚁做比较,人类是智能生物,蚂蚁是本能生物。所谓智能,就是可以设计出各种方法适应环境;所谓本能,就是生来具有的一种能力,诸如蚂蚁生来就能筑巢觅食。

 

为什么把这两种生物放在一起比较?如果把所有人类重量和蚂蚁重量都相加起来,在天平的两端,蚂蚁和人类的总质量是差不多的。所以从这个意义上来讲,两种同样成功的生物可以用来做比较,人类在分类学上属于哺乳纲灵长类人科,蚂蚁属于昆虫纲膜翅目蚁科,在纲目科属种的分类上,可以用同样的“科”级衡量。人科人属人种,事实上只有一种,但是蚂蚁有11 700余种,从这个意义上来说智能相对于本能的好处是以一敌万,一种智能生物通过调整行为方式,可以适应地球表面上的任何地形地貌,但是蚂蚁为了做到这件事情却用了11 700多种,这是智能带给生物的好处。

 

生物形形,怎样去衡量它的自我意识?生物学家采用了“镜子实验”——就是让生物照镜子,如果它能够从镜子中辨认出影像就是自身,就通过了测试,可以认为它具备自我意识。“镜子实验”有很多模糊的地方,不算非常客观标准的测试,但作为目前研究自我意识的一个参考,它可以代表自我意识的存在。

 

黑猩猩、鲸鱼、大象诸如此类可以通过镜子测试,像蚂蚁、水母等神经系统很简单的生物,不可能存在自我意识。也有两种生物在关系上和人类比较接近,一种是猴子,一种是猩猩,它们的镜子实验是什么结果?

 

一只非常强壮的银背大猩猩,看到镜子当中的自己,认为是另外一个对手直接撞上去,所以它失败了。

 

一只猴子从镜像中发现了自己脸上的红点,也就是说它已经通过了镜子测试。而实际上猴子是没有自我意识、不能通过镜子测试的,这只猴子的确通过了,它是怎么做到的?这只猴子是2015年中科院神经科学研究所最新的研究成果,通过某些程度的训练,让原本不具有自我意识的猴子产生一定的自我意识,从而能够辨认出镜子中的自己。

 

这个研究说明,自我意识的边界具有模糊性,并不存在非黑及白的世界。从没有自我意识跨入到自我意识并没有截然的边界,最有可能的情形是这个过渡是连续而模糊的,这点非常重要。

 

通过以上的实验和研究可以得出结论:自我意识并非高级智能的神秘功能,变化的环境不断推动智能向着更复杂的方向发展,当智能复杂到能意识到本体的存在,自我意识便自然产生,它是复杂智能的伴生物,学习是获取智能的唯一途径。

 

现在的拟智能与未来的可能性

 

既然学习是获取智能的唯一途径,那么人工智能的学习就是通过对外界环境的认识来改变自己的内在逻辑。如果这个智能体设计当中本身有一个变量是2,通外界刺激之后我认识到是6,把2改成6这不叫逻辑变换,这只是变量的变换。逻辑变换的意思是,通过环境刺激到神经系统最后接受最佳答案,对机器来说就是它的学习。

 

有了对学习的定义之后,就可以定义什么是拟智能了,Google的自动驾驶汽车、亚马逊的无人机、微软小冰,这些都可以称之为拟智能,是所有不通过学习得来的智能。这些智能通过预先编制的程序锁定了它的行为是什么,它很强大,但因为是不通过自主学习得来的,所以它不会产生自我意识。

 

我们生活中广泛存在的智能被称为拟智能,如果拟智能不能产生自我意识,它就不是我们担心的对象,那么什么东西是我们未来的可能性?

 

第一种未来的可能性是神经网络。2004年初,Google以4亿美元(约合26亿元人民币)价格收购了一家做算法的公司,简单地说,这个算法的任务是玩游戏。一个大屏幕上方有些不断落下的方块,这个算法所控制的是一个方块,这个方块在屏幕下方前后左右可以移动,游戏目的是延长生存的时间,这个算法当中如果上方出现一个方块,叫做输入,引起下方一个动作之后这个游戏就失败了,这个神经网络能够记住这一点,在下次游戏当中尽量避免这样的动作。

 

同样,如果一个输入引起动作之后,这个游戏能够延长更长的时间,它就可以获得奖励,在下一轮游戏当中,它还有可能采用同样的动作,这个就是学习的过程。它用分层结构对人类神经系统进行了很好的模拟,在神经网络深度学习的过程中,没有人预先告诉它该往哪边走,它通过不断地试错最后得到自己的最佳策略。

 

未来的另外一种可能是人脑芯片,大概意思是指根据神经元的结构组合成大脑皮层,科学家已经用物理芯片实现了,它用56亿个晶体管大概模拟了100万的神经元,有2.56亿个突触。这种人脑芯片是突破性的成就,但还有两个方面的问题:第一是规模,100万的神经元听起来很多,对比140亿神经元是人脑的神经元数目,人脑的突触以万亿记,这个规模只有人脑的万分之一,但是规模一旦提出来就是时间问题。还有一个问题,算法,怎么让人脑芯片工作?一般的智能需要预先编制好它的行为方式,但是这块芯片需要的是和认知世界一样的方式,通过外界刺激修正内部逻辑编程。从这两方面来说,人脑芯片还有很长的路要走。

 

赋机器予文明

 

人工智能的发展会带来很多问题,一旦人工智能和人类并存在世界上,就面临一个问题,什么样的人工智能可以融入到人类社会?

 

科学家们想到了“图灵测试”——让一个机器跟人对话,如果30%的人认为他是人,他就是人。图灵测试实际上有两端,目前认为人工智能的产生是单向性,一旦跨过一个界限达到一定复杂度就变成了人,将来社会中一旦人工智能跟人类并存,它是否是人就要交给人来判断。

 

通过对以上内容的分析,我们可以给出这样的结论:人工智能的自我意识只是一个时间问题。那么,科幻电影当中出现的灰暗的现实有一天会变成真的吗,人类该怎么办?

 

回顾18世纪的工业革命,人类在工业化的道路上狂奔,从来没有停止过,不断发明各种各样的机器充实人类文明,发明各种各样让大家生活得更好的物质,这个过程可以称为“赋文明予机器”,不断用机器填充文明。

 

拥有自我意识的机器必然是能够学习的机器,因为学习是自我意识的源泉,就像一个孩子,刚开始就是一张白纸,如果教给他的是暴力、战争、侵害,那么他学会的也是这些,如果教给他的是和平、爱、仁慈,那么他学会的也将会是这些。而“赋机器予文明”,可以通过一些方法方式来规范引导将要产生的人工智能,从而避免科幻电影中描述的黑暗未来。

 

人工智能的终极影响会怎样

 

人工智能指研究、开发并扩展人的智能的新学科,既是计算机科学的一个分支,也指能以与人类智能相似的方式作出反应的智能机器。说穿了,人工智能是对人的意识、思维过程的模拟。尽管它不是人的智能,却能像人那样思考,能完成财务查账、疾病诊断、危险操作,甚至使盲人恢复阅读能力……随着大数据的运用,将其与相关算法结合,人工智能便具备了深度“ 自我学习”的本领,可以模仿人脑神经元处理海量数据,“ 自己教自己”如何去执行一些过去只有人脑才能完成的任务,如驾驶无人飞机与汽车等。这就给警醒的人类带来了很大的疑虑:发达的人工智能技术对人类社会的终极影响将会怎样?

 

客观地分析,目前人工智能技术仅局限于某一具体领域的特定能力,能“形似”地模拟人脑,但不具备范围广泛且灵活变通的人类思维能力,也不具备人类的自主性、欲望与情感。但科学的进展是难以预测的,毕竟人工智能正在飞快地向自我学习、自我决策等高级认知层次演进。有朝一日机器是否会拥有比人类更灵敏的认知能力?拥有与人类冲突的利益观?甚至主宰人类……难怪霍金也会提出:人工智能可能是一个 “真正的危险”。

 

直面迅猛发展的人工智能,激起人们对其负面效应的谨慎和担忧是毫不奇怪的。毕竟,人工智能须接受人类伦理的监督,其研发者虽无法预见所有情形,但至少要做出在危急时刻能及时终止设计的超前安排,这是科学工作者必须具备的人文精神。我们并不赞同因对人工智能的过度忧虑而导致研究上停滞不前,在关注人工智能可能带来危机的同时,还要看到其无可估量的学术价值和经济效益。预见问题总比视而不见更理智。

 

延伸阅读:

 

过去20年,这4次“人机大战”载入史册

 

从第一台计算机问世以来,人们就梦想造出一种可以完美模拟甚至超越人脑的计算机系统。过去20年中,有4次“人机大战”给人们留下格外深刻的印象,也成为人工智能发展的绝佳注脚。

 

深蓝——蛮算的“硬汉”

 

1997年,美国IBM公司的“深蓝”超级计算机以2胜1负3平战胜了当时世界排名第一的国际象棋大师卡斯帕罗夫。“深蓝”的运算能力当时在全球超级计算机中居第259位,每秒可运算2亿步。在今天看来,“深蓝”还算不上足够智能,主要依靠强大的计算能力穷举所有路数来选择最佳策略:“深蓝”靠硬算可以预判12步,卡斯帕罗夫可以预判10步,两者高下立现。

 

浪潮天梭——以一敌五的“铁人”

 

2006年,“浪潮杯”首届中国象棋人机大战中,5位中国象棋特级大师最终败在超级计算机“浪潮天梭”手下。中国人发明的这项充满东方智慧的模拟战争游戏,被中国超级计算机独占鳌头。

 

从那场比赛开始,象棋软件蓬勃发展,人类棋手逐渐难以与之抗衡。

 

沃森——察言观色的全才“学霸”

 

2011年,“深蓝”的同门师弟“沃森”在美国老牌智力问答节目《危险边缘》中挑战两位人类冠军。参赛者需要大量历史、文学、政治、科学及流行文化知识,还需要解析隐晦含义和谜语等。虽然比赛时不能接入互联网搜索,但“沃森”存储了2亿页的数据,包括各种百科全书、词典、新闻甚至维基百科的全部内容。

 

“沃森”最终轻松战胜两位人类冠军,展示出的自然语言理解能力一直是人工智能界的重点课题。

 

AlphaGo——有棋风的“深度思考者”

 

围棋一直被看作是人类最后的智力竞技高地。据估算,围棋的可能下法数量超越了可观测宇宙范围内的原子总数,显然“深蓝”式的硬算在围棋上行不通。

 

篇10

这里谈的都是长期趋势的预测,技术将走向何方。我们理解事物的形态是没有办法改变的,比如四个轮子的车,四只脚的动物,这都是由事物自身规律决定的,这种形态就是必然的,但是就某种物种或者产品而言,比如斑马或者某种机器人,就是偶然出现的,是我们可能没有预料到的。

想象一下,山谷里飘来一阵雨,每一个雨滴的路径是不可预测的,但是他们运动的方向是可以预测的,都是向下的。电话的出现是必然,而iPhone不是,互联网的出现是必然,而 Twitter 不是。

人工智能早已来临

最为重要的技术发展趋势之一是人工智能,是感知并让产品更为智能的技术。大家可能对人工智能都不陌生,但是我想从一个不一样的角度解释它,让大家对未来的智能制造业有所了解。

首先,人工智能的时代已经来临,只是很多时候扮演幕后的角色,我们并没有直接了解它。

人工智能系统解读X光片的本领已经比医生更高,查阅法律证据的能力也比律师要高。我来中国坐的飞机大部分时间也是由人工智能系统而不是飞行员在控制。开车的时候,带有人工智能技术的刹车系统比人的判断更好。百度和谷歌的人工智能技术可以分析照片,告诉你照片里面正在发生什么事情。

2016年谷歌的人工智能系统战胜了顶级的围棋人类选手,这个系统甚至还可以不断地学习如何下棋。过去十多年的电脑游戏,都是在和人工智能系统对战,现在的系统不光知道如何对战,还知道如何学习新的对战本领,这有很大的不同,机器学习也是当今人工智能系统最重要的功能。

其实人工智慧要比人工智能更适合来形容这种技术,因为现在应用这种技术的产品已经比人更聪明。比如,计算器要比人脑的算数能力高很多,GPS导航设备要比人对空间的认知好很多,百度可以记住6万亿个网页,这远远超出人脑的记忆能力。

我们在汽车上采用人工智能系统,是因为它没有人的那些不良驾驶习惯,人类本就不应该开车,所以我们希望用人工智能技术来代替人,人工智能系统不会因为其他事情分心,也不会像人一样想问题。

人工智能也许会超越人类

但不可能和人类一模一样

人类对智力和智能的理解是错误的、单一维度的、片面的。智力其实是一套思考方式、知识体系和工具,而这些方式、体系和工具构成了我们的思考和学习能力,每个人都不同,数量有几百种,比如演绎推理、归纳推理、符号推理、逻辑、空间导航、记忆等。

动物的智力也是由很多思维方式构成的,有的时候他们看待人类的方式也是它们所独有的。一只松鼠或者其他啮齿类动物的记忆能力超过人类,因为即使过了好多年,它们还可以记得当初在什么地方埋下了成千上万颗橡果,这一点没有人可以做到,所以某些动物的智力在某些方面是超过人类的。

在设计人工智能系统的时候,我们遵循同样的原则,让它们可以以某一种特定的方式看待人类,而不是像人类一样思考,其中有一条设计理念所有的工程师都会铭记心中,那就是产品不可能每一方面都能做到最优,总需要做出权衡。

各种人工智能系统产品总会在某一方面超出人类智力,但不可能做得跟人类一样。

在看待人类智能的时候,我们可能会将自己视为中心,其他智能围着我们转,就像宇宙学的地心说理论,而其实我们并不是什么中心。

我们对人类智能的理解会随着人工智能技术提高而改变,而开发人工智能系统的过程就是不断发现不同智力和思考模式的过程,而每一种模式对于研究人工智能都有用。很多时候,人类智能无法或者有相当大的难度去理解一些问题,无论是科学上的还是商业上的。

我们可以通过两步法来解决这些问题,第一是开发一套异于人类思考方式的人工智能系统,第二是利用这些系统加上人类智能来共同解决这些问题。这个过程就是证明我们不是智能中心的过程,思维方式真的是多种多样的。

新经济的财富引擎就是在接触社会的同时拥有创造性思考的能力。一个人如果不接触社会,可能会有异于常人的想法,但是如果他一直接收各方面信息,很难有创造性的想法。有些人工智能系统可能没有人类聪明或者反应更快,但可能拥有不一样的想法,这就是价值所在。

人工智能带来的优势

在于怎么用

人工智能是第二次工业革命。第一次工业革命是从自然能源到人造能源的变革,那之前的农业时代都是靠人或者牲畜的肌肉力量,之后有了蒸汽机、电动机等设备。日用品,工业品都是用这些设备制造出来的,人类也有了驾驭自然力的能力。

我们之所以有现在的生活,都是因为我们将人造能源作为一种商品进行交换,这些商品通过电力形式在全国范围内流通,所有人都可以购买人造能源。农民不需要创造人造能源,而只需要购买就可以得到。

人造能源的流通是创新和创业精神的巨大引擎,比如一个农民有一套人力水泵,有了人造能源之后,他可能就会产生将其改造为自动水泵的想法,因为有了电和水泵,就可以制造电动泵。而将电动泵的例子放大几万倍,也就有了我们的城市,这就是我们所说的第一次工业革命。

现在人工智能的研制也要达到同样目的,我们会在电动泵中加入人工智能系统,让它变成一款智能水泵。而将智能水泵的例子在城市建设中放大,就是第二次工业革命,也就是让电能驱动的设备具有认知功能,变得智能。这个进程不只包括制造业,而是整个经济的升级。而如果没有公司经营的智能升级和消费者的智能升级,制造业的智能升级也是不可能实现的。第二次工业革命将实现整体经济的智能化。在250马力的汽车上匹配250种思维方式,不是人类的思维方式,而是人工智能的算法。问题是,如果你的企业有1000种思维方式24小时为你服务,你会用它们来做些什么?

未来,人工智能系统将部署在云端,作为一种商业资源,所有公司都可以购买这些资源来为商业拓展提供动力,人工智能将成为像电一样的能源和人人可以购买使用的服务,这就是第二次工业革命的结果,让人工智能的资源自由流动。

未来一万家的新创企业所采用的模式可能非常相似,就是将他们的业务加入人工智能系统。正如第一次工业革命,将一种工具自动化一样,第二次工业革命令自动化设备具有感知能力。

篇11

奥巴马:总体来看,人工智能已经从各个方面渗透进我们的生活,只是我们还没有太注意到,这部分是因为我们所认知的人工智能方式是被大众文化所粉饰过的。这就是区别所在。我们通常在科幻小说中所见到的都是普通的人工智能。现在的电脑已经超越人脑变得越来越聪明,最终人类将变得不再全部都有用处,甚至它们正在麻醉我们,让人类陷入肥胖和愉快或是黑客帝国的世界中。

值得思考的是,这确实扩展了我们的想象力,使人类开始思考选择和自由意志的问题,实际上也对发展专业人工智能,进行精确计算和解决日益复杂的工作起到了重要的作用。如今,我们生活中的各个方面都能够看到专业人工智能的身影,无论从医疗、交通到分布式发电,它都能确保创造更加高效的经济。如果利用得当,它将为世界创造巨大的经济繁荣和机遇。但同时接下来我们要谈谈人工智能不利的方面,比如加剧不平等、压低薪酬等等。

伊藤:我认为人工智能问题已经远远超出了一个普通电脑的科学问题。重要的是,每个人都需要了解人工智能的行为方式。在媒体实验里,我们常用到“扩展智能”这一术语,因为问题在于我们该如何对人工智能建立社会价值观?

奥巴马:我们用无人驾驶汽车举例。当机器可以进行多项快速决定时,就能够彻底地降低交通事故,彻底提高交通网络效率,有助于解决导致地球温室效应的二氧化碳排放问题。但是,人类将会在无人驾驶汽车上附加怎样的价值?接下来我们需要做出一系列的选择,比如老生常谈的问题:汽车自动驾驶,如果你急转弯避免撞到行人,你就会撞墙自杀。这是一个道德决定,而由谁来制定这个规则?

伊藤:在我们探讨人工智能的道德问题时,政府将扮演什么角色?

奥巴马:在我看来,在人工智能的早期发展阶段,监管框架应当百花齐放。政府要尽量少地进行干预,更多地投资于科研,确保基础研究和应用研究之间的转化。随着技术的开发和成熟,我们要考虑如何将其纳入现有监管框架中。这是个更难的问题,而政府需要更多参与。我们并不总是要让新技术去适应现存监管框架,而是确保监管符合更广泛的价值。否则我们可能会发现,某些人群将因此处于不利地位。

伊藤:人工智能发展出新型军备竞赛的过程中是否存在风险?

奥巴马:毫无疑问的是,我们需要围绕着网络安全建立国际准则、协议和检验,特别是对初期的人工智能领域。而其中较有趣的问题是攻防之间的界限还比较模糊。而政府之间互相的不信任更加剧了难度。

为什么我们与人工智能爱好者召开多次会议?其中一个原因之前我们并没有谈到过,就是我们真的需要彻底想清楚人工智能带来的经济意义。因为现在大多数人并不会花时间担忧那些稀罕物――他们只关心“机器会不会取代我的工作?”对此,我还是非常乐观的,历史证明,当人类吸收新科技时,总能发现创造出新型的工作,我们生活的总体标准也随之上升。高技术人员在这些领域表现出色,通过衡量自身才能,与机器互动,扩展知识范围、销售额度以及产品和服务。低收入、低技能的人群将变得越来越多余,他们的工作或许不会被取代,但是工资会被极大缩减。如果想成功转型过渡,我们必须对如何管理转型进行社会性的对话。

实际上,还没有直观感受到哪些工作将被替代。不过我愿意打赌,如果你有一台懂得医疗系统的电脑,你将非常擅于诊断病情,所以相对于医生,护士或药剂师不太可能被替换,因为他们的工作并不是很高薪。那些专业技术较强的工作,比如律师或审计员或许会消失。反而许多服务业、艺术和那些计算机难以适应的职业将很难被取代。

伊藤:如埃隆。马斯克、NickBostrom所说,人工智能的潜力已经超越了人类对它们的理解能力。当我们推动人工智能向前发展,我们该如何应对这样的担忧?

奥巴马:这不仅仅影响到我们自身,而是全人类的大事。首先,我认为更加直观的是,这在专业人工智能方面是可解决的问题,当然我们必须留心它的动向。如果我们拥有一台可以下围棋的电脑,这是蕴含千变万化的一种游戏。当人工智能开发出一套算法,很可能让你在纽交所实现利益最大化。如果一个人或组织首先获得这种算法,他们就可以迅速地打压股市,或至少引起金融市场诚信的混乱。

当出现一种算法,“围棋能够破译核密码并且算出如何发射导弹”,如果这是人工智能唯一的功能,如果它是自学并且真正高效的运算,就会给我们造成极大的麻烦。