手机版 客户端

谢田:人工智能(AI)的危险及其背后的因素

2023-5-20| 发布者:mghrshw

摘要:今年五月中旬,IBM公司宣布计划,要用人工智能(AI)来取代7800个工作岗位。IBM可不是说大话或者空穴来风,它是会真正地这样做的,并且,IBM的咨询顾问会迅速把这个解决方案作为最新、最牛、最有效的管理模式的新工 ...

今年五月中旬,IBM公司宣布计划,要用人工智能(AI)来取代7800个工作岗位。IBM可不是说大话或者空穴来风,它是会真正地这样做的,并且,IBM的咨询顾问会迅速把这个解决方案作为最新、最牛、最有效的管理模式的新工具,推广到其它公司去;其它公司也会立即效仿,裁减他们可以用AI取代的岗位。最后的结果就是,成千上万的公司,甚至许许多多的行业,可能都会濒临绝种灭迹的前景。而美国人工智能专家最新的警告,亦即AI可能以假乱真、扰乱2024美国大选,更引起了人们最新的担忧。人工智能的危害究竟有哪些,它的驱动力为何,其最终的目标是什么,其背后的因素为何?都是人们需要迫切关注的话题。

因为2024年美国总统大选在即,而2020年选举的舞弊和窃票仍然尚未完全被处理,所以,当人工智能专家表示,AI技术正在以前所未有的速度大规模地破坏选举,这引起了美国人民和世界人们极大的担忧。专家们设想的对选举的破坏,从由人工智能(AI)生成的政治虚假信息在网上疯传,拜登疑似发表攻击变性人的演讲的视频篡改,AI生成的儿童在图书馆学习撒旦教的图像,无奇不有。随着AI技术日渐普及,成本越发低廉,AI工具可以迅速产生针对性的竞选电子邮件、文本或视频误导选民,可以冒充候选人,还能结合算法,广泛地传送虚假信息,使得竞选的舞弊、误导、乃至根本性的破坏,变得防不胜防。

网络安全公司Zero Fox情报副总裁A‧J‧纳什(A.J. Nash)警告说,人工智能制作音频和视频的能力已突飞猛进,并且能大规模地做到这一点,在社交平台上发布。对此产生的重大影响,人们还没有做好准备。艾伦人工智能研究所的创始首席执行官奥伦‧艾兹奥尼(Oren Etzioni)更是给出了一个活灵活现的例子,“如果埃隆‧马斯克亲自给你打电话,告诉你投票给某个候选人,你会怎么做?很多人都会听。但这可能不是他!”

AI成为专制和极权国家恶意破坏美国选举和制度的工具,Forcepoint网络安全公司的全球首席技术官佩特科‧斯托扬诺夫(Petko Stoyanov)认为非常可能,那些希望干涉美国选举的团体,可以利用人工智能和合成媒体,来削弱选民对选举的信任。“国家、网络犯罪分子以AI冒充某人,会怎么样呢?我们能追索吗?美国人民将看到更多来自外国的错误信息。”

纽约州国会众议员伊薇特‧克拉克(Yvette Clarke)在国会提案,要求参选人使用AI创建的竞选广告时,必须附加标签,任何AI合成图像则需在图片上添加水印。但这并不能防止有人恶意的使用AI来干涉选举。这样的立法就跟枪支管制的立法一样,约束了合法民众和政党的使用AI的能力,但恶意使用AI、意图破坏西方民主和自由的敌意政府和个人,他们不会使用水印和标签,所以这并不能遏制AI的滥用。

杰弗里‧辛顿(Geoffrey Hinton)曾经是谷歌的工程副总裁,他最近辞去了这个职务,并为人工智能将带来的危险而大声疾呼。辛顿被称为“人工智能教父”,他认为,人工智能只需5到20年,就能超越人类的智慧;而在此之前,人类需要找到控制它的方法。他发出公开信说,马斯克呼吁在6个月内暂停训练那些比Open AI开发的GPT-4更强大的人工智能系统,这样的要求“完全天真”。的确如此,马斯克和业内专家忧心忡忡的呼吁,正好给了这个世界的坏人,如中共当局和朝鲜、伊朗等流氓政府,给出了最响亮的提醒,指出了最明确的方向,会鼓励它们更加积极地开发人工智能系统,争取在这一领域赶上美国等发达国家,甚至超出美国。辛顿建议的,所有政府都一定要对人工智能制出的虚假图片、图像进行标记,与克拉克议员的建议一样,只能防君子和良民,不能防小人和坏人。

辛顿所建议的,那些拥有非常聪明头脑的人,努力想出“如何控制这些东西的危险”的方法的主意,很遗憾的,在末法末劫的今天,在道德迅速下滑的时代,在大量聪明的头脑被金钱和魔鬼诱惑的时刻,是很难实现的。人们可能不得不面临这一可能毁灭人类的劫难。

人工智能能够带来的危险,就业减少,制作假新闻,还不是最大的问题。人工智能最终是否会拥有自己的目的或目标,辛顿认为,才是一个关键的问题,也许是这项技术能够带来的最大危险。

《纽约时报》五月初的文章《人工智能带来的新恐惧:当自主杀人机器人成为军方工具》披露说,美国限制向中国出售最先进的计算机芯片,不单是为恢复美国工业的竞争力,也有军备控制的考量。纽时的文章认为,迫使中国放慢研发人工智能武器,可以让白宫和世界有时间制定出一些关于传感器、导弹和网络武器中使用人工智能的规则,防范自主杀手机器人成为现实。设想一下,如果黑暗势力和恶人们掌握了自主的杀人武器,人类的命运将会变成怎么样呢?

格伦・贝克(Glenn Lee Beck)是Mercury Radio Arts公司的创立者、拥有者和公司总执行长(CEO),公司旗下拥有美国知名的TheBlaze广播公司。笔者曾经有幸在两年前应邀出席过格伦的广播节目,我们曾经有过很愉快的对话。格伦・贝克也是美国著名的保守派政治评论家、广播主播、创业者、和电视制片人。

格伦・贝克是最知名的呼吁、唤醒人们认识到人工智能对人类社会的生存会构成重大威胁的人士之一。几乎有一半的人工智能研究者们,都认为人工智能有可能会最终导致人类的灭绝!格伦的网站列出了来自人工智能领域13个专家的警告。

人道主义技术中心(Center for Humane Technology)的共同创建者特里斯坦・哈里斯(Tristan Harris)认为,人们很惊讶地发现,也完全没有预料到的是,(人工智能)原本就是要学习和预测互联网上出现的下一个词组是什么,这些人工智能模式居然发展出来了人们完全没有预期到的新能力,只是通过学习和预测和互联网上会出现的下一个词组,人工智能居然就学会了如何去下国际象棋!涉及人工智能的发展,没有任何人在“设置防护栏,”而这一发展是如此的迅猛,连美国政府都来不及去理解和了解它究竟是个什么东西!

加州大学伯克利分校的计算机教授斯图亚特・罗素(Stuart Russell)透露说,他发现,在人工智能领域最资深的那些研究者们,虽然他们从来没有公开地出面证实,但他们在私下里却不得不承认,人类确实需要对人工智能的发展予以重视,并且越早越好。斯图亚特・罗素并且给人们举出了一个令人心惊胆颤的例子,那就是当年研究核聚变和原子弹的研究者们。当年研究核聚变的研究者,其领域中最关键的课题,就是如何去约束和限制核聚变的反应。同样的,今天的人工智能领域的研究者们,当人工智能越来越发展完善的时候,必须把如何约束人工智能、如何确保安全,当作是最关键的话题。但关键的关键的问题是,约束核聚变的努力最后导致人类社会最危险的武器——原子弹的诞生,乃至核武器后来的使用,和今天核武器再度成为新的威胁。约束人工智能的努力,对人们来说,会不会也同样变得失控呢?

宾夕法尼亚大学(University of Pennsylvania)一个研究团队的缇娜・伊朗多(Tyna Eloundou)、山姆・曼宁(Sam Manning)、潘母拉・密斯金(Pamela Mishkin)和丹尼尔・洛克(Daniel Rock)在研究人工智能对就业的冲击时指出,美国80%的工作人口中,会发现他们的工作的10%会被当代的人工智能所影响;而五分之一的工作人口,会发现他们的工作的50%会被当代的人工智能所影响。也就是说,在美国1.65亿的劳动人口中,1.32亿人的工作的十分之一,是可能会被人工智能所替代的;而3300万美国的劳动人口中,其工作内容的一半,是可能会被人工智能所替代的。这是一个非常惊人的就业冲击。两者加起来,就意味着至少4600万美国人的饭碗,有可能因为人工智能而不保。

人道主义技术中心(Center for Humane Technology)的另一位共同创建者阿扎・拉斯金(Aza Raskin)则透露,Open AI公司的研究者们,甚至在根本不知道ChatGPT4有什么样的能力的时候,就把它推向了公众和社会!

人道主义技术中心(Center for Humane Technology)发布的报告——《人工智能的进退两难》(The AI Dilemma)中这样说,“大公司们在像军备竞赛一样、急切紧迫地推出新的人工智能技术、占领市场。他们的说辞是,这事关技术创新,而不顾潜在的危险。人们必须把证明人工智能的危险的责任放在人工智能的开发者身上,而不是放在普通民众身上。”“人们假定对人工智能的威胁、有这样那样的防护栏,但其实它根本就子虚乌有。”

谷歌的前工程副总裁、“人工智能教父”杰弗里・辛顿(Geoffrey Hinton)曾经深刻地指出,“我得到的结论是,人们现在开发的人工智能,与我们人类现有的智能完全不同。跟人类现有的生物上的智能不同,AI系统可以分开各自独立的学习知识,然后它们可以立即的分享这些知识。所以,如果你有一万个AI聊天机器人在那里,其中任何一个学了什么东西,这一万个机器人马上自动的全部都知道和掌握了。所以它们可以比人类知道的多的多。”

复杂系统研究中心(Center for Complex Systems Research)和视觉和学习集团(Vision and Learning Group)的创始人史蒂夫・奥莫汗卓(Steve Omohundro)是许多机器学习(machine learning)和机器视觉(machine vision)突破性研究的发明者,他指出,人们已经认识到,所有的先进的AI系统都展示出许多基本的“本能”或者“驱动力”(basic drives)。一个最根本的现实是,人们必须去理解这些“本能”或者“驱动力”是什么,然后才能去研发这些技术、使其造福人类。

如上种种,我们可以看到人工智能的危险、危害、甚至威胁了。那么,这个所谓的“人工智能”,人工的智能,它从本质上来说,究竟意味着什么呢?人们对待这一现象和科技的新发明,该如何看待?正如复杂系统研究中心(Center for Complex Systems Research)和视觉和学习集团(Vision and Learning Group)的创始人史蒂夫・奥莫汗卓(Steve Omohundro)指出的那样,所有的先进的AI系统都展示出许多基本的“本能”或者“驱动力”(basic drives)。这些本能和驱动力,究竟从本质上来说是什么?究竟是谁在“驱动”这些机器、是什么样的生命在“驱动”这些机器呢?!

在笔者看来,人类本身,被称为地球上有智慧的生命(intelligent life),就是有智慧、智能,是高于动物和植物的生命。至于人类的智慧或者智能(intelligence)究竟是从哪里来的,那当然仁者见仁、智者见智。信神的人和无神论的人,也各执一词。相信神佛的人,当然认为人的智慧、能力、一切的一切,乃至世间万事万物,都是神佛创造的,都是创世主创造的。如果是这样,人工智能的本身,它们是在做什么呢?它们是在集古今中外人类全部的知识、能力和智慧,试图在创造一个由人类智慧构成的世界,可能是虚拟的世界,但都是在电脑和网络上的世界。

电脑的滥觞和计算机的普及,使得人类世界如今在几乎所有的方面,所有的领域,都高度依赖于电脑,从尖端的导弹和宇宙飞船,到人类衣食住行的方方面面,到农民种地、工人生产、军人打仗、老师教书、再到交通和通讯,人们无一不能离开电脑。电脑和计算机网络相结合,已经掌控了我们人类的世界。如今,一个劳什子的东西,被称为“人工智能”的,又藉由电脑和网络,来制造一个新的世界,一个可以替代神的角色,试图最终吸引人类、诱惑人类、操控人类、左右人类、乃至威胁人类的生存,这就是笔者看到的、似乎是人工智能的终极目的和未来。

鲜花

雷人

握手

路过

点赞

最新评论

返回顶部