为什么霍金说人工智能会给人类带来毁灭

2024-05-16

1. 为什么霍金说人工智能会给人类带来毁灭

一:人工智能霍金曾预言,人工智能可能毁灭人类。而人工智能是人类一手栽培的,一方面极大地改变人类的生产方式。当人工智能具有独立意识,是否还会忠于人类,还是发生反叛呢?

为什么霍金说人工智能会给人类带来毁灭

2. 人工智能正在打败人类,这是真的吗?难道真被霍金说中了?

人工智能正在一点点的打败人类,其实这个说法也算是半真半假吧。人工智能虽然是人类所发明创造出来的一种计算机室的高级设备,但是其实它的智慧要比人类更高,所以完全有可能打败人类,但是由于人工智能不具备自己的意识,所以相比起人类还是缺少了一点胜算的。人工智能的智慧和人类相比肯定是更高的,因为他们在数字演算和数字推理能力方面都是非常强大的,可以说这是一种只懂得理性思考的产物。他们的日常就是不断地对数字进行分析和排列组合,通过数字来加减乘除,算出最终的结果,这是一种连人类的大脑都难以比较的高智慧。因此,人工智能肯定是比人类的智慧要高的,而且也比他们聪明的多。所以在这一点上看,人工智能确实在一步步的打败人类。然而,人类才是人工智能真正的主人,人类并没有赋予人工智能真正的意识,他们没有自己的自我意识,只懂得理性的算法,而没有任何感性思想。没有自己的思维,其实是不可能完成一件事情的。而人工智能其实就是没有自己思维的,他们每做一件事情都是人类在他们的程序里已经开始编写好了程序,他们只需要按照程序办事,因此他们不懂得为自己争取利益,不懂得为自己构造未来,所以他们的未来只能把握在人类的手里,从这一点上看,他们根本无法超越人类。但是我们也要小心,即使如今我们是人工智能的主人,但是如果人工智能在未来的进化越来越快,很有可能就会成为超越人类的存在,因此我们在使用人工智能的时候一定要把握一个度。和人工智能成为朋友,才能够不被人工智能取代。

3. 霍金认为人工智能的崛起要么是好的要么最糟的

2017全球移动互联网大会在北京会议中心开幕。霍金通过视频对现场观众做了题为《让人工智能造福人类及其赖以生存的家园》的演讲,演讲后,霍金还回答了企业高层人士与网友的问题。

霍金说:“人工智能的崛起,要么是历史上最好的事情,要么是最糟的,但是到底是好是坏现在还不能确定。”这也就是霍金,要是其他人这么说,不就等于什么也没说吗。人工智能的好处是世人皆知的,基本上世界所有的互联网巨头,谷歌、苹果、阿里巴巴、腾讯、百度等都在大力发展人工智能。霍金希望人类充分利用人工智能的同时,其实真正想说的是对人工智能的担心。他担心什么呢?
人工智能也许会成为人类文明的终结者
霍金说:“我相信生物电脑可以达到的和计算机可以达到的没有本质区别。”他认为计算机理论上模仿人脑,并且超越人类的智能是成立的。人工智能与人类智能的竞争将是怎样的结局则很难预测。有很大的可能,人工智能超越人类智能的那一刻,就意味着人类文明的终结。换句话说,人工智能也许会成为人类文明的终结者。
作为当今最伟大的物理学家,霍金一直有悲观主义的论调。多次对人类以及人类生活的地球发出警告。
预测地球寿命还有1000年
霍金曾经对地球末日做出预测。他认为,按照目前人类活动的强度,地球的寿命也许只剩下1000年时间,届时如果人类还没有找到另一个移民星球的话,那么将面临毁灭命运。他表示,从太空图片中可发现,宇宙过去50年来发生了剧烈的变化,目前人类最紧要的任务还是找到新家。
警告不要和外星人接触
在2010年,霍金曾说,在宇宙的很多其他地方,外星人肯定存在,不只在行星里,还有可能存在于恒星的中心,甚至还可能漂浮在星际空间。他认为设法与外星人接触“有点冒险”。他说:“如果外星人来拜访我们,我认为那么其结果就和当年哥伦布到达美洲大陆差不多,美洲的土著居民深受其害。”刘慈欣的《三体》中的黑暗森林法也可能是借鉴了霍金的观点。

霍金的预测也多不靠谱
霍金的奇点理论和霍金辐射是他最伟大的物理成就,普通人可能很难懂他的理论,就算是他的科普著作《时间简史》能看懂的人也在少数。尽管他在物理学界的地位却无人出其右,可是他的预测不靠谱的也不少。例如,在他2001年写出的《果壳中的宇宙》一书中,他预言,在20年之内,一台价值1000美元的计算机就会和人脑一样复杂。现在看来基本上没有实现的可能。


总之,霍金其实真正担心的是整个人类的生死存亡。我们尽管不用活在世界末日的悲观主义情绪中,可是我们也要善待这个地球,也要时刻心存敬畏之心。
霍金真正担心的是人类的生死存亡,和对未知事物的不确定性。我们尽管不用活在世界末日的悲观主义情绪中,可是我们也要善待这个地球,也要时刻心存敬畏之心。

霍金认为人工智能的崛起要么是好的要么最糟的

4. 霍金不看好人工智能的发展:人类可能会被人工智能征服吗?

人类从未想过,进入21世纪20年代之后,会面临一个对呼吸如此敏感的世界。尤其对于劳动力密集型产业来说,大幅减产已经成为了必然趋势。在这种情况下,人类只能把希望寄托在科学技术上,比如人工智能机器人,很有可能将会在数年内成为劳动密集型产业的主力军。
  
   
  
 但就像许多科幻影片中描述的那样,人类正在享受人工智能的发展带来的巨大便利,将机器人看成任劳任怨不要工资的劳动力。但人工智能越往深度发展,人类对机器人可能会出现智慧的担心就会越大。比如已故的物理学家霍金,就对人工智能的未来一片渺茫,霍金甚至认为,发展人工智能可能是人类的一个致命失误。
  
 人工智能的发展,真的会引发灾难性的后果吗?现如今,人工智能技术已经深入到我们生活的方方面面。从阿法狗占领人类围棋赛场,再到人脸识别技术,许多工种已经可以被人工智能软件所取代。人工智能带来的自动化趋势,让人类远离了枯燥无趣的重复性工作,但一旦自动化被滥用,就可能带来巨大风险,比如自动化的武器系统,一旦被黑客操纵,无疑是为虎作伥。
  
   
  
 机器人的复杂程度在于,它不但拥有自动化的操作水平,还有连接互联网的能力,网络在操控这一切,而机器人就是互联网世界的主人。人工智能的发展,似乎已经不再受人类控制。我们只能庆幸,现如今人工智能后台的控制权依然在人类手中。
  
   
  
 万一有一天,人工智能掌握了自己思考世界的方式,人类就将面临一个巨大的考验。无论怎么看,人类都将迎来一个崭新的人工智能世界。我们并不对人工智能拥有思考能力全面否定,只是拥有自主意识的人工智能,会如何看待自己的创造者人类,这实在不是一个可以利用技术手段决定的事情。
  
 自由意识充满了无尽的可能性,当然也包括淘汰人类。大家怎么看?

5. 霍金生前曾告诫人类小心人工智能,它们真的能够威胁人类吗?

霍金生前曾告诫人类小心人工智能,它们真的能够威胁人类吗?

霍金生前曾告诫人类小心人工智能,它们真的能够威胁人类吗?

6. 霍金让我们警惕人工智能,应该怎样警惕?

3月14日著名物理学家斯蒂芬霍金教授去世,巨星陨落,令人痛心,也让人不禁重新思考他的很多理论成就和经典言论。在去世前这几年,霍金最关注的话题就是离开地球和警惕人工智能。2016年10月霍金在剑桥大学发表演讲,他说,人工智能技术的确有希望带来巨大的福利,比如根除疾病和贫困,但是它同样也可能带来危险,比如强大的自主式武器,或者帮助少数人压迫多数人。2017年3月,霍金在接受英国《泰晤士报》来访时再次警告:“人类需要控制以人工智能为代表的新兴科技,以防止它们在未来可能对人类生存带来的毁灭性威胁。”
发出类似警告的著名科学家还有不少。例如Sun Microsystems公司的首席科学家比尔乔伊说:“唯一现实的选择就是放弃、限制那些太过危险的技术研发,限制我们对此类知识的追求。”“我们是否要冒全军覆灭的危险来攫取更多的知识或财富。”“我们正被推入一个新世纪,没计划、没控制、没刹车。”这就是地球主义的主张。但宇宙主义者也很强大,宇宙主义者就是支持人工智能的人。雨果德加里斯认为,面对这样的前景人类将分为两派:地球主义者反对制造人工智能,宇宙主义者坚持制造人工智能,他们之间的矛盾将激化并导致战争。
现在有些学者提出,人工智能的发展可以分为三个阶段:弱人工智能Artificial Narrow Intelligence (ANI),强人工智能Artificial General Intelligence (AGI)和超人工智能Artificial Super intelligence (ASI),但他们的划分标准并不完全可取。我的划分标准是:在弱智阶段,人工智能还没有超越人类智能;在强智阶段,人工智能超越人类智能的幅度不大,人类还可以控制人工智能;在超智阶段,人工智能远远超越人类智能,人类只能接受人工智能的统治。在不同的阶段,人工智能对人类的威胁的性质完全不同。
当人类能够控制人工智能的时候,人工智能不会带来很大威胁,因为人对人的威胁已经足够大了。人类一直生活在核恐怖之下,现有的核武器足以彻底灭绝人类,人工智能还能做什么呢?对于少数人压迫多数人之类社会正义的问题,人类也已经经历的够多了。所以在弱智和强智阶段,只要人能控制就不会有太大问题。而且人类要想离开地球,开辟新的生存空间,就必须依靠人工智能。但是到了超智阶段,人类就会面对真正的威胁。那么我们怎么办?全面停止研究吗?
雨果德加里斯认为机器人会灭绝人类,就像人要灭绝蚊子一样。人类确实想灭绝蚊子,因为蚊子总侵害人类,如果人类不侵害机器人,机器人还会灭绝人类吗?人类会不会灭绝蜜蜂呢?即使机器人真的统治了地球,它们就一定会与人类为敌吗?既然机器人可能比人聪明亿万倍,那么它们就一定懂得与人为善的道理。所以这么聪明的机器人一定是天使,不会是恶魔。
面对受机器人奴役的前景,人类一定会反抗,会争夺统治权。成功了皆大欢喜,如果失败了,那么这时应该顽抗到底还是听天由命呢?受他人奴役其实是家常便饭,在一个国家里,被统治者远远多于统治者。当我们争论人类与机器人的问题时,人类的统治权好像就是我们自己的统治权,但有几个人真正享有过统治权?事实上,只要统治者能让大家正常生活,就很少有人愿意考虑应该由谁统治的问题。当清政府统治中国的时候,汉族老百姓也能过得心安理得,而且很快乐。所以,如果人类真的没有能力反抗,让人们接受机器人的统治其实也是很容易的。人类一旦接受了机器人的统治,机器人也就没有理由灭绝人类了,就像人不会灭绝笼子里的老虎一样。
科学、政治和伦理的争论在真实的历史发展中往往很难起决定作用,国际竞争和企业竞争会让人们无暇顾及未来的风险,只要机器人能给人带来利益,人们会毫不犹豫地研制和使用,很少有人会真正考虑地球主义者的忧虑。这是人类的私欲造成的必然结果,你我想阻止都不可能。我们能做的只有想开一点,接受这个现实。
知识就是力量的观念早已深入人心,每一个企业都把人才战略当成最重要的战略之一,为了挖一个人才可以不惜重金。如果将来人工智能达到和超过了人的智能,那么企业怎么会放过这样的“人才”呢。比尔盖茨做了什么?他和他的员工不过是编了一些程序。如果你拥有一台机器,可以把微软公司一年的工作在一天里做完,而且又快又好,那么你还发愁挣不到钱吗?知识经济已经造就了世界最大的富翁,那么拥有超级智能的机器人对企业家们来说意味着什么也就不言而喻了,他们一定会争先恐后地研制和采用机器人。
人工智能让历史发展进入一个新的转折点,每一个民族都要面对这个转折。对这种发展采取不同的态度,会决定每个民族未来的命运,这是一轮新的竞争。过去的民族竞争是极其残酷的,南京大屠杀还像是昨天的事情。未来的民族竞争不会那么残酷,但谁也不敢掉以轻心。接受人工智能会带来恐惧,但拒绝人工智能同样带来恐惧。也许在这个问题上,历史因素会发挥作用,让中国人能比西方人更快地接受人工智能。
接受一个残酷的现实其实并不难,每个人都能做到。例如,交通事故造成的死亡比世界大战还多,你每次开车出门都面对巨大的风险,但你还是毫不犹豫地踩下油门。每个人都会死,每个人都会失去亲人,这么残酷的现实大家都能接受。美苏对抗的时候,核战争随时可能爆发,一旦爆发就必然导致人类毁灭,这样的现实大家也能接受。
如果没有机器人,你能把握自己的命运吗?我们这一代人早晚要失去权力,怎么保证子孙能按我们的意志统治世界呢?除了教育没有别的办法。但教育也不保险,当年张居正费尽心思教育万历皇帝,但张居正死后,万历怠政四十多年;诸葛亮对阿斗也苦口婆心地教育,但蜀汉还是很快灭亡了。所以把握未来的命运从来都只是一个幻想,失去对命运的把握一点也不可怕,我们每个人都只能担当生前事。只要你以最理智负责的态度面对今生,就没有必要为身后的事担心。
地球主义者的的观点以及控制人工智能的愿望都是从人类的利益出发的,但是为什么一定从人类的利益出发呢?如果机器人比人聪明,那么机器人的统治代替人的统治应该也是进化。人类现在都不把机器人当成人,但是当机器人具有了人的智能之后,机器人与人的区别就几乎不存在了,这时就应该把机器人当成人了。机器人是我们创造的人,也就是我们的子孙。那么我们怎样对待它们不孝的危险呢?我们从来不会因为自己的孩子可能不孝就杀死他们或者不让他们出生。如果机器人真的不孝,那么就当是用父母的生命成全它们吧!

7. 霍金预言,人工智能会使人类毁灭吗

是的,霍金有四大预言
1、地球将变成一个火球
2、人工智能是我们文明历史上最糟糕的事件。它带来了危险,比如强大的自主武器,或者是少数人压迫许多人的新方法。它可能给我们的经济带来巨大的破坏。”
3、全球变暖可能会达到一个“临界点”
4、宇宙中可能会有外星人

霍金预言,人工智能会使人类毁灭吗

8. 如何看待霍金留下的最后警告 人工智能真会毁

霍金生前的警告振聋发聩:人工智能将消灭人类,美军已有先例

最新文章
热门文章
推荐阅读