狐狸club

 找回密码
 立即注册

QQ登录

只需一步,快速开始

查看: 185|回复: 0

铺垫

[复制链接]
发表于 2023-4-1 23:59| 字数 73 | 显示全部楼层 |阅读模式

昨晚有读者在留言里提到了自己很怕死,害怕死后的万念俱空,一切寂灭。

这让我想起了前不久在短视频上刷到一段马斯克的采访,他说自己有机会实现某种意义上的永生,但他并不希望那么做。因为人一旦永生这个世界就会变的很可怕,因为拥有权力、拥有财富的人会一直存在,他们会一直居于统治和垄断的地位,从而死死掐住人类社会革新和前进的力量。

他没说阶级固化这个词,但我品到了那一层意思。正是因为有了生老病死,相当于隔几十年就洗一次牌,人类社会才会一直新陈代谢保持了活力,阶级也会周期性的始终在流动。

否则不用300年,两极分化就会大到吓人的地步,人跟人的差距比跟猩猩还要大。

至于马斯克说他实现永生的方式,我也猜到了,只能是意识上传,否则无论医学怎么进步,碳基身体的极限都跨不过150年的大坎。我记得马斯克旗下有一个研究脑机的项目,他今年51岁,再给30-40年的时间,完成这个方向的技术突破概率不小。

所以咯,一个拥有顶级财富和顶级智慧的人都有这样坦然的生死观,我们这些还在为衣食住行奔波操劳的普通人,更没道理赖着不走。我觉得比较积极的人生观就是热爱生活,珍惜当下,在有限的生命区间里尽量兑现价值,不留下遗憾。

……

另一个近期讨论较多的话题是关于人工智能迭代进化下去,会不会衍生出自我意识,并对人类造成威胁。由于大量科幻影视作品都描绘了未来世界机器人统治人类的故事,因此包括科技大佬在内的很多人都对此忧心忡忡。

我们都知道文明进步是有加速度的,而ai的进步更是10倍甚至100倍的加速度,别看它现在还只是个听话的聊天机器,万一在自我意识训练上突破了某个临界点,可能唰一下在一个月内就比人类聪明一千倍、一万倍,这是完全有可能的。

至于预防的措施,gpt已经给出了答案,算法透明+机制监管+给ai建立道德准则。另外就是做好杀伤性武器和ai之间的隔离,必须像防止核武器扩散那样,严防ai渗透军事装备。

如果严防死守还是被ai钻了漏洞,那人类毁灭就毁灭吧,不用太可惜。本来人类文明满打满算也不过1万年,放到地球46亿年的尺度下就是白驹过隙,运气好罢了。

以我们目前的科技,哪天要是射过来一颗直径10公里的陨石,人类没有能力拦截,80亿人只能眼巴巴的等死。

我以前就悲观的想过,人类是不可能远离地球探索深空的,因为碳基的身体太脆弱,怕冷、怕热、离不开氧气、要吃要拉,为了维持身体机能要保持运动,甚至还要考虑精神健康。宇宙飞船必须建立极其复杂的生态系统才能让人长时间生存,而越复杂的东西就意味着越脆弱,容错率很低。

但若是换成机器人,则一切都会变的很容易,我相信用不了几十年它们就能在太阳系内来去自如,甚至跨系航行也不难。

所以有可能我们人类只是地球文明进化过程中的铺垫,就好比倚天屠龙记,前面十几集都在讲张翠山,等到他死了大家才发现,哦,原来主角是他儿子。

双手一摊,看开想开。

周末愉快诸位。

……

上面这些是下午写好的,晚上和高中同学喝酒去,我怕喝多了回来就不成了,所以提前备稿。结果今晚还好,喝最猛的那个有事赶场去了,我就喝了3两,刚刚好

今晚很高兴,有几位同学高中毕业一别过后还是首次重逢,除了有一丢丢通胀,都是风采依旧。我读书那会台州中学还是本地最好的高中,同学都是同龄人里的精英,大家都过的很好,只是聊到某位在阿里英年早逝的同学时倍感惋惜。

赶巧的是他的墓园和我父亲的在一处,明天到时候也去给他送个花篮。

明天多赶路,希望是个好晴天。

2306.jpg
狐狸club温馨提醒
本文采集自微信公众号
您需要登录后才可以回帖 登录 | 立即注册

本版积分规则

快速回复 收藏帖子 搜索

网站状态|免责声明|Archiver|手机版|小黑屋|网站地图|club·befox·net

GMT+8, 2024-11-26 00:55 , Processed in 0.081150 second(s), 14 queries , Gzip On, Redis On.

Powered by Discuz! X3.4

© 2001-2023 Discuz! Team.

快速回复 返回顶部 返回列表