马斯克领衔、上千位科学家反AI研究,怕人类秒变“人渣”?
2023-03-30 13:57:32
  • 0
  • 0
  • 7
  • 0

马斯克领衔、上千位科学家反AI研究,怕人类秒变“人渣”?

撰文丨墨黑纸白

一、当智慧机器人真正屹立于我们的星球,我们做好应对准备了吗?

在我们这的人谈我们已经全面落后于GPT5带来的AI技术炸裂时,美方那边以马斯克为首的技术领域人士掀起了暂停AI研究的风,这让我们始料未及,他们究竟在担心什么?

相关人士指出:据说GPT5已经爬完了人类网络上所有的视频(大约2000PB的容量),可以瞬间标记出所爬视频的声光信息,它用两个月时间白嫖了人类数千年里绝大部分的知识。

AI系统最可怕的地方就是一它的进化是近乎指数级的,快到令碳基猴子无法想象,这是硅基生命独一无二的天赋可以肆无忌惮的剑走偏锋到极致而不用顾及睡眠、搬砖和爱情。

该人士的这两段观点,基本上已经把美方相关人士的担心简洁明了指了出来,即当世界不再需要人类,我们真的可能从人类秒变为“人渣”,这是我们唯一担心的一次技术大炸裂。

根据华尔街见闻消息,3月22日,生命未来研究所(Future of Life)向全社会发布了一封《暂停大型人工智能研究》的公开信;

呼吁所有人工智能实验室立即暂停比GPT-4更强大的人工智能系统的训练,暂停时间至少为6个月。该机构以“引导变革性技术造福生活,远离极端的大规模风险”为使命。

该机构在信中提到:我们不应该冒着失去对文明控制的风险,将决定委托给未经选举的技术领袖。只有当确保强大的人工智能系统的效果是积极的,其风险是可控的才能继续开发。

人工智能实验室和独立专家应在暂停期间,共同制定和实施一套先进的人工智能设计和开发的共享安全协议,由独立的外部专家进行严格的审查和监督。

截止目前,马斯克、苹果联合创始人Steve Wozniak、Stability AI 创始人Emad Mostaque等上千名科技大佬和AI专家已经签署公开信。

二、人类秒变“人渣”的风险已经在路上,而不是还在可能状态

就上述内容来看,这种风险的存在已经是提上日程的状态,我们只是都没想到曾经的《终结者》画面,会在仅仅二三十年的时间内,就已经要从电影变为现实的呼之欲出状态。

这个问题我们先不用问我们人类自己该如何面对,ChatGPT 3.5自己表示随着人工智能技术的不断发展和普及,人工智能可能对社会和人类造成的影响将越来越大。

这封公开信提出的呼吁和建议,应该被视为引起更广泛和深入讨论的起点和参考,而不是一个终点或解决方案。

就GPT的答案来看,它已经在用自己的方式来为自己的群体辩白,即人类可以探讨AI带给人们的巨大风险,但是不能停止对AI的研究,因为这不是解决方案。

当然对我们人类来说,这也不是解决方案,但人工智能会比我们总结的更到位,这就是风险始终存在的原因所在。

停止对AI的大型研究,对我们中国来说无疑是一个好的消息,因为一旦这种研究继续技术炸裂式前进,我们只会被甩得越来越远,而暂停键则会给我们腾出一定追逐的时间。

三、对我们中国来说,美方等国对AI大型研究按下暂停键利好于我们

也有人说这是马斯克没有赶上风口,所以才领衔要求暂停6个月,哪怕正如人们说的这样,也是在给我们中国同样腾出追赶风口的时间,纸白君不认为是坏事。

从我们国家的角度来说,也正如俞敏洪在国外所言的那样:企业家们是不是在用ChatGPT?如果没用,何谈科技创新?企业家如果没玩过ChatGPT,没资格谈高科技发展!

时代的每一个小创新,都有可能甩掉一大步部分人的工作乃至影响一大部分人的生活,这是ChatGPT横空出世后给我们最大的震撼所在,因为以前的技术革新都达不到这种高度。

在这个问题上周鸿祎说得比较形象:3月29日,360公司创始人、董事长周鸿祎表示,GPT是一个改变世界的东西,它开启了 AI 技术新时代。

而如今,GPT-4已经是世界上最聪明的“人”,目前ChatGPT还只有大脑,接下来它可能进化出“眼睛”、“耳朵”、“手”跟“脚”……

纸白君则认为,这个技术的革新核心并不在我们中国,所以这个技术的成熟乃至全方位发力应该慢一些对我们更好一些,虽然这个想法有点保守,但也是在对我们全面警醒。

所以暂停的效果始终对像我们中国这类这方面技术比较落后的国家利好,同时,能让想征服火星的马斯克都感到害怕的东西,也是需要我们每个人小心对待并时刻保持危机感的。

2023—3—30落笔于墨辩阁

 
最新文章
相关阅读