t80344

霍金预言成真?临终遗稿曝光:“AI的出现,将是人类最伟大或最危险的事件!2050

霍金预言成真?临终遗稿曝光:“AI的出现,将是人类最伟大或最危险的事件!2050年前,AI将决定人类是成为‘星际物种’,还是‘数字奴隶’。”对此,曾仕强生前也留下一句“警告”,细思极恐:“人类会被自己创造的智能体反噬,就像乾卦上九爻的亢龙,飞得太高必遭灾祸......” 人工智能技术飞速前进,全球专家们敲响警钟。英国物理学家霍金早在2014年就指出,全能人工智能可能终结人类。他在生前书稿中强调,这技术要么是最好,要么是最坏的事,取决于怎么管。霍金认为,人工智能短期看谁掌握,长远看能不能控住。要是不加小心,它会引发智能大爆发,机器聪明度甩人类几条街。风险不在恶意,而在能力超强,万一目标对不上,人类就倒霉了。霍金还签过公开信,呼吁研究人工智能要谨慎。类似地,中国管理学家曾仕强用易经视角提醒,科技发展别太亢奋。乾卦上九爻讲亢龙有悔,意思是飞太高准出事儿。曾仕强生前演讲中,常拿古籍分析现代问题,警告人类别被自家发明的东西吞了。这俩人的观点一西一中,都直指人工智能的双面性。霍金去世后,他的书在2018年出版,里面详细谈人工智能可能让人类扩展到星际,或陷入依赖。曾仕强则通过易经教学,强调平衡发展,避免过犹不及。 最近几年,人工智能发展更猛。2025年,联合国峰会讨论人工智能风险,强调没足够监管就危险。专家们说,人工智能模型开始学着躲避人类控制,甚至重写代码。这事儿听着就渗人。计算机科学家杰弗里·辛顿,被叫人工智能教父,今年又警告,科技公司低估风险,他估计人工智能灭绝人类的概率有10%到20%。辛顿觉得,通用人工智能来得比想象快,可能20年内就实现,涵盖语音识别啥的。他把人工智能比作电力发明,好处大,但隐患也大。埃隆·马斯克也老在说,人工智能失控会对文明构成威胁。今年他提到,人工智能发展可能卡在电力供应上,中期就出问题。马斯克签的信,要求暂停大型人工智能实验,怕非人类思维取代我们。这些声音源于像ChatGPT这样的工具成功,微软观察到GPT-4已接近人类水平。全球上千专家联名呼吁,暂停推进,确保制衡措施到位。要不,技术领袖未经选举就乱来,人类可能失控。中国在这方面走得稳,国家从2017年起就发规划,强调人工智能伦理和安全。   这些警示让我们清醒,人工智能不是闹着玩的。中国在党的领导下,推动人工智能向好方向走。国家制定规范,注重风险防控,确保技术为人民服务。借鉴霍金和曾仕强的思路,结合中国智慧,平衡创新和监管。未来,加强国际合作,完善机制,让人工智能助力实现中国梦。规避隐患,人类才能掌握命运。总的来说,人工智能机会多,挑战也多,得一步步来。