这是2025年春节前的最后一篇文章。

最近AI人工智能产品层出不穷,国内的一些大厂产品比如文心一言、360 智脑似乎没什么消息了,但是一些小众产品,比如智谱清言,讯飞、豆包等都发力了,这些我都体验过了,包括最近很热闹的 Deepseek,经过体验我知道这些产品都具有很强的超越人类思考能力的逻辑和思维推演能力,但是我依然还是保持一个观点,至少在目前,只要人类社会没有经历思想变革,人工智能是不会超越人类的,AGI也可能到来,但是其能力会被限制

这是因为几乎所有的人工智能产品都必须要基于以下规则:

  • 合法
  • 合规
  • 合情

合法的方面,基本上都知道,各国都有各国的法律,在这种情况下,不管是多么大的网络服务者,都必须要确保其提供的内容不能包含暴力、凶杀、色情以及恐怖主义、危害国家安全的内容,这是一方面。

另一方面合情,我们谈到的是AI的回答技巧,对于有明确数据的内容,它们往往可以给出一个确定的回答,比如回答一些物理、化学的题目,但是当问题涉及到人文社科类题目时,它所表现出来的除了一些既定事实,比如某些相关人物的生平、思想等都能表现出相对的确定性之外,基本上就是比较中庸,AI对于战争的态度往往是和平为主,反击为辅。在此之外,经常能看到它在相关话题中使用如下词汇:

但是、不一定、可能。

这说明想在人工智能产品这里做一个人文科学的研究结果出来,应该是困难的,因为他们也不能以完全人的主观性去考虑问题,这就导致他们会摆出各种事实,他们也确实在讲道理,但就是谁都不能说服谁,因为都有道理。

当然里面最重要的是合规。所谓合规其实是包含了一定的法律内容,但是又有一些超越法律的,意识形态的东西,在中国,包括 Deepseek,如果向其询问他们是否被预先设置一个立场,他们会说自己是公正、公平实事求是的,但又会说,自己是和国家保持一致、是受党的领导或者与其立场保持一致的。

在此情况下,尽管人工智能很聪明,其回答的问题答案,也不能超出其事先预设的立场,平时网络上的敏感信息,比如一些所谓的敏感词,在AI里同样敏感,甚至数次都出现了这样的事——一些问题的问题可能很正常,结果人工智能在回答到快要结束时,发现其中部分答案涉及到敏感信息,于是整个长篇大论被撤回,而返回一个通用回答:“我不知道”、“我不了解”、“无法回答”。这个现象表现在历史、政治学领域尤其明显。

比如在我向一些AI询问西方社会契约理论的创始人、奠基者或者在其形成过程中提供思想依据的人都有谁时,它回答到一半,会告诉我,它不知道——当然这是个别。有时甚至在和AI探讨马克思主义的时候,也会有这种情况。这就导致AI的回答往往是比较官方、正式的,事实上现实中很多情况都表明,官方,比如政府的某些言论并不一定是对的,但人工智能会默认其正确性,而优先采择其言论,当然你问他是否有立场,他会说他依据的是事实。

正是基于上述的现实情况,我到今天为止,依然还认为人工智能的未来不管多么先进,它们依然不会超越人类的思想范式,并不可能忤逆人类,很多人幻想当中的情况,可能只是在做梦

至少从人文角度出发,因为有这种合规的立场预设,很多人文科学、社会科学依然需要研究者自己想办法去找资料和分析数据,这未尝不是一件好事。