朋友们,今天咱们聊点刺激的,AI进化论,前段时间openAI十二天的发布,以及gemini 2.0,还有我们的国货之光DeepSeek,一场疯狂的“军备竞赛”正在上演,而我们大多数人却还蒙在鼓里。
AI的进化速度已经不是“快”能形容的了,简直就是在“飞”!

AI的进化速度已经不是“快”能形容的了,简直就是在“飞”!
而作为我们,怎能落下呢?
今天,我这篇数千字文就带你好好捋一捋,看看AI这玩意儿,到底是怎么一步步从“学人”变成“超人”的。
准备好了吗?
让我们一起揭开AI的神秘面纱!
AI的第一层:像人,但又不是人AI全称是人工智能(Artificial Intelligence),啥意思?
就是“人造的智能”。
那啥又是智能?
一块石头没智能,但小猫小狗,甚至单细胞生物都有。

一块石头没智能,但小猫小狗,甚至单细胞生物都有
智能不是意识,你的手机挺智能,但没有“想法”。
智能是“理解信息,给出方案”的能力。
单细胞生物能趋利避害,它就有智能。
图灵测试也是这个理儿,机器能骗过人,让对方以为是真人,那就说明它有人的智能了。

图灵测试也是这个理儿,机器能骗过人,让对方以为是真人,那就说明它有人的智能了
1956年的达特茅斯会议,正式确立了AI的概念,当时大家信心爆棚,觉得十年内机器就能干翻顶尖棋手。

1956年的达特茅斯会议
问题来了,咋做出像人一样聪明的机器?
AI的第二层:设定规则,让机器“懂规矩”早期的AI,是符号主义的天下。
简单说,就是把现实世界变成符号,比如A代表看书,B代表写代码,C代表睡觉。
然后,给这些符号设定规则,比如“如果A,就B,如果不是A,就C”。
这样机器就能像人一样做简单的决定:“如果看书,就写代码,不看书就睡觉”。
这个理念源头是图灵机,就像一条无限长的纸带,上面有规则,机器照着规则操作。

图灵机,就像一条无限长的纸带,上面有规则,机器照着规则操作
1956年,世界上第一个AI“逻辑理论家”诞生了,它能证明简单的数学定理。
之后,专家系统成了符号主义的代表,他们把人类专家的知识变成规则,判断准确率很高。
但问题也来了,世界上的知识都能用规则描述清楚吗?
显然不能。
AI的第三层:模拟大脑,让机器“感觉”20世纪,哲学家维特根斯坦说,规则和逻辑没法穷尽一切知识,很多东西都是“说不清,道不明”的。
比如,你一眼就能认出猫,但你很难精确描述啥是猫。
这种感觉式的认知,源于我们大脑的神经网络。
我们大脑里有上千亿个神经元,它们通过突触连接,形成了复杂的网络结构。
科学家就想,能不能用数学模型模拟神经元,创造出新的智能?
这就是连接主义。
1958年,弗兰克·罗森布拉特提出了感知机模型,模拟单个神经元。

1958年,弗兰克·罗森布拉特提出了感知机模型,模拟单个神经元。
但单层感知机太局限。
1969年,马文·明斯基说感知机连异或运算都搞不定,直接把感知机打入冷宫。

1969年,马文·明斯基说感知机连异或运算都搞不定,直接把感知机打入冷宫
直到八十年代,多层感知机出现,神经网络才真正走上正轨。
而且数学证明,只要网络够深够宽,就能逼近任何连续函数,那问题来了,这些参数怎么搞定呢?
AI的第四层:让机器“自己学习”早期的AI需要人提前设定规则,但神经网络不用。
AI可以像小孩一样,通过学习掌握各种技能。
AI的厉害之处在于,它能通过大量学习,把自己调整到最佳状态,这就是机器学习。
机器学习分三种:监督学习、无监督学习和强化学习。

机器学习分三种:监督学习、无监督学习和强化学习
监督学习像高考复习,给你卷子和答案,效率高,但费老师。
无监督学习像探索新城市,没地图,自己找规律,不费老师,适合大数据。
强化学习像训练小狗,奖励和惩罚,高效精准,但也费老师。
这三种学习方式可以混着用。
比如AlphaGo,先用无监督学习入门,再用监督学习学人类棋谱,最后用强化学习提高胜率。

AlphaGo,先用无监督学习入门,再用监督学习学人类棋谱,最后用强化学习提高胜率
总而言之,AI从“ 基于规则”转向“基于数据”。
海量数据驱动下,AI开始在各领域超越人类。
AI的第五层:大力出奇迹,大模型时代来临2022年11月,OpenAI发布了ChatGPT,这个模型不再局限于特定领域,而是展现出惊人的通用性。
紧接着,GPT-4又来了!

2022年11月,OpenAI发布了ChatGPT
国内各大模型也开始百花齐放。
比如阿里开源了数十款不同类型的大模型,成为全球最大的AI模型群。
这些大语言模型为什么这么厉害?
当然离不开Transformer架构和海量数据,但更重要的是,参数量够大。

Transformer架构
以前的“香蕉识别机”参数只有8个,而GPT-3参数却有1750亿个!
问题来了,为啥参数越大越厉害?
谷歌科学家也没想到,他们只是想通过扩大参数提高模型的性能,
结果这些模型却一夜之间学会了处理全新的复杂任务,这种现象就是“涌现”,

沙丁鱼的”涌现“
就是说,当一个复杂的系统复杂到一定程度,就会产生超越系统元素简单叠加的特殊现象。
AI的第六层:学会“慢思考”谷歌研究表明,大语言模型强大的推理能力可能和“思维链”有关。
简单说,就是模型拿到问题,不是直接回答,而是絮絮叨叨的说出它获取的信息,再回答问题,这像极了人类的思考过程。

如同书中所说的慢思考
GPT-4已经有简单的思维链了,而O1和O3把思维链表现提升到了前所未有的高度,它每一步都会比较多个想法,然后选最好的。
这就是人类的“慢思考”。

国内也推出了具有慢思考能力的模型,比如天宫大模型iwalk OE和阿里云的QWQ。
前几天,阿里云还推出了集成了视觉的多模态开源推理模型QVQ,让模型先“睁眼看世界”,再推理反思。
评测显示,QVQ表现已经超越了之前的视觉模型开源王者宽二杠VL。
AI的第七层:比人更像人我们总是觉得,AI只是在模仿人类,但事实或许不是这样。
DeepMind用AI成功控制了受控核聚变装置中的等离子体,这对于物理学家来说,简直是降维打击。
对于AI来说,它只关心输入和输出。
AI的这种做事方式或许才是最自然的思维方式。
世界上有两种计算方式,一种是基于规则的形式逻辑,一种是神经网络形式逻辑,形式逻辑代表理性,但是神经网络计算才是人类的本能,我们投篮时,并不会预先计算好投射角度,而这就是大模型正在做的事儿。

神经网络形式逻辑
大模型的本质就是神经计算。
由于碳基大脑的局限性,人脑只能用有限类型的数据训练,而大模型却可以用各种类型的数据训练,它能暴力破解,不论是人类的理性还是感性都无法感知到的客观规律。
从这个意义上说,AI的确比人更像人。
AI的第八层:AGI离我们不远了吗?阿里云通义团队的目标是——“加速锻造通用人工智能”。
大家都希望做出能像人类一样完成各种任务的AGI。

大家预测的AGI时间,大家觉得谁是准的?
有人预测,山姆·奥特曼认为明年就可能出现真正的AGI,马斯克也比较乐观,但DeepMind的哈萨比斯认为最晚不会超过2030年。
或许是因为O3的出现,让大家对AGI的到来充满期待。
O3不仅全方位超越了O1,还破解了陶哲轩预言能难倒AI几年的数学难题,在某些基准测试中表现更是惊人。
但O3显然还不是真正的AGI,它在某些简单任务上仍然表现不佳,这表明它与人类智能之间还存在根本性差异。
只有当再也找不出一个对人很容易,但对AI很难的任务时,才是AGI真正到来之日。
AI的第九层:ASI也成可能ASI即超级智能(Artificial Super Intelligence),这一层就厉害了。
在O1出来之前,大家怀疑大语言模型是不是已经走到尽头。
但O1的出现证明,缩放定律仍然有效。
以前,大语言模型的算力消耗分三部分:预训练、后训练和实际调用。

语言模型的算力消耗分三部分:预训练、后训练和实际调用
而O1不一样,它在后训练中通过强化学习掌握了慢思考能力,这意味着,即便是参数规模无法再扩大,我们仍然可以通过投入更多的强化学习和推理算力来换来更高的性能。
这是一种新的缩放定律,AI的智能在可预见范围内仍然可以不断攀升,甚至达到我们无法理解的高度。
马斯克等大佬联名呼吁暂停研究,就是担心AI会成为超人工智能,完全脱离掌控。
AI的第十层:当前AI没有意识大家最关心的问题来了:AI有自我意识吗?
答案是,目前的大语言模型没有,以后呢?不好说!如果有这将是大家所担心的危机到来。

目前的大语言模型没有,以后呢?不好说!如果有这将是大家所担心的危机到来。
智能不等于意识,智能是可被计算的,意识是主观体验。
计算机科学家史蒂芬·沃尔夫勒姆说,要有意识,起码要有连贯的叙事体验,而大语言模型恰恰没有。
AI的一生只包括训练和推理两个部分。
训练无法形成连贯的记忆,训练完毕后参数就锁死了,不会改变。
AI再聪明,也只是被动反应,没有意图,那就没有意识。
就像猫猫狗狗,它们是真实的生命,有丰富的主观体验。
当然,这都只是基于现阶段的粗浅认知。
未来,或许AI会产生真正的意图。

未来,或许AI会产生真正的意图。
总结一下,AI的发展速度已经远远超出了我们的想象,它正在以惊人的速度重塑着我们的世界。
现在,你对AI是不是有了更深的了解?
你觉得AI未来会怎么发展?
欢迎在评论区留言,分享你的看法。
也别忘了把这篇文章分享给你的朋友们,让大家一起了解这正在改变世界的技术!
关注我 mytoolsAI,带你了解每日最新人工智能,AI信息!
作者:Cole
审核:nash