人工智能(AI)主要是让计算机系统模拟人类的智能来执行任务。目前,有4种领先的大型语言模型--OpenAI的GPT-3.5和GPT-4、美国Meta公司的Llama-2-7b和法国Mistral AI公司的Mistral-v2-7b。以机器学习这一常见的 AI 技术为例,首先是数据收集,收集大量和任务相关的数据,如训练图像识别AI,就收集各种图像。然后是对数据预处理,对数据清理和标准化,去除错误数据、统一格式等。

接着进行模型训练,选择合适的算法模型(如神经网络),用预处理的数据来训练它,通过不断调整模型内部参数,让模型学习数据中的规律和模式。例如,在训练语言模型时,模型会学习词汇之间的关联和句子的结构。
模型训练好后,就可以用于预测或分类等任务。比如输入新的图像经过训练的图像识别模型就能判断图像内容;输入文本,语言模型可以生成后续内容或者进行翻译等操作。

还有一种就是规则引擎,这种 AI技术就是通过预定义的规则来工作的,把人类专家的知识和经验转化为计算机可执行的规则。当遇到问题时,系统按照这些规则进行推理和决策。
现代人工智能的发展,已经可以使用AI进行科学研究了,有人判断,AI可能是人类历史上最后一个重大的发明,以后的科学研究都可以用AI技术来完成了。
AI表明:人类已经不是这个世界上物体运动规律的唯一发现者,以后,所有的发明都可能由AI来完成。

新抗生素Halicin的发现,可以充分说明上述观点。2020年,MIT的科学家们找到了一种新的抗生素,名字叫 Halicin 的广谱性抗生素,能够杀灭那些对已知抗生素产生耐药性的细菌,而且对这些细菌没有任何耐药性。
Halicin是怎么发现的?就是使用 A1技术。科学家首先建立了一个包含有2000种已知特性的分子数据库,这些分子都被做了标记。然后,科学家们用这个数据库去训练 AI学习这些分子的特征,让AI自己总结出一套规律,并自动识别哪些分子可以抗菌。

然后,科学家们用这个训练好的模型来审查美国 FDA批准的药物和天然产品库里面6万多种不同的分子结构,挑选出能够有效广谱抗菌的抗生素。AI最终发现了 Halicin这一个分子符合所有设定的目标标准。之后,人工实验也证明了Halicin确实符合要求,且非常有希望用于临床。如果用传统方法来测试6万多种不同的分子几乎是不可能的。这个例子让我们看到了AI在科研领域中的巨大潜力,它完全可以帮助人类去探索未知的世界。

有人问科学家,为什么只有Halicin 这种分子被Al识别? AI发现的规律到底是什么?科学家们也不知道AI是怎么归纳出的。他们只知道 AI是从海量参数中总结出来,而无法得到从这些参数中得到规律的理论依据。
在许多未知世界中,都可以利用AI发现规律。除了这件事情外,还有很多,如发现蛋白质折叠问题、气候模型和天气预测、量子计算机的优化、很多新材料的发现、天体物理学和宇宙的预测等。所以,AI确实能够帮助人类解决未知世界的难题。

AI都已经聪明到能做科研了,那它的智能到底是如何产生的呢?谁也不知道。不过,目前阶段的AI虽然聪明,但还没有达到具有自我意识和自我觉醒的阶段,距离通用人工智能还有一段很长的路。
上个世纪 80 年代,科学家们试图把解决问题的各种规则全部输入计算机,希望计算机能够按照这些规则来解决问题。最后,发现这条路根本走不通。因为这个世界上的规则太多,于是神经网络技术应运而生,可以让 AI自己去观察和学习,自己去总结对应的规律。

现在主流的AI大模型都是通过神经网络、机器学习来获得智能的,其工作原理有四个关键步骤:数据的收集与处理;模型的训练;优化与评估;应用与实践。
神经网络技术是受人类神经网络的启发。与人脑不同的是:AI的神经网络是由输入层、中间层和输出层组成,深度的神经网络,其中间层至少要有 10 层;AI神经网络要训练+推理。最新的GPT神经网络一共有 120 层,总共包含了1.8万亿个参数。

没有被训练过的 AI,无法直接使用,你用AI写文章,就是在训练它。训练就是让它输入大量的数据,不训练,它就是一大堆参数。训练非常像我们人脑神经元之间形成突触(连接),训练达到一定程度(熟练)后,所有的参数被固定下来,AI模型就算训练完成,跟人脑学习训练完全一样,AI模型训练就是机器自我学习的过程。AI训练过程就像是一个暗盒,连Al开发者都没有搞清楚GPT为什么会涌现出智能。
我们每次在使用 GPT的时候,其实就是在使用这个训练好的数据集,如果在使用某大模型的过程中,有时会出现“卡顿”现象,实际上就是数据集还未训练成熟的表现。

训练像 GPT这样的大模型,需要消耗大量的资源和时间。会使用成百上千的 GPU 甚至更先进的TPU,所以,AI训练不是软件层面,而是硬件;训练时间要几周到几个月,取决于使用的硬件、模型大小、训练复杂程度等。
到现在,你可以明白两个事实:
第一、为何全世界的科技大佬们,如谷歌、苹果、Facebook、华为、OpenAI等都在研究AI了?
第二、为啥美国要对我们禁止出口高端的 GPU?因为他们限制了你的计算力,就限制了你在AI产业上的发展速度。
关于人工智能,你有什么想说的吗?
有关资料来源于网络,谢谢您的阅读!
(此处已添加书籍卡片,请到今日头条客户端查看)