AI应用实践的思考
近两年AI太火了,认真体验及分析后, 决定尽量跟上, 最少要把相关工具使用好。恰好工作中也在做相关工具,遂梳理之, 以加深对这块的理解。 打败马车夫的不是汽车本身,而是会开车的司机 生成式AI的爆发 AI 这个领域很早就开始了,这个理念也很早就有了,比如早期图像处理,语音识别,阿尔法go等。可以回溯之前很多年。为何最近两年开始爆火了。我认为原因有几点: 技术突破: 大模型的底层基于神经网络的深度学习推出了 transformer 架构。改变了大模型深度学习的格局带来了质的飞跃 基础设施发展: 一个模型巨量的计算,消耗大量资源。硬件基础设施的发展能降低训练成本,试错成本,让更多想法去实现 数据的积累: 互联网发展至今产生了大量数据,可以作为训练知识来让模型学习,这些都是人类发展产生的财富。 简单说下 Transformer 最早是在论文 Attention is all you need 提出注意力的机,以解决在序列生成中,长序列情况下的精度,简单一点来说是通过空间位置编码,扩充之前神经网络里的一些信息,使得即使再有更多长度,也不会让精度下降。 现代架构里添加了很多其他模块:比如多头自注意力机制,并行机制等。 总之结果是:推理精读更好,训练效率更高。这是当今 AIGC 爆发的技术基础 能改变什么 有人说任何行业都可以重新再做一遍 人类的进步,从来离不开工具,有了轮子就有了车,马车,有了蒸汽机就有了汽车,这些都是革命性的改进,都是依赖工具的。工具改变了生产力,进一步质变为影响生产关系。促进了社会整体变化。 总结下来当前影响最大的几个面: 广告/自媒体行业的商业模式 剪辑,修图,这种体力活完全可以用AI帮忙做了 教育教培,学习方式 对于家长可以用 AI 辅助教养小孩子,学生也可以方便的用AI自助学习。 工作效率提升 有些细节直接用AI生成即可,员工负责更高一层的控制 软件开发程序员 我本身就在程序员行当里,对这个提效深有体会 局限性 正如人类能想象到的东西都是现有认知范围内现有知识体系内的东西一样,AI 学习能力目前还处于理解现有知识体系的状态。无法突破知识界限,只有在有限的知识范围内做一个最强大脑。 所以局限性在于,他只是一个只能基于现有知识的超强大脑,无法升维无法突破边界。 当然如果有了一个这样超强大脑,本身就是一件很厉害的事情。至于突破编辑,升维知识,这个还要考我们人类,然后再喂给AI,形成一个循环。 一旦AI具备 公理,定律等级别的创新,是非常恐怖的,人类的一切迷惑将不再是迷惑,我是谁?来自哪里?要去哪里?上帝是谁,造物主是谁,各方神灵,神明又是谁?宇宙之外在哪里?生命是什么?为什么活着,为啥又要死去 模型 百花齐放,百家争鸣。通用,垂类,领域模型等太多了,发展过于迅速,具体模型此处不多谈。 要谈的是: 深度学习模式的变革,基于 Transformer 架构的深度学习促进了当下模型厂商的发展,多层 Transformer 架构使得大模型更像人类大脑。 向量化,万事万物皆是向量,皆是数据,向量这个结构让事物之间的关系拉平了。就像分子,化学元素一样,构成了物质世界,而向量则在虚拟世界里描述这个世界 基于这两个重要的底层知识,模型的发展,飞起来了。 菩提本无树,明镜亦非台,本来无一物,何处惹尘埃 AI应用 大模型还毕竟只是一个最强大脑,一个超强CPU。我们知道通用计算机,不止CPU,还有一些外围设备才能通用工作,人类也是,不止大脑,还有眼睛,手,等外围设备。 所以 AI 应用,或则 Agent 的概念,可以如此类比。 技术工具 开源的技术工具很多,目前我在用 Langchain。但是不能局限于这些上层工具 ...