1.计算世界 硅基的计算 和碳基的计算的融合
2.自学 可靠的信息资源 B站可
3.
1.计算世界 硅基的计算 和碳基的计算的融合
2.自学 可靠的信息资源 B站可
3.
1.思维链 COT 提示词的技巧 举例非常重要 提示词模板 效仿但还需深入研究
代码CURSOR
2.视频生成 LUMA HAIPER 可灵-AI 海螺视频 清影
2.音乐生成 SUNO UDIO AIVA 天音
1.稳定扩散 文生图的进化
1.大数据是AI的基础,算法 算力是支撑,
2.模型 监督学习 无监督学习 强化学习
你想象中的创新,往往来自于你完全意料不到的方向。
英伟达最开始做游戏芯片。GPU 就是图形处理芯片。物理结构天然决定 GPU适合运算。
大公司门槛,算力单位:几千P算力,1P 就是 1000 万亿次。算力背后是电力能源。
动物神经元节点构成生物神经网络。人工智能神经网络仿照动物的极度简化。目前没有理论解释为什么人工智能神经网络适合干AI这个事情,不同的神经网络适合做不同的事情。
AI 图像生成技术:从最早的GAN 生成对抗网络到扩散模型 Diffusion Models、
人工智能理论和实践在上个世纪50年代就出现,设想是按照人类的思维方式来运行计算机,后以专家系统方式来做,最后深度学习(互联网累积了大量的数据)得到实现。现在推荐算法应用落地,大模型的爆发掀起这一波 AI 热潮。人工智能:机器学习、深度学习。研究领域:自然语言处理 NLP、计算机视觉CV。AGI(通用人工智能),模型是大公式(无数的参数),左边输入,右边输出。模型要海量数据集训练学习(监督学习,无监督学习,强化学习),形成初始神经网络,使用推理输出。目前我们在 APP 上所有行为,如点赞,评论,停留时长,喜好都会成为人工智能的训练数据来源。今天互联网大平台对你的行为的预测准确度超过你自己。
人工智能发展的 3 要素:算法模型+数据+算力。当数据足够多,计算能力足够强大的时候,我们就可以让模型变得更强大。
# GPU
最强大的还是英伟达
## 算力单位:
1E = 1000P
1P = 1000T....
Meta: 600万P
## GPU
图形处理芯片
CPU几十核心
GPU几千几万核
结构决定GPU适合运算
## 神经网络
AI模型最通用的结构叫神经网络
生物神经网络
极度简化,创造了数字神经元结构,数字神经元连接在一起,叫做深度神经网络
为什么现在这么强大,理论界不清楚,理论连接什么样,不清楚
典型神经网络示意
分类的
卷积层?
磁化层?
全连接层?
所有神经网络大同小异。。。
比如:
GPT
画图AI
iPhone
深度图?
法线图?
Relight 重新打光,因为神经网络可以分析出图片的深度信息和法线信息
人可以去任何地方
## AI图像生成技术简介
* 生成对抗网络
* 扩散模型
广泛应用领域
## 人工智能
由多种不同技术组成,这些技术相互配合,使机器能够以人类相当的只能水平感知,理解、行动和学习。
## 人工智能分支关系
* Transformer
* 深度学习
* 机器学习
* 人工智能
* 机器学习
* 深度学习
* 自然语言处理
* 计算机视觉
什么叫做模型
一个大公式,左边输入,右边输出,这个大公式有很多参数,我们把这个大公式叫模型
## 机器学习方法
* 监督学习
需要人进行数据标注
* 无监督学习
无需标注
* 强化学习
给Agent的正面行为以奖励
## 训练
人工智能使用前需要海量数据进行训练
使用训练好的人工智能过程被称为推理
模型训练步骤(监督训练)
1. 建立数据集
2. 数据喂到神经网络
3. 连线权重变大
4. 給一张没有见过的照片
5. 输出猫
## 推理
我们日常使用所有有关人工智能的应用、功能。都已经被训练好的人工智能在进行推理。
我们所有的行为,点赞、评论,都可以成为推理的过程
## 人工智能发展3要素
算法模型 + 数据+ 算力
scaling law