1956,人工智能达特茅斯学院人工智能冬季研讨会上正式运用了人工智能(artificial3、AIGC发展历程
intelligence,AI)这一术语。这是人类历史上第一次人工智能研讨,标志着人工智能学科的诞生。
1957年-Frank Rosenblatt-感知机(Perceptron)的神经网络模型
1958年,David Cox提出了logistic regression线性判别器
1967年,Thomas等人提出K最近邻算法
1968年,爱德华·费根鲍姆(Edward Feigenbaum)提出首个专家系统DENDRAL(知识库、推理机)
1974年,哈佛大学沃伯斯(Paul Werbos)博士论文里,初次提出了经过误差的反向传播(BP)来训练人工神经网络,但在该时期未惹起注重。
1980年,在美国的卡内基梅隆大学(CMU)召开了第一届机器学习国际研讨会,标志着机器学习研讨已在全世界兴起。
1989年,LeCun (CNN之父) 结合反向传播算法与权值共享的卷积神经层发明了卷积神经网络(Convolutional Neural Network,CNN),并初次将卷积神经网络成功运用到美国邮局的手写字符辨认系统中。
1995年,Cortes和Vapnik提出结合主义经典的支持向量机(Support Vector Machine),它在处理小样本、非线性及高维形式辨认中表现出许多特有的优势,并可以推行运用到函数拟合等其他机器学习成绩中。
1997年,Sepp Hochreiter 和 Jürgen Schmidhuber提出了长短期记忆神经网络(LSTM)。
2011年,IBM Watson问答机器人参与Jeopardy回答测验比赛最终博得了冠军。Waston是一个集自然言语处理、知识表示、自动推理及机器学习等技术完成的电脑问答(Q&A)系统。
2012年,Hinton和他的先生Alex Krizhevsky设计的AlexNet神经网络模型在ImageNet竞赛大获全胜,这是史上第一次有模型在 ImageNet 数据集表现如此出色,并引爆了神经网络的研讨热情。 AlexNet是一个经典的CNN模型,在数据、算法及算力层面均有较大改进,创新地运用了Data Augmentation、ReLU、Dropout和LRN等方法,并运用GPU加速网络训练。
2012年,谷歌正式发布谷歌知识图谱Google Knowledge Graph),它是Google的一个从多种信息来源汇集的知识库,经过Knowledge Graph来在普通的字串搜索上叠一层互相之间的关系,协助运用者更快找到所需的材料的同时,也可以知识为基础的搜索更近一步,以提高Google搜索的质量。
2013年,Google的Tomas Mikolov 在《Efficient Estimation of Word Representation in Vector Space》提出经典的 Word2Vec模型用来学习单词分布式表示,因其简单高效惹起了工业界和学术界极大的关注。
2014年,聊天程序“尤金·古斯特曼”(Eugene Goostman)在英国皇家学会举行的“2014图灵测试”大会上,初次“经过”了图灵测试。
2014年,Goodfellow及Bengio等人提出生成对抗网络(Generative Adversarial Network,GAN),被誉为近年来最酷炫的神经网络。
2015年,Microsoft Research的Kaiming He等人提出的残差网络(ResNet)在ImageNet大规模视觉辨认竞赛中获得了图像分类和物体辨认的优胜。
2015年,谷歌开源TensorFlow框架。它是一个基于数据流编程(dataflow programming)的符号数学系统,被广泛运用于各类机器学习(machine learning)算法的编程完成,其前身是谷歌的神经网络算法库DistBelief。
2015年,马斯克等人共同创建OpenAI。它是一个非营利的研讨组织,使命是确保通用人工智能 (即一种高度自主且在大多数具有经济价值的工作上超越人类的系统)将为全人类带来福祉。其发布抢手产品的如:OpenAI Gym,GPT等。
2016年,AlphaGo与围棋世界冠军、职业九段棋手李世石停止围棋人机大战,以4比1的总比分获胜。
2017年,中国香港的汉森机器人技术公司(Hanson Robotics)开发的类人机器人索菲亚,是历史上首个获得公民身份的一台机器人。索菲亚看起来就像人类女性,拥有橡胶皮肤,可以表现出超过62种自然的面部表情。其“大脑”中的算法可以了解言语、辨认面部,并与人停止互动。
2018年,Google提出论文《Pre-training of Deep Bidirectional Transformers for Language Understanding》并发布Bert(Bidirectional Encoder Representation from Transformers)模型,成功在 11 项 NLP 义务中获得 state of the art 的结果。
2020年,OpenAI开发的文字生成 (text generation) 人工智能GPT-3,它具有1,750亿个参数的自然言语深度学习模型,比以前的版本GPT-2高100倍,该模型经过了将近0.5万亿个单词的预训练,可以在多个NLP义务(答题、翻译、写文章)基准上达到最先进的功能。
2021年,OpenAI提出两个衔接文本与图像的神经网络:DALL·E 和 CLIP。DALL·E 可以基于文本直接生成图像,CLIP 则可以完成图像与文本类别的婚配。
2022年11月30日,OpenAI推出ChatGPT,运用了Transformer神经网络架构,也是GPT-3.5架构,2023年一月末,ChatGPT的月活用户已打破1亿,成为史上增长最快的消费者运用。
单模态模型从与生成的内容模态相反的模态接收指令
多模态模型接受跨模态指令并产生不同模态的结果
| 欢迎光临 职贝云数AI新零售门户 (https://www.taojin168.com/cloud/) | Powered by Discuz! X3.5 |