人工智能(AI)之深度学习研修班

 开班时间: 2023年8月26日-27日 (线上)      

【课程介绍】
深度学习(Deep Learning)是机器学习(Machine Learning)研究中的一个新领域,其动机在于建立、模拟人脑进行分析学习的神经网络,它模仿人脑的机制来解释数据,例如图像,声音和文本,是近年来最受瞩目的技术热点。 随着人工智能(AI)科学技术的发展和应用,深度学习在学术界和工业界取得了广泛的成功,逐渐受到了高度重视。同样对于教育科研单位,或是产品开发的企业,谁能率先掌握这门技术都将有利于在未来的竞争中占据先机。本次课程对前沿的深度学习方法及应用进行了全面的讲解,同时进行深入的案例分析,帮助学员掌握和利用深度学习进行具体工作的开展。
【教学目标】
1、采用深入浅出的方法讲解理论知识,并结合实例配以大量代码练习,重点讲解深度学习框架模型、科学算法、训练过程技巧。
2、能够把握深度学习的技术发展趋势,可以熟练掌握深度学习的核心技术、主要模型、实践技巧、并配以大量代码练习,同时针对工作中存在的疑难问题进行分析讲解和专题讨论,有效提升学员解决复杂问题的能力。
3、掌握深度学习平台PyTorch训练网络搭建与配置、掌握数据价值的深度挖掘。
4、亲手挑战图像分类、语义分割、图像生成等实战项目,在实操中完全掌握深度学习核心技能。
5、根据自己的项目课题,掌握应用深度学习进行框架修改和训练优化完善的尝试。
【主讲专家】
陶老师:博士,985高校副教授,硕士生导师。长期从事深度学习、人工智能、机器学习、计算机视觉等领域的教学与研究工作。主持和参与国家自然科学基金项目5项、主持省部级项目多项。以一作/通讯作者发表SCI论文30余篇;授权中国发明专利10余项。
【授课内容】 2023年8月26日-27日 (9:00-12:00;14:00-17:00;19:00-22:00)
第一讲:前馈神经网络
●人工神经网络(生物神经元、人工神经元、人工神经网络网络结构
●前馈神经网络(定义、深层前馈神经网络、全连接前馈神经网络、通用近似定理)
●前馈神经网络的应用
●前馈神经网络的损失函数
●前馈神经网络的数学模型
●参数学习(神经网络模型的网络参数学习、参数学习问题的数学定义)
●梯度下降法(几个数学概念、下山与梯度下降法、梯度下降法的基本思想、梯度下降法所确定搜索方向、梯度下降法的算法步骤)
●梯度下降法在网络参数学习问题中的应用(随机梯度下降法、参数更新方法)
●反向传播算法(几个数学知识、反向传播算法的数学推导、反向传播算法的算法步骤)
●网络参数学习流程
●参数学习的挑战
●参数学习的解决策略
●策略之模型优化
●策略之优化算法改进
●策略之参数初始化和数据预处理
●策略之网络正则化
第二讲:卷积神经网络
●卷积神经网络的提出动机
●卷积神经网络的网络结构
●卷积神经网络中的卷积层(卷积、卷积层中的几个基本概念、卷积层学会了什么、卷积层和全连接层的联系)
●卷积神经网络中的池化层(最大池化、平均池化、全局平均池化)
●卷积神经网络中的拉平操作和全连接层
●卷积神经网络中的归一化、SoftMax层、DropOut
●卷积神经网络中图像尺寸的变化
●关于卷积的几个问题
●几种常见卷积(空洞卷积、反卷积、分组卷积、可变形卷积、可分离卷积、Involution、SlimConv、非局部网络、SKNet、GhostNet、Tied block convolution)
●损失函数概述
●常见的几种损失函数(范数损失、交叉熵损失、?憾允迫凰鹗Аocal Loss、对抗损失、位置损失等)
●大脑中的注意力
●人工神经网络中的注意力机制
●几种注意力机制模型(SENet、CBAM、频率通道注意力、全局关系感知注意力、统计注意力、空间金字塔注意力、注意力金字塔、两阶段注意力等)
第三讲: 深度生成网络
●什么是深度生成网络
●深度生成网络的原理(机器学习的两种范式、从概率生成模型讲起、密度估计、样本生成)
●深度生成网络的应用
●变分自编码器(数学知识补充、算法思想、整体网络结构、判别网络、生成网络、损失函数、再参数化、训练方法、学习的隐变量流形)
●生成对抗网络(显式密度模型和隐式密度模型、算法思想、网络架构、判别网络、生成网络、损失函数、训练方法、对抗过程演示)
●扩散模型(算法思想、前向过程(扩散过程)、逆扩散过程、损失函数、算法伪代码)
第四讲: 循环神经网络
●循环神经网络定义(提出动机、带自反馈的神经元、网络结构框架)
●一种简单循环神经网络(网络结构设计、通用近似定理)
●循环神经网络的参数学习(参数学习方法、长程依赖问题)
●循环神经网络的应用(序列到类别、同步的序列到序列模式、异步的序列到序列模式、其他应用)
●基于门控的循环神经网络(门控机制概述、长短期记忆网络、LSTM的各种变体、门控循环单元网络)
●深层循环神经网络(堆叠循环神经网络、双向循环神经网络)
●递归神经网络
第五讲: PyTorch框架环境配置
●实践演示:完整环境配置流程
●编程常用操作汇总
第六讲: 分类模型实战
●分类概述(相关概念、评价指标)
●图像分类(ResNet、DenseNet)
●视频分类(C3D)
●以ResNet模型为例,实现分类,对代码逐句讲解。
第七讲: 分割模型实战
●分割概述(相关概念、评价指标)
●语义分割(UNet、UNet++、FCN、DeepLabV3、RefineNet、PSPNet、SegNet)
●以UNet模型为例,实现分割,对代码逐句讲解
第八讲: 生成模型实战
●生成概述(相关概念、评价指标)
●以VAE和GAN模型为例,实现生成,对代码逐句讲解
【注意事项】此次课程为线上直播教学模式(腾讯网络会议平台授课,课后提供全程录屏回放以便复习),报名付费成功后,会务组将在开班前一周内发给您培训需要安装的软件及电子版课件资料。课后老师通过微信群长期继续提供答疑指导。
【开班日期】2023年8月26日-27日(9:00-12:00;14:00-17:00;19:00-22:00)
【注册费用】3300元/人,3人及以上报名3000元/人。付款方式支持对公转账、支付宝转账及公务卡付款;提供正式会务发票和盖章版邀请函。 付款方式:
1.银行转账
户名:上海科炅信息科技中心
开户行:工行松江科技城支行
账号:1001734109100042474
2.支付宝转账
账号: kejiong11@qq.com
户名:上海科炅信息科技中心
3.信用卡及公务卡支付(报名后另发收款码)
【报名咨询】张老师 电话:13788915181(微信同号) 邮箱:kf@yanshudata.com

联系我们 contact us

参会咨询:

E-mail: kf@yanshudata.com

Mt:13788915181(微信同号)

报名参会SIGN attendees

更多课程More training

Copyright 2016-2017