
使用Python和PyTorch进行的EITC/AI/DLPP深度学习是欧洲IT认证计划,其基础是使用PyTorch机器学习库在Python中进行深度学习编程的基础。
EITC/AI/DLPP使用Python和PyTorch进行深度学习的课程侧重于使用PyTorch库在以下结构中组织的深度学习Python编程的实践技能,其中包括全面的视频教学内容,作为此EITC认证的参考。
深度学习(也称为深度结构化学习)是基于带有表示学习的人工神经网络的更广泛的机器学习方法系列的一部分。 学习可以是有监督的,半监督的或无监督的。 诸如深度神经网络,深度信念网络,递归神经网络和卷积神经网络之类的深度学习架构已应用于计算机视觉,机器视觉,语音识别,自然语言处理,音频识别,社交网络过滤,机器翻译,生物信息学等领域,药物设计,医学图像分析,材料检查和棋盘游戏程序,它们产生的结果可与人类专家的表现相媲美,甚至在某些情况下甚至超过了人类专家的表现。
Python是一种解释性的高级通用编程语言。 Python的设计理念通过显着使用大量空白来强调代码的可读性。 它的语言构造和面向对象的方法旨在帮助程序员为大型和大型项目编写清晰的逻辑代码。 由于Python具有完善的标准库,因此通常被称为“包含电池”的语言。 借助TensorFlow,Keras,Pytorch和Scikit-learn之类的库,Python通常用于人工智能项目和机器学习项目。
Python是动态类型的(在运行时执行静态编程语言在编译过程中执行的许多常见编程行为)和垃圾回收(使用自动内存管理)。 它支持多种编程范例,包括结构化(特别是过程式),面向对象和功能性编程。 它是由Guido van Rossum于1980年代后期创建的,并于1991年首次发布,它是ABC编程语言的后继者。 2.0年发布的Python 2000引入了新功能,例如列表推导和带有引用计数的垃圾收集系统,并在2.7年随版本2020停产。Python3.0在2008年发布,是该语言的主要修订版,并非完全向后兼容,并且许多Python 2代码不会在Python 3上未经修改地运行。由于Python 2的使用寿命终止(并且pip在2021年不再提供支持),仅支持Python 3.6.x和更高版本,但仍旧支持支持例如Windows 7(以及不限于64位Windows的旧安装程序)。
Python解释器受主流操作系统的支持,并且可以用于更多版本(过去也受支持)。 全球程序员社区开发和维护CPython,这是一个免费的开源参考实现。 一个非营利组织,Python软件基金会,负责管理和指导Python和CPython开发的资源。
截至2021年2020月,Python在TIOBE最受欢迎的编程语言索引中排名第三,仅次于C和Java,此前曾获得第二名并获得2007年最受欢迎的语言奖。它在2010、2018年被评为年度编程语言和XNUMX年。
一项经验研究发现,脚本语言(例如Python)比常规语言(例如C和Java)在涉及字符串操作和字典搜索的编程问题上的生产率更高,并确定内存消耗通常“比Java更好,而不是Java”。比C或C ++差得多”。 使用Python的大型组织包括Wikipedia,Google,Yahoo!,CERN,NASA,Facebook,Amazon,Instagram。
除其人工智能应用程序外,Python作为具有模块化体系结构,简单语法和富文本处理工具的脚本语言,通常用于自然语言处理。
PyTorch是一个基于Torch库的开源机器学习库,用于计算机视觉和自然语言处理等应用程序,主要由Facebook的AI研究实验室(FAIR)开发。 它是根据Modified BSD许可发布的免费开源软件。 尽管Python接口更加优美,并且是开发的主要重点,但PyTorch也具有C ++接口。 PyTorch之上构建了许多深度学习软件,包括Tesla Autopilot,Uber的Pyro,HuggingFace的变形金刚,PyTorch Lightning和Catalyst。
- 通过图形处理单元(GPU)进行强大的Tensor计算(如NumPy)
- 基于基于磁带的自动(计算)差分系统构建的深度神经网络
Facebook同时运行PyTorch和卷积体系结构以实现快速功能嵌入(Caffe2),但由这两个框架定义的模型相互不兼容。 Facebook和微软于2017年2月创建了Open Neural Network Exchange(ONNX)项目,用于在框架之间转换模型。 Caffe2018于XNUMX年XNUMX月末合并到PyTorch中。
PyTorch定义了一个称为Tensor(torch.Tensor)的类,用于存储数字的均质多维矩形阵列并对其进行操作。 PyTorch张量类似于NumPy阵列,但也可以在具有CUDA功能的Nvidia GPU上运行。 PyTorch支持张量的各种子类型。
Pytorch的重要模块很少。 这些包括:
- Autograd模块:PyTorch使用一种称为自动分化的方法。 记录器记录已执行的操作,然后向后重播以计算梯度。 当构建神经网络以通过计算前向传递时参数的微分来节省一个时间时,此方法特别强大。
- Optim模块:torch.optim是一个模块,可实现用于构建神经网络的各种优化算法。 大多数常用方法已受支持,因此无需从头开始构建它们。
- nn模块:PyTorch autograd使定义计算图和获取梯度变得容易,但是原始autograd对于定义复杂的神经网络而言可能太低了。 这是nn模块可以提供帮助的地方。
要详细了解认证课程,您可以扩展和分析下表。
EITC/AI/DLPP Deep Learning with Python and PyTorch Certification Curriculum 参考了 Harrison Kinsley 以视频形式提供的开放获取教学材料。 学习过程分为逐步结构(课程 -> 课程 -> 主题),涵盖相关课程部分。 还提供与领域专家的无限咨询。
有关认证程序检查的详细信息 运行流程.