第2章 Python基础

程序库:NumPy(Numerical Python)、Matplotlib

第3章 机器学习起步

程序库:Scikit-learn

线性回归预测中fit和fit_transform的区别:
fitfit_transform 都是 scikit-learn 库中模型和预处理器的方法。它们的区别在于:

  • fit 方法用于训练模型或计算预处理器的参数。它接受训练数据作为输入,根据这些数据来训练模型或计算预处理器的参数。例如,在线性回归模型中,fit 方法用于根据训练数据计算回归系数和截距;在标准化预处理器中,fit 方法用于计算训练数据的均值和标准差。

  • fit_transform 方法不仅会训练模型或计算预处理器的参数,还会对输入数据进行转换。它接受训练数据作为输入,首先根据这些数据来训练模型或计算预处理器的参数,然后使用训练好的模型或预处理器对输入数据进行转换,并返回转换后的数据。例如,在标准化预处理器中,fit_transform 方法会先计算训练数据的均值和标准差,然后使用这些参数对训练数据进行标准化,并返回标准化后的数据。

总之,fit 方法只负责训练模型或计算预处理器的参数,而 fit_transform 方法不仅会训练模型或计算预处理器的参数,还会对输入数据进行转换。

第10章 人工智能算法

盲目的图搜索策略

盲目搜索(Blind Search):在不具有对特定问题的任何有关信息的条件下,按固定的步骤(依次或随机调用操作算子)进行的搜索。
它主要依靠系统地遍历搜索空间来探索可能解的方法。以下是几种常见的盲目搜索策略:

  • 广度优先搜索(BFS):从起始状态开始,逐层地扩展搜索,先探索距离起始状态一步的所有可能的状态,再探索距离起始状态两步的所有可能状态,以此类推。广度优先搜索保证可以找到最短路径,但在搜索空间较大时,会占用较多的内存。

  • 深度优先搜索(DFS):从起始状态开始,沿着一个路径一直搜索到无法继续扩展为止,然后回溯到前一个状态,选择其他可能的路径继续搜索。深度优先搜索可以在较小的内存占用下进行搜索,但不保证找到最短路径。

  • 限制的深度优先搜索(DLS):在深度优先搜索的基础上,增加了深度的限制,即在达到一定深度之后停止搜索。这种策略适用于在资源受限的情况下进行搜索。

  • 迭代加深搜索(IDS):以逐渐增加的深度进行深度优先搜索,每次限制搜索的深度,一开始深度为1,然后逐渐递增。迭代加深搜索综合了深度优先搜索和广度优先搜索的优点,能够找到最短路径并且不会占用过多的内存。

以上是一些常见的盲目搜索策略,它们在搜索空间和解决问题的要求不同的情况下有着各自的优劣势。

启发式图搜索策略

启发式搜索:考虑特定问题领域可应用的知识,动态地确定调用操作算子的步骤,优先选择较适合的操作算子,尽量减少不必要的搜索,以求尽快地到达结束状态。

专业名词缩写总和

人工智能(Artificial Intelligence,AI)

自然语言处理(Natural Language Processing,NLP)
TF-IDF算法 词频-逆文档词频

ASR 自动语音识别
FFT 傅里叶变换
MFCC 梅尔频率倒谱系数

单层神经网络 (Single - Layer Neural Networks)
多层神经网络 (Multi-Layer Neural Networks)
循环神经网络(Rerrent Neural Network, RNN)

强化学习(Reinforcement Learning,RL)
强化学习系统
深度学习(Deep Learning,DL)
深度神经网络 DNN
前馈神经网络(Feedforwward Neural Networks,FNN)
也称为“平移不变人工神经网络”(Shift-Invariant Artificial Neural Networks,SIANN)
卷积神经网络(Convolutional Neural Networks,CNN)
循环神经网络(Recurrent Neural Network, RNN)
生成对抗网络(Generative Adversarial Networks,GAN)
深度强化学习(Deep Reinforcement Learning,DRL)

宽度优先搜索(BFS)
深度优先搜索(DFS)

简答题:

1、人工智能的概念,以及人工智能与大数据、机器学习、深度学习的联系等。
2、视频中移动物体检测方法有哪些?
3、什么是深度学习?
4、卷积神经网络的具体原理。
5、盲目的图搜索策略、启发式图搜索策略的概念和分类有哪些?
6、什么是人工神经网络?

答:
1、
2、帧间差分法、使用色彩空间跟踪对象、使用背景差分法跟踪对象
3、深度学习是一种机器学习方法,它利用人工神经网络来学习输入数据的表征,以便能够进行分类、回归、聚类、生成等任务。其核心是神经网络模型,其中最常见的是卷积神经网络(CNN)和循环神经网络(RNN)。CNN主要用于处理图像和视频数据,而RNN则更适合处理序列数据,如文本和语音。
4、卷积神经网络(CNN)是一种深度前馈神经网络,它包括多个层,如输入层、卷积层、激活层、池化层、全连接层和输出层。输入卷积神经网络中的数据特征图通过卷积运算和池化运算,将其中的有效特征提取出来输入到全连接层,并对数据进行分类或者预测。

  • 卷积层是用来做特征提取的。卷积运算:从数据的左上角取一数据块(与卷积核一样大小)和卷积核对应的位置相乘,再将数据相加。图中橙色块计算如下:0∗0+1∗1+3∗2+4∗3=19。
    在全连接神经网络中,神经网络有两种参数,一种是权重参数、一种是偏置参数。填充的主要目的是调整输出数据的大小。
    因此加上偏置是不改变输出特征的形状的,只改变输出特征数值的大小。
  • 池化层采用down-sampling技术(缩减像素采样),本质是基于滑动窗口的思想,可以去除特征图中的冗余信息,降低特征图的维度(简称:降维)。池化层所要做的事情是在目标区域中提取像素的最大值,或者计算平均值。因此池化层的操作就有了两类操作,分别叫最大池化或平均池化。池化操作只关注局部特征,对整体的细微变化并不敏感
    5、盲目搜索:在不具有对特定问题的任何有关信息的条件下,按固定的步骤(依次或随机调用操作算子)进行的搜索。 它包括广度优先搜索和深度优先搜索。
    启发式搜索:利用“启发性信息”引导的搜索策略。 “启发性信息”就是与问题有关的有利于尽快找到问题解的信息或知识。 A算法是一种为启发式搜索算法。算法类型:全局择优: 从Open表的所有结点中选择一个估价函数值最小的进行扩展。局部择优:仅从刚生成的子结点中选择一个估价函数值最小的进行扩展。
    6、人工神经网络(Artificial Neural Network,ANN)简称神经网络(Neural Network)或类神经网络,是一种模仿生物神经网络的结构和功能的数学模型,用于对函数进行估计或近似。