大数据 > 当AI实现多任务学习时,它能做什么?

当AI实现多任务学习时,它能做什么?

2020-05-08 18:00阅读(73)

图片来源@视觉中国 文字| 脑极体 文字| 脑极体 是指AI领域中的多任务学习。 许多人可能会立刻想到通用人工智能。 从广义上讲,就像超级海军陆战队中的大白鲨一样

1

图片来源@视觉中国

文字| 脑极体

文字| 脑极体

是指AI领域中的多任务学习。 许多人可能会立刻想到通用人工智能。 从广义上讲,就像超级海军陆战队中的大白鲨一样,护理机器人不仅可以执行医疗诊断,还可以读取人们的情绪,并完成诸如伴侣机器人之类的各种复杂任务。 毕竟,

只是科幻电影的产物。 现有的大多数AI技术仍处于单体智能阶段,也就是说,机器智能只能完成一个简单的任务。 在工业机器人中,绘画者只能用于绘画,而搬运者只能用于绘画。 识别面部的智能相机只能用于面部,一旦人们戴上口罩,他们就需要重新调整算法。 当然,使单个代理实现多个任务也是目前AI领域的热门话题。 最近,强化学习和多任务学习算法的最佳成就是Deepmind公司的agent 57,它在街机学习环境(ALE)数据集中的所有57个yadali游戏中均取得了优异的性能。

当然,多任务学习不仅用于游戏策略。 与当前的AI相比,我们人类是多任务学习的大师。 我们不需要学习成千上万的数据样本就可以了解某些知识,我们不需要为每种事物从头开始,但是可以通过类比来掌握类似的事物。

ai可以轻易地使人类在单体智力上崩溃,例如,它可以识别成千上万的人脸。 但是,在多任务学习中,人工智能需要与人类的这种普遍能力相一致。

什么是多任务学习?

多任务学习(MTL)只是机器模仿人类学习行为的一种方式。 人类的学习风格本身是通用的,即可以从一项任务的学习知识转移到其他相关任务,而不同任务的知识和技能可以互相帮助。 多任务学习涉及多个相关任务的同时并行学习以及梯度的同时反向传播。 它使用相关任务训练信号中包含的特定领域中的信息来提高泛化能力。

扩展了全文

(单任务学习和多任务学习之间的模型比较)

使得图像相似。 我们知道人类不像老虎和豹子那样奔跑,不像猿一样擅长爬山,也不像鲸类一样擅长游泳,但是人类只能同时奔跑,爬山和游泳。 当谈到人工智能和人工智能时,我们通常认为人工智能在单项任务中表现更好,并且优于人类专家,例如alphago,而人类可能胜任各种任务。

mtl是让人工智能实现人类的这种能力。 更加准确的学习模型,可以通过在学习多个任务时共享有用的信息来帮助每个任务更好地学习。

这里我们需要注意的是多任务学习和转移学习之间的区别。 转移学习的目的是将知识从一项任务转移到另一项任务。 其目的是使用一个或多个任务来帮助改进另一个任务,而MTL则是希望多个任务可以互相帮助。 在这里我们需要了解MTL的两个特征:

1.任务相关性。 任务相关性意味着多个任务的完成模式之间存在一定的相关性。 例如,在面部识别中,除了面部特征的识别之外,还可以进行性别和年龄估计的识别,或者可以在不同种类的游戏中识别共同的规则。 这种相关性将被编码到MTL模型的设计中。

2.任务有不同的分类。 MTL的任务分类主要包括监督学习任务,非监督学习任务,半监督学习任务,主动学习任务,强化学习任务,在线学习任务和多角度学习任务。 因此,不同的学习任务对应于不同的MTL设置。

共享表示和特征泛化。 为什么在一个神经网络上同时训练多个任务更好?

我们知道深度学习网络是具有多个隐藏层的神经网络,它将输入数据逐层转换为非线性,更抽象的特征表示。 然而,每一层的模型参数不是人为设定的,而是在给定学习者的参数后在训练过程中学习的,这给多任务学习提供了发挥作用的空间,并具有足够的能力来学习学习者的共同特征。 培训过程中的多个任务。

例如,在上述MTL网络中,反向传播并行作用于四个输出。 由于四个输出在底部共享隐藏层,因此在这些隐藏层中用于任务的要素表示也可以由其他任务用来促进多个任务一起学习。 多个任务并行训练并共享不同任务已学习的特征表示。 这样,多任务信息有助于共享隐藏层以学习更好的内部表示,这成为多任务学习的关键。

那么MTL如何工作? 在

mtl方法中,引入了感应偏置。 感应偏差有两个作用。 一是互相促进。 多任务模型之间的关系可以被认为是互为先验知识,也称为归纳转移(Transduction),具有模型的先验假设,可以更好地提高模型的效果; 另一个效果是约束,借助多个任务之间的噪声平衡和表征偏差以实现更好的泛化性能。 首先,MTL的引入可以减少深度学习对大量数据的依赖。 小样本任务可以从大样本任务中学习一些共享表示,以减轻任务数据稀疏性的问题。

其次,多任务直接相互促进,体现在:①多种模型特征相互补充,例如在网页分析模型中,改进点击率预测模型还可以促进转换模型学习更深层次的特征; ②注意机制,MTL可以帮助训练模型将重点放在重要特征上,不同的任务将为该重要特征提供额外的证据; ③任务特征的“窃听”,即MTL可以使不同的任务窃听彼此的特征,并通过“提示”训练模型直接预测最重要的特征。 再次,多任务相互约束可以提高模型的通用性。 一方面,多任务噪音平衡。 多任务模型的不同噪声模式可以使多个任务模型学习通用表示,避免单个任务的过度拟合,联合学习可以通过平均噪声模式获得更好的表示; 另一方面,代表偏见。 MTL的表示偏好会导致模型偏差。 但这将有助于模型将来推广到新任务。 在任务同源性的前提下,我们可以学习足够的假设空间,以便将来在某些新任务中获得更好的泛化性能。

行业现场登陆,MTL如何解决实际问题

因为MTL具有减少大数据样本依存性和提高模型泛化性能的优点,所以MTL被广泛应用于各种卷积神经网络模型训练中。 首先,多任务学习可以学习多个任务的共享表示。 这种共享表示具有很强的抽象能力,可以适应多个不同但相关的目标,并且通常可以使主要任务获得更好的泛化能力。 其次,由于使用共享表示,因此当多个任务同时进行预测时,数据源的数量和整体模型参数的规模将减少,从而使预测更加有效。 在计算机视觉的应用中,例如目标识别,检测,分割和其他场景,我们以MTL为例。

,例如面部特征点检测。 因为面部特征可能会受遮挡和姿势变化的影响。 通过MTL,我们可以提高检测的鲁棒性,而不是将检测任务视为一个独立的问题。

多任务学习希望将优化的面部特征点检测与一些不同但稍有关联的任务(例如头部姿势估计和面部属性推断)相结合。 面部特征点检测不是一个独立的问题,其预测将受到一些不同但略有相关的因素的影响。 例如,一个面带笑容的孩子会张开嘴,有效地检测和利用此相关面部属性将有助于更准确地检测嘴角。

如上面的面部特征点检测(tcdcn)模型所示。 除了检测特征点的任务外,还有四个辅助任务:识别眼镜,笑脸,性别和姿势。 通过与其他网络的比较,可以看出辅助任务使主要任务的检测更加准确。

mtl在不同领域中具有不同的应用,其模型不同,并且其应用问题也不同,但是它们各自的领域中都有一些特征。 除了上述的计算机视觉领域外,还有许多领域,例如生物信息学,健康信息学,语音,自然语言处理,网络垃圾邮件过滤,网页检索和普适计算,所有这些都是MTL可以用来改善 每个应用程序的效果和性能。 例如

,在生物信息学和健康信息学中,MTL用于识别治疗靶标反应的特征机制,通过对多个人群的关联分析来检测因果遗传标记,并通过自动相关性预测神经影像测量阿尔茨海默氏病的认知结果 贝叶斯模型的特征

在语音处理中的应用。 2015年,在国际声学,语音和信号处理(icassp)会议上,研究人员分享了一篇基于多任务学习的深度神经网络语音合成论文,并提出了一个多任务分层的深度神经网络。 它由几个神经网络组成。 前一个神经网络将顶级输出用作下一个神经网络的语音合成输入。 每个神经网络都有两个输出单元。 通过在两个任务之间共享隐藏层,一个任务用于主任务,另一任务用于辅助任务,可以更好地提高语音合成的准确性。 在Web应用程序中为

,MTL可用于不同任务,以共享特征表示并了解Web搜索中的排名提高; 通过可伸缩的分层多任务学习算法,可以使用MTL查找广告中的最大变换层次和结构稀疏性。 一般来说,在这些MTL应用领域中,特征选择方法和深度特征转换方法被研究人员广泛使用。 因为前者可以减少数据的维数并提供更好的可解释性,所以后者可以通过学习功能强大的特征表示来获得良好的性能。 在越来越多的领域中,

mtl被广泛用作提高神经网络学习能力的手段。 这实际上是AI在许多行业中的实际应用