基于注意力机制的循环神经网络用于自动行为识别蛋鸡
本文章提出了一个基于生成式循环神经网络的框架,用于检测动作模式并对动物的感觉 - 运动关系进行建模,在果蝇行为和在线手写字迹两种数据上进行了测试,结果表明,利用未标记的序列通过预测未来运动显著地提高了在训练标签稀缺时动作检测的表现,该网络可以学习到高级现象,如作者身份和果蝇性别,且无需监督,在将运动预测作为网络输入生成的模拟运动轨迹看起来真实,可用于定性评估模型是否学习到了生成控制规则。
Nov, 2016
本文提出了一种用于分析禽舍中鸡类行为以检测异常行为的新型实时框架,具体研究了两种显著异常行为:不活跃的肉鸡和聚集行为。该提出的框架包括三个关键步骤:利用先进的深度学习模型进行鸡类检测,使用快速追踪模块跟踪相继帧中的个体鸡,以及在视频流中检测异常行为。实验研究被进行以评估所提出算法在准确评估鸡类行为方面的有效性。结果表明,我们的框架提供了一种精确高效的解决方案,可实时检测异常,有助于及时干预以维持鸡类健康并提高养禽场的总体生产能力。
Jan, 2024
利用深度学习模型对 “Pig Novelty Preference Behavior”(PNPB)数据集进行状态识别,其精度达到了 93%的准确度和 96%的平均精度,将深度学习引入到行为评分中,是提高领域特定度量的关键技术之一。
Jun, 2021
该研究探讨了自动化深度学习在多类鸟类声音分类中提高准确性和效率的潜力,与传统手动设计的深度学习模型进行对比。采用西地中海湿地鸟类数据集,研究了使用 AutoKeras(一种自动化机器学习框架)来自动化神经架构搜索和超参数调优。比较分析验证了我们的假设,即 AutoKeras 导出的模型在性能上一直优于传统模型(如 MobileNet、ResNet50 和 VGG16)。该研究突显出自动化深度学习在推动生物声学研究和模型方面的变革潜力,事实上,自动化技术消除了对手动特征工程和模型设计的需求,同时提高了性能。该研究通过样本、评估和报告的最佳实践,提升了这一新兴领域的可复制性。所有使用的代码可在 https://github.com/giuliotosato/AutoKeras-bioacustic 获取。
Nov, 2023
基于被动声学监测(PAM)录音进行生物多样性监测的分析既耗时又受到录音中背景噪声的挑战,现有的声音事件检测(SED)模型仅适用于特定的鸟类物种,进一步模型的发展需要标记数据。本研究开发的框架从可用平台自动提取选定鸟类物种的标记数据,将标记数据嵌入到包括环境声音和噪声在内的录音中,用于训练卷积递归神经网络(CRNN)模型。该模型在记录于南非库鲁纳塔尔地区城市栖息地的未经处理的真实世界数据上进行评估,修正的 SED-CRNN 模型达到了 0.73 的 F1 分数,证明其在嘈杂的真实环境条件下的高效性。该研究提出的自动提取选定鸟类物种的标记数据的方法为未来保护项目中轻松实现将 PAM 技术适用于其他物种和栖息地提供了可能。
Jun, 2024
本文提出一种方法,通过结合来自时频谱图的信号特征和人类感知,以提高声音分类性能,该方法利用人工神经网络 (ANN) 学习基于人类感知知识的信号特征,并应用于包含 24 个月几乎连续记录的大型声学数据集,结果表明性能显著提高。
May, 2013
该论文介绍利用深度 LSTM 循环神经网络、CD 电话建模、帧叠加与减少帧率等技术来提高语音识别准确率的研究,并探讨了直接输出单词的 LSTM RNN 模型的初步结果。
Jul, 2015
通过使用长短时记忆卷积神经网络(LSTM-CNN),本研究针对有噪音环境下的每帧音频数据,提取时间和 / 或频率相关的声音特征,从而估计同时活动的说话者数量和性别。在公共城市、工业环境、商场、展览会、工作场所和自然环境等各种情况下,使用了 19000 个男性、女性和背景噪音的音频样本进行了学习。该概念验证表明,在检测计数和性别方面,训练 / 验证均方误差(MSE)值约为 0.019/0.017,显示出有希望的性能。
Dec, 2023
研究开发了一个肺音数据库,使用各种机器学习模型实现了呼吸相和异常肺音的检测,在多项定义任务中,双向门控循环单元模型展示了最佳的 F1 评分和接收器操作特性曲线下的面积。
Feb, 2021
通过深度学习,我们在大量语音记录的数据库上训练了一个中型递归神经网络,用于语言识别任务。网络能够在 40% 的情况下正确识别出 10 秒的语音记录的语言,并且在三分之二的情况下将语言排在前三名。可视化方法显示,从网络激活中构建的表示与语音节奏的分类系统一致,尽管得到的映射比重音节和音节定时语言之间的两个分离簇更复杂。通过识别网络激活与已知语音节奏度量之间的相关性,我们进一步分析了模型。这些发现展示了深度学习工具通过识别和探索与语言相关的声学特征空间,推动我们对语音节奏的认识的潜力。
Jan, 2024