人工3人物模型,羊的雌性生殖生理模型?
关于这个问题,羊的雌性生殖生理模型可以分为以下几个方面:
1. 周期性生殖活动:羊的生殖周期大约为17-19天,其中排卵期为24-36小时,发情期为1-2天。在发情期间,母羊会表现出明显的行为变化,如躁动、哺乳、头部摇晃、尾巴翘起等。
2. 卵巢功能:羊的卵巢由许多小囊和黄体组成,孕激素和雌激素的分泌取决于卵泡的大小和发育程度。成熟的卵子在排卵期释放,然后形成黄体,继续产生孕激素和雌激素。
3. 子宫功能:羊的子宫分为两个角和一个中央体,可以容纳多个胚胎。当受精卵进入子宫后,会在子宫内膜上着床,形成胚胎。子宫的肌肉收缩也是分娩时的重要因素。
4. 雌激素和孕激素:雌激素和孕激素是羊生殖生理中的两个重要激素。雌激素的分泌促进卵泡的成熟和排卵,孕激素的分泌则维持黄体的功能和胎儿的发育。
5. 妊娠和分娩:羊的妊娠期大约为145-150天。在分娩前,母羊会表现出明显的分娩征兆,如食欲不振、行动迟缓等。分娩时,子宫的肌肉收缩会推动胎儿向外,最终产下幼羊。
人工智能的基础书籍有什么推荐?
早期,人类必须通过如轮子、火之类的工具和武器与自然做斗争。15世纪,古腾堡发明的印刷机使人们的生活发生了广泛的变化。19世纪,工业革命利用自然资源发展电力,这促进了制造、交通和通信的发展。20世纪,人类通过对天空以及太空的探索,通过计算机的发明及其微型化,进而成为个人计算机、互联网、万维网和智能手机,持续不断地向前进。过去的60年已经见证了一个世界的诞生,这个世界出现了海量的数据、事实和信息,这些数据、事实和信息必须转换为知识(其中一个实例是包含在人类基因编码中的数据,如图1.0所示)。本章介绍了人工智能学科的概念性框架,并阐述了其成功应用的领域和方法、近期的历史和未来的前景。
图1.0 包含在人类基因编码中的数据
1.0 引言对人工智能的理解因人而异。一些人认为人工智能是通过非生物系统实现的任何智能形式的同义词;他们坚持认为,智能行为的实现方式与人类智能实现的机制是否相同是无关紧要的。而另一些人则认为,人工智能系统必须能够模仿人类智能。没有人会就是否要研究人工智能或实现人工智能系统进行争论,我们应首先理解人类如何获得智能行为(即我们必须从智力、科学、心理和技术意义上理解被视为智能的活动),这对我们才是大有裨益的。例如,如果我们想要开发一个能够像人类一样行走的机器人,那么首先必须从各个角度了解行走的过程,但是不能通过不断地声明和遵循一套规定的正式规则来完成运动。事实上,人们越要求人类专家解释他们如何在学科或事业中获得了如此表现,这些人类专家就越可能失败。例如,当人们要求某些战斗机飞行员解释他们的飞行能力时,他们的表现实际上会变差 [1]。专家的表现并不来自于不断的、有意识的分析,而是来自于大脑的潜意识层面。你能想象高峰时段在高速公路上开车并有意识地权衡控制车辆的每个决策吗?
想象一下力学教授和独轮脚踏车手的故事[2]。当力学教授试图骑独轮车时,如果人们要求教授引用力学原理,并将他成功地骑在独轮车上这个能力归功于他知道这些原理,那么他注定要失败。同样,如果独轮脚踏车手试图学习这些力学知识,并在他展现车技时应用这些知识,那么他也注定是失败的,也许还会发生悲剧性的事故。关键点是,许多学科的技能和专业知识是在人类的潜意识中发展和存储的,而不是通过明确请求记忆或使用基本原理来学会这些技能的。
1.0.1 人工智能的定义
在日常用语中,“人工”一词的意思是合成的(即人造的),这通常具有负面含义,即“人造物体的品质不如自然物体”。但是,人造物体通常优于真实或自然物体。例如,人造花是用丝和线制成的类似芽或花的物体,它不需要以阳光或水分作为养料,却可以为家庭或公司提供实用的装饰功能。虽然人造花给人的感觉以及香味可能不如自然的花朵,但它看起来和真实的花朵如出一辙。
另一个例子是由蜡烛、煤油灯或电灯泡产生的人造光。显然,只有当太阳出现在天空时,我们才可以获得阳光,但我们随时都可以获得人造光,从这一点来讲,人造光是优于自然光的。
最后,思考一下,人工交通装置(如汽车、火车、飞机和自行车)与跑步、步行和其他自然形式的交通(如骑马)相比,在速度和耐久性方面有很多优势。但是,人工形式的交通也有一些显著的缺点——地球上无处不在的高速公路,充满了汽车尾气的大气环境,人们内心的宁静(以及睡眠)常常被飞机的喧嚣打断[3]。
如同人造光、人造花和交通一样,人工智能不是自然的,而是人造的。要确定人工智能的优点和缺点,你必须首先理解和定义智能。
人工智能书单推荐:1、动手学深度学习作者:阿斯顿·张(Aston Zhang) 李沐(Mu Li)[美] 扎卡里·C. 立顿(Zachary C. Lipton)[德] 亚历山大·J. 斯莫拉(Alexander J. Smola)
人工智能机器学习、深度学习领域重磅教程图书美亚科学家作品手学深度学习的全新模式,原理与实战紧密结合目前市面上有关深度学习介绍的书籍大多可分两类,一类侧重方法介绍,另一类侧重实践和深度学习工具的介绍。本书同时覆盖方法和实践。本书不仅从数学的角度阐述深度学习的技术与应用,还包含可运行的代码,为读者展示如何在实际中解决问题。为了给读者提供一种交互式的学习体验,本书不但提供免费的教学视频和讨论区,而且提供可运行的Jupyter记事本文件,充分利用Jupyter记事本能将文字、代码、公式和图像统一起来的优势。这样不仅直接将数学公式对应成实际代码,而且可以修改代码、观察结果并及时获取经验,从而带给读者全新的、交互式的深度学习的学习体验。
2、深度学习作者:【美】Ian Goodfellow(伊恩·古德费洛), 【加】Yoshua Bengio(约书亚·本吉奥), 【加】Aaron Courville(亚伦·库维尔)译者:赵申剑, 黎彧君, 李凯, 符天凡
AI圣经,deeplearning中文版,2018年图灵奖获奖者作品,业内人称“花书”人工智能机器学习深度学习领域奠基性经典畅销书长期位居美国ya马逊AI和机器学习类图书榜首!所有数据科学家和机器学习从业者的bi读图书!特斯拉CEO埃隆·马斯克等国内外众多专家推jian!本书囊括了数学及相关概念的背景知识,包括线性代数、概率论、信息论、数值优化以及机器学习中的相关内容。同时,它还介绍了工业界中实践者用到的深度学习技术,包括深度前馈网络、正则化、优化算法、卷积网络、序列建模和实践方法等,并且调研了诸如自然语言处理、语音识别、计算机视觉、在线推荐系统、生物信息学以及视频游戏方面的应用。最后,本书还提供了一些研究方向,涵盖的理论主题包括线性因子模型、自编码器、表示学习、结构化概率模型、蒙特卡罗方法、配分函数、近似推断以及深度生成模型。
3、人工智能(第2版)[美] 史蒂芬·卢奇(Stephen Lucci),丹尼·科佩克(Danny Kopec) 著
人工智能百科全书易于上手的人工智能自学指南涵盖机器学习 深度学习 自然语言处理 神经网络 计算机博弈等各种知识图文详细 讲解细致 配备丰富的教学资源和学习素材美国经典教材,在美亚上,被评价为自Russell & Norvig的《人工智能:一种现代方法》之后更好的教材,更加适合本科生使用。本书是作者结合多年教学经验、精心撰写的一本人工智能教科书,堪称“人工智能的百科全书”。全书涵盖了人工智能简史、搜索方法、知情搜索、博弈中的搜索、人工智能中的逻辑、知识表示、产生式系统、专家系统、机器学习和神经网络、遗传算法、自然语言处理、自动规划、机器人技术、高级计算机博弈、人工智能的历史和未来等主题。本书提供了丰富的教学配套资源,适合作为高等院校人工智能相关专业的教材,也适合对人工智能相关领域感兴趣的读者阅读和参考。
4、Python 神经网络编程人工智能深度学习 机器学习领域又一重磅力作自己动手用Python编写神经网络美亚排名前茅荣获众多好评 全彩印刷 图表丰富本书将带领您进行一场妙趣横生却又有条不紊的旅行——从一个非常简单的想法开始,逐步理解神经网络的工作机制。您无需任何超出中学范围的数学知识,并且本书还给出易于理解的微积分简介。本书的目标是让尽可能多的普通读者理解神经网络。读者将学习使用Python开发自己的神经网络,训练它识别手写数字,甚至可以与专业的神经网络相媲美。
5、PyTorch深度学习作者:[印度]毗湿奴•布拉马尼亚(Vishnu Subramanian)译者:王海玲, 刘江峰
使用PyTorch开发神经网络的实用指南深度学习框架PyTorch入门教程涵盖机器学习、神经网络、计算机视觉应用等知识,提供本书彩图和源代码下载本书对当今前沿的深度学习库PyTorch进行了讲解。凭借其易学习性、高效性以及与Python开发的天然亲近性,PyTorch获得了深度学习研究人员以及数据科学家们的关注。本书从PyTorch的安装讲起,然后介绍了为现代深度学习提供驱动力的多个基础模块,还介绍了使用CNN、RNN、LSTM以及其他网络模型解决问题的方法。本书对多个先进的深度学习架构的概念(比如ResNet、DenseNet、Inception和Seq2Seq)进行了阐述,但没有深挖其背后的数学细节。与GPU计算相关的知识、使用PyTorch训练模型的方法,以及用来生成文本和图像的复杂神经网络(如生成网络),也在本书中有所涵盖。
6、机器学习精讲 全彩印刷机器学习原理算法与应用教程,精简机器学习入门手册美亚机器学习深度学习畅销书,全彩印刷扫描书中二维码可阅读补充内容,人工智能和机器学习领域众多知名专家推荐《机器学习精讲》包含了监督和非监督学习、支持向量机、神经网络、集成算法、梯度下降、聚类分类、降维、自编码器、迁移学习、特征工程以及超参数调试等方面的知识。书中既有数学公式,又有图解说明,一应俱全。 本书具有以下特色: ● 精简并直入主题——篇幅短小,读者可以快速读完并掌握机器学习技术的精髓。书中内容是作者和其他从业者多年研究的成果。 ● 配套网页——本书配有持续更新的网页,对书中内容进行补充,包括问答、代码、推荐阅读材料、工具以及其他相关内容。扫描书中二维码即可查看。 ● 全彩印刷——色彩丰富,阅读轻松。 ● 代码基于Python语言。
7、贝叶斯方法 概率编程与贝叶斯推断[加] Cameron Davidson-Pilon(卡梅隆·戴维森-皮隆) 著,辛愿,钟黎,欧阳婷 译
机器学习 人工智能 数据分析从业者的技能基础国际杰出机器学习专家余凯博士 腾讯专家研究员岳亚丁博士推荐下一个十年,掌握贝叶斯方——就像今天掌握C、C++、Python一样重要本书基于PyMC语言以及一系列常用的Python数据分析框架,如NumPy、SciPy和Matplotlib,通过概率编程的方式,讲解了贝叶斯推断的原理和实现方法。该方法常常可以在避免引入大量数学分析的前提下,有效地解决问题。书中使用的案例往往是工作中遇到的实际问题,有趣并且实用。作者的阐述也尽量避免冗长的数学分析,而让读者可以动手解决一个个的具体问题。通过对本书的学习,读者可以对贝叶斯思维、概率编程有较为深入的了解,为将来从事机器学习、数据分析相关的工作打下基础。本书适用于机器学习、贝叶斯推断、概率编程等相关领域的从业者和爱好者,也适合普通开发人员了解贝叶斯统计而使用。
8、人工智能算法 卷1 基础算法AI算法入门教程书籍,人人都能读懂的人工智能书全彩印刷,实例讲解易于理解的人工智能基础算法多种语言版本示例代码、丰富的在线资源,方便动手实战与拓展学习本书介绍了人工智能的基础算法,全书共10 章,涉及维度法、距离度量算法、K 均值聚类算法、误差计算、爬山算法、模拟退火算法、Nelder-Mead 算法和线性回归算法等。书中所有算法均配以具体的数值计算来进行讲解,读者可以自行尝试。每章都配有程序示例,GitHub 上有多种语言版本的示例代码可供下载。本书适合作为人工智能入门读者以及对人工智能算法感兴趣的读者阅读参考。
9、Python自然语言处理《Python自然语言处理》是自然语言处理领域的一本实用入门指南,旨在帮助读者学习如何编写程序来分析书面语言。《Python自然语言处理》基于Python编程语言以及一个名为NLTK的自然语言工具包的开源库,但并不要求读者有Python编程的经验。全书共11章,按照难易程度顺序编排。第1章到第3章介绍了语言处理的基础,讲述如何使用小的Python程序分析感兴趣的文本信息。第4章讨论结构化程序设计,以巩固前面几章中介绍的编程要点。第5章到第7章介绍语言处理的基本原理,包括标注、分类和信息提取等。第8章到第10章介绍了句子解析、句法结构识别和句意表达方法。第11章介绍了如何有效管理语言数据。后记部分简要讨论了NLP领域的过去和未来。
《Python自然语言处理》的实践性很强,包括上百个实际可用的例子和分级练习。《Python自然语言处理》可供读者用于自学,也可以作为自然语言处理或计算语言学课程的教科书,还可以作为人工智能、文本挖掘、语料库语言学等课程的补充读物。
图灵的人物特质?
阿兰·图灵(Alan Turing)是20世纪最杰出的数学家和计算机科学家之一。他以其在计算机科学、密码学和人工智能领域的贡献而闻名于世。以下是图灵的一些重要特质和贡献:
1. 理论计算模型:图灵提出了图灵机这一概念,这是一种抽象的计算模型,可以用来理解计算过程并证明计算问题的可解性。
2. 图灵完备性:图灵证明了图灵机具有通用计算能力,即能够模拟任何其他计算设备。这为计算机科学奠定了基础,并成为计算机语言和编程的理论基础。
3. 图灵测试:图灵提出了著名的图灵测试,用来评估人工智能系统是否具有智能行为。这个测试要求一个机器能否表现得与一个真人无法区分。
4. 密码学与战争:图灵在第二次世界大战期间为盟军破解了纳粹德国的恩尼格玛密码,对于盟军的胜利做出了巨大贡献。
5. 对计算机科学的奠基贡献:图灵对计算机科学的贡献极为深远,他开创了理论计算机科学的研究领域,为现代计算机技术和人工智能的发展铺平了道路。
除了他的科学成就外,图灵也被人们称赞为勇敢、坚毅和富有同情心。然而,不幸的是,他在生命中经历了许多困难和不公正待遇。他因为自己的性取向而受到迫害,并于1954年去世。在2013年,英国政府正式为图灵的苦难给予了道歉,并承认了他对国家的重要贡献。
人类仿照动物制造了哪些机器?
你好,刚看到你的问题“人类仿照动物制造了那些机器”这么问其实有点突兀,我想你想问的是人们利用“仿生技术”都做了那些机器吧。
回答问题前先来解释下什么是“仿生技术”,人们发现,植物和动物在几百万年的自然进化当中不仅完全适应自然而且其程度接近完美,实际上是超越了人类自身在此方面的技术设计方案的。人类试图在技术方面模仿动物和植物在自然中的功能,这种技术就叫“仿生技术”。解释清楚了就不难发现,我们的身边随处可见东西几乎都利用了这一技术。
人类发明了电灯,但电灯只能将电能的很少一部分转变成可见光,其余大部分都以热能的形式浪费掉了,而且电灯的热射线有害于人眼。人类又把目光投向了大自然,在自然界中有许多生物都能发光,如细菌、真菌、蠕虫、软体动物、甲壳动物、昆虫和鱼类等,而且这些动物发出的光都不产生热,所以又被称为“冷光”还有电鳐与伏特电池、蝙蝠的声波发明了雷达、竹蜻蜓的灵感发明了直升机、船桨模仿的是鱼的鳍、仿照水母耳朵设计了水母耳风暴预测仪、等等
怎么学习深度学习?
深度学习,就是深层神经网络,仅此而已罢了,直接给你个基于深度学习的心音信号分类的例子。心音信号(PCG)是人体重要的生理信号,携带大量生理特征,但这些微弱信号的提取极易受到外界的干扰,关于心音信号处理相关的文章,可参考下面几篇博士论文,讲的非常详细,因此,不再赘述。
[1]陈尧. 心音心电信号处理的神经网络方法[D].四川大学,2021.
[2]李婷. 基于循环平稳信号理论的心音信号处理方法研究[D].大连理工大学,2015.
[3]韩威. 小样本心音分类方法研究[D].广东工业大学,2020.
首先进行心音信号2分类,即正常与异常分类,首先看一下本次试验用的GoogLeNet网络结构信息
看一下Layers结构
看下输入层信息
看一下两类PCG样本的时域波形
然后定义连续小波变换的滤波器组
fb = cwtfilterbank('SignalLength',signalLength,'VoicesPerOctave',12)
将生成的时频图像导入数据文件夹中
allImages = imageDatastore(fullfile(tempdir,dataDir),... 'IncludeSubfolders',true,'LabelSource','foldernames');
80%的样本用于训练,20%的样本用于测试
rng default [imgsTrain,imgsValidation] = splitEachLabel(allImages,0.8,'randomized'); disp(['Number of training images: ',num2str(numel(imgsTrain.Files))]); disp(['Number of validation images: ',num2str(numel(imgsValidation.Files))]);
Number of training images: 1673
Number of validation images: 419
看一下PCG信号CWT时频谱图的样子,首先看一下异常样本
再看一下正常常样本
设置GoogleNet网络的训练参数,采用sgdm优化算法,小批量尺寸MiniBatchSize=15,最大迭代次数MaxEpochs=20,初始学习率InitialLearnRate=1e-4。
options = trainingOptions('sgdm',... 'MiniBatchSize',15,... 'MaxEpochs',20,... 'InitialLearnRate',1e-4,... 'ValidationData',imgsValidation,... 'ValidationFrequency',10,... 'Verbose',false,... 'ExecutionEnvironment','gpu',... 'Plots','training-progress');
开始训练网络
trainedGN = trainNetwork(imgsTrain,lgraph_2,options);
进行网络测试
[YPred,probs] = classify(trainedGN,imgsValidation); accuracy = mean(YPred==imgsValidation.Labels); display(['GoogLeNet Accuracy: ',num2str(accuracy)])
GoogLeNet Accuracy: 0.89948,GoogLeNet的准确率达到了90%左右,不是很高,因为样本并不是很多。
看一下混淆矩阵
计算一下各个类别的分类指标
%"异常”类别分类指标 RecallAbnormal = Matrice_confusione.NormalizedValues(1,1)/sum(Matrice_confusione.NormalizedValues(1,:)); PrecisionAbnormal = Matrice_confusione.NormalizedValues(1,1)/sum(Matrice_confusione.NormalizedValues(:,1)); F1Abnormal = harmmean([RecallAbnormal PrecisionAbnormal]); fprintf('RecallAbnormal = %2.3f\nPrecisionAbnormal = %2.3f\nF1Abnormal = %2.3f\n',100*RecallAbnormal,100*PrecisionAbnormal,100*F1Abnormal); %"正常"类别分类指标 RecallNormal = Matrice_confusione.NormalizedValues(2,2)/sum(Matrice_confusione.NormalizedValues(2,:)); PrecisionNormal = Matrice_confusione.NormalizedValues(2,2)/sum(Matrice_confusione.NormalizedValues(:,2)); F1Normal = harmmean([RecallNormal PrecisionNormal]); fprintf('RecallNormal = %2.3f\nPrecisionNormal = %2.3f\nF1Normal = %2.3f\n',100*RecallNormal,100*PrecisionNormal,100*F1Normal);
RecallAbnormal = 82.470 PrecisionAbnormal = 86.250 F1Abnormal = 84.318 RecallNormal = 93.592 PrecisionNormal = 91.635 F1Normal = 92.603
因为本例只是个示范,所用的样本相对于GoogleNet结构并不多,所以分类准确率并不高。
下面进行心音信号5分类,即正常normal,主动脉瓣反流 AR,主动脉瓣狭窄AS,二尖瓣反流MR,二尖瓣狭窄MS五类,同样本例只是个示范,所用的样本较少,所以分类准确率并不高。看一下5类PCG样本的时域波形
然后定义连续小波变换的滤波器组
fb = cwtfilterbank('SignalLength',signalLength,'VoicesPerOctave',12)
看一下生成的CWT时频谱图
将生成的时频图像导入数据文件夹中
allImages = imageDatastore(fullfile(tempdir,dataDir),... 'IncludeSubfolders',true,'LabelSource','foldernames');
70%的样本用于训练,30%的样本用于测试
rng default [imgsTrain,imgsValidation] = splitEachLabel(allImages,0.7,'randomized'); disp(['Number of training images: ',num2str(numel(imgsTrain.Files))]); disp(['Number of validation images: ',num2str(numel(imgsValidation.Files))]);
设置GoogleNet网络的训练参数
options = trainingOptions('sgdm',... 'MiniBatchSize',15,... 'MaxEpochs',20,... 'InitialLearnRate',1e-4,... 'ValidationData',imgsValidation,... 'ValidationFrequency',10,... 'Verbose',false,... 'ExecutionEnvironment','gpu',... 'Plots','training-progress');
开始训练
trainedGN = trainNetwork(imgsTrain,lgraph_2,options);
进行图像样本分类
[YPred,probs] = classify(trainedGN,imgsValidation); accuracy = mean(YPred==imgsValidation.Labels); display(['GoogLeNet Accuracy: ',num2str(accuracy)])
GoogLeNet Accuracy: 0.9
看一下各类别的分类指标
%"normal" 类别分类指标 RecallNormal = Matrice_confusione.NormalizedValues(5,5)/sum(Matrice_confusione.NormalizedValues(5,:)); PrecisionNormal = Matrice_confusione.NormalizedValues(5,5)/sum(Matrice_confusione.NormalizedValues(:,5)); F1Normal = harmmean([RecallNormal PrecisionNormal]); fprintf('RecallNormal = %2.3f\nPrecisionNormal = %2.3f\nF1Normal = %2.3f\n',100*RecallNormal,100*PrecisionNormal,100*F1Normal); %"AR"类别分类指标 RecallAR = Matrice_confusione.NormalizedValues(1,1)/sum(Matrice_confusione.NormalizedValues(1,:)); PrecisionAR = Matrice_confusione.NormalizedValues(1,1)/sum(Matrice_confusione.NormalizedValues(:,1)); F1AR = harmmean([RecallAR PrecisionAR]); fprintf('RecallAR = %2.3f\nPrecisionAR = %2.3f\nF1AR = %2.3f\n',100*RecallAR,100*PrecisionAR,100*F1AR); % "AS"类别分类指标 RecallAS = Matrice_confusione.NormalizedValues(2,2)/sum(Matrice_confusione.NormalizedValues(2,:)); PrecisionAS = Matrice_confusione.NormalizedValues(2,2)/sum(Matrice_confusione.NormalizedValues(:,2)); F1AS = harmmean([RecallAS PrecisionAS]); fprintf('RecallAS = %2.3f\nPrecisionAS = %2.3f\nF1AS = %2.3f\n',100*RecallAS,100*PrecisionAS,100*F1AS); %"MR"类别分类指标 RecallMR = Matrice_confusione.NormalizedValues(3,3)/sum(Matrice_confusione.NormalizedValues(3,:)); PrecisionMR = Matrice_confusione.NormalizedValues(3,3)/sum(Matrice_confusione.NormalizedValues(:,3)); F1MR = harmmean([RecallMR PrecisionMR]); fprintf('RecallMR = %2.3f\nPrecisionMR = %2.3f\nF1MR = %2.3f\n',100*RecallMR,100*PrecisionMR,100*F1MR); %"MS"类别分类指标 RecallMS = Matrice_confusione.NormalizedValues(4,4)/sum(Matrice_confusione.NormalizedValues(4,:)); PrecisionMS = Matrice_confusione.NormalizedValues(4,4)/sum(Matrice_confusione.NormalizedValues(:,4)); F1MS = harmmean([RecallMS PrecisionMS]); fprintf('RecallMS = %2.3f\nPrecisionMS = %2.3f\nF1MS = %2.3f\n',100*RecallMS,100*PrecisionMS,100*F1MS);
RecallNormal = 100.000 PrecisionNormal = 100.000 F1Normal = 100.000 RecallAR = 100.000 PrecisionAR = 75.000 F1AR = 85.714 RecallAS = 83.333 PrecisionAS = 100.000 F1AS = 90.909 RecallMR = 80.000 PrecisionMR = 100.000 F1MR = 88.889 RecallMS = 83.333 PrecisionMS = 83.333 F1MS = 83.333
由于小样本原因,准确率不是很高。重点来了,更重要的是看看如何进行改进
改进方向:信号前处理
1.可以使用合适的信号降噪方法,移不变小波去噪方法对于PCG,ECG等信号来说还是不错的
基于Cycle Spinning的移不变小波去噪 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/539089086
2.根据PCG信号的波形,可以自适应的构造更合适的小波
利用机器学习模型设计正交小波滤波器 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/537254014
为连续小波变换CWT构造新小波 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/534682868
3.使用时频谱图更加集中的同步压缩变换
同步压缩变换初探 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/543569766
高阶同步压缩变换--占坑 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/544716722
在网络选取方面
GoogLeNet相对于本文样本来说太大了,同时我并不推荐迁移学习和样本生成方法,不要问我为什么
基于小波时间散射网络的ECG 信号分类 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/539001673
基于小波散射算法的空气压缩机异常噪声诊断 - 哥廷根数学学派的文章 - 知乎 https://zhuanlan.zhihu.com/p/531077421
码字不易,且行且珍惜
还没有评论,来说两句吧...