前几天家里买了个二手车子,较老,发现只有FM收音机,但音响效果不错,车子带蓝牙转FM,可以手机蓝牙播放音乐,但经过几次转换以及对FM的质疑,所以怀疑音质是否会剧烈下降,抱着试试的态度放了一个手机上的音乐,结果感动的流泪了,为什么以前手机带的高保真耳机中遗失了那么多精彩内容,高保真音响,高保真功放.....为何不敌即将淘汰的车载的FM...

记得中学的时候经常看电子类书籍,对各种音响电路都很着迷,那是后流行高保真这一概念,各种信号补偿带通滤波反馈控制算法,就为了让声音能够真实的还原出来,特别鄙视那些玩胆机的人,认为他们不懂理论,只是固执与迷信,后来学习神经网络知道了人类神经元的Sigmoid激活函数,但不慎理解,认为这是人类感官系统的缺陷,工作在非线性的模式分类中将失去认识真实世界的能力。

由于FM带来的震撼,我不得不对以前学习过的人类神经元原理做出新的认识,神经元对信号强度做收集和分类,其分类的边界控制由激活函数来确定,Sigmoid激活函数由三部分工作区域组成。

第一部分是在正常信号输入的线性工作区,输入信号的强度与模式分类线性相关,意即我们人类可以准确识别出信号的物理强度,对信号的变化很敏感。

第二部分则是在较弱和较强的信号输入的非线性工作区,这个区间的信号在做模式分类时人类则不能准确识别信号的物理强度,10倍物理强度差别的信号对于我们来讲可能差别微乎其微,仅仅能识别出微弱的差别。

第三部分是超过神经元传感器工作阈值的截止区,这个区域无论信号强度如何变化,我们都将不能区别出其强度差别。

接下来看看FM做了什么,他为何将Mp3音乐中一些消失殆尽的场景再次还原出来,让我的耳朵变得年轻了。

上图是FM调频器件变容二极管的振幅频率特性曲线(没有找到直接的图片),这个图说明什么呢,他说明小功率信号可以获得更多的增益,而大功率信号则被抑制,结合人类感知Sigmoid激活函数来看,其意义就是工作在非线性工作区微弱的不能敏感体会到的细节音乐拉进可以敏感识别的Sigmoid线性工作区,同样将声音大不能体现其变化细节的音乐也拉近Sigmoid线性工作区,因此经过FM非线性调频后,我们将获得饱满的声场,这将不再是迷信。

同样具备非线性放大的功放的还有胆机,为什么很多是前胆后石,原因是胆做了非线性放大(失真变换),将声场变换到Sigmoid线性工作区,之后再交给石机做高保真(线性)的功率放大(胆机电流小,无法做功率推动)。

如果你对声音不敏感,那么你应该对HDR以及超级夜景图片敏感吧,HDR图片将高动态范围中感光较强的信号做抑制(降低曝光度),将暗光信号微弱的信号做加强曝光,然后将两种信号混合得到人眼能够观察到细节的强度范围上来。

因此FM 胆机相当于音频领域的HDR,由于神经元的Sigmoid激活特性,实际上保真对于人类感官来讲意义并不是太大了,能够通过失真变化得到更多的场景内容则变得更加有意义。

Sigmoid非线性激活函数,FM调频,胆机,HDR的意义的更多相关文章

  1. 树莓派上使用Pi-FM-RDS工具打造FM调频电台

    安装Pi-FM-RDS 安装依赖.sudo apt-get install libsndfile1-dev 克隆Pi-FM-RDS到本地.git clone https://github.com/Ch ...

  2. 如何高效的通过BP算法来训练CNN

    < Neural Networks Tricks of the Trade.2nd>这本书是收录了1998-2012年在NN上面的一些技巧.原理.算法性文章,对于初学者或者是正在学习NN的 ...

  3. deep learning 自编码算法详细理解与代码实现(超详细)

    在有监督学习中,训练样本是有类别标签的.现在假设我们只有一个没有带类别标签的训练样本集合 ,其中 .自编码神经网络是一种无监督学习算法,它使用了反向传播算法,并让目标值等于输入值,比如 .下图是一个自 ...

  4. 深度学习原理与框架-神经网络架构 1.神经网络构架 2.激活函数(sigmoid和relu) 3.图片预处理(减去均值和除标准差) 4.dropout(防止过拟合操作)

    神经网络构架:主要时表示神经网络的组成,即中间隐藏层的结构 对图片进行说明:我们可以看出图中的层数分布: input layer表示输入层,维度(N_num, input_dim)  N_num表示输 ...

  5. 深度学习的激活函数 :sigmoid、tanh、ReLU 、Leaky Relu、RReLU、softsign 、softplus、GELU

    深度学习的激活函数  :sigmoid.tanh.ReLU .Leaky Relu.RReLU.softsign .softplus.GELU 2019-05-06 17:56:43 wamg潇潇 阅 ...

  6. CTR预估算法之FM, FFM, DeepFM及实践

    https://blog.csdn.net/john_xyz/article/details/78933253 目录目录CTR预估综述Factorization Machines(FM)算法原理代码实 ...

  7. 因子分解机 FM

    特征组合 人工方式的特征工程,通常有两个问题: 特征爆炸 大量重要的特征组合都隐藏在数据中,无法被专家识别和设计 针对上述两个问题,广度模型和深度模型提供了不同的解决思路. 广度模型包括FM/FFM等 ...

  8. ReLu(Rectified Linear Units)激活函数

    论文参考:Deep Sparse Rectifier Neural Networks (很有趣的一篇paper) 起源:传统激活函数.脑神经元激活频率研究.稀疏激活性 传统Sigmoid系激活函数 传 ...

  9. [DeeplearningAI笔记]神经网络与深度学习3.2_3.11(激活函数)浅层神经网络

    觉得有用的话,欢迎一起讨论相互学习~Follow Me 3.2 神经网络表示 对于一个由输入层,隐藏层,输出层三层所组成的神经网络来说,输入层,即输入数据被称为第0层,中间层被称为第1层,输出层被称为 ...

随机推荐

  1. P1022 绵羊排序

    题目描述 聪聪想要给他家农场里的 \(n\) 只绵羊按照品质从高到低进行排序. 农场里的 \(n\) 只绵羊编号从 \(1\) 到 \(n\) ,第 \(i\) 只绵羊的体重为 \(w_i\) ,高度 ...

  2. JVM调优-Jstack线程分析

    jstack用于打印出给定的java进程ID或core file或远程调试服务的Java堆栈信息,如果是在64位机器上,需要指定选项"-J-d64",Windows的jstack使 ...

  3. Python中&、^与and、or

    导火索:给定两个列表,怎么找出他们相同的元素和不通的元素? list1 = [1, 2, 3, 4, 57, 8, 90] list2 = [2, 3, 4, 5, 6, 7, 8] lis = li ...

  4. Linux 内核链表头数据结构

    链表头必须在使用前用 INIT_LIST_HEAD 宏来初始化. 一个"要做的事情"的链表头可能声 明并且初始化用: struct list_head todo_list; INI ...

  5. Linux 内核端点

    USB 通讯的最基本形式是通过某些称为 端点 的. 一个 USB 端点只能在一个方向承载数 据, 或者从主机到设备(称为输出端点)或者从设备到主机(称为输入端点). 端点可看作一 个单向的管道. 一个 ...

  6. 关于react打包之后静态资源加载错误的问题

    之前在打包react项目时发现一些问题,打包出来后我的一部分png图标加载不出来,开发者模式发现他们的路径中莫名其妙混入了我在react-router路由中使用<Browserrouter> ...

  7. 开发API整理(转)

    附送一个 android 源码 查看地址 http://grepcode.com/project/repository.grepcode.com/java/ext/com.google.android ...

  8. 前端——BOM与DOM

    目录 前戏 window对象 window的子对象 navigator对象(了解即可) screen对象(了解即可) history对象(了解即可) location对象 弹出框 计时相关 DOM H ...

  9. $CF908D\ New\ Year\ and\ Arbitrary\ Arrangement$ 期望$dp$

    正解:期望$dp$ 解题报告: 传送门$QwQ$ 阿关于题目里那个形如$ab$的子序列我说下,,,我我我之前$get$了好久$QAQ$.这里子序列的个数的定义是这样儿的,举个$eg$,$aabb$,就 ...

  10. 笔记软件->"Typora"

    笔记软件->"Typora" 1 下载地址 www.typora.io 2 傻瓜安装后添加自定义样式 由于用户目录不同Users为当前系统用户名字 打开C:\Users\Ad ...