代码如下所示: # -*- coding: utf-8 -*- #导入需要的包 import matplotlib.pyplot as plt from sklearn import datasets from sklearn.model_selection import train_test_split from sklearn.metrics import roc_auc_score from xgboost import XGBClassifier from xgboost import
干货之前:补充一下可选链(optional chain) class A { var p: B? } class B { var p: C? } class C { func cm() -> String { print("cm") return "abc" } } let insa = A() let insb = B() let insc = C() insa.p = insb //insa.p = nil insb.p = insc let r = in
1. delegate example1 class Program { public delegate int MyDelegate(int i); int MyFunc(int i) { return i; } public void Foo() { MyDelegate f = MyFunc; Console.WriteLine(f()); Console.ReadKey(); } } example 2 // declare the delegate type public delega
前言 论文“Reducing the Dimensionality of Data with Neural Networks”是深度学习鼻祖hinton于2006年发表于<SCIENCE >的论文,也是这篇论文揭开了深度学习的序幕. 笔记 摘要:高维数据可以通过一个多层神经网络把它编码成一个低维数据,从而重建这个高维数据,其中这个神经网络的中间层神经元数是较少的,可把这个神经网络叫做自动编码网络或自编码器(autoencoder).梯度下降法可用来微调这个自动编码器的权值,但是只有在初始化权值