ubuntu更新
ubuntu 更新
情况
今天忽然发现自己用的 Ubuntu 21.10 停止支持了,用 apt-get
安装软件都提示找不到软件源,所以更新到了 Ubuntu 22.04
LTS。因为笔记本比较新,之前电源管理一直都不能挂起,换到 22.04
后也完美解决,一些软件更新到最新版本后,也更好使了。
建议安装 LTS(long term support)版本,比如:16.04, 18.04, 20.04,
22.04,一般大版本为双数,小版本为 04。
规划
我安装 Ubuntu 系统一般规划如下:
总预留一个 50G
左右的分区,以备安装新操作系统与当前系统并存(配置可以直接从旧系统拷过来)
数据放在独立的分区
使用虚拟机,如用 Virtualbox 安装 Windows,用 Docker 安装 Linux
方法
升级 Ubuntu 系统一般可在 2 小时左右即可完成,具体工作包含:
安装系统
更换软件源
123$ cp /etc/apt/sources.list /etc/apt/sources.list_bak$ sudo vi /etc/apt/sources.list$ ...
设置Ubuntu软件源
1 设置 Ubuntu 软件源
1 查看当前系统版本
1$ lsb_release -a
2 查看是否存在该版本的源
http://mirrors.163.com/ubuntu/dists/
http://mirrors.aliyun.com/ubuntu/dists/
3 sources.list 模板
(将 TODO 改为版本代号)
12345678910deb http://mirrors.163.com/ubuntu/ TODO main restricted universe multiversedeb http://mirrors.163.com/ubuntu/ TODO-security main restricted universe multiversedeb http://mirrors.163.com/ubuntu/ TODO-updates main restricted universe multiversedeb http://mirrors.163.com/ubuntu/ TODO-proposed main restricted universe mul ...
设置wifi连接优先级
查看当前可用 wifi
1$ nmcli dev wifi list
连接 wifi
1$ sudo nmcli dev wifi connect xxx password xxx
管理网络
1$ nmcli con show
关闭某连接
1$ nmcli con down xxx
启动某连接
1$ nmcli con up xxx
设置连接优先级
1$ nmcli connection modify xxx connection.autoconnect-priority 20
优先级默认为 0,正数优先级高,负数低
查看优先级
1$ nmcli connection show xxx|grep priority
设置电脑休眠
不允许休眠
1$ systemctl mask sleep.target suspend.target hibernate.target hybrid-sleep.target
查看状态
1$ systemctl status sleep.target suspend.target hibernate.target hybrid-sleep.target
允许休眠
1$ systemctl unmask sleep.target suspend.target hibernate.target hybrid-sleep.target
参考:
https://zhuanlan.zhihu.com/p/468870436
https://blog.csdn.net/weixin_44120025/article/details/123184263
SHAP解释模型二
SHAP 解释模型(二)
本文在 SHAP解析模型
之后,又尝试了一些 SHAP 新版本的进阶用法,整理并与大家分享.
1 环境配置
以下实验使用当前最新版本 shap:0.41.0,同时安装 xgboost
作为预测模型,并使用较高版本的 matplotlib(低版本有时画图报错).
123$ pip install shap==0.41.0$ pip install xgboost==0.82$ pip install matplotlib==3.5.2
2 实验数据
仍延用波士顿房价数据集,由于有些方法需要 explainer 对象,因此构造了
shap_value_obj
12345678import shapimport xgboostX,y = shap.datasets.boston()model = xgboost.train({"learning_rate": 0.01}, xgboost.DMatrix(X, label=y), 100)explainer = shap.TreeExplainer(model) shap_va ...
论文阅读_广义加性模型
英文题目:Intelligible Models for Classification and Regression
中文题目:可理解的分类和回归模型
论文地址:https://www.doc88.com/p-41099846725043.html
领域:模型可解释性,广义加性模型,机器学习
发表时间:2012
作者:Yin Lou,Rich Caruana(模型可解释性大佬),康耐尔大学,微软
出处:KDD
被引量:256
代码和数据:https://github.com/interpretml/interpret
阅读时间:220819
读后感
加性模型的准确性优于线性模型,差于梯度决策树和深度学习模型.它在模型精度和可解释性间取平衡.其核心原理是针对单个特征建立模型(可以是非线性模型),然后把这些复杂模型加在一起形成最终模型.本文描述了具体实现方法.
介绍
复杂模型虽然预测精度高,但可解释性较差,因为很难判断单个特征在复杂模型中的贡献度.本文目标是建立尽量准确且可解释的模型,让用户可以理解每个特征的贡献度.使用广义加性模型(GAMs)方法,其核心算法如下:
Pasted im ...
论文阅读_对比学习_SimCLR
英文题目:A Simple Framework for Contrastive Learning of Visual
Representations
中文题目:视觉表征对比学习的简单框架
论文地址:https://arxiv.org/abs/2002.05709v2
领域:深度学习,知识表示,半监督学习,对比学习
发表时间:2020
作者:Ting Chen,Hinton 团队,Google Research
出处:ICML
被引量:1734
代码和数据:https://github.com/leftthomas/SimCLR
阅读时间:22.08.14
读后感
众所周知,有监督学习相比于无监督学习和半监督学习速度更快,效果更好,但也存在一些问题,比如难以泛化解决其它问题,需要高成本的标注等等.
对比学习是一种半监督学习(自监督学习),它可以生成一种表示,用一组数表征一个时间序列,一句话,一张图...
然后再代入下游任务.具体方法是用实例间的相似和差异学习怎么描述这个实例,从而捕捉内在的不变性;从高维到低维,构建更抽象地表示.
个人感觉有监督和半监督学习各有优势,实际建模时有效结合二者 ...
啥是图神经网络
昨天有个朋友问我:"你了解图神经网络么?",想了半天,不知从何说起.这半年,读了一些相关论文,TransR,TransE,GNN,GCN,GIN,还有一些综述性的.好像大概能说明白,它是怎么做的,但又不能完全说明白它是干啥的,进而扩展到自然语言模型,知识图谱,你说它们是干啥的?在网上一搜,出来的往往是具体实现方法(how),而具体干啥讲得很抽象(what).
试试说说我的理解,也不一定对:从根本上看,它们都是知识表示,文本向量化.通俗地讲就是把文本编码成一串数,文本可能是一个字("生"),一个词("苹果"),一个短语("你说呢")或者一个句子("我是一个句子")...
让文字可以量化,比较,计算.
比如:提到自然语言模型,可能首先想到的是 BERT,GTP,它可以用来做阅读理解,完型填空,判断对错,续写文章等等.模型将一段文字转换成一串数,再传入下游任务(比如:阅读理解),参与决策具体问题.而
BERT
类模型解决的问题是某个字(比如"生")在不同上下文环境下到底是什么意思?然后把它在这里的意思转换成一串数.
再如:知识图谱,一度困惑它是干啥的?把文献或者网站上的大段文字通过命名识体识 ...
论文阅读_胶囊网络_CapsNet
介绍
英文题目:Dynamic Routing Between Capsules
中文题目:胶囊之间的动态路由
论文地址:https://papers.nips.cc/paper/2017/file/2cad8fa47bbef282badbb8de5374b894-Paper.pdf
领域:深度学习
发表时间:2017
作者:Sara Sabour,Nicholas Frosst,Geoffrey E. Hinton
出处:NIPS(机器学习和计算神经科学的国际会议)
被引量:3466
代码和数据:https://github.com/naturomics/CapsNet-Tensorflow
阅读时间:22-03-29
其它介绍
大牛 Geoffrey E. Hinton 提出的 “胶囊网络” 到底是啥?
精读
1 摘要
胶囊是一组神经元,其激活向量能表示特定类型的特征,比如一个对象或对象部分。文中用激活向量的长度表示存在的概率,用方向表示参数。一层激活胶囊通过变换矩阵为高层胶囊提供实例化参数。当多个低层胶囊预测一致时,高层胶囊被激活。实验部分使用
MNIST
数据集,证明在识别高度 ...
论文阅读_多任务学习_MMoE
介绍
12345678910英文题目:Modeling Task Relationships in Multi-task Learning with Multi-gate Mixture-of-Experts中文题目:多门专家混合多任务学习中的任务关系建模论文地址:https://dl.acm.org/doi/pdf/10.1145/3219819.3220007领域:深度学习,多任务学习发表时间:2018作者:Jiaqi Ma,密歇根大学,谷歌出处:KDD被引量:137代码和数据:https://github.com/drawbridge/keras-mmoe阅读时间:22.07.24
读后感
多任务学习一般用于相同输入特征,用一个模型同时学习多个任务.一次预测多个标签,这样可以节约训练和预测时间,也能节约存储模型的空间.
之前的方法主要是底层共用网络,上层针对每个任务分别训练自己的网络.这样做的问题是,如果多个任务相关性不强,可能向不同方向拉扯共享参数,虽然理论上多个任务可以互为辅助,提供更多信息,但实现效果往往不如单独训练模型效果好.
介绍
多任务学习效果一般取决于不同任务之间的 ...