推荐一个Obsidian皮肤
大道至简——皮肤的最高境界是你感觉不到它的存在。
自从开始使用 OB 以来,我几乎没有更换过皮肤,一直用 Blue
topaz。在使用了两年半后,我终于决定换成了新的皮肤 Border,它是今年
Obsidian 官方大奖 Gems of The Year 的最佳主题。
小伙伴问我为啥,我认真想了想:并不是因为它好看,而只是因为它可以减轻我的阅读负担,让阅读和写作不那么辛苦。我有一点轻微的阅读障碍,在面对大段文字时总是当然地排斥。所以更倾向于使用工具来改善情况,觉得没有必要非得通过锻炼自己来解决问题,毕竟我也练不出来。
Blue Topaz
细致细腻,这种透明的质感女生都很喜欢。
经过多次更新,当前版本更朴素了。
实际上只使用了主色 (蓝)
和灰两种颜色,比较清新,但这也限制了它的表达能力。
主色深蓝和浅蓝之间的区别并不明显,不对比常常看不出标题层级。
Border
标题没使用彩色,标题前用不同颜色区分层级,细细一条又不突兀。
标题从大到小分别是:红橙黄绿蓝紫,符合色谱基本认知。
白底有 Word
某个版本的风格,有种久违的熟悉感,暗底不完全黑比较柔和。
使用强刺激的颜色:粗 ...
开机自动启动autossh
1 功能
我有一个本地服务器,想通过网络服务器端口映射的方式供其他主机连接。具体使用
SSH 端口映射的方式,并且希望在重新启动后,登录之前也能正常连接。
2 操作
2.1 配置服务
123456789101112131415161718$ vi /etc/systemd/system/autossh.service编辑如下:[Unit]Description=Autossh tunnelWants=network-online.targetAfter=network-online.target [Service]Type=simpleUser=xieyanExecStart=autossh -M 55556 -N -R 8222:192.168.10.168:22 ubuntu@tencent.xyan666.com -i /exports/shell/xieyan_tencent.pemRestart=on-failureRestartSec=20s [Install]WantedBy=multi-user.target
2.2 启动服务
123$ systemctl daemon ...
Obsidian_多文档管理插件Longform
1 使用场景
Longform 插件是 Obsidian
的一个功能强大的插件,用于帮助用户更好地管理复杂文档。它适用于写小说、长篇文档或管理复杂项目笔记等场景。
当文档很长时,一般将复杂内容都放在一个 markdown
文件中进行维护。我们常常将每个主题拆分为小文章,并在文章中相互链接。如果需要与他人分享这些文档,就比较麻烦。
在没有 Longform
插件之前,我们如何处理呢?首先,无法一次导出多个文档,只能手动合并后再导出;在维护项目时,可能需要生成索引文件,然后手动编辑这个文件以添加新文档,这也相当痛苦;文档之间的先后关系通过命名顺序(0_xx、1_xx)来调整,但如果改变顺序,则需要修改多个文件名。
2 原理
树型结构和网状结构都是比较松散的结构。无论笔记的重要性、大小还是时间顺序,对用户来说都是一样的。
而 Longform
可以看作是在树状结构和网状结构之外加入了一个“项目”的结构。每个项目包含多个文档,Longform
用以更好地组织这些文档,并提供视图、编辑、统计和导出功能。让我们能够专注于当前进行的项目,并快速切换到该项目,并管理文档之间的层次关系和先后关系。
具 ...
开源AI程序员SWE-Agent的实现方法
1 引子
前几天,AI 编程机器人 Devin
引起了热议。传言称:程序员的饭碗就要丢了。这两天,一个类似功能的产品
SWE-Agent 开源,在 SWE-Bench 上实现了与 Devin
类似的效果。下面让我们来看看 AI 程序员的具体实现方法。
2 信息
地址:https://github.com/princeton-nlp/SWE-agent
功能:修复 Github 库 Issue 中的问题。
3 原理
作者提出了:Agent-Computer Interface (ACI) 代理计算机接口。优化了
Agent 与计算机之间的衔接,使LLM
能够访问、查看、编辑和执行代码文件。
贡献如下:
添加了编辑时运行命令的
Linter,如果语法不正确,则不允许编辑命令通过。
为 Agent 提供了文件查看器,在每个回合只显示 100
行时,查看器效果最佳。作者构建的查看器支持上下文滚动,并且可以在文件中进行搜索。
为 Agent
提供了专门构建全目录字符串搜索命令,并发现以简洁的方式列出匹配项很重要。因为每次向模型展示每个匹配项反而会给模型带来更大混乱。
当命令的输出为空时, ...
android开发环境_Android_Studio
1 下载
https://developer.android.com/studio?hl=zh-cn
2 安装
123$ tar xvzf android-studio-2023.2.1.23-linux.tar.gz$ cd android-studio/bin/$ ./studio.sh
本机在:/exports/download/src/android-studio/bin
按提示安装。
3 使用
3.1 新建项目
新建一个最简单的项目
3.2 编译
左下锤子图标 build(按提示下载编译工具)
3.3 运行
3.3.1 创建模拟器
第一次运行时,如果不连接硬件设置,需要建立模拟器环境
Device Manager(右上),打开时默认有一个设备;也可点 +
号,创建一个新模拟器
Running Devices,点 + 号,启动一个设备
在左下或者菜单中点击 Run,即可在模拟器中调试
修改后:
第一次运行时,如果没有连接硬件设置,需要建立模拟器环境。
在 Device Manager(右上方),默认已经有一个设备;也可以点击
+,创建一个新的模拟器。
在 Runn ...
通过LENS看人类行为
1234567英文名称: Human behaviour through a LENS中文名称: 语言与决策_通过LENS看人类行为链接: http://arxiv.org/abs/2403.15293v1作者: Valerio Capraro机构: 米兰-比科卡大学日期: 2024-03-22
1 读后感
最近看了一些 AI
反哺认知科学的论文,它们探讨了记忆、联想和梦境建模,但没有找到对情绪的分析。我一直很好奇:像自怜、嫉妒这些情绪进化出来究竟有什么作用。
然后我看到了这篇文章,觉得其中的想法很有趣。核心内容是:语言框架导致行为上的显著变化,语言框架又可以被各方利用来谋取利益。研究重点是:语言框架如何影响人们的决策。作者提出了
LENS 框架,如图 -1
所示,他认为语言可以通过情绪和规范两个方面来产生影响,并最终影响决策结果。在某种程度上,他提出了一种对人类决策进行建模的方法。这里的“规范“主要指道德和价值观,想想确实很重要。
对于语言,在使用大型模型时我们也经常遇到这种问题:改变表述方式会得到完全不同的解决方案,然后有人使用
p-tuning
等方法来提高模型对于同一问题不同描 ...
强化学习+大模型_总结篇
1 引言
从目前使用大模型的经验来看,大模型更擅长解决基于生成的软性问题,但在处理基于决策的硬性问题,例如选择正确答案等方面效果相对较差。
生成问题通常使用掩码来隐藏上下文信息,让模型通过上文生成下文,这是一种自监督方法;而决策问题通常需要一个明确的答案,如是或否、A/B/C
选项,因此需要使用有监督数据进行训练或微调模型。
将生成和强化学习结合起来是解决这个问题的一种思路,强化学习通过奖励函数直接或间接地为模型提供有监督的判定标准。因此,在大模型中引入强化学习可以提升其判断能力。
2 RLHF
123456英文名称:Deep Reinforcement Learning from Human Preferences 中文名称:从人类偏好中进行深度强化学习链接:https://arxiv.org/abs/1706.03741作者:Paul F Christiano, Jan Leike, Tom B Brown...机构:OpenAI, DeepMind日期:2017-06-12 v1
首先是优化生成聊天对话,由于无法直接提供得分,因此采取了学习相对值的方法。这种方法主要依赖于人类标 ...
大模型+强化学习_利用AI反馈扩展强化学习_RLAIF
123456英文名称: RLAIF: Scaling Reinforcement Learning from Human Feedback with AI Feedback中文名称: RLAIF:利用AI反馈扩展强化学习链接: http://arxiv.org/abs/2309.00267v2作者: Harrison Lee, Samrat Phatale, Hassan Mansoor, Thomas Mesnard, Johan Ferret, Kellie Lu, Colton Bishop, Ethan Hall, Victor Carbune, Abhinav Rastogi, Sushant Prakash机构: Google Research日期: 2023-09-01
1 读后感
研究使用机器反馈的强化学习(RLAIF)来替代人工反馈的强化学习。该研究主要集中在大模型领域,并通过一系列实验证明了
RLAIF 的适用范围,还介绍了一些具体的方法,是一篇偏实用性的论文。
另外,从另一个角度考虑,许多大型模型(如
Claude3)似乎已经与人类判断相当一致。那么,我们是否可以 ...
大模型+强化学习_在线交互调参_GLAM
1234567英文名称: Grounding Large Language Models in Interactive Environments with Online Reinforcement Learning中文名称: 通过在线强化学习在交互式环境中建立大型语言模型链接: https://arxiv.org/pdf/2302.02662.pdf代码: https://github.com/flowersteam/Grounding_LLMs_with_online_RL作者: Thomas Carta, Clément Romac, Thomas Wolf, Sylvain Lamprier, Olivier Sigaud, Pierre-Yves Oudeyer机构: 法国波尔多大学,Hugging Face...日期: 2023-02-06 v1
1 读后感
这是一篇倾向于研究性和思考的文章,不仅适用于机器人领域,还可以推广到
Agent
和其他领域,对于希望用大型模型来解决实际生活中的问题,这是大模型应用过程无法跳过的一环。
为了简化问题,作者将整个测试环境转化为语言环境, ...
大模型+强化学习_精典方法_RLHF
123456英文名称:Deep Reinforcement Learning from Human Preferences 中文名称:从人类偏好中进行深度强化学习链接:https://arxiv.org/abs/1706.03741作者:Paul F Christiano, Jan Leike, Tom B Brown...机构:OpenAI, DeepMind日期:2017-06-12 v1
1 读后感
RLHF 是 LLM 的重要组成部分。这篇论文早在 2017 年 OpenAI 和 DeepMind
联合发表的,他主要是为优化强化学习(RL)而设计的方法,主要在游戏领域进行实验,更多讨论机器人场景。
强化学习常用于解决真实世界中的复杂问题。以往的强化学习需要定义奖励函数,而
RLHF 使用了普通人定义的问答对来提供不到 1%
代理与环境交互反馈,从而大大降低了人工监督的成本。
其原理是:没有绝对评分,但有相对的更好。
先不考虑大语言模型,只考虑强化学习本身。这里讨论的是如何将机器在环境中的自主探索和人工指导结合起来。如果把
agent 比作一个学生,那么 reward
函数就扮 ...