github以ssh方式连不通
github 用 http 方式可连通,用 ssh 方式连不通
试将 22 端口改为 443 端口
试试默认端口 22 能否连通
1ssh -T git@github.com
试试默认端口 443 能否连通
1ssh -T git@github.com -p 443
如果 22 连不通,但 443 正常,可将端口设为 443
1234vi $HOME/.ssh/config Host github.com Hostname ssh.github.com Port 443
论文阅读_世界模型
12345678英文名称: World Models中文名称: 世界模型链接: https://arxiv.org/abs/1803.10122示例: https://worldmodels.github.io/作者: David Ha, J¨urgen Schmidhuber机构: Google Brain, NNAISENSE, Swiss AI Lab, IDSIA (USI & SUPSI)日期: 27 Mar 2018引用次数: 1033
1 读后感
不同于之前简单的强化学习方法,这篇论文将模型分为三部分:视觉 V、记忆
M 和控制 C。视觉部分 V 将视觉信息压缩到潜空间,记忆部分 M
学习物理空间的变化规律,控制部分 C
则使用强化学习模型来学习智能体的最佳动作。
这相当于将模型拆分为大脑的不同功能区域。复杂的世界信息保留在 V 和 M
中,同时确保强化学习部分 C 足够小,以便快速训练。V 和 M
可以分别看作对空间和时间的建模。
文中还讨论了梦境和海马回放。由于有了时序预测模型
M,我们可以在没有现实输入的情况下通过 M
计算出后续状态,从而生成一个想象中的环 ...
评测本地部署的语音识别模型
1 引言
最近,朋友给我发来了一段音频,想转录成文字,并使用大型润色文本。音频中的普通话带有一定的口音,并且讲解内容较为专业,所以一般的语音识别工具很难达到较高的识别率。
于是试用了两个大模型。Whisper
是目前最好的多语言语音识别技术(ASR),之前的文章已经介绍过它的原理和部署方法;FunAsr
是阿里巴巴智能计算研究院语音实验室在 ModelScope
上开源的深度学习语音识别模型,在海量数据上对中文进行了优化,可谓国产之光。本次评测的
ASR 均能在本地部署,之前测试使用效果都不错。
本次评测将针对相对困难的语音进行真人评估,看看语音识别哪家强。
2 安装及资源占用
2.1 使用说明
这里未使用音频切分降噪进行前处理,直接将音频放入模型进行识别。
2.2 测试环境
FunAsr 使用了 GPT-SoVITS 提供的 docker 镜像中的库和模型,镜像大小
7.09G,外加模型 1.4G。
识别命令如下:
1$ /usr/local/bin/python tools/asr/funasr_asr.py -i /opt/xieyan/tmp/audio/litao/ -o o ...
Gemini 初体验
1 使用体验
同样需要科学上网。
速度很快,而且还不要钱,据说使用太多可能被限流。
对于小语种翻译效果比 GPT-4 好,其它还没测试。
可通过 ChatBox 界面调用,也可使用 Python 调用。
2 使用 ChatBox 方式调用
在 build with gemini 申请一个 apikey
设置本机代理
下载 ChatBox,并设置模型为 gimini 和 apikey
参考:https://mp.weixin.qq.com/s/Dvc1TU554Kv68OiVp1C6UA
3 使用 Python 调用 Gimini
3.1 安装库
1$ pip install -q -U google-generativeai
3.2 代码
123456789import google.generativeai as genaigenai.configure(api_key="你申请的apikey")model = genai.GenerativeModel('gemini-pro')response = model.generate_c ...
开源项目_代码生成项目介绍
1 CodeGeeX 系列
1.1 CodeGeeX
项目地址:https://github.com/THUDM/CodeGeeX 7.6k Star
主要由 Python 编写
深度学习框架是 Mindspore
代码约 2.5W 行
有 Dockerfile,可在本地搭建环境
模型大小为 150 亿参数
使用 850 B token 训练
相对早期的代码生成模型,开放全部代码
论文 论文阅读_代码生成模型_CodeGeeX
用法 编程助手_CodeGeeX
1.2 CodeGeeX2
项目地址:https://github.com/THUDM/CodeGeeX2 6.5k Stat
主要由 Python 编写
推理部分开源,通过 pytorch 调用
代码约 1900 行,主要为示例和评测
基于 ChatGLM2 架构,模型部分也没开源,只开源推理部分
模型 60 亿参数,6G 显存即可运行
使用 600 B 代码数据预训练
支持最大 8192 序列长度
1.3 其它资源
官网:https://codegeex.cn/
1.4 讨论
CodeGeeX 与 CodeGe ...
论文阅读_代码生成模型_CodeGeeX
123456789英文名称: CodeGeeX: A Pre-Trained Model for Code Generation with Multilingual Evaluations on HumanEval-X中文名称: CodeGeeX:一种用于代码生成的预训练模型,并在HumanEval-X上进行多语言评估链接: https://arxiv.org/abs/2303.17568代码: https://github.com/THUDM/CodeGeeX 7.6k Star https://github.com/THUDM/CodeGeeX2 6.5k Star作者: Qinkai Zheng, Xiao Xia, Xu Zou, Yuxiao Dong, Shan Wang, Yufei Xue, Zihan Wang, Lei Shen, Andi Wang, Yang Li, Teng Su, Zhilin Yang, Jie Tang机构: 清华大学, Zhipu.AI, 华为日期: 2023-03-30引用次数: 89
1 读后感
这是一篇比较早的论文,于 2 ...
论文阅读_代码生成模型_CodeLlama
12345678英文名称: Code Llama: Open Foundation Models for Code中文名称: Code Llama:开放基础代码模型链接: https://arxiv.org/abs/2308.12950代码: https://github.com/facebookresearch/codellama作者: Baptiste Rozière, Jonas Gehring, Fabian Gloeckle, Sten Sootla, Itai Gat, Xiaoqing Ellen Tan, Yossi Adi, Jingyu Liu, Romain Sauvestre, Tal Remez, Jérémy Rapin, Artyom Kozhevnikov, Ivan Evtimov, Joanna Bitton, Manish Bhatt, Cristian Canton Ferrer, Aaron Grattafiori, Wenhan Xiong, Alexandre Défossez, Jade Copet, Faisal Azhar, Hugo ...
推荐一个 Obsidian 的 ChatGPT 插件
源码地址:https://github.com/nhaouari/obsidian-textgenerator-plugin
1 说明
Text Generator 是目前我使用过的最好的 Obsidian 中的 ChatGPT
功能插件。它旨在智能生成内容,以便轻松记笔记。它不仅可以在 Obsidian
中直接使用 ChatGPT,还提供了优秀的提示模板管理功能。
Text Generator 是一个开源的 AI 辅助工具,在 GitHub 上有 1.2K
星,并且已在第三方工具管理中被安装超过 20 万次。目前它位于前 50
名的插件之内。对于像 Obsidian
这样相对小众的工具来说,这个插件的成绩已经非常出色了。
之前我介绍过另一个开源工具 fabric开源项目_大模型应用_fabric,它能够将复杂问题拆解为多个步骤,可以在命令行中调用,并使用
markdown 进行提示词管理。
对我来说,fabric 最吸引我的地方在于方便的命令行调用和清晰的 markdown
管理,而拆解问题的功能我并没有经常使用。而 Text Generator 更进一步,在
obsidian 中可 ...
Sora原理浅析
1 今日热点 DiT
1.1 热榜
前两天扫下 github 热榜前 5,都是 python
项目,基本都与大模型相关。
其中 DIT 是官方的 Pytorch 版 Diffusion Transformer
模型,这是两年前的一个项目,来自 facebookresearch,可能是因为这几天 Sora
大火,而 DIT 是 Sora 的核心技术,又被大家翻出来了。
可见大家都想看看 Sora 的原理。因为 OPENAI
并没有公开技术细节,有些具体方法我们只好脑补一下。
1.2 DiT 代码
DiT 代码不算多,共 1415 行 Python 代码
1git clone https://github.com/facebookresearch/DiT
模型结构在 models.py 文件中;diffusion 部分修改自 openai 的 diffusion
代码;其它代码还包含下载,训练模型等。
1.3 论文
1234567英文名称: Scalable Diffusion Models with Transformers中文名称: 具有Transformer架构的可扩展扩散模型链接 ...
公众号_日更小结
日更
好友最近对公众号非常热衷,经常在群里讨论。于是我也被怂恿,在 1.15
立下了日更一个月的 flag。
这个月我出去玩了十天,又赶上春节假期。不过在外出期间没有断更,发布的都是之前写好的文章。春节期间其实也准备了一些新的内容,但是考虑到观众的感受,觉得假期发技术文可能会打扰到大家放松的心情,而且数据也不太好看。所以将更新时间推迟到初五。
假期的最后一天,终于完成了 30+
的更新,也算是达到了目标。其中有两三篇文章得到了流量池的推荐,新增了一百多个关注者。当然不算成功,只是一次坚持和尝试。尽管这些文章都是技术文档,但我不能尝试了一些让自己脸红的标题,效果一般。同时,也在观察和学习他人的方法。有一些想法,顺便做个总结。
红海
公众号可能是众多写文的平台中变现最方便,观众最多的一个,自然也是一片红海。它的易得性和超强的竞争性刚好是一体两面。
各种水平的写手都在这里竞争,也不免去研究一些旁门左道,谁都一样,既然参与了都想赢,也算对自己付出的一个交代,最后很多人变成了很多为了做而做。
单从挣钱的角度看,还是用自己的长板挣钱更加容易,没啥必要来拼这个。从表达和分享的角度看,多一个平台分享一 ...