avatar
Articles
806
Tags
240
Categories
164

Yan 的杂物志_个人主页分享
Search
8_Obsidian_从豆瓣收集信息
Created2023-03-25|2_Note0_Technic0_工具笔记工具Obsidian插件
功能 从豆瓣收集图书 _ 电影 _ 电视剧信息,插入 Obsidian 笔记。 原理 用 JS 抓取网站内容填入模板,插入笔记,通过插件之间的配合实现强大功能。 设置 安装 QuickAdd 插件 把 js 文件复制到 templates/script/目录下 把模板复制到 templates/目录下 在左下角设置界面调出 QuickAdd 的设置界面 |400 加 Micro 点 Manage Micros->起个名 ->Add Micro 加好 Macro 后点其对应的 Configure 设置 加 JS 脚本 在 User Scripts 中选刚才拷到 script 下的脚本,然后点其后的 Add 点 Template 按钮,加上一个模板后,设置其内容 在 Template Path 中设置刚才拷进的模板 勾选 File Name Format 在 File Name 中输入:{{VALUE:name}} 双击顶部的模板名,设置成自定义名称 点右上的叉退出,自动保存 连接显示名称和 Macro 进入最顶 ...
论文阅读_GLM
Created2023-03-24|2_Note0_Technic2_算法6_自然语言其它LLM
中文名称: GLM:使用自回归空白填充的通用语言模型预训练 英文名称: GLM:General Language Model Pretraining with Autoregressive Blank Infilling 论文地址: https://aclanthology.org/2022.acl-long.26 出处: Proceedings of the 60th Annual Meeting of the Association for Computational Linguistics (Volume 1:Long Papers) 时间: 2022-01-01 读后感 通过在结构上的调整,结合了 GPT 和 BERT 类模型的优点,且模型规模和复杂度没有提升。将 NLU 任务转换成生成任务训练模型,使上下游任务训练方式保持一致。 摘要 没有一个预训练框架对自然语言理解 (NLU)、无条件生成和条件生成这三个主要类别的所有任务表现都好。文中提出了通用语言模型:General Language Model (GLM),它基于自回归空白填充来解决这一挑战。 在 NLU 任务上的性能 ...
论文阅读_ChatGLM
Created2023-03-23|2_Note0_Technic2_算法6_自然语言其它LLM
name_ch: Glm-130B:开放双语预训练模型 name_en: GLM-130B:AN OPEN BILINGUAL PRE-TRAINED paper_addr: https://arxiv.org/abs/2210.02414 code: https://github.com/THUDM/GLM-130B/ date_publish: 2023-01-01 1 读后感 2022 年 11 月,斯坦福大学大模型中心对全球 30 个主流大模型进行了全方位的评测 2,GLM-130B 是亚洲唯一入选的大模型。GLM-130B 在准确性和恶意性指标上与 GPT-3 175B (davinci) 接近或持平。 ChatGLM 最大的优点是开源,并针对中文进行了优化,尤其是可以在自己的机器上搭建其简版的 int4 服务,实测回答一般性问题效果还不错,文后附环境搭建方法。 2 摘要 ChatGLM 是使用中英双语预训练的大语言模型,具有 130B 参数(1300 亿),使用 400B token 训练。 在模型结构上结合了 GPT 和 BERT。在英文方面,效果优于 GPT-3;在中文 ...
熵_相对熵_散度
Created2023-03-19|2_Note0_Technic2_算法3_数据分布
1 信息量 意外越大,越不可能发生,概率就越小,信息量也就越大,也就是信息越多。比如说“今天肯定会天黑”,实现概率 100%,说了和没说差不多,信息量就是 0。 详见:2. 信息量 1.1 公式 \[ I(x)=-logP(x) \] 概率 P(x) 越小,信息量越大,可以简单理解为最小编码长度,比如概率 0.125,log(1/0.125),如果以 2 为底做 log,则需要 3 位二进制数描述。 2 熵 熵用于描述不确定性,越不确定,熵越高。熵是事件所属的整个分布的不确定性总量量化。可以说:熵越小,越容易被预测。 2.1 公式 \[ H(\mathrm{x})=\mathbb{E}_{\mathbf{x} \sim P}[I(x)]=-\mathbb{E}_{\mathbf{x} \sim P}[\log P(x)]=-\sum_{x} P(x) \log P(x) \] 这里乘了概率 P(x),等于计算了平均最小编码长度。 2.2 特性 接近均匀分布的概率分布具有较高的熵 接近确定性的分布 (输出几乎可以确定) 具有较低的熵 2.3 实例 1234567891011impor ...
论文阅读_PaLM
Created2023-03-17|2_Note0_Technic2_算法6_自然语言其它LLM
name_ch: PaLM:使用 Pathways 的扩展语言建模 name_en: PaLM:Scaling Language Modeling with Pathways paper_addr: http://arxiv.org/abs/2204.02311 date_publish: 2022-10-05 读后感 论文主要介绍了 Google 的超大模型 PaLM,它在多数任务上都超过了 SOTA,其主因是使用模型使用了大量参数和数据训练,作者认为当模型大到一定程度后,其性能也能飞跃,而 PathWay 技术是其大规模训练的基础。 和其它模型相比,PaLM 更关注逻辑推理相关的任务,这也为后面的 PaLM-E 机器人行为规划奠定了基础。 动态路由层选择具体的路怎么走。 摘要 文中提出了 Pathways Language Model (PaLM),使用 6144 个 TPU v4 芯片训练,模型 540 B 参数,780 B 高质量 token,密集激活,Transformer 语言模型。在推理任务上表现很好,文中提出:扩展到巨大模型后,性能急剧提高(Pathways 是 Jef ...
论文阅读_Self_instruct
Created2023-03-16|2_Note0_Technic2_算法6_自然语言
12345name_ch: 自引导:用自我生成的指令调整语言模型name_en: Self-Instruct:Aligning Language Model with Self Generated Instructionspaper_addr: http://arxiv.org/abs/2212.10560code: https://github. com/yizhongw/self-instructdate_publish: 2022-12-20 读后感 文中提出了自引导框架,之前引导精调主要使用人工处理的数据,数据量和范围都有限,本文通过示范少量引导示例,让模型自己生成引导数据对模型进行优化。 摘要 用引导数据精调模型提升了模型适应新任务的能力,它依赖于人工的引导数据,在数量、多样性和创造力方面受到限制,因此阻碍了精调模型的通用性。文中提出了自引导框架,通过自引导来提高预训练语言模型的指令遵循能力。经过自引导可使基础模型的 GPT-3 提升 33%,与 InstructGPT001 差不多的效果。 介绍 2022 年以后的大模型一般都使用了预训练和引导使用人工标注引导的技术。PRO ...
ChatGPT_API
Created2023-03-11|2_Note0_Technic0_工具大模型OpenAI
1 用法 1.1 申请 API KEY openai平台,右上角 ->Personal->API Key->Create secret key,然后将 key 加入代码。 ChatGPT3.5 收费的单位,是“$0.002 per 1k tokens”,每 1000 个 tokens 需要花费 0.002 美元。 1.2 代码 1.2.1 命令行 1234567curl https://api.openai.com/v1/chat/completions \ -H "Authorization: Bearer $OPENAI_API_KEY" \ -H "Content-Type: application/json" \ -d '{ "model": "gpt-3.5-turbo", "messages": [{"role": "user", "content": "Wh ...
论文阅读_Kosmos-1
Created2023-03-11|2_Note0_Technic2_算法5_模型结构多模态
12345name_ch: 语言并非你所需要的全部:让感知与语言模型保持一致name_en: Language Is Not All You Need:Aligning Perception with Language Modelspaper_addr: http://arxiv.org/abs/2302.14045code: https://github.com/microsoft/unilmdate_publish: 2023-03-01 读后感 文章主要研究视觉和文本领域的对齐,具体应用是看图回答问题。 文中做了大量工具,在评测部分可以看到它在多领域多个数据集上对模型进行了评测,很多领域做了尝试。文中也没太说具体是怎么做的,主要是提出概念,展示能力。 摘要 KOSMOS - 1 是一种多模态语言模型,能够感知通用模态、遵循指令、在语境中学习并产生输出。 The limits of my language means the limits of my world. Ludwig Wittgenstein 作者还引用了一句话:我的语言的极限意味着我的世界的极限。 KOSMOS ...
论文阅读_Visual_ChatGPT
Created2023-03-11|2_Note0_Technic2_算法5_模型结构多模态
name_ch: Visual Chatgpt:使用可视化基础模型进行交谈、绘图和编辑 name_en: Visual ChatGPT:Talking, Drawing and Editing with Visual Foundation Models paper_addr: http://arxiv.org/abs/2303.04671 code: https://github.com/microsoft/visual-chatgpt date_publish: 2023-03-08 读后感 在 ChatGPT 和图像构建方法间做了桥接,和其它模型相比,除了利用大语言模型中的知识,还利用了 ChatGPT 强化学习带来的能力,是一个结合已有技术的一个优雅示例。 本文将 CoT 的潜力扩展到大规模任务,包括但不限于文本生成高清图像、图像到图像的翻译、图像到文本的生成等。CoT 指的是 Chain-of-Thought 思想链,主要指模型的多步推理能力,以解决更为复杂的问题。 主要对聊天的场景进行优化,在提示上作文章。即:在 ChatGPT 外边包了一层,这也是当前最常见的用法。文章偏工 ...
论文阅读_PaLM-E
Created2023-03-11|2_Note0_Technic2_算法7_模型增强AgentAgent论文
name_ch: Palm-E:具身多模态语言模型实现 name_en: PaLM-E:An Embodied Multimodal Language Model paper_addr: http://arxiv.org/abs/2303.03378 date_publish: 2023-03-06 code: https://palm-e.github.io 1 读后感 Embodied 一般译作“具身”,是一种基于身体经验和感知的认知学科,旨在研究人类知觉、思想和行动的相互作用。 自然语言模型包含了大量关于世界的内化知识,但是不“落地”,本文通过多模态接入了视频,传感器,将大模型学到的知识应用于机器人领域,进一步解决世界中的交互问题。PaLM-E 直接产生动作的计划,从而让机器人以规划过程。 将字,图,传感器的结果等都 Embedding 映射到同一空间,在对模型结构改动小的情况下,同时使用了多模态数据。 文中还测试了将训练不同任务的训练数据放一起训练后三个模型效果都有提升,即举一返三的效果。 2 介绍 提出了多模态语言模型,将现实世界中连续的传感器数据接入语言模型,从而建立了词语 ...
1…333435…81
avatar
Yan.xie
顺流而下还是逆流而上?
Articles
806
Tags
240
Categories
164
Follow Me
Announcement
This is my Blog
Recent Post
250523_对谈_用叙事打磨世界观2025-05-23
250512_对谈_股票操作中的概率与心理2025-05-21
250520_对谈_最近发展区理论与实践2025-05-21
论文阅读_现实的叙事构建2025-05-21
2505xx_对谈_家长的角色22025-05-20
Categories
  • 0_IMO54
    • 工作1
    • 说给一个人听53
      • 01_自我建构21
        • 思考与觉悟11
        • 行动与进化10
      • 02_情绪心理12
      • 03_关系互动9
Tags
用户验证 菜谱 异常检测 公众号 自我调节 心情 云计算 卷积神经网络 笔记工具 工作思考 社会学 社会关系 自动驾驶 医学 网络 心理 插件开发 运动 随笔 阅读/电影 CentOS 数据存储 自然语言处理/大模型 法律 GitHub Actions 视频处理 Docker 程序员 决策哲学 编程工具 自然语言处理/工具 数据存储/Hadoop 神经网络 Pytorch 目标管理 深度学习 android 编程语言/前端 音视频处理 深度学习/模型结构
Archives
  • May 202565
  • April 202516
  • March 202512
  • February 20252
  • January 20256
  • December 20242
  • November 20246
  • October 20244
Info
Article :
806
Total Count :
1095.3k
UV :
PV :
Last Push :
©2020 - 2025 By Yan.xie
Framework Hexo|Theme Butterfly
京公网安备11010802043346号
京ICP备2023029600号-1
Search
Loading the Database