avatar
Articles
852
Tags
268
Categories
179

Yan 的杂物志_个人主页分享
Search
模型嵌入方法总结
Created2024-06-10|2_Note0_Technic2_算法6_自然语言Embedding
1 介绍 模型 Embedding 是一种将高维数据转换为低维向量的技术,通常用于自然语言处理和机器学习领域。比如在自然语言处理中,就是把一句或一段话转成一个多维向量。它能捕捉词汇或数据之间的语义关系。在词嵌入中,类似意义的词会被映射到相近的向量空间中。 Embedding 常常用于信息检索、文本分类、语义匹配等场景中。比如建立本地知识库时,一般会先将文本切分,再进行 Embedding,然后将其存储在向量数据库中,以便后续查找和使用。 2 方法 嵌入方法有很多种。比如,可以调用 OpenAI 提供的嵌入方法,这需要花钱;也可以使用 Ollama 方法调用本地嵌入模型,这需要在本地搭建 Ollama 服务;或者直接在程序中调用模型,无需依赖其它工具。 2.1 最简单的 Embedding 方法 在程序中直接使用模型生成嵌入 1234from sentence_transformers import SentenceTransformermodel = SentenceTransformer('uer/sbert-base-chinese-nli')sentences ...
django_验证用户身份
Created2024-06-10|2_Note0_Technic3_编程后端django
1 常用的用户验证方法 基本身份验证(Basic Authentication): 这是最简单的身份验证方式之一。客户端在请求头中包含用户名和密码的 Base64 编码 Token 身份验证: 使用 Token 身份验证,客户端在请求中提供一个令牌(token),服务器在收到请求后验证令牌的有效性。 OAuth 认证: OAuth 是一种流行的开放标准,用于授权第三方应用程序访问用户的数据。 JSON Web Token(JWT): JWT 是一种用于在网络应用之间安全传递声明的开放标准。JWT 由三部分组成:头部、载荷和签名。 SSL/TLS: 使用 SSL/TLS 加密协议来保护通信是保护 API 免受未经授权访问的重要手段之一,这也是常用的 Session/Cookie 方法。 2 选型 由于我的服务端基本已用 Django 写好,自带比较完善的用户管理,使用 Session/Cookie 方法,修改最小,理论上只需要在请求时设置 withCredentials 即可。 但由于我的前后端分离,且使用一个后端和多个前端的模式,因此产生了跨域请求问题。需要将 http 改为 ht ...
血糖变化与减肥研究
Created2024-05-29|2_Note0_Technic1_医学我的
结论先行:当我的血糖忽然减半时,我并没有感觉到任何不适。同理,吃多了血糖翻倍时也无感。噢对,吃嗨了可能会有点开心。 1 我的测试数据 最近断食减脂,经常半夜醒来并且感到非常烦躁。刷 B 站有一个医生小哥哥推荐减肥时检测血糖。刚好 618 促销,我就购买了一个动态血糖仪。这个血糖仪安装后可以连续使用半个月,每 4 分钟就测一次血糖,并且可以连接手机显示数据。或者可能我就是好奇吧。 昨天和前天轻断食,血糖低且平稳。今天我恢复了正常饮食,早上吃了三片丹麦曲奇,半片全麦面包,和一包速溶咖啡(含奶含糖),我的血糖升至 9.9。此时开始运动。一小时后,血糖下降至 4.9。 2 现象&分析 我也没想到血糖会变化得这么快,猜想可能是由于以下几个因素: 我在前两天控制了总摄入量并且选择了低 GI 食物,这让我的身体对糖分更加敏感。 早餐中的食物含糖量高,且升糖速度快,所以血糖迅速上升。 由于我吃得不多,吃完一个小时后,升糖的过程就变慢了。 当血糖上升到 9 以上,我的身体启动了降糖机制,比如开始分泌胰岛素。 运动骑行约一小时,平均心率 120+,也有助于降低血糖。 几个因素结合在一起,使血 ...
为啥现在用大模型这么便宜
Created2024-05-23|2_Note0_Technic0_工具GPT应用模型工具
1 引言 今年四五月,新模型不断发布。4.18 发布的是 Llama3,5.13 的 Gpt-4o,5.14 的 Gemini Flask 1.5。还有国内模型 5.7 发布 DeepSeek V2,5.15 的豆包模型,而且价格也越来越便宜。今天我们就来对比一下各家的性价比,以及降价背后的原因。 2 当前价格 240517 收集的数据对比如下,以各个版本的 ChatGPT 作为基准,按照 7 的汇率进行计算, Model Input Output gpt-4o $5.00 / 1M tokens $15.00 / 1M tokens gpt-4-turbo $10.00 / 1M tokens $30.00 / 1M tokens gpt-4 $30.00 / 1M tokens $60.00 / 1M tokens gpt-3.5-turbo-0125 $0.50 / 1M tokens $1.50 / 1M tokens gpt-3.5-turbo-instruct $1.50 / 1M tokens $2.00 / 1M tokens ...
DBeaver使用指南
Created2024-05-20|2_Note0_Technic3_编程数据库
源码地址:https://github.com/dbeaver/dbeaver 安装 官网下载 https://dbeaver.io/download/ 启动 1$ dbeaver 复制表内容 选被复制的表 ->导入数据 ->选择输入对象 ->选源表 ->下一步/继续 看 DDL 信息 打开表 属性选项卡的左下方按 DDL
FreeGPT3.5部署指南
Created2024-05-19|2_Note0_Technic0_工具GPT应用模型工具
源码地址:https://github.com/missuo/FreeGPT35 建议在位于美国的服务器上设置环境,其中 image 大约需要 150G 的空间。 1docker run --rm -p 3344:3040 -d ghcr.io/missuo/freegpt35 试连接 12345678910curl http://127.0.0.1:3344/v1/chat/completions -H "Content-Type: application/json" -H "Authorization: Bearer any_string_you_like" -d '{ "model": "gpt-3.5-turbo", "messages": [ { "role": "user", "content ...
论文阅读_大模型优化_YOCO架构
Created2024-05-16|2_Note0_Technic2_算法11_优化
123456英文名称: You Only Cache Once: Decoder-Decoder Architectures for Language Models中文名称: 只缓存一次:用于语言模型的解码器-解码器架构链接: http://arxiv.org/abs/2405.05254v2作者: Yutao Sun, Li Dong, Yi Zhu, Shaohan Huang, Wenhui Wang, Shuming Ma, Quanlu Zhang, Jianyong Wang, Furu Wei机构: 微软研究院, 清华大学日期: 2024-05-08 读后感 这篇论文介绍了一种大模型优化的方法。并非专为某个特定的模型设计,而是可以用来优化当前大多数的大模型。该方法在 GPU 内存的使用和模型生成的速度上都有显著的改善。 在 Transformer 方法中,存储 Attention 的 KV 值占用了大量的资源。目前已有许多针对此问题的优化方法,这篇论文也是其中之一。其主要思想是重复利用 KV 缓存。其核心是对 Decoder-Decoder 架构的改进,并不复杂,可以与其 ...
基于解码器的时间序列预测基础模型
Created2024-05-16|2_Note0_Technic2_算法9_时序
12345678英文名称: A DECODER-ONLY FOUNDATION MODEL FOR TIME-SERIES FORECASTING中文名称: 基于解码器的时间序列预测基础模型链接: http://arxiv.org/abs/2310.10688v4代码: https://github.com/google-research/timesfm作者: Abhimanyu Das, Weihao Kong, Rajat Sen, Yichen Zhou机构: 谷歌研究日期: 2023-10-14 摘要 目标:基于大型语言模型在自然语言处理中的进展,设计一个用于预测的时间序列基础模型。 方法:基于对大型时间序列语料库进行预训练的修补解码器风格注意力模型。 结论:该模型在多个公共数据集上的开箱即用零射击性能接近各个数据集的最先进监督预测模型的准确性。能够很好地适用于不同的预测历史长度、预测长度和时间粒度。 读后感 这是一个单变量预测工具,我觉得只是验证了一种可能性,实用性不是很强。其基础模型参数大小为 200M,预训练数据大小为 100B。该工具的零样本性能可以与全监督方法在处 ...
论文阅读_大模型优化_DeepSeek-V2
Created2024-05-16|2_Note0_Technic2_算法6_自然语言其它LLM
1234567英文名称: DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model中文名称: DeepSeek-V2:强大、经济高效的专家混合语言模型链接: http://arxiv.org/abs/2405.04434v2代码: https://github.com/deepseek-ai/DeepSeek-V2作者: DeepSeek-AI机构: DeepSeek-AI 深度探索公司日期: 2024-05-07 1 读后感 DeepSeek 最近推出的 V2 版本,无疑是当前性价比最高的选择。直观地讲:KIMI 的价格是 12 元/M tokens,Chat 的价格约为 3.5 元/M,GPT 4o 的价格约为 35 元/M。然而,DeepSeek 的价格仅为 1 元/M(这是按照输入计算的,输出通常是输入的两倍,美元兑换按 7 计算)。 我在之前调研代码模型的时候就注意到 DeepSeek 的单模型在排名中很靠前。从论文和网站数据可以看到模型效果在开源领域,甚至在国内开源 ...
Obsidian+llama3:终于搭建了自己的知识库
Created2024-05-15|2_Note0_Technic0_工具大模型Llama
1 引言 这两周,价格更亲民的 gpt-4o 和性能显著提升的 llama3 的推出,使许多东西发生了变化。就像古代人在收割麦子时,扭头看见一收割机。想到自己的那些微小的优化,与这些新技术相比,又算得了什么呢?也会开始怀疑自己的方向和价值。 不过,相信大家都有过想要尝试之前无法完成的事情的冲动。优化过程中又发现了一个神仙插件:Obsidian 的 Smart Connections,超出了我原本的预期,于是结合新模型非常方便地搭建了我的个人知识库。之前老是炫着玩儿,现在是真能解决具体问题了。 具体优势如下: 操作简便,无需自己建立向量数据库或进行向量转换 可针对特定文档提问 具有基于向量的模糊搜索能力 可通过 ollama 调用本地模型,使用它不产生任何费用(除了电费) 2 思考过程 2.1 搜索 很早就觉得 Obsidian 搜索实在太费劲了。因为我的内容比较多,查找非常费时;还必须输入完全一致的关键词;如果查找一个常见词,则会返回大量不排序的文档。虽然后来使用的 ominisearch 插件用机器学习算法来建立索引,搜索效果有所改善,但与基于词义的大模型搜索相比,仍然相差很远。 ...
1…192021…86
avatar
Yan.xie
顺流而下还是逆流而上?
Articles
852
Tags
268
Categories
179
Follow Me
Announcement
This is my Blog
Recent Post
基金交易量预测比赛_5_背景知识22025-08-08
两阶段股票价格预测研究2025-08-08
TradingAgents项目源码解析2025-08-08
基金交易量预测比赛_1_我的方案2025-08-07
基金交易量预测比赛_3_反思2025-08-07
Categories
  • 0_IMO84
    • 工作1
    • 方法1
      • 工作1
    • 说给一个人听82
      • 01_自我建构32
        • 实修3
        • 思考与觉悟16
Tags
关系规则 佛教 深度学习/扩散模型 辅助编程 视频处理 日常技能 感知 医学 卷积神经网络 哲学 民族 法律 自我反思 编程语言/C 深度学习/知识蒸馏 思维整理 认知建构 Linux 多模态 讽刺 价值观 读书 语音合成 深度学习/模型结构 Arduino 股票 操作系统/Linux 用户验证 量化回测 成长 健康 Web服务 编程工具 日常记录 决策哲学 数据存储/PGSQL 插件推荐 随笔 对谈 数据库
Archives
  • August 202510
  • July 202540
  • June 202538
  • May 202529
  • April 202516
  • March 20258
  • February 20252
  • January 20256
Info
Article :
852
Total Count :
1188.5k
UV :
PV :
Last Push :
©2020 - 2025 By Yan.xie
Framework Hexo|Theme Butterfly
京公网安备11010802043346号
京ICP备2023029600号-1
Search
Loading the Database