血糖一小时内忽然减半是什么感受?
结论先行:当我的血糖忽然减半时,我并没有感觉到任何不适。同理,吃多了血糖翻倍时也无感。噢对,吃嗨了可能会有点开心。
1 我的测试数据
最近断食减脂,经常半夜醒来并且感到非常烦躁。刷 B
站有一个医生小哥哥推荐减肥时检测血糖。刚好 618
促销,我就购买了一个动态血糖仪。这个血糖仪安装后可以连续使用半个月,每 4
分钟就测一次血糖,并且可以连接手机显示数据。或者可能我就是好奇吧。
昨天和前天轻断食,血糖低且平稳。今天我恢复了正常饮食,早上吃了三片丹麦曲奇,半片全麦面包,和一包速溶咖啡(含奶含糖),我的血糖升至
9.9。此时开始运动。一小时后,血糖下降至 4.9。
2 现象&分析
我也没想到血糖会变化得这么快,猜想可能是由于以下几个因素:
我在前两天控制了总摄入量并且选择了低 GI
食物,这让我的身体对糖分更加敏感。
早餐中的食物含糖量高,且升糖速度快,所以血糖迅速上升。
由于我吃得不多,吃完一个小时后,升糖的过程就变慢了。
当血糖上升到 9
以上,我的身体启动了降糖机制,比如开始分泌胰岛素。
运动骑行约一小时,平均心率 120+,也有助于降低血糖。
几个因素结合在一起,使血 ...
为啥现在用大模型这么便宜
1 引言
今年四五月,新模型不断发布。4.18 发布的是 Llama3,5.13 的
Gpt-4o,5.14 的 Gemini Flask 1.5。还有国内模型 5.7 发布 DeepSeek
V2,5.15
的豆包模型,而且价格也越来越便宜。今天我们就来对比一下各家的性价比,以及降价背后的原因。
2 当前价格
240517 收集的数据对比如下,以各个版本的 ChatGPT 作为基准,按照 7
的汇率进行计算,
Model
Input
Output
gpt-4o
$5.00 / 1M tokens
$15.00 / 1M tokens
gpt-4-turbo
$10.00 / 1M tokens
$30.00 / 1M tokens
gpt-4
$30.00 / 1M tokens
$60.00 / 1M tokens
gpt-3.5-turbo-0125
$0.50 / 1M tokens
$1.50 / 1M tokens
gpt-3.5-turbo-instruct
$1.50 / 1M tokens
$2.00 / 1M tokens ...
navicat平替dbeaver
源码地址:https://github.com/dbeaver/dbeaver
安装
官网下载
https://dbeaver.io/download/
启动
1$ dbeaver
复制表内容
选被复制的表 ->导入数据 ->选择输入对象 ->选源表
->下一步/继续
FreeGPT35
源码地址:https://github.com/missuo/FreeGPT35
建议在位于美国的服务器上设置环境,其中 image 大约需要 150G
的空间。
1docker run --rm -p 3344:3040 -d ghcr.io/missuo/freegpt35
试连接
12345678910curl http://127.0.0.1:3344/v1/chat/completions -H "Content-Type: application/json" -H "Authorization: Bearer any_string_you_like" -d '{ "model": "gpt-3.5-turbo", "messages": [ { "role": "user", "content ...
论文阅读_大模型优化_YOCO架构
123456英文名称: You Only Cache Once: Decoder-Decoder Architectures for Language Models中文名称: 只缓存一次:用于语言模型的解码器-解码器架构链接: http://arxiv.org/abs/2405.05254v2作者: Yutao Sun, Li Dong, Yi Zhu, Shaohan Huang, Wenhui Wang, Shuming Ma, Quanlu Zhang, Jianyong Wang, Furu Wei机构: 微软研究院, 清华大学日期: 2024-05-08
读后感
这篇论文介绍了一种大模型优化的方法。并非专为某个特定的模型设计,而是可以用来优化当前大多数的大模型。该方法在
GPU 内存的使用和模型生成的速度上都有显著的改善。
在 Transformer 方法中,存储 Attention 的 KV
值占用了大量的资源。目前已有许多针对此问题的优化方法,这篇论文也是其中之一。其主要思想是重复利用
KV 缓存。其核心是对 Decoder-Decoder
架构的改进,并不复杂,可以与其 ...
基于解码器的时间序列预测基础模型
12345678英文名称: A DECODER-ONLY FOUNDATION MODEL FOR TIME-SERIES FORECASTING中文名称: 基于解码器的时间序列预测基础模型链接: http://arxiv.org/abs/2310.10688v4代码: https://github.com/google-research/timesfm作者: Abhimanyu Das, Weihao Kong, Rajat Sen, Yichen Zhou机构: 谷歌研究日期: 2023-10-14
摘要
目标:基于大型语言模型在自然语言处理中的进展,设计一个用于预测的时间序列基础模型。
方法:基于对大型时间序列语料库进行预训练的修补解码器风格注意力模型。
结论:该模型在多个公共数据集上的开箱即用零射击性能接近各个数据集的最先进监督预测模型的准确性。能够很好地适用于不同的预测历史长度、预测长度和时间粒度。
读后感
这是一个单变量预测工具,我觉得只是验证了一种可能性,实用性不是很强。其基础模型参数大小为
200M,预训练数据大小为
100B。该工具的零样本性能可以与全监督方法在处 ...
论文阅读_大模型优化_DeepSeek-V2
1234567英文名称: DeepSeek-V2: A Strong, Economical, and Efficient Mixture-of-Experts Language Model中文名称: DeepSeek-V2:强大、经济高效的专家混合语言模型链接: http://arxiv.org/abs/2405.04434v2代码: https://github.com/deepseek-ai/DeepSeek-V2作者: DeepSeek-AI机构: DeepSeek-AI 深度探索公司日期: 2024-05-07
1 读后感
DeepSeek 最近推出的 V2
版本,无疑是当前性价比最高的选择。直观地讲:KIMI 的价格是 12 元/M
tokens,Chat 的价格约为 3.5 元/M,GPT 4o 的价格约为 35
元/M。然而,DeepSeek 的价格仅为 1
元/M(这是按照输入计算的,输出通常是输入的两倍,美元兑换按 7
计算)。
我在之前调研代码模型的时候就注意到 DeepSeek
的单模型在排名中很靠前。从论文和网站数据可以看到模型效果在开源领域,甚至在国内开源
...
Obsidian+llama3:终于搭建了自己的知识库
1 引言
这两周,价格更亲民的 gpt-4o 和性能显著提升的 llama3
的推出,使许多东西发生了变化。就像古代人在收割麦子时,扭头看见一收割机。想到自己的那些微小的优化,与这些新技术相比,又算得了什么呢?也会开始怀疑自己的方向和价值。
不过,相信大家都有过想要尝试之前无法完成的事情的冲动。优化过程中又发现了一个神仙插件:Obsidian
的 Smart
Connections,超出了我原本的预期,于是结合新模型非常方便地搭建了我的个人知识库。之前老是炫着玩儿,现在是真能解决具体问题了。
具体优势如下:
操作简便,无需自己建立向量数据库或进行向量转换
可针对特定文档提问
具有基于向量的模糊搜索能力
可通过 ollama 调用本地模型,使用它不产生任何费用(除了电费)
2 思考过程
2.1 搜索
很早就觉得 Obsidian
搜索实在太费劲了。因为我的内容比较多,查找非常费时;还必须输入完全一致的关键词;如果查找一个常见词,则会返回大量不排序的文档。虽然后来使用的
ominisearch
插件用机器学习算法来建立索引,搜索效果有所改善,但与基于词义的大模型搜索相比,仍然相差很远。 ...
不必为做而做
引子
今天早上连看了三篇水文都是因为之前关注了公众号,系统推送给我的。这几位也写很棒的文,但可能是立下了日更或者周更几篇的
flag,实际上又不可能频繁产出高质量的文章,就出现明显凑数的情况。
反思
为什么会这样,这么做的动因到底是什么?
目标
究竟日更多满足了谁的需求?很可能是平台的需求,平台可能会因为鼓励频繁发文而给你分配更多的曝光量,这也是收入的来源。
但不一定是读者的需求。比如坚持一年日更,如果内容跟不上,只是凑数,咱先不说对世界有什么意义,对自己有什么意义。针对读者,日更也不一定吸粉的行为。回想咱们自己关注的日更公众号,对日更文章的打开比例是多少?
我们也接收
RSS,但是我们会收录日更吗?尤其是个人每天更新好几篇的?显然不会。个人不可能长期保持高质量的频繁输出,而且推送过多可能导致信息过载。你还需要自己过滤这些信息,反而给自己找麻烦。
我觉得写文可以分为以下几种类型:
有感而发,而这种感肯定不能定期发生,大概也不能以此谋生。
量产,这种就像生产产品一样。与经验丰富的团队相比,个人很难达到类似的效果。
科技与狠活,利用各种技巧和方法,如自动生成、扩展、总结、翻译和转写等。对 ...
五行命令搭建llama3环境
1 引言
本文将介绍 ollama+llama3 的最基本的安装和使用方法。只要你的 GPU 和
Docker
环境可用,基本上只需不超过五行的命令就能完成(实际上可能只需要一行)。使用
ollama 安装 llama3 比预期中要方便得多。
项目地址:https://github.com/ollama/ollama 65.5K Star
2 Docker 安装
1$ docker pull ollama/ollama
镜像大小约 438M,不包含 Python&Torch 环境,所以很省空间。
123$ docker run --rm -d -e OLLAMA_ORIGINS="app://obsidian.md*" --gpus=all -v /exports/ollama:/root/.ollama -p 11434:11434 --name ollama ollama/ollama$ docker exec -it ollama bash$ ollama run llama3
在初次使用时,会下载模型,大约需要 4.7G
的存储空间,这可能是量化版本 ...