木木随笔

AIGC 技术研习 | 记录关于人工智能、大模型与生活的碎片化思考

最新日志 System Normal

深入理解 Transformer 的注意力机制

在自然语言处理领域,Attention Is All You Need 是一篇奠基之作。最近重读论文,对 Self-Attention 的并行计算优势有了更深的理解。本文将尝试推导 Q、K、V 矩阵的运算过程,并分析多头注意力如何捕捉不同子空间的语义特征...

本地部署 SDXL Turbo 的参数调优实录

相较于之前的版本,SDXL 在图像生成的精细度和构图上有了质的飞跃。但在本地消费级显卡上部署时,显存管理是个大问题。记录一下关于 VAE 优化和采样步数设置的心得,如何在速度和质量之间找到平衡点...

Prompt Engineering:结构化思维与思维链

与其把提示词看作是一句咒语,不如看作是一段伪代码。通过 CoT (Chain of Thought) 引导模型一步步推理,可以显著提高逻辑类任务的准确率。整理了一些常用的提示词模板框架...