欢迎来到 Open Cognition

这里记录我对人工智能、大模型与认知科学的思考。

初探大语言模型

本文介绍大语言模型(LLM)的基本原理。 $$ \text{Attention}(Q,K,V) = \text{softmax}\left(\frac{QK^T}{\sqrt{d_k}}\right)V $$ 欢迎关注 Open Cognition!

January 17, 2026 · ctycheer