単語の埋め込み(たんごのうめこみ、英語: Word embedding)とは、自然言語処理(NLP)における一連の言語モデリングおよび特徴学習手法の総称であり、単語や語句が実ベクトル空間上に位置づけられる。単語の数だけの次元を持つ空間から、はるかに低い次元を持つ連続ベクトル空間へと数学的な埋め込みが行われる。 このマッピングを生成する方法として、ニューラルネットワーク、単語共起行列の、確率モデル、説明可能な知識に基づく方法、単語が現れる文脈における用語での明示的な表現、などがある。 単語と句の埋め込みを入力表現として用いると、構文解析や感情分析などのNLPタスクのパフォーマンスを向上させることが示されている。