\documentclass[12pt, a4paper]{article}
\usepackage{geometry}
\geometry{
	a4paper,
	left=12.7 mm,
	right=12.7 mm,
	top=12.7 mm,
	bottom=12.7 mm,
}
\usepackage{graphicx}
\usepackage{amsmath}
\usepackage{physics}
\usepackage{verbatim}
\graphicspath{ {./} }
\usepackage{ctex}
\usepackage{makecell}

\newcommand{\bvec}[1]{\mathbf{#1}}
\newcommand{\formula}[1]{\text{式} \ref{#1} }
\newcommand{\matrx}[1]
{
	\ensuremath
	{
		\left (
		\begin{matrix}
			#1
		\end{matrix}
		\right)
	}
}
\begin{document}
	
	
	\section{坐标变换(被动变换)}
	
	\begin{figure}[h]
		\centering
		\includegraphics[width=0.4 \linewidth]{coordtrans2}
		\caption{坐标变换示意图}
		\label{fig:coordtrans}
	\end{figure}
	
	\footnote{本文使用AI辅助}我们经常需要处理坐标变换问题。
	比如说，在一组基$\{\bvec \alpha_1, \bvec \alpha_2 ..., \bvec \alpha_n\}$下，
	我们看到一个向量$\bvec v$的坐标是$(a_1,a_2,...,a_n)^T_{\{\alpha\}}$；
	而在另一组基$\{\bvec \beta_1, \bvec \beta_2 ..., \bvec \beta_n \}$下，
	我们看到$\bvec v$的坐标是$(b_1,b_2,...,b_n)^T_{\{\beta\}}$。
	很显然，不同基下$\bvec v$的坐标很可能不同。
	\begin{equation}
		\bvec v 
		= \sum_{i=1}^n a_i \bvec \alpha_i 
		=  \sum_{i=1}^n b_i \beta_i 
		\qquad
		\bvec v = (a_1,a_2,...,a_n)^T_{\{\alpha\}} = (b_1,b_2,...,b_n)^T_{\{\beta\}}
	\end{equation}
	其中$\bvec \alpha_i ,\bvec \beta_i$等是基向量。
	进一步而言，在选定的基下，$\bvec \alpha_i, \bvec \beta_i$等也可以被写出相应的“坐标”。
	那么，同$\bvec v$一样，$\bvec \alpha_i$等也可被写为$n \times 1$的列向量。
	\begin{equation}
		\bvec v 
		= 
		\matrx
		{
			\alpha_1 & \alpha_2 & ... & \alpha_n
		}_{n\times n}
		\matrx
		{
			a_1 \\ a_2 \\ ... \\ a_n \\
		}_{n\times 1}
		=
		\matrx
		{
			\beta_1 & \beta_2 & ... & \beta_n
		}_{n\times n}
		\matrx
		{
			b_1 \\ b_2 \\ ... \\ b_n \\
		}_{n\times 1} \\
	\end{equation}
	那么问题来了，如果我们知道两组基$\{\bvec \alpha_n\}$与$\{\bvec \beta_n\}$，以及$\bvec v$在基$\{\bvec \alpha_n\}$下的坐标$(a_1,a_2,...,a_n)_{\{\alpha\}}$，
	我们如何求得$\bvec v$在基$\{\bvec \beta_n\}$下的坐标$(b_1,b_2,...,b_n)_{\{\beta\}}$呢？
	答案其实非常简单，就在题目之中：
	\begin{equation}
		\begin{aligned}
			& \bvec v 
			= 
			\matrx
			{
				\alpha_1 & \alpha_2 & ... & \alpha_n
			}_{n\times n}
			\matrx
			{
				a_1 \\ a_2 \\ ... \\ a_n \\
			}_{n\times 1}
			=
			\matrx
			{
				\beta_1 & \beta_2 & ... & \beta_n
			}_{n\times n}
			\matrx
			{
				b_1 \\ b_2 \\ ... \\ b_n \\
			}_{n\times 1} \\
			&\Rightarrow
			\matrx
			{
				b_1 \\ b_2 \\ ... \\ b_n \\
			}_{n\times 1} 
			= 
			\left(
			\matrx
			{
				\beta_1 & \beta_2 & ... & \beta_n
			}_{n\times n}
			\right )^{-1}
			\matrx
			{
				\alpha_1 & \alpha_2 & ... & \alpha_n
			}_{n\times n}
			\matrx
			{
				a_1 \\ a_2 \\ ... \\ a_n \\
			}_{n\times 1}
		\end{aligned}
	\end{equation}
	压缩为
	\begin{equation}
		b = (\beta^{-1} \alpha) a
	\end{equation}
	让我们举一个例子，假设我们有一组基$\bvec \alpha_1 = (1,0)^T,\bvec \alpha_2 = (0,1)^T$，
	与另一组基$\bvec\beta_1 = (\sqrt{2}/2,\sqrt{2}/2)^T,\bvec \beta_2 = (-\sqrt{2}/2,\sqrt{2}/2)^T$，
	和一个向量$\bvec v$。
	若$\bvec v$在$\{\bvec \alpha\}$下的坐标是$(1,1)^T$，请问$\bvec v$在$\{\bvec \beta\}$下的坐标？
	显然我们构造矩阵
	\begin{equation}
		\matrx
		{
			\alpha_1 & \alpha_2
		}_{2\times 2}
		= 
		\matrx
		{
			1 & 0\\
			0 & 1\\
		}
		,
		\matrx
		{
			\beta_1 & \beta_2
		}_{2\times 2}
		= 
		\sqrt{2}/2
		\matrx
		{
			1 & -1\\
			1 & 1 \\
		}
	\end{equation}
	因此
	\begin{equation}
		A=
		\left(
		\matrx
		{
			\beta_1 & \beta_2
		}_{2\times 2}
		\right )^{-1}
		\matrx
		{
			\alpha_1 & \alpha_2
		}_{2\times 2}
		=
		\sqrt{2}/2
		\matrx
		{
			1 & 1\\
			-1 & 1 \\
		}
	\end{equation}
	因此
	\begin{equation}
		b = A a
		= \sqrt{2}/2
		\matrx
		{
			1 & 1\\
			-1 & 1 \\
		}
		\matrx{1\\1\\}
		=\matrx{\sqrt{2}\\0\\}
	\end{equation}
	也就是说$\bvec v$在$\{\bvec \beta\}$下的坐标是$(\sqrt{2},0)^T$，和我们的数理直觉一致。
	
	\newpage
	\section{线性变换(主动变换)}
	
	\begin{figure}[h]
		\centering
		\includegraphics[width=0.4 \linewidth]{lineartrans2}
		\caption{线性变换示意图}
		\label{fig:lineartrans}
	\end{figure}
	
	线性变换是另一种强大的工具，其将一个向量$\bvec v$线性变换为另一个向量$\bvec w$：
	\begin{equation}
		\bvec w = T(\bvec v) 
	\end{equation}
	其中$T$是一种线性变换。
	具体而言，我们要做的是，
	假设$\bvec v$在基$\{\alpha\}$的坐标是$(a_1,a_2,...,a_n)^T_{\{\alpha\}} $
	那么求$\bvec w$在$\{\alpha\}$的坐标$ (b_1,b_2,...,b_n)^T_{\{\beta\}}$。
	\begin{equation}
	\bvec v 
	= 
	\matrx
	{
		\alpha_1 & \alpha_2 & ... & \alpha_n
	}_{n\times n}
	\matrx
	{
		a_1 \\ a_2 \\ ... \\ a_n \\
	}_{n\times 1}
	\qquad
	\bvec w=T( \bvec v)=
	\matrx
	{
		\alpha_1 & \alpha_2 & ... & \alpha_n
	}_{n\times n}
	\matrx
	{
		b_1 \\ b_2 \\ ... \\ b_n \\
	}_{n\times 1} \\
	\end{equation}

	\subsection{基变换}
	如果运用线性变换的线性性质，我们还可以写出
	\begin{equation}
		\bvec w = T(\bvec v) = T(\sum_{i=1}^n a_i \bvec \alpha_i) = \sum_{i=1}^n a_i T(\bvec \alpha_i)
	\end{equation}
	也就是说，
	\begin{equation} \label{eq:10}
		\bvec w = 
		T
		\left(
		\matrx
		{
			\alpha_1 & \alpha_2 & ... & \alpha_n
		}_{n\times n}
		\matrx
		{
			a_1 \\ a_2 \\ ... \\ a_n \\
		}_{n\times 1}
		\right)
		=
		\matrx
		{
			T(\alpha_1) & T(\alpha_2) & ... & T(\alpha_n)
		}_{n\times n}
		\matrx
		{
			a_1 \\ a_2 \\ ... \\ a_n \\
		}_{n\times 1}
	\end{equation}
	能这么做是因为$T$是一种线性变换，其应该满足这种线性关系\textsl{（感觉这有点车轱辘话！）}。
	我们发现，把握线性变换的关键是把握基的线性变换，
	只要知道了基如何在$T$下变换，我们就能知道所有向量如何在$T$下变换：
	\begin{equation}
		\matrx
		{
			T(\alpha_1) & T(\alpha_2) & ... & T(\alpha_n)
		}_{n\times n}
		\leftarrow
		\matrx
		{
			\alpha_1 & \alpha_2 & ... & \alpha_n
		}_{n\times n}
	\end{equation}
	事实上，若$T$是线性变换，那上述基变换总能写成矩阵乘法的形式：
	\begin{equation}\label{eq:basis_trans}
		\matrx
		{
			T(\alpha_1) & T(\alpha_2) & ... & T(\alpha_n)
		}_{n\times n}
		=
		\matrx
		{
			\alpha_1 & \alpha_2 & ... & \alpha_n
		}_{n\times n}
		\cdot
		T_{n\times n}
	\end{equation}
	其中$T_{n\times n}$是用以实现线性变换$T$所需的矩阵，其具体形式取决于$T$的具体实现。
	在国内教材中，习惯写为右乘$T$矩阵。
	
	\subsection{回到原本的问题}
	我们回到原本的问题，即找到$\bvec w$的在基$\{\bvec \alpha\}$坐标：
	\begin{equation}
		\bvec w = 
		\matrx
		{
			\alpha_1 & \alpha_2 & ... & \alpha_n
		}_{n\times n}
		\matrx
		{
			b_1 \\ b_2 \\ ... \\ b_n \\
		}_{n\times 1}
	\end{equation}
	又因为\formula{eq:10}与\formula{eq:basis_trans}，
	\begin{equation}
		\bvec w = 
		\matrx
		{
			\alpha_1 & \alpha_2 & ... & \alpha_n
		}_{n\times n}
		T_{n\times n}
		\matrx
		{
			a_1 \\ a_2 \\ ... \\ a_n \\
		}_{n\times 1}
	\end{equation}
	联立二者，因此$\bvec w$在基$\{\alpha\}$下的坐标应该是
	\begin{equation}
		\matrx
		{
			b_1 \\ b_2 \\ ... \\ b_n \\
		}_{n\times 1}
		=
		T_{n\times n}
		\matrx
		{
			a_1 \\ a_2 \\ ... \\ a_n \\
		}_{n\times 1}
	\end{equation}
		压缩为
	\begin{equation}
		b = T a
	\end{equation}
	
	我们考虑一个简单的例子：
	假设我们基$\bvec \alpha_1 = (1,0)^T,\bvec \alpha_2 = (0,1)^T$,
	向量$\bvec v = (1,1)_{\{\alpha\}}^T$，
	线性变换$T(\bvec \alpha_1) = 1.5\alpha_1, T(\bvec \alpha_2) = 0.5\alpha_2$，
	求$\bvec w = T(\bvec v)$。
	我们先找$T$矩阵，依题意我们有：
	\begin{equation}
		\matrx
		{
			1.5 \alpha_1 & 0.5\alpha
		}_{n\times n}
		=
		\matrx
		{
			\alpha_1 & \alpha_2
		}_{n\times n}
		\cdot
		T_{n\times n}
	\end{equation}
	因此我们构造$T$矩阵的具体形式：
	\begin{equation}
		T_{2\times 2} = 
		\matrx
		{
			1.5 & 0 \\
			0 & 0.5
		}
	\end{equation}
	因此
	\begin{equation}
		\bvec w : 
		\matrx
		{
			b_1 \\ b_2
		}_{2\times 1}
		=
		\matrx
		{
			1.5 & 0 \\
			0 & 0.5
		}_{2\times 2}
		\matrx
		{
			1 \\ 1
		}_{2\times 1}
		=
		\matrx
		{
			1.5 \\ 0.5
		}_{2\times 1}
	\end{equation}
	也就是说$\bvec w$的坐标应该是
	\begin{equation}
		\bvec w = (1.5,0.5)_{\{\alpha\}}^T
	\end{equation}
	这有点类似我们缩放图片时没有摁住Shift的结果。在计算图形学中，线性变换被广泛运用于各类操作，从物体的运动到相机的投影。
	
	尽管坐标变换和线性变换都相当于进行矩阵乘法（并且某种意义上坐标变换也是一种特殊的线性变换），
	但二者的具体矩阵构造方式以及具体数学含义均有所区别。
	在物理中，或许“主动变换”和“被动变换”的术语更为常用（若假设我们的操作是线性的）：
	主动变换（线性变换）相当于直接改变某一物理量；
	而被动变换（坐标变换）相当于改变参考系观察某一物理量（尽管观察到的具体物理量数值可能不同，但实际上没有“改变”这一物理量）。
	
\end{document}