对于CNN-RNN模型的公式，可以从两个部分去理解：一个是卷积神经网络（CNN）部分，另一个是循环神经网络（RNN，如LSTM或GRU）部分。

### CNN的基本公式

在CNN中，每个卷积层的输出会通过一个激活函数进行非线性化：

1. **卷积操作：**
   \[conv(x) = W * x + b\]
   其中\(*\)表示卷积操作，\(W\)代表卷积核，\(x\)为输入，\(b\)为偏置项。

2. **激活函数：**
   \[a = \sigma(conv(x))\]
   其中\(\sigma\)是激活函数，如ReLU。

### RNN的基本公式

以LSTM为例，其基本公式包括了以下几部分：

1. **输入门：**
   \[i_{t}=\sigma\left(W_{xi} x_{t}+W_{hi} h_{t-1}+b_{i}\right)\]

2. **遗忘门：**
   \[f_{t}=\sigma\left(W_{xf} x_{t}+W_{hf} h_{t-1}+b_{f}\right)\]

3. **单元状态：**
   \[\tilde{c}_{t}=\tanh \left(W_{xc} x_{t}+W_{hc} h_{t-1}+b_{c}\right)\]
   \[c_{t}=f_{t} \circ c_{t-1}+i_{t} \circ \tilde{c}_{t}\]

4. **输出门：**
   \[o_{t}=\sigma\left(W_{xo} x_{t}+W_{ho} h_{t-1}+b_{o}\right)\]

5. **隐藏状态：**
   \[h_{t}=o_{t} \circ \tanh \left(c_{t}\right)\]

其中，\(W\)是权值矩阵，\(x\)是当前时刻的输入，\(h\)是上一时刻的隐藏状态，\(c\)是单元状态，\(b\)是偏置向量。\(i, f, o, \tilde{c}\)分别表示输入门、遗忘门、输出门和候选记忆单元。符号\(\circ\)表示逐点乘法，也称为哈达玛积。

**请注意：** 在真实应用中，CNN和RNN（例如LSTM或GRU）的结合方式并不固定，可能会根据具体问题的需求和数据的特性进行调整。例如，可以先使用CNN进行特征提取，然后将得到的特征作为RNN的输入；或者将CNN和RNN并行结构，最后将他们的输出进行融合等等。