// Copyright 2025 Google LLC
//
// This source code is licensed under the BSD-style license found in the
// LICENSE file in the root directory of this source tree.

#include "src/xnnpack/assembly.h"

.PERMUTATION:
      .long   0
      .long   2
      .long   4
      .long   6
      .long   8
      .long   10
      .long   12
      .long   14
      .long   16
      .long   18
      .long   20
      .long   22
      .long   24
      .long   26
      .long   28
      .long   30
.MASK:
      .quad   -1085102592571150096

BEGIN_FUNCTION xnn_qd8_f32_qc4w_gemm_minmax_ukernel_5x32c8__asm_amd64_avx512vnni

      .intel_syntax noprefix
      # Free up GP registers.
      # Save register arguments for tail call to msan annotation helper.
      push rdi
      push rsi
      push rbx
      push rbp
      push r15
      push r14
      push r13
      push r12

      # load params to free up a GP registers
      mov r13, [rsp + 96] # params
      vbroadcastss zmm0, DWORD PTR [r13]
      vbroadcastss zmm1, DWORD PTR [r13 + 4]

      # Load c pointer.
      mov r10, [rsp + 72]
      # Load cm_stride.
      mov r11, [rsp + 80]

      add rdx, 7
      and rdx, -8

      # Move stack parameters which have not yet been loaded
      mov r12, [rsp + 104]

      # Align the stack pointer.
      mov r13, rsp
      sub rsp, 64
      and rsp, 0xFFFFFFFFFFFFFFC0
      # Store the old stack pointer containing the return address
      mov [rsp], r13
      # Push additional stack parameters to the new stack
      mov [rsp + 8], r12

      # Allocate some space on the stack.
      sub rsp, 448

      # Clamp a & c pointers if mr <= 1
      mov rax, rcx
      add rax, r8
      mov r13, r10
      add r13, r11
      cmp rdi, 1
      cmovle rax, rcx
      cmovle r13, r10

      # Clamp a & c pointers if mr <= 2
      mov r15, rax
      add r15, r8
      mov rbx, r13
      add rbx, r11
      cmp rdi, 2
      cmovle r15, rax
      cmovle rbx, r13

      # Clamp a & c pointers if mr <= 3
      mov r14, r15
      add r14, r8
      mov rbp, rbx
      add rbp, r11
      cmp rdi, 3
      cmovle r14, r15
      cmovle rbp, rbx

      # Clamp a & c pointers if mr <= 4
      mov r12, r14
      add r12, r8
      mov r8, rbp
      add r8, r11
      cmp rdi, 4
      cmovle r12, r14
      cmovle r8, rbp

      # Load quantization_params pointer from stack
      mov r11, [rsp + 456]
      mov edi, [r11 + 0]
      vpbroadcastd zmm6, edi
      vmovaps zmmword ptr [rsp + 128], zmm6
      mov edi, [r11 + 8]
      vpbroadcastd zmm6, edi
      vmovaps zmmword ptr [rsp + 192], zmm6
      mov edi, [r11 + 16]
      vpbroadcastd zmm6, edi
      vmovaps zmmword ptr [rsp + 256], zmm6
      mov edi, [r11 + 24]
      vpbroadcastd zmm6, edi
      vmovaps zmmword ptr [rsp + 320], zmm6
      mov edi, [r11 + 32]
      vpbroadcastd zmm6, edi
      vmovaps zmmword ptr [rsp + 384], zmm6

      mov r11, [rsp + 88]
      # Load 0xF0 for masking the weights
      vbroadcastsd  zmm13, qword ptr [rip + .MASK]


.Louter_loop:
      # Initialize k counter.
      mov r11, 0
      # Initialize accumulators with k_sum * input zero point.
      vmovaps  zmm6, [r9 + 0]
      vmovaps  zmm7, [r9 + 64]
      vpmulld zmm5, zmm6, ZMMWORD PTR [rsp + 128]
      vpmulld zmm12, zmm6, ZMMWORD PTR [rsp + 192]
      vpmulld zmm14, zmm6, ZMMWORD PTR [rsp + 256]
      vpmulld zmm15, zmm6, ZMMWORD PTR [rsp + 320]
      vpmulld zmm16, zmm6, ZMMWORD PTR [rsp + 384]
      vpmulld zmm17, zmm7, ZMMWORD PTR [rsp + 128]
      vpmulld zmm18, zmm7, ZMMWORD PTR [rsp + 192]
      vpmulld zmm19, zmm7, ZMMWORD PTR [rsp + 256]
      vpmulld zmm20, zmm7, ZMMWORD PTR [rsp + 320]
      vpmulld zmm21, zmm7, ZMMWORD PTR [rsp + 384]
      add r9, 128
      # Interleave with zeros.
      vextracti64x4 ymm27, zmm17, 1
      vpmovzxdq zmm27, ymm27
      vpmovzxdq zmm22, ymm17
      vextracti64x4 ymm17, zmm5, 1
      vpmovzxdq zmm17, ymm17
      vpmovzxdq zmm5, ymm5
      vextracti64x4 ymm28, zmm18, 1
      vpmovzxdq zmm28, ymm28
      vpmovzxdq zmm23, ymm18
      vextracti64x4 ymm18, zmm12, 1
      vpmovzxdq zmm18, ymm18
      vpmovzxdq zmm12, ymm12
      vextracti64x4 ymm29, zmm19, 1
      vpmovzxdq zmm29, ymm29
      vpmovzxdq zmm24, ymm19
      vextracti64x4 ymm19, zmm14, 1
      vpmovzxdq zmm19, ymm19
      vpmovzxdq zmm14, ymm14
      vextracti64x4 ymm30, zmm20, 1
      vpmovzxdq zmm30, ymm30
      vpmovzxdq zmm25, ymm20
      vextracti64x4 ymm20, zmm15, 1
      vpmovzxdq zmm20, ymm20
      vpmovzxdq zmm15, ymm15
      vextracti64x4 ymm4, zmm21, 1
      vpmovzxdq zmm4, ymm4
      vpmovzxdq zmm26, ymm21
      vextracti64x4 ymm21, zmm16, 1
      vpmovzxdq zmm21, ymm21
      vpmovzxdq zmm16, ymm16

.Linner_loop:
      vmovaps zmm7, [r9 + 0]
      vpslld zmm6, zmm7, 4
      vpandd zmm6, zmm6, zmm13
      vpandd zmm7, zmm7, zmm13
      vmovaps zmm9, [r9 + 64]
      vpslld zmm8, zmm9, 4
      vpandd zmm8, zmm8, zmm13
      vpandd zmm9, zmm9, zmm13
      add r9, 128
      vbroadcasti32x2 zmm2, QWORD PTR [rcx + r11]
      vpdpbusd  zmm5, zmm2, zmm6
      vpdpbusd  zmm17, zmm2, zmm7
      vpdpbusd  zmm22, zmm2, zmm8
      vpdpbusd  zmm27, zmm2, zmm9
      vbroadcasti32x2 zmm2, QWORD PTR [rax + r11]
      vpdpbusd  zmm12, zmm2, zmm6
      vpdpbusd  zmm18, zmm2, zmm7
      vpdpbusd  zmm23, zmm2, zmm8
      vpdpbusd  zmm28, zmm2, zmm9
      vbroadcasti32x2 zmm2, QWORD PTR [r15 + r11]
      vpdpbusd  zmm14, zmm2, zmm6
      vpdpbusd  zmm19, zmm2, zmm7
      vpdpbusd  zmm24, zmm2, zmm8
      vpdpbusd  zmm29, zmm2, zmm9
      vbroadcasti32x2 zmm2, QWORD PTR [r14 + r11]
      vpdpbusd  zmm15, zmm2, zmm6
      vpdpbusd  zmm20, zmm2, zmm7
      vpdpbusd  zmm25, zmm2, zmm8
      vpdpbusd  zmm30, zmm2, zmm9
      vbroadcasti32x2 zmm2, QWORD PTR [r12 + r11]
      vpdpbusd  zmm16, zmm2, zmm6
      vpdpbusd  zmm21, zmm2, zmm7
      vpdpbusd  zmm26, zmm2, zmm8
      vpdpbusd  zmm4, zmm2, zmm9

      add r11, 8
      cmp rdx, r11
      jne .Linner_loop
.Linner_loop_end:
      vpsrlq zmm6, zmm5, 32
      vpaddd zmm5, zmm5, zmm6
      vpsrlq zmm6, zmm12, 32
      vpaddd zmm12, zmm12, zmm6
      vpsrlq zmm6, zmm14, 32
      vpaddd zmm14, zmm14, zmm6
      vpsrlq zmm6, zmm15, 32
      vpaddd zmm15, zmm15, zmm6
      vpsrlq zmm6, zmm16, 32
      vpaddd zmm16, zmm16, zmm6
      vpsrlq zmm6, zmm17, 32
      vpaddd zmm17, zmm17, zmm6
      vpsrlq zmm6, zmm18, 32
      vpaddd zmm18, zmm18, zmm6
      vpsrlq zmm6, zmm19, 32
      vpaddd zmm19, zmm19, zmm6
      vpsrlq zmm6, zmm20, 32
      vpaddd zmm20, zmm20, zmm6
      vpsrlq zmm6, zmm21, 32
      vpaddd zmm21, zmm21, zmm6
      vpsrlq zmm6, zmm22, 32
      vpaddd zmm22, zmm22, zmm6
      vpsrlq zmm6, zmm23, 32
      vpaddd zmm23, zmm23, zmm6
      vpsrlq zmm6, zmm24, 32
      vpaddd zmm24, zmm24, zmm6
      vpsrlq zmm6, zmm25, 32
      vpaddd zmm25, zmm25, zmm6
      vpsrlq zmm6, zmm26, 32
      vpaddd zmm26, zmm26, zmm6
      vpsrlq zmm6, zmm27, 32
      vpaddd zmm27, zmm27, zmm6
      vpsrlq zmm6, zmm28, 32
      vpaddd zmm28, zmm28, zmm6
      vpsrlq zmm6, zmm29, 32
      vpaddd zmm29, zmm29, zmm6
      vpsrlq zmm6, zmm30, 32
      vpaddd zmm30, zmm30, zmm6
      vpsrlq zmm6, zmm4, 32
      vpaddd zmm4, zmm4, zmm6
      vmovups zmm6, zmmword ptr [rip + .PERMUTATION]
      vpermt2ps zmm5, zmm6, zmm17
      vpermt2ps zmm12, zmm6, zmm18
      vpermt2ps zmm14, zmm6, zmm19
      vpermt2ps zmm15, zmm6, zmm20
      vpermt2ps zmm16, zmm6, zmm21
      vpermt2ps zmm22, zmm6, zmm27
      vpermt2ps zmm23, zmm6, zmm28
      vpermt2ps zmm24, zmm6, zmm29
      vpermt2ps zmm25, zmm6, zmm30
      vpermt2ps zmm26, zmm6, zmm4

      # Convert from int32 to float.
      vpsrad zmm5, zmm5, 4
      vcvtdq2ps zmm5, zmm5
      vpsrad zmm12, zmm12, 4
      vcvtdq2ps zmm12, zmm12
      vpsrad zmm14, zmm14, 4
      vcvtdq2ps zmm14, zmm14
      vpsrad zmm15, zmm15, 4
      vcvtdq2ps zmm15, zmm15
      vpsrad zmm16, zmm16, 4
      vcvtdq2ps zmm16, zmm16
      vpsrad zmm22, zmm22, 4
      vcvtdq2ps zmm17, zmm22
      vpsrad zmm23, zmm23, 4
      vcvtdq2ps zmm18, zmm23
      vpsrad zmm24, zmm24, 4
      vcvtdq2ps zmm19, zmm24
      vpsrad zmm25, zmm25, 4
      vcvtdq2ps zmm20, zmm25
      vpsrad zmm26, zmm26, 4
      vcvtdq2ps zmm21, zmm26
      # Load quantization_params pointer from stack
      mov r11, [rsp + 456]
      vmulps zmm5, zmm5, DWORD PTR [r11 + 4]{1to16}
      vmulps zmm12, zmm12, DWORD PTR [r11 + 12]{1to16}
      vmulps zmm14, zmm14, DWORD PTR [r11 + 20]{1to16}
      vmulps zmm15, zmm15, DWORD PTR [r11 + 28]{1to16}
      vmulps zmm16, zmm16, DWORD PTR [r11 + 36]{1to16}
      vmulps zmm17, zmm17, DWORD PTR [r11 + 4]{1to16}
      vmulps zmm18, zmm18, DWORD PTR [r11 + 12]{1to16}
      vmulps zmm19, zmm19, DWORD PTR [r11 + 20]{1to16}
      vmulps zmm20, zmm20, DWORD PTR [r11 + 28]{1to16}
      vmulps zmm21, zmm21, DWORD PTR [r11 + 36]{1to16}
      vmovaps zmm10, [r9 + 0]
      vmovaps zmm11, [r9 + 64]
      add r9, 128
      vmovaps zmm6, [r9 + 0]
      vmovaps zmm7, [r9 + 64]
      add r9, 128
      vfmadd213ps zmm5, zmm10, zmm6
      vfmadd213ps zmm12, zmm10, zmm6
      vfmadd213ps zmm14, zmm10, zmm6
      vfmadd213ps zmm15, zmm10, zmm6
      vfmadd213ps zmm16, zmm10, zmm6
      vfmadd213ps zmm17, zmm11, zmm7
      vfmadd213ps zmm18, zmm11, zmm7
      vfmadd213ps zmm19, zmm11, zmm7
      vfmadd213ps zmm20, zmm11, zmm7
      vfmadd213ps zmm21, zmm11, zmm7
      # Min/max clamping.
      vminps  zmm5, zmm1, zmm5
      vminps  zmm12, zmm1, zmm12
      vminps  zmm14, zmm1, zmm14
      vminps  zmm15, zmm1, zmm15
      vminps  zmm16, zmm1, zmm16
      vminps  zmm17, zmm1, zmm17
      vminps  zmm18, zmm1, zmm18
      vminps  zmm19, zmm1, zmm19
      vminps  zmm20, zmm1, zmm20
      vminps  zmm21, zmm1, zmm21
      vmaxps  zmm5, zmm0, zmm5
      vmaxps  zmm12, zmm0, zmm12
      vmaxps  zmm14, zmm0, zmm14
      vmaxps  zmm15, zmm0, zmm15
      vmaxps  zmm16, zmm0, zmm16
      vmaxps  zmm17, zmm0, zmm17
      vmaxps  zmm18, zmm0, zmm18
      vmaxps  zmm19, zmm0, zmm19
      vmaxps  zmm20, zmm0, zmm20
      vmaxps  zmm21, zmm0, zmm21

      # Check whether full or partial store.
      cmp rsi, 32
      jl .Ltail

      vmovups  [r10], zmm5
      vmovups  [r10 + 64], zmm17
      vmovups  [r13], zmm12
      vmovups  [r13 + 64], zmm18
      vmovups  [rbx], zmm14
      vmovups  [rbx + 64], zmm19
      vmovups  [rbp], zmm15
      vmovups  [rbp + 64], zmm20
      vmovups  [r8], zmm16
      vmovups  [r8 + 64], zmm21
      add r10, 128
      add r13, 128
      add rbx, 128
      add rbp, 128
      add r8, 128

      sub rsi, 32
      jne .Louter_loop
      jmp .Lreturn

.Ltail:
      mov r11, -1
      shlx r11, r11, rsi
      not r11
      kmovw k1, r11d
      shr r11d, 16
      kmovw k2, r11d
      vmovups  ZMMWORD PTR [r10]{k1}, zmm5
      vmovups  ZMMWORD PTR [r10 + 64]{k2}, zmm17
      vmovups  ZMMWORD PTR [r13]{k1}, zmm12
      vmovups  ZMMWORD PTR [r13 + 64]{k2}, zmm18
      vmovups  ZMMWORD PTR [rbx]{k1}, zmm14
      vmovups  ZMMWORD PTR [rbx + 64]{k2}, zmm19
      vmovups  ZMMWORD PTR [rbp]{k1}, zmm15
      vmovups  ZMMWORD PTR [rbp + 64]{k2}, zmm20
      vmovups  ZMMWORD PTR [r8]{k1}, zmm16
      vmovups  ZMMWORD PTR [r8 + 64]{k2}, zmm21

.Lreturn:
      add rsp, 448
      mov r13, [rsp]
      mov rsp, r13
      # Restore the callee saved registers.
      pop r12
      pop r13
      pop r14
      pop r15
      pop rbp
      pop rbx
      pop rsi
      pop rdi
      #if XNN_HAS_FEATURE(memory_sanitizer)
      jmp xnn_gemm_ukernel_msan_sizeof_c_4
      #else
      ret
      #endif
END_FUNCTION xnn_qd8_f32_qc4w_gemm_minmax_ukernel_5x32c8__asm_amd64_avx512vnni

      #if XNN_HAS_FEATURE(dataflow_sanitizer)
BEGIN_FUNCTION xnn_qd8_f32_qc4w_gemm_minmax_ukernel_5x32c8__asm_amd64_avx512vnni.dfsan
      .intel_syntax noprefix
      # We could implement this by calling a function that implements the dfsan instrumentation.
      # For now, just break, so if someone tries to use this, they'll know where the problem is.
      int 3
      ret
END_FUNCTION xnn_qd8_f32_qc4w_gemm_minmax_ukernel_5x32c8__asm_amd64_avx512vnni.dfsan
      #endif

      #ifdef __ELF__
      .section .note.GNU-stack, "", @progbits
      #endif  // __ELF__