	.file	"08-test-cal_t_f.cpp"
	.text
	.section	.text.startup,"ax",@progbits
	.p2align 4
	.globl	main
	.type	main, @function
main:
.LFB7913:
	.cfi_startproc
	endbr64
	pushq	%rbp
	.cfi_def_cfa_offset 16
	.cfi_offset 6, -16
	movl	$1920000000, %edi
	movq	%rsp, %rbp
	.cfi_def_cfa_register 6
	pushq	%r15
	pushq	%r14
	pushq	%r13
	pushq	%r12
	pushq	%r10
	pushq	%rbx
	subq	$224, %rsp
	.cfi_offset 15, -24
	.cfi_offset 14, -32
	.cfi_offset 13, -40
	.cfi_offset 12, -48
	.cfi_offset 10, -56
	.cfi_offset 3, -64
	call	_Znam@PLT
	vxorpd	%xmm0, %xmm0, %xmm0
	movq	%rax, %r14
	movq	%rax, %rbx
	leaq	1920000000(%rax), %r13
	.p2align 4,,10
	.p2align 3
.L2:
	vmovups	%xmm0, (%rax)
	vextractf128	$0x1, %ymm0, 16(%rax)
	addq	$32, %rax
	cmpq	%rax, %r13
	jne	.L2
	movl	$1920000000, %edi
	vzeroupper
	call	_Znam@PLT
	vxorpd	%xmm0, %xmm0, %xmm0
	movq	%rax, -152(%rbp)
	movq	%rax, %rdx
	leaq	1920000000(%rax), %rcx
	.p2align 4,,10
	.p2align 3
.L3:
	vmovups	%xmm0, (%rax)
	vextractf128	$0x1, %ymm0, 16(%rax)
	addq	$32, %rax
	cmpq	%rax, %rcx
	jne	.L3
	movl	$1440000000, %edi
	movq	%rdx, -56(%rbp)
	vzeroupper
	call	_Znam@PLT
	movq	-56(%rbp), %rdx
	vxorpd	%xmm0, %xmm0, %xmm0
	movq	%rax, %r15
	movq	%rax, %rcx
	leaq	1440000000(%rax), %rdi
	.p2align 4,,10
	.p2align 3
.L4:
	vmovups	%xmm0, (%rax)
	vextractf128	$0x1, %ymm0, 16(%rax)
	addq	$32, %rax
	cmpq	%rax, %rdi
	jne	.L4
	movq	%rdx, -64(%rbp)
	movq	%rcx, -56(%rbp)
	vzeroupper
	call	_ZNSt6chrono3_V212system_clock3nowEv@PLT
	movq	-64(%rbp), %rdx
	movq	-56(%rbp), %rcx
	movq	%rax, -160(%rbp)
	vmovq	.LC0(%rip), %xmm5
	vmovsd	.LC1(%rip), %xmm4
	.p2align 4,,10
	.p2align 3
.L12:
	vmovsd	(%rbx), %xmm0
	vsubsd	96(%rbx), %xmm0, %xmm0
	movq	%rdx, %r12
	movq	%rcx, %rax
	leaq	48(%rdx), %rdi
	vxorpd	%xmm5, %xmm0, %xmm0
	vmulsd	%xmm4, %xmm0, %xmm7
	vmovsd	8(%rbx), %xmm0
	vsubsd	104(%rbx), %xmm0, %xmm0
	vxorpd	%xmm5, %xmm0, %xmm0
	vmovsd	%xmm7, -144(%rbp)
	vmulsd	%xmm4, %xmm0, %xmm7
	vmovsd	48(%rbx), %xmm0
	vsubsd	144(%rbx), %xmm0, %xmm0
	vxorpd	%xmm5, %xmm0, %xmm0
	vmovsd	%xmm7, -136(%rbp)
	vmulsd	%xmm4, %xmm0, %xmm7
	vmovsd	56(%rbx), %xmm0
	vsubsd	152(%rbx), %xmm0, %xmm0
	vxorpd	%xmm5, %xmm0, %xmm0
	vmulsd	%xmm4, %xmm0, %xmm6
	vmovsd	16(%rbx), %xmm0
	vsubsd	112(%rbx), %xmm0, %xmm0
	vmovsd	%xmm7, -128(%rbp)
	vxorpd	%xmm5, %xmm0, %xmm0
	vmulsd	%xmm4, %xmm0, %xmm7
	vmovsd	24(%rbx), %xmm0
	vsubsd	120(%rbx), %xmm0, %xmm0
	vmovsd	%xmm6, -120(%rbp)
	vxorpd	%xmm5, %xmm0, %xmm0
	vmulsd	%xmm4, %xmm0, %xmm6
	vmovsd	64(%rbx), %xmm0
	vsubsd	160(%rbx), %xmm0, %xmm0
	vmovsd	%xmm7, -112(%rbp)
	vxorpd	%xmm5, %xmm0, %xmm0
	vmulsd	%xmm4, %xmm0, %xmm7
	vmovsd	72(%rbx), %xmm0
	vsubsd	168(%rbx), %xmm0, %xmm0
	vmovsd	%xmm6, -104(%rbp)
	vxorpd	%xmm5, %xmm0, %xmm0
	vmulsd	%xmm4, %xmm0, %xmm6
	vmovsd	32(%rbx), %xmm0
	vsubsd	128(%rbx), %xmm0, %xmm0
	vmovsd	%xmm7, -96(%rbp)
	vxorpd	%xmm5, %xmm0, %xmm0
	vmulsd	%xmm4, %xmm0, %xmm7
	vmovsd	40(%rbx), %xmm0
	vsubsd	136(%rbx), %xmm0, %xmm0
	vmovsd	%xmm6, -88(%rbp)
	vxorpd	%xmm5, %xmm0, %xmm0
	vmulsd	%xmm4, %xmm0, %xmm6
	vmovsd	80(%rbx), %xmm0
	vsubsd	176(%rbx), %xmm0, %xmm0
	vmovsd	%xmm7, -80(%rbp)
	vxorpd	%xmm5, %xmm0, %xmm0
	vmulsd	%xmm4, %xmm0, %xmm7
	vmovsd	%xmm6, -72(%rbp)
	vmovsd	%xmm7, -64(%rbp)
	vmovsd	88(%rbx), %xmm0
	vsubsd	184(%rbx), %xmm0, %xmm0
	vxorpd	%xmm5, %xmm0, %xmm0
	vmulsd	%xmm4, %xmm0, %xmm6
	vmovsd	%xmm6, -56(%rbp)
.L11:
	vmovsd	8(%rax), %xmm12
	vmovsd	-144(%rbp), %xmm3
	vmovsd	-136(%rbp), %xmm1
	vmovsd	(%rax), %xmm10
	vmulsd	%xmm3, %xmm12, %xmm9
	vmulsd	%xmm1, %xmm12, %xmm8
	vfmadd231sd	%xmm1, %xmm10, %xmm9
	vfmsub231sd	%xmm3, %xmm10, %xmm8
	vucomisd	%xmm8, %xmm9
	jp	.L20
.L5:
	vmovsd	-128(%rbp), %xmm3
	vmovsd	-120(%rbp), %xmm1
	vmovsd	96(%r12), %xmm0
	vaddsd	(%r12), %xmm8, %xmm11
	vmulsd	%xmm3, %xmm12, %xmm6
	vaddsd	8(%r12), %xmm9, %xmm13
	vmulsd	%xmm1, %xmm12, %xmm7
	vsubsd	%xmm8, %xmm0, %xmm8
	vmovsd	104(%r12), %xmm0
	vsubsd	%xmm9, %xmm0, %xmm9
	vmovsd	%xmm13, 8(%r12)
	vfmadd231sd	%xmm1, %xmm10, %xmm6
	vfmsub231sd	%xmm3, %xmm10, %xmm7
	vmovsd	%xmm9, 104(%r12)
	vucomisd	%xmm7, %xmm6
	jp	.L21
.L6:
	vmovsd	144(%r12), %xmm0
	vmovsd	16(%rax), %xmm14
	vmovsd	24(%rax), %xmm15
	vmovsd	-104(%rbp), %xmm3
	vaddsd	48(%r12), %xmm7, %xmm10
	vsubsd	%xmm7, %xmm0, %xmm7
	vmovsd	-112(%rbp), %xmm1
	vmovsd	152(%r12), %xmm0
	vaddsd	56(%r12), %xmm6, %xmm12
	vmulsd	%xmm3, %xmm15, %xmm2
	vsubsd	%xmm6, %xmm0, %xmm6
	vmulsd	%xmm3, %xmm14, %xmm0
	vmovsd	%xmm12, 56(%r12)
	vmovsd	%xmm6, 152(%r12)
	vfmsub231sd	%xmm1, %xmm14, %xmm2
	vfmadd231sd	%xmm1, %xmm15, %xmm0
	vucomisd	%xmm0, %xmm2
	jp	.L22
.L7:
	vmovsd	-96(%rbp), %xmm3
	vmovsd	-88(%rbp), %xmm1
	vaddsd	%xmm2, %xmm11, %xmm11
	vaddsd	%xmm0, %xmm13, %xmm13
	vsubsd	%xmm2, %xmm8, %xmm8
	vsubsd	%xmm0, %xmm9, %xmm9
	vmulsd	%xmm1, %xmm15, %xmm2
	vmulsd	%xmm3, %xmm15, %xmm0
	vfmsub231sd	%xmm3, %xmm14, %xmm2
	vfmadd231sd	%xmm1, %xmm14, %xmm0
	vucomisd	%xmm0, %xmm2
	jp	.L23
.L8:
	vmovsd	32(%rax), %xmm14
	vmovsd	40(%rax), %xmm15
	vaddsd	%xmm2, %xmm10, %xmm10
	vsubsd	%xmm2, %xmm7, %xmm7
	vmovsd	-72(%rbp), %xmm2
	vaddsd	%xmm0, %xmm12, %xmm12
	vsubsd	%xmm0, %xmm6, %xmm6
	vmovsd	-80(%rbp), %xmm3
	vmulsd	%xmm2, %xmm14, %xmm0
	vmulsd	%xmm2, %xmm15, %xmm2
	vfmadd231sd	%xmm3, %xmm15, %xmm0
	vfmsub231sd	%xmm3, %xmm14, %xmm2
	vucomisd	%xmm0, %xmm2
	jp	.L24
.L9:
	vmovsd	-64(%rbp), %xmm1
	vmovsd	-56(%rbp), %xmm3
	vaddsd	%xmm2, %xmm11, %xmm11
	vaddsd	%xmm0, %xmm13, %xmm13
	vsubsd	%xmm2, %xmm8, %xmm8
	vsubsd	%xmm0, %xmm9, %xmm9
	vmulsd	%xmm3, %xmm15, %xmm2
	vmulsd	%xmm1, %xmm15, %xmm0
	vunpcklpd	%xmm13, %xmm11, %xmm11
	vunpcklpd	%xmm9, %xmm8, %xmm9
	vmovups	%xmm11, (%r12)
	vmovups	%xmm9, 96(%r12)
	vfmsub231sd	%xmm1, %xmm14, %xmm2
	vfmadd231sd	%xmm3, %xmm14, %xmm0
	vucomisd	%xmm0, %xmm2
	jp	.L25
.L10:
	vaddsd	%xmm2, %xmm10, %xmm10
	vaddsd	%xmm0, %xmm12, %xmm12
	addq	$16, %r12
	addq	$48, %rax
	vsubsd	%xmm2, %xmm7, %xmm7
	vsubsd	%xmm0, %xmm6, %xmm6
	vunpcklpd	%xmm12, %xmm10, %xmm10
	vunpcklpd	%xmm6, %xmm7, %xmm6
	vmovups	%xmm10, 32(%r12)
	vmovups	%xmm6, 128(%r12)
	cmpq	%r12, %rdi
	jne	.L11
	addq	$192, %rbx
	addq	$192, %rdx
	addq	$144, %rcx
	cmpq	%rbx, %r13
	jne	.L12
	call	_ZNSt6chrono3_V212system_clock3nowEv@PLT
	subq	-160(%rbp), %rax
	leaq	_ZSt4cout(%rip), %rdi
	movabsq	$2361183241434822607, %rdx
	movq	%rax, %rcx
	imulq	%rdx
	vxorps	%xmm0, %xmm0, %xmm0
	sarq	$63, %rcx
	sarq	$7, %rdx
	subq	%rcx, %rdx
	vcvtsi2sdq	%rdx, %xmm0, %xmm0
	vdivsd	.LC2(%rip), %xmm0, %xmm0
	call	_ZNSo9_M_insertIdEERSoT_@PLT
	movq	%rax, %rdi
	call	_ZSt4endlIcSt11char_traitsIcEERSt13basic_ostreamIT_T0_ES6_@PLT
	movq	%r14, %rdi
	call	_ZdaPv@PLT
	movq	-152(%rbp), %rdi
	call	_ZdaPv@PLT
	movq	%r15, %rdi
	call	_ZdaPv@PLT
	addq	$224, %rsp
	xorl	%eax, %eax
	popq	%rbx
	popq	%r10
	popq	%r12
	popq	%r13
	popq	%r14
	popq	%r15
	popq	%rbp
	.cfi_remember_state
	.cfi_def_cfa 7, 8
	ret
.L20:
	.cfi_restore_state
	vmovsd	-144(%rbp), %xmm2
	vmovapd	%xmm10, %xmm0
	vmovapd	%xmm1, %xmm3
	vmovapd	%xmm12, %xmm1
	movq	%rdi, -208(%rbp)
	movq	%rax, -200(%rbp)
	movq	%rdx, -192(%rbp)
	movq	%rcx, -184(%rbp)
	vmovsd	%xmm12, -176(%rbp)
	vmovsd	%xmm10, -168(%rbp)
	call	__muldc3@PLT
	movq	.LC1(%rip), %rax
	vmovq	.LC0(%rip), %xmm5
	movq	-208(%rbp), %rdi
	movq	-192(%rbp), %rdx
	vmovapd	%xmm0, %xmm8
	vmovapd	%xmm1, %xmm9
	vmovq	%rax, %xmm4
	movq	-184(%rbp), %rcx
	movq	-200(%rbp), %rax
	vmovsd	-176(%rbp), %xmm12
	vmovsd	-168(%rbp), %xmm10
	jmp	.L5
.L21:
	vmovsd	-128(%rbp), %xmm2
	vmovapd	%xmm1, %xmm3
	vmovapd	%xmm10, %xmm0
	vmovapd	%xmm12, %xmm1
	movq	%rdi, -224(%rbp)
	movq	%rax, -216(%rbp)
	movq	%rdx, -176(%rbp)
	movq	%rcx, -168(%rbp)
	vmovsd	%xmm13, -208(%rbp)
	vmovsd	%xmm9, -200(%rbp)
	vmovsd	%xmm8, -192(%rbp)
	vmovsd	%xmm11, -184(%rbp)
	call	__muldc3@PLT
	movq	.LC1(%rip), %rax
	vmovq	.LC0(%rip), %xmm5
	movq	-224(%rbp), %rdi
	vmovsd	-208(%rbp), %xmm13
	vmovapd	%xmm0, %xmm7
	vmovapd	%xmm1, %xmm6
	vmovq	%rax, %xmm4
	vmovsd	-200(%rbp), %xmm9
	movq	-216(%rbp), %rax
	vmovsd	-192(%rbp), %xmm8
	vmovsd	-184(%rbp), %xmm11
	movq	-176(%rbp), %rdx
	movq	-168(%rbp), %rcx
	jmp	.L6
.L22:
	vmovsd	-112(%rbp), %xmm0
	vmovsd	-104(%rbp), %xmm1
	vmovapd	%xmm14, %xmm2
	vmovapd	%xmm15, %xmm3
	movq	%rdi, -272(%rbp)
	movq	%rax, -264(%rbp)
	movq	%rdx, -192(%rbp)
	movq	%rcx, -184(%rbp)
	vmovsd	%xmm6, -256(%rbp)
	vmovsd	%xmm7, -248(%rbp)
	vmovsd	%xmm13, -240(%rbp)
	vmovsd	%xmm9, -232(%rbp)
	vmovsd	%xmm8, -224(%rbp)
	vmovsd	%xmm11, -216(%rbp)
	vmovsd	%xmm10, -208(%rbp)
	vmovsd	%xmm12, -200(%rbp)
	vmovsd	%xmm15, -176(%rbp)
	vmovsd	%xmm14, -168(%rbp)
	call	__muldc3@PLT
	movq	.LC1(%rip), %rax
	vmovq	.LC0(%rip), %xmm5
	vmovapd	%xmm0, %xmm2
	movq	-272(%rbp), %rdi
	vmovsd	-256(%rbp), %xmm6
	vmovapd	%xmm1, %xmm0
	vmovq	%rax, %xmm4
	vmovsd	-248(%rbp), %xmm7
	movq	-264(%rbp), %rax
	vmovsd	-240(%rbp), %xmm13
	vmovsd	-232(%rbp), %xmm9
	vmovsd	-224(%rbp), %xmm8
	vmovsd	-216(%rbp), %xmm11
	vmovsd	-208(%rbp), %xmm10
	vmovsd	-200(%rbp), %xmm12
	movq	-192(%rbp), %rdx
	movq	-184(%rbp), %rcx
	vmovsd	-176(%rbp), %xmm15
	vmovsd	-168(%rbp), %xmm14
	jmp	.L7
.L23:
	vmovsd	-96(%rbp), %xmm2
	vmovapd	%xmm14, %xmm0
	vmovapd	%xmm1, %xmm3
	vmovapd	%xmm15, %xmm1
	movq	%rdi, -256(%rbp)
	movq	%rax, -248(%rbp)
	movq	%rdx, -176(%rbp)
	movq	%rcx, -168(%rbp)
	vmovsd	%xmm9, -240(%rbp)
	vmovsd	%xmm8, -232(%rbp)
	vmovsd	%xmm13, -224(%rbp)
	vmovsd	%xmm11, -216(%rbp)
	vmovsd	%xmm6, -208(%rbp)
	vmovsd	%xmm7, -200(%rbp)
	vmovsd	%xmm10, -192(%rbp)
	vmovsd	%xmm12, -184(%rbp)
	call	__muldc3@PLT
	movq	.LC1(%rip), %rax
	vmovq	.LC0(%rip), %xmm5
	vmovapd	%xmm0, %xmm2
	movq	-256(%rbp), %rdi
	vmovsd	-240(%rbp), %xmm9
	vmovapd	%xmm1, %xmm0
	vmovq	%rax, %xmm4
	vmovsd	-232(%rbp), %xmm8
	movq	-248(%rbp), %rax
	vmovsd	-224(%rbp), %xmm13
	vmovsd	-216(%rbp), %xmm11
	vmovsd	-208(%rbp), %xmm6
	vmovsd	-200(%rbp), %xmm7
	vmovsd	-192(%rbp), %xmm10
	vmovsd	-184(%rbp), %xmm12
	movq	-176(%rbp), %rdx
	movq	-168(%rbp), %rcx
	jmp	.L8
.L24:
	vmovsd	-80(%rbp), %xmm0
	vmovsd	-72(%rbp), %xmm1
	vmovapd	%xmm14, %xmm2
	vmovapd	%xmm15, %xmm3
	movq	%rdi, -272(%rbp)
	movq	%rax, -264(%rbp)
	movq	%rdx, -192(%rbp)
	movq	%rcx, -184(%rbp)
	vmovsd	%xmm6, -256(%rbp)
	vmovsd	%xmm7, -248(%rbp)
	vmovsd	%xmm12, -240(%rbp)
	vmovsd	%xmm10, -232(%rbp)
	vmovsd	%xmm9, -224(%rbp)
	vmovsd	%xmm8, -216(%rbp)
	vmovsd	%xmm13, -208(%rbp)
	vmovsd	%xmm11, -200(%rbp)
	vmovsd	%xmm15, -176(%rbp)
	vmovsd	%xmm14, -168(%rbp)
	call	__muldc3@PLT
	movq	.LC1(%rip), %rax
	vmovq	.LC0(%rip), %xmm5
	vmovapd	%xmm0, %xmm2
	movq	-272(%rbp), %rdi
	vmovsd	-256(%rbp), %xmm6
	vmovapd	%xmm1, %xmm0
	vmovq	%rax, %xmm4
	vmovsd	-248(%rbp), %xmm7
	movq	-264(%rbp), %rax
	vmovsd	-240(%rbp), %xmm12
	vmovsd	-232(%rbp), %xmm10
	vmovsd	-224(%rbp), %xmm9
	vmovsd	-216(%rbp), %xmm8
	vmovsd	-208(%rbp), %xmm13
	vmovsd	-200(%rbp), %xmm11
	movq	-192(%rbp), %rdx
	movq	-184(%rbp), %rcx
	vmovsd	-176(%rbp), %xmm15
	vmovsd	-168(%rbp), %xmm14
	jmp	.L9
.L25:
	vmovapd	%xmm1, %xmm2
	vmovapd	%xmm14, %xmm0
	vmovapd	%xmm15, %xmm1
	movq	%rdi, -224(%rbp)
	movq	%rax, -216(%rbp)
	movq	%rdx, -176(%rbp)
	movq	%rcx, -168(%rbp)
	vmovsd	%xmm6, -208(%rbp)
	vmovsd	%xmm7, -200(%rbp)
	vmovsd	%xmm12, -192(%rbp)
	vmovsd	%xmm10, -184(%rbp)
	call	__muldc3@PLT
	movq	.LC1(%rip), %rax
	vmovq	.LC0(%rip), %xmm5
	vmovapd	%xmm0, %xmm2
	movq	-224(%rbp), %rdi
	vmovsd	-208(%rbp), %xmm6
	vmovapd	%xmm1, %xmm0
	vmovq	%rax, %xmm4
	vmovsd	-200(%rbp), %xmm7
	movq	-216(%rbp), %rax
	vmovsd	-192(%rbp), %xmm12
	vmovsd	-184(%rbp), %xmm10
	movq	-176(%rbp), %rdx
	movq	-168(%rbp), %rcx
	jmp	.L10
	.cfi_endproc
.LFE7913:
	.size	main, .-main
	.p2align 4
	.type	_GLOBAL__sub_I_main, @function
_GLOBAL__sub_I_main:
.LFB8437:
	.cfi_startproc
	endbr64
	subq	$8, %rsp
	.cfi_def_cfa_offset 16
	leaq	_ZStL8__ioinit(%rip), %rdi
	call	_ZNSt8ios_base4InitC1Ev@PLT
	movq	_ZNSt8ios_base4InitD1Ev@GOTPCREL(%rip), %rdi
	addq	$8, %rsp
	.cfi_def_cfa_offset 8
	leaq	__dso_handle(%rip), %rdx
	leaq	_ZStL8__ioinit(%rip), %rsi
	jmp	__cxa_atexit@PLT
	.cfi_endproc
.LFE8437:
	.size	_GLOBAL__sub_I_main, .-_GLOBAL__sub_I_main
	.section	.init_array,"aw"
	.align 8
	.quad	_GLOBAL__sub_I_main
	.local	_ZStL8__ioinit
	.comm	_ZStL8__ioinit,1,1
	.section	.rodata.cst16,"aM",@progbits,16
	.align 16
.LC0:
	.long	0
	.long	-2147483648
	.long	0
	.long	0
	.section	.rodata.cst8,"aM",@progbits,8
	.align 8
.LC1:
	.long	0
	.long	1071644672
	.align 8
.LC2:
	.long	0
	.long	1083129856
	.hidden	__dso_handle
	.ident	"GCC: (Ubuntu 9.3.0-17ubuntu1~20.04) 9.3.0"
	.section	.note.GNU-stack,"",@progbits
	.section	.note.gnu.property,"a"
	.align 8
	.long	 1f - 0f
	.long	 4f - 1f
	.long	 5
0:
	.string	 "GNU"
1:
	.align 8
	.long	 0xc0000002
	.long	 3f - 2f
2:
	.long	 0x3
3:
	.align 8
4:
