#include "namespace.h" #define vec256_mul_asm CRYPTO_NAMESPACE(vec256_mul_asm) #define _vec256_mul_asm _CRYPTO_NAMESPACE(vec256_mul_asm) # qhasm: int64 input_0 # qhasm: int64 input_1 # qhasm: int64 input_2 # qhasm: int64 input_3 # qhasm: int64 input_4 # qhasm: int64 input_5 # qhasm: stack64 input_6 # qhasm: stack64 input_7 # qhasm: int64 caller_r11 # qhasm: int64 caller_r12 # qhasm: int64 caller_r13 # qhasm: int64 caller_r14 # qhasm: int64 caller_r15 # qhasm: int64 caller_rbx # qhasm: int64 caller_rbp # qhasm: reg256 a0 # qhasm: reg256 a1 # qhasm: reg256 a2 # qhasm: reg256 a3 # qhasm: reg256 a4 # qhasm: reg256 a5 # qhasm: reg256 a6 # qhasm: reg256 a7 # qhasm: reg256 a8 # qhasm: reg256 a9 # qhasm: reg256 a10 # qhasm: reg256 a11 # qhasm: reg256 b0 # qhasm: reg256 b1 # qhasm: reg256 r0 # qhasm: reg256 r1 # qhasm: reg256 r2 # qhasm: reg256 r3 # qhasm: reg256 r4 # qhasm: reg256 r5 # qhasm: reg256 r6 # qhasm: reg256 r7 # qhasm: reg256 r8 # qhasm: reg256 r9 # qhasm: reg256 r10 # qhasm: reg256 r11 # qhasm: reg256 r12 # qhasm: reg256 r13 # qhasm: reg256 r14 # qhasm: reg256 r15 # qhasm: reg256 r16 # qhasm: reg256 r17 # qhasm: reg256 r18 # qhasm: reg256 r19 # qhasm: reg256 r20 # qhasm: reg256 r21 # qhasm: reg256 r22 # qhasm: reg256 r # qhasm: enter vec256_mul_asm .p2align 5 .global _vec256_mul_asm .global vec256_mul_asm _vec256_mul_asm: vec256_mul_asm: mov % rsp, % r11 and $31, % r11 add $0, % r11 sub % r11, % rsp # qhasm: b0 = mem256[ input_2 + 0 ] # asm 1: vmovupd 0(b0=reg256#1 # asm 2: vmovupd 0(b0=%ymm0 vmovupd 0( % rdx), % ymm0 # qhasm: a11 = mem256[ input_1 + 352 ] # asm 1: vmovupd 352(a11=reg256#2 # asm 2: vmovupd 352(a11=%ymm1 vmovupd 352( % rsi), % ymm1 # qhasm: r11 = a11 & b0 # asm 1: vpand r11=reg256#3 # asm 2: vpand r11=%ymm2 vpand % ymm1, % ymm0, % ymm2 # qhasm: r12 = a11 & mem256[input_2 + 32] # asm 1: vpand 32(r12=reg256#4 # asm 2: vpand 32(r12=%ymm3 vpand 32( % rdx), % ymm1, % ymm3 # qhasm: r13 = a11 & mem256[input_2 + 64] # asm 1: vpand 64(r13=reg256#5 # asm 2: vpand 64(r13=%ymm4 vpand 64( % rdx), % ymm1, % ymm4 # qhasm: r14 = a11 & mem256[input_2 + 96] # asm 1: vpand 96(r14=reg256#6 # asm 2: vpand 96(r14=%ymm5 vpand 96( % rdx), % ymm1, % ymm5 # qhasm: r15 = a11 & mem256[input_2 + 128] # asm 1: vpand 128(r15=reg256#7 # asm 2: vpand 128(r15=%ymm6 vpand 128( % rdx), % ymm1, % ymm6 # qhasm: r16 = a11 & mem256[input_2 + 160] # asm 1: vpand 160(r16=reg256#8 # asm 2: vpand 160(r16=%ymm7 vpand 160( % rdx), % ymm1, % ymm7 # qhasm: r17 = a11 & mem256[input_2 + 192] # asm 1: vpand 192(r17=reg256#9 # asm 2: vpand 192(r17=%ymm8 vpand 192( % rdx), % ymm1, % ymm8 # qhasm: r18 = a11 & mem256[input_2 + 224] # asm 1: vpand 224(r18=reg256#10 # asm 2: vpand 224(r18=%ymm9 vpand 224( % rdx), % ymm1, % ymm9 # qhasm: r19 = a11 & mem256[input_2 + 256] # asm 1: vpand 256(r19=reg256#11 # asm 2: vpand 256(r19=%ymm10 vpand 256( % rdx), % ymm1, % ymm10 # qhasm: r20 = a11 & mem256[input_2 + 288] # asm 1: vpand 288(r20=reg256#12 # asm 2: vpand 288(r20=%ymm11 vpand 288( % rdx), % ymm1, % ymm11 # qhasm: r21 = a11 & mem256[input_2 + 320] # asm 1: vpand 320(r21=reg256#13 # asm 2: vpand 320(r21=%ymm12 vpand 320( % rdx), % ymm1, % ymm12 # qhasm: r22 = a11 & mem256[input_2 + 352] # asm 1: vpand 352(r22=reg256#2 # asm 2: vpand 352(r22=%ymm1 vpand 352( % rdx), % ymm1, % ymm1 # qhasm: r13 ^= r22 # asm 1: vpxor r10=reg256#2 # asm 2: vmovapd r10=%ymm1 vmovapd % ymm1, % ymm1 # qhasm: a10 = mem256[ input_1 + 320 ] # asm 1: vmovupd 320(a10=reg256#14 # asm 2: vmovupd 320(a10=%ymm13 vmovupd 320( % rsi), % ymm13 # qhasm: r = a10 & b0 # asm 1: vpand r=reg256#15 # asm 2: vpand r=%ymm14 vpand % ymm13, % ymm0, % ymm14 # qhasm: r10 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 32(r=%ymm14 vpand 32( % rdx), % ymm13, % ymm14 # qhasm: r11 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 64(r=%ymm14 vpand 64( % rdx), % ymm13, % ymm14 # qhasm: r12 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 96(r=%ymm14 vpand 96( % rdx), % ymm13, % ymm14 # qhasm: r13 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 128(r=%ymm14 vpand 128( % rdx), % ymm13, % ymm14 # qhasm: r14 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 160(r=%ymm14 vpand 160( % rdx), % ymm13, % ymm14 # qhasm: r15 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 192(r=%ymm14 vpand 192( % rdx), % ymm13, % ymm14 # qhasm: r16 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 224(r=%ymm14 vpand 224( % rdx), % ymm13, % ymm14 # qhasm: r17 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 256(r=%ymm14 vpand 256( % rdx), % ymm13, % ymm14 # qhasm: r18 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 288(r=%ymm14 vpand 288( % rdx), % ymm13, % ymm14 # qhasm: r19 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 320(r=%ymm14 vpand 320( % rdx), % ymm13, % ymm14 # qhasm: r20 ^= r # asm 1: vpxor r=reg256#14 # asm 2: vpand 352(r=%ymm13 vpand 352( % rdx), % ymm13, % ymm13 # qhasm: r21 ^= r # asm 1: vpxor r9=reg256#13 # asm 2: vmovapd r9=%ymm12 vmovapd % ymm12, % ymm12 # qhasm: a9 = mem256[ input_1 + 288 ] # asm 1: vmovupd 288(a9=reg256#14 # asm 2: vmovupd 288(a9=%ymm13 vmovupd 288( % rsi), % ymm13 # qhasm: r = a9 & b0 # asm 1: vpand r=reg256#15 # asm 2: vpand r=%ymm14 vpand % ymm13, % ymm0, % ymm14 # qhasm: r9 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 32(r=%ymm14 vpand 32( % rdx), % ymm13, % ymm14 # qhasm: r10 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 64(r=%ymm14 vpand 64( % rdx), % ymm13, % ymm14 # qhasm: r11 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 96(r=%ymm14 vpand 96( % rdx), % ymm13, % ymm14 # qhasm: r12 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 128(r=%ymm14 vpand 128( % rdx), % ymm13, % ymm14 # qhasm: r13 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 160(r=%ymm14 vpand 160( % rdx), % ymm13, % ymm14 # qhasm: r14 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 192(r=%ymm14 vpand 192( % rdx), % ymm13, % ymm14 # qhasm: r15 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 224(r=%ymm14 vpand 224( % rdx), % ymm13, % ymm14 # qhasm: r16 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 256(r=%ymm14 vpand 256( % rdx), % ymm13, % ymm14 # qhasm: r17 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 288(r=%ymm14 vpand 288( % rdx), % ymm13, % ymm14 # qhasm: r18 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 320(r=%ymm14 vpand 320( % rdx), % ymm13, % ymm14 # qhasm: r19 ^= r # asm 1: vpxor r=reg256#14 # asm 2: vpand 352(r=%ymm13 vpand 352( % rdx), % ymm13, % ymm13 # qhasm: r20 ^= r # asm 1: vpxor r8=reg256#12 # asm 2: vmovapd r8=%ymm11 vmovapd % ymm11, % ymm11 # qhasm: a8 = mem256[ input_1 + 256 ] # asm 1: vmovupd 256(a8=reg256#14 # asm 2: vmovupd 256(a8=%ymm13 vmovupd 256( % rsi), % ymm13 # qhasm: r = a8 & b0 # asm 1: vpand r=reg256#15 # asm 2: vpand r=%ymm14 vpand % ymm13, % ymm0, % ymm14 # qhasm: r8 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 32(r=%ymm14 vpand 32( % rdx), % ymm13, % ymm14 # qhasm: r9 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 64(r=%ymm14 vpand 64( % rdx), % ymm13, % ymm14 # qhasm: r10 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 96(r=%ymm14 vpand 96( % rdx), % ymm13, % ymm14 # qhasm: r11 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 128(r=%ymm14 vpand 128( % rdx), % ymm13, % ymm14 # qhasm: r12 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 160(r=%ymm14 vpand 160( % rdx), % ymm13, % ymm14 # qhasm: r13 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 192(r=%ymm14 vpand 192( % rdx), % ymm13, % ymm14 # qhasm: r14 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 224(r=%ymm14 vpand 224( % rdx), % ymm13, % ymm14 # qhasm: r15 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 256(r=%ymm14 vpand 256( % rdx), % ymm13, % ymm14 # qhasm: r16 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 288(r=%ymm14 vpand 288( % rdx), % ymm13, % ymm14 # qhasm: r17 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 320(r=%ymm14 vpand 320( % rdx), % ymm13, % ymm14 # qhasm: r18 ^= r # asm 1: vpxor r=reg256#14 # asm 2: vpand 352(r=%ymm13 vpand 352( % rdx), % ymm13, % ymm13 # qhasm: r19 ^= r # asm 1: vpxor r7=reg256#11 # asm 2: vmovapd r7=%ymm10 vmovapd % ymm10, % ymm10 # qhasm: a7 = mem256[ input_1 + 224 ] # asm 1: vmovupd 224(a7=reg256#14 # asm 2: vmovupd 224(a7=%ymm13 vmovupd 224( % rsi), % ymm13 # qhasm: r = a7 & b0 # asm 1: vpand r=reg256#15 # asm 2: vpand r=%ymm14 vpand % ymm13, % ymm0, % ymm14 # qhasm: r7 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 32(r=%ymm14 vpand 32( % rdx), % ymm13, % ymm14 # qhasm: r8 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 64(r=%ymm14 vpand 64( % rdx), % ymm13, % ymm14 # qhasm: r9 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 96(r=%ymm14 vpand 96( % rdx), % ymm13, % ymm14 # qhasm: r10 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 128(r=%ymm14 vpand 128( % rdx), % ymm13, % ymm14 # qhasm: r11 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 160(r=%ymm14 vpand 160( % rdx), % ymm13, % ymm14 # qhasm: r12 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 192(r=%ymm14 vpand 192( % rdx), % ymm13, % ymm14 # qhasm: r13 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 224(r=%ymm14 vpand 224( % rdx), % ymm13, % ymm14 # qhasm: r14 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 256(r=%ymm14 vpand 256( % rdx), % ymm13, % ymm14 # qhasm: r15 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 288(r=%ymm14 vpand 288( % rdx), % ymm13, % ymm14 # qhasm: r16 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 320(r=%ymm14 vpand 320( % rdx), % ymm13, % ymm14 # qhasm: r17 ^= r # asm 1: vpxor r=reg256#14 # asm 2: vpand 352(r=%ymm13 vpand 352( % rdx), % ymm13, % ymm13 # qhasm: r18 ^= r # asm 1: vpxor r6=reg256#10 # asm 2: vmovapd r6=%ymm9 vmovapd % ymm9, % ymm9 # qhasm: a6 = mem256[ input_1 + 192 ] # asm 1: vmovupd 192(a6=reg256#14 # asm 2: vmovupd 192(a6=%ymm13 vmovupd 192( % rsi), % ymm13 # qhasm: r = a6 & b0 # asm 1: vpand r=reg256#15 # asm 2: vpand r=%ymm14 vpand % ymm13, % ymm0, % ymm14 # qhasm: r6 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 32(r=%ymm14 vpand 32( % rdx), % ymm13, % ymm14 # qhasm: r7 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 64(r=%ymm14 vpand 64( % rdx), % ymm13, % ymm14 # qhasm: r8 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 96(r=%ymm14 vpand 96( % rdx), % ymm13, % ymm14 # qhasm: r9 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 128(r=%ymm14 vpand 128( % rdx), % ymm13, % ymm14 # qhasm: r10 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 160(r=%ymm14 vpand 160( % rdx), % ymm13, % ymm14 # qhasm: r11 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 192(r=%ymm14 vpand 192( % rdx), % ymm13, % ymm14 # qhasm: r12 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 224(r=%ymm14 vpand 224( % rdx), % ymm13, % ymm14 # qhasm: r13 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 256(r=%ymm14 vpand 256( % rdx), % ymm13, % ymm14 # qhasm: r14 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 288(r=%ymm14 vpand 288( % rdx), % ymm13, % ymm14 # qhasm: r15 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 320(r=%ymm14 vpand 320( % rdx), % ymm13, % ymm14 # qhasm: r16 ^= r # asm 1: vpxor r=reg256#14 # asm 2: vpand 352(r=%ymm13 vpand 352( % rdx), % ymm13, % ymm13 # qhasm: r17 ^= r # asm 1: vpxor r5=reg256#9 # asm 2: vmovapd r5=%ymm8 vmovapd % ymm8, % ymm8 # qhasm: a5 = mem256[ input_1 + 160 ] # asm 1: vmovupd 160(a5=reg256#14 # asm 2: vmovupd 160(a5=%ymm13 vmovupd 160( % rsi), % ymm13 # qhasm: r = a5 & b0 # asm 1: vpand r=reg256#15 # asm 2: vpand r=%ymm14 vpand % ymm13, % ymm0, % ymm14 # qhasm: r5 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 32(r=%ymm14 vpand 32( % rdx), % ymm13, % ymm14 # qhasm: r6 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 64(r=%ymm14 vpand 64( % rdx), % ymm13, % ymm14 # qhasm: r7 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 96(r=%ymm14 vpand 96( % rdx), % ymm13, % ymm14 # qhasm: r8 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 128(r=%ymm14 vpand 128( % rdx), % ymm13, % ymm14 # qhasm: r9 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 160(r=%ymm14 vpand 160( % rdx), % ymm13, % ymm14 # qhasm: r10 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 192(r=%ymm14 vpand 192( % rdx), % ymm13, % ymm14 # qhasm: r11 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 224(r=%ymm14 vpand 224( % rdx), % ymm13, % ymm14 # qhasm: r12 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 256(r=%ymm14 vpand 256( % rdx), % ymm13, % ymm14 # qhasm: r13 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 288(r=%ymm14 vpand 288( % rdx), % ymm13, % ymm14 # qhasm: r14 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 320(r=%ymm14 vpand 320( % rdx), % ymm13, % ymm14 # qhasm: r15 ^= r # asm 1: vpxor r=reg256#14 # asm 2: vpand 352(r=%ymm13 vpand 352( % rdx), % ymm13, % ymm13 # qhasm: r16 ^= r # asm 1: vpxor r4=reg256#8 # asm 2: vmovapd r4=%ymm7 vmovapd % ymm7, % ymm7 # qhasm: a4 = mem256[ input_1 + 128 ] # asm 1: vmovupd 128(a4=reg256#14 # asm 2: vmovupd 128(a4=%ymm13 vmovupd 128( % rsi), % ymm13 # qhasm: r = a4 & b0 # asm 1: vpand r=reg256#15 # asm 2: vpand r=%ymm14 vpand % ymm13, % ymm0, % ymm14 # qhasm: r4 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 32(r=%ymm14 vpand 32( % rdx), % ymm13, % ymm14 # qhasm: r5 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 64(r=%ymm14 vpand 64( % rdx), % ymm13, % ymm14 # qhasm: r6 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 96(r=%ymm14 vpand 96( % rdx), % ymm13, % ymm14 # qhasm: r7 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 128(r=%ymm14 vpand 128( % rdx), % ymm13, % ymm14 # qhasm: r8 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 160(r=%ymm14 vpand 160( % rdx), % ymm13, % ymm14 # qhasm: r9 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 192(r=%ymm14 vpand 192( % rdx), % ymm13, % ymm14 # qhasm: r10 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 224(r=%ymm14 vpand 224( % rdx), % ymm13, % ymm14 # qhasm: r11 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 256(r=%ymm14 vpand 256( % rdx), % ymm13, % ymm14 # qhasm: r12 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 288(r=%ymm14 vpand 288( % rdx), % ymm13, % ymm14 # qhasm: r13 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 320(r=%ymm14 vpand 320( % rdx), % ymm13, % ymm14 # qhasm: r14 ^= r # asm 1: vpxor r=reg256#14 # asm 2: vpand 352(r=%ymm13 vpand 352( % rdx), % ymm13, % ymm13 # qhasm: r15 ^= r # asm 1: vpxor r3=reg256#7 # asm 2: vmovapd r3=%ymm6 vmovapd % ymm6, % ymm6 # qhasm: a3 = mem256[ input_1 + 96 ] # asm 1: vmovupd 96(a3=reg256#14 # asm 2: vmovupd 96(a3=%ymm13 vmovupd 96( % rsi), % ymm13 # qhasm: r = a3 & b0 # asm 1: vpand r=reg256#15 # asm 2: vpand r=%ymm14 vpand % ymm13, % ymm0, % ymm14 # qhasm: r3 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 32(r=%ymm14 vpand 32( % rdx), % ymm13, % ymm14 # qhasm: r4 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 64(r=%ymm14 vpand 64( % rdx), % ymm13, % ymm14 # qhasm: r5 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 96(r=%ymm14 vpand 96( % rdx), % ymm13, % ymm14 # qhasm: r6 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 128(r=%ymm14 vpand 128( % rdx), % ymm13, % ymm14 # qhasm: r7 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 160(r=%ymm14 vpand 160( % rdx), % ymm13, % ymm14 # qhasm: r8 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 192(r=%ymm14 vpand 192( % rdx), % ymm13, % ymm14 # qhasm: r9 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 224(r=%ymm14 vpand 224( % rdx), % ymm13, % ymm14 # qhasm: r10 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 256(r=%ymm14 vpand 256( % rdx), % ymm13, % ymm14 # qhasm: r11 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 288(r=%ymm14 vpand 288( % rdx), % ymm13, % ymm14 # qhasm: r12 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 320(r=%ymm14 vpand 320( % rdx), % ymm13, % ymm14 # qhasm: r13 ^= r # asm 1: vpxor r=reg256#14 # asm 2: vpand 352(r=%ymm13 vpand 352( % rdx), % ymm13, % ymm13 # qhasm: r14 ^= r # asm 1: vpxor r2=reg256#6 # asm 2: vmovapd r2=%ymm5 vmovapd % ymm5, % ymm5 # qhasm: a2 = mem256[ input_1 + 64 ] # asm 1: vmovupd 64(a2=reg256#14 # asm 2: vmovupd 64(a2=%ymm13 vmovupd 64( % rsi), % ymm13 # qhasm: r = a2 & b0 # asm 1: vpand r=reg256#15 # asm 2: vpand r=%ymm14 vpand % ymm13, % ymm0, % ymm14 # qhasm: r2 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 32(r=%ymm14 vpand 32( % rdx), % ymm13, % ymm14 # qhasm: r3 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 64(r=%ymm14 vpand 64( % rdx), % ymm13, % ymm14 # qhasm: r4 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 96(r=%ymm14 vpand 96( % rdx), % ymm13, % ymm14 # qhasm: r5 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 128(r=%ymm14 vpand 128( % rdx), % ymm13, % ymm14 # qhasm: r6 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 160(r=%ymm14 vpand 160( % rdx), % ymm13, % ymm14 # qhasm: r7 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 192(r=%ymm14 vpand 192( % rdx), % ymm13, % ymm14 # qhasm: r8 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 224(r=%ymm14 vpand 224( % rdx), % ymm13, % ymm14 # qhasm: r9 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 256(r=%ymm14 vpand 256( % rdx), % ymm13, % ymm14 # qhasm: r10 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 288(r=%ymm14 vpand 288( % rdx), % ymm13, % ymm14 # qhasm: r11 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 320(r=%ymm14 vpand 320( % rdx), % ymm13, % ymm14 # qhasm: r12 ^= r # asm 1: vpxor r=reg256#14 # asm 2: vpand 352(r=%ymm13 vpand 352( % rdx), % ymm13, % ymm13 # qhasm: r13 ^= r # asm 1: vpxor r1=reg256#5 # asm 2: vmovapd r1=%ymm4 vmovapd % ymm4, % ymm4 # qhasm: a1 = mem256[ input_1 + 32 ] # asm 1: vmovupd 32(a1=reg256#14 # asm 2: vmovupd 32(a1=%ymm13 vmovupd 32( % rsi), % ymm13 # qhasm: r = a1 & b0 # asm 1: vpand r=reg256#15 # asm 2: vpand r=%ymm14 vpand % ymm13, % ymm0, % ymm14 # qhasm: r1 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 32(r=%ymm14 vpand 32( % rdx), % ymm13, % ymm14 # qhasm: r2 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 64(r=%ymm14 vpand 64( % rdx), % ymm13, % ymm14 # qhasm: r3 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 96(r=%ymm14 vpand 96( % rdx), % ymm13, % ymm14 # qhasm: r4 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 128(r=%ymm14 vpand 128( % rdx), % ymm13, % ymm14 # qhasm: r5 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 160(r=%ymm14 vpand 160( % rdx), % ymm13, % ymm14 # qhasm: r6 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 192(r=%ymm14 vpand 192( % rdx), % ymm13, % ymm14 # qhasm: r7 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 224(r=%ymm14 vpand 224( % rdx), % ymm13, % ymm14 # qhasm: r8 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 256(r=%ymm14 vpand 256( % rdx), % ymm13, % ymm14 # qhasm: r9 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 288(r=%ymm14 vpand 288( % rdx), % ymm13, % ymm14 # qhasm: r10 ^= r # asm 1: vpxor r=reg256#15 # asm 2: vpand 320(r=%ymm14 vpand 320( % rdx), % ymm13, % ymm14 # qhasm: r11 ^= r # asm 1: vpxor r=reg256#14 # asm 2: vpand 352(r=%ymm13 vpand 352( % rdx), % ymm13, % ymm13 # qhasm: r12 ^= r # asm 1: vpxor r0=reg256#4 # asm 2: vmovapd r0=%ymm3 vmovapd % ymm3, % ymm3 # qhasm: a0 = mem256[ input_1 + 0 ] # asm 1: vmovupd 0(a0=reg256#14 # asm 2: vmovupd 0(a0=%ymm13 vmovupd 0( % rsi), % ymm13 # qhasm: r = a0 & b0 # asm 1: vpand r=reg256#1 # asm 2: vpand r=%ymm0 vpand % ymm13, % ymm0, % ymm0 # qhasm: r0 ^= r # asm 1: vpxor r=reg256#1 # asm 2: vpand 32(r=%ymm0 vpand 32( % rdx), % ymm13, % ymm0 # qhasm: r1 ^= r # asm 1: vpxor r=reg256#1 # asm 2: vpand 64(r=%ymm0 vpand 64( % rdx), % ymm13, % ymm0 # qhasm: r2 ^= r # asm 1: vpxor r=reg256#1 # asm 2: vpand 96(r=%ymm0 vpand 96( % rdx), % ymm13, % ymm0 # qhasm: r3 ^= r # asm 1: vpxor r=reg256#1 # asm 2: vpand 128(r=%ymm0 vpand 128( % rdx), % ymm13, % ymm0 # qhasm: r4 ^= r # asm 1: vpxor r=reg256#1 # asm 2: vpand 160(r=%ymm0 vpand 160( % rdx), % ymm13, % ymm0 # qhasm: r5 ^= r # asm 1: vpxor r=reg256#1 # asm 2: vpand 192(r=%ymm0 vpand 192( % rdx), % ymm13, % ymm0 # qhasm: r6 ^= r # asm 1: vpxor r=reg256#1 # asm 2: vpand 224(r=%ymm0 vpand 224( % rdx), % ymm13, % ymm0 # qhasm: r7 ^= r # asm 1: vpxor r=reg256#1 # asm 2: vpand 256(r=%ymm0 vpand 256( % rdx), % ymm13, % ymm0 # qhasm: r8 ^= r # asm 1: vpxor r=reg256#1 # asm 2: vpand 288(r=%ymm0 vpand 288( % rdx), % ymm13, % ymm0 # qhasm: r9 ^= r # asm 1: vpxor r=reg256#1 # asm 2: vpand 320(r=%ymm0 vpand 320( % rdx), % ymm13, % ymm0 # qhasm: r10 ^= r # asm 1: vpxor r=reg256#1 # asm 2: vpand 352(r=%ymm0 vpand 352( % rdx), % ymm13, % ymm0 # qhasm: r11 ^= r # asm 1: vpxor