diff options
Diffstat (limited to 'llvm/test/CodeGen/X86/vector-tzcnt-128.ll')
-rw-r--r-- | llvm/test/CodeGen/X86/vector-tzcnt-128.ll | 258 |
1 files changed, 129 insertions, 129 deletions
diff --git a/llvm/test/CodeGen/X86/vector-tzcnt-128.ll b/llvm/test/CodeGen/X86/vector-tzcnt-128.ll index 8a3f9621b33..15ff8f78d32 100644 --- a/llvm/test/CodeGen/X86/vector-tzcnt-128.ll +++ b/llvm/test/CodeGen/X86/vector-tzcnt-128.ll @@ -16,7 +16,7 @@ define <2 x i64> @testv2i64(<2 x i64> %in) nounwind { ; SSE2-LABEL: testv2i64: -; SSE2: # BB#0: +; SSE2: # %bb.0: ; SSE2-NEXT: pxor %xmm1, %xmm1 ; SSE2-NEXT: pxor %xmm2, %xmm2 ; SSE2-NEXT: psubq %xmm0, %xmm2 @@ -41,7 +41,7 @@ define <2 x i64> @testv2i64(<2 x i64> %in) nounwind { ; SSE2-NEXT: retq ; ; SSE3-LABEL: testv2i64: -; SSE3: # BB#0: +; SSE3: # %bb.0: ; SSE3-NEXT: pxor %xmm1, %xmm1 ; SSE3-NEXT: pxor %xmm2, %xmm2 ; SSE3-NEXT: psubq %xmm0, %xmm2 @@ -66,7 +66,7 @@ define <2 x i64> @testv2i64(<2 x i64> %in) nounwind { ; SSE3-NEXT: retq ; ; SSSE3-LABEL: testv2i64: -; SSSE3: # BB#0: +; SSSE3: # %bb.0: ; SSSE3-NEXT: pxor %xmm1, %xmm1 ; SSSE3-NEXT: pxor %xmm2, %xmm2 ; SSSE3-NEXT: psubq %xmm0, %xmm2 @@ -87,7 +87,7 @@ define <2 x i64> @testv2i64(<2 x i64> %in) nounwind { ; SSSE3-NEXT: retq ; ; SSE41-LABEL: testv2i64: -; SSE41: # BB#0: +; SSE41: # %bb.0: ; SSE41-NEXT: pxor %xmm1, %xmm1 ; SSE41-NEXT: pxor %xmm2, %xmm2 ; SSE41-NEXT: psubq %xmm0, %xmm2 @@ -108,7 +108,7 @@ define <2 x i64> @testv2i64(<2 x i64> %in) nounwind { ; SSE41-NEXT: retq ; ; AVX-LABEL: testv2i64: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX-NEXT: vpsubq %xmm0, %xmm1, %xmm2 ; AVX-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -126,7 +126,7 @@ define <2 x i64> @testv2i64(<2 x i64> %in) nounwind { ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: testv2i64: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpsubq %xmm0, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -138,7 +138,7 @@ define <2 x i64> @testv2i64(<2 x i64> %in) nounwind { ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: testv2i64: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG_NOVLX-NEXT: vpsubq %xmm0, %xmm1, %xmm2 ; BITALG_NOVLX-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -156,7 +156,7 @@ define <2 x i64> @testv2i64(<2 x i64> %in) nounwind { ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: testv2i64: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG-NEXT: vpsubq %xmm0, %xmm1, %xmm2 ; BITALG-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -174,7 +174,7 @@ define <2 x i64> @testv2i64(<2 x i64> %in) nounwind { ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: testv2i64: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: pxor %xmm1, %xmm1 ; X32-SSE-NEXT: pxor %xmm2, %xmm2 ; X32-SSE-NEXT: psubq %xmm0, %xmm2 @@ -198,7 +198,7 @@ define <2 x i64> @testv2i64(<2 x i64> %in) nounwind { define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { ; SSE2-LABEL: testv2i64u: -; SSE2: # BB#0: +; SSE2: # %bb.0: ; SSE2-NEXT: pxor %xmm1, %xmm1 ; SSE2-NEXT: pxor %xmm2, %xmm2 ; SSE2-NEXT: psubq %xmm0, %xmm2 @@ -223,7 +223,7 @@ define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { ; SSE2-NEXT: retq ; ; SSE3-LABEL: testv2i64u: -; SSE3: # BB#0: +; SSE3: # %bb.0: ; SSE3-NEXT: pxor %xmm1, %xmm1 ; SSE3-NEXT: pxor %xmm2, %xmm2 ; SSE3-NEXT: psubq %xmm0, %xmm2 @@ -248,7 +248,7 @@ define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { ; SSE3-NEXT: retq ; ; SSSE3-LABEL: testv2i64u: -; SSSE3: # BB#0: +; SSSE3: # %bb.0: ; SSSE3-NEXT: pxor %xmm1, %xmm1 ; SSSE3-NEXT: pxor %xmm2, %xmm2 ; SSSE3-NEXT: psubq %xmm0, %xmm2 @@ -269,7 +269,7 @@ define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { ; SSSE3-NEXT: retq ; ; SSE41-LABEL: testv2i64u: -; SSE41: # BB#0: +; SSE41: # %bb.0: ; SSE41-NEXT: pxor %xmm1, %xmm1 ; SSE41-NEXT: pxor %xmm2, %xmm2 ; SSE41-NEXT: psubq %xmm0, %xmm2 @@ -290,7 +290,7 @@ define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { ; SSE41-NEXT: retq ; ; AVX1-LABEL: testv2i64u: -; AVX1: # BB#0: +; AVX1: # %bb.0: ; AVX1-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX1-NEXT: vpsubq %xmm0, %xmm1, %xmm2 ; AVX1-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -308,7 +308,7 @@ define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { ; AVX1-NEXT: retq ; ; AVX2-LABEL: testv2i64u: -; AVX2: # BB#0: +; AVX2: # %bb.0: ; AVX2-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX2-NEXT: vpsubq %xmm0, %xmm1, %xmm2 ; AVX2-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -326,7 +326,7 @@ define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { ; AVX2-NEXT: retq ; ; AVX512CDVL-LABEL: testv2i64u: -; AVX512CDVL: # BB#0: +; AVX512CDVL: # %bb.0: ; AVX512CDVL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512CDVL-NEXT: vpsubq %xmm0, %xmm1, %xmm1 ; AVX512CDVL-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -336,7 +336,7 @@ define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { ; AVX512CDVL-NEXT: retq ; ; AVX512CD-LABEL: testv2i64u: -; AVX512CD: # BB#0: +; AVX512CD: # %bb.0: ; AVX512CD-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512CD-NEXT: vpsubq %xmm0, %xmm1, %xmm1 ; AVX512CD-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -347,7 +347,7 @@ define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { ; AVX512CD-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: testv2i64u: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpsubq %xmm0, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -359,7 +359,7 @@ define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: testv2i64u: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG_NOVLX-NEXT: vpsubq %xmm0, %xmm1, %xmm2 ; BITALG_NOVLX-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -377,7 +377,7 @@ define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: testv2i64u: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG-NEXT: vpsubq %xmm0, %xmm1, %xmm2 ; BITALG-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -395,7 +395,7 @@ define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: testv2i64u: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: pxor %xmm1, %xmm1 ; X32-SSE-NEXT: pxor %xmm2, %xmm2 ; X32-SSE-NEXT: psubq %xmm0, %xmm2 @@ -419,7 +419,7 @@ define <2 x i64> @testv2i64u(<2 x i64> %in) nounwind { define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { ; SSE2-LABEL: testv4i32: -; SSE2: # BB#0: +; SSE2: # %bb.0: ; SSE2-NEXT: pxor %xmm1, %xmm1 ; SSE2-NEXT: pxor %xmm2, %xmm2 ; SSE2-NEXT: psubd %xmm0, %xmm2 @@ -449,7 +449,7 @@ define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { ; SSE2-NEXT: retq ; ; SSE3-LABEL: testv4i32: -; SSE3: # BB#0: +; SSE3: # %bb.0: ; SSE3-NEXT: pxor %xmm1, %xmm1 ; SSE3-NEXT: pxor %xmm2, %xmm2 ; SSE3-NEXT: psubd %xmm0, %xmm2 @@ -479,7 +479,7 @@ define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { ; SSE3-NEXT: retq ; ; SSSE3-LABEL: testv4i32: -; SSSE3: # BB#0: +; SSSE3: # %bb.0: ; SSSE3-NEXT: pxor %xmm1, %xmm1 ; SSSE3-NEXT: pxor %xmm2, %xmm2 ; SSSE3-NEXT: psubd %xmm0, %xmm2 @@ -505,7 +505,7 @@ define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { ; SSSE3-NEXT: retq ; ; SSE41-LABEL: testv4i32: -; SSE41: # BB#0: +; SSE41: # %bb.0: ; SSE41-NEXT: pxor %xmm1, %xmm1 ; SSE41-NEXT: pxor %xmm2, %xmm2 ; SSE41-NEXT: psubd %xmm0, %xmm2 @@ -530,7 +530,7 @@ define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { ; SSE41-NEXT: retq ; ; AVX1-LABEL: testv4i32: -; AVX1: # BB#0: +; AVX1: # %bb.0: ; AVX1-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX1-NEXT: vpsubd %xmm0, %xmm1, %xmm2 ; AVX1-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -552,7 +552,7 @@ define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { ; AVX1-NEXT: retq ; ; AVX2-LABEL: testv4i32: -; AVX2: # BB#0: +; AVX2: # %bb.0: ; AVX2-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX2-NEXT: vpsubd %xmm0, %xmm1, %xmm2 ; AVX2-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -574,7 +574,7 @@ define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { ; AVX2-NEXT: retq ; ; AVX512CDVL-LABEL: testv4i32: -; AVX512CDVL: # BB#0: +; AVX512CDVL: # %bb.0: ; AVX512CDVL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512CDVL-NEXT: vpsubd %xmm0, %xmm1, %xmm2 ; AVX512CDVL-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -596,7 +596,7 @@ define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { ; AVX512CDVL-NEXT: retq ; ; AVX512CD-LABEL: testv4i32: -; AVX512CD: # BB#0: +; AVX512CD: # %bb.0: ; AVX512CD-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512CD-NEXT: vpsubd %xmm0, %xmm1, %xmm2 ; AVX512CD-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -618,7 +618,7 @@ define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { ; AVX512CD-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: testv4i32: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpsubd %xmm0, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -630,7 +630,7 @@ define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: testv4i32: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG_NOVLX-NEXT: vpsubd %xmm0, %xmm1, %xmm2 ; BITALG_NOVLX-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -652,7 +652,7 @@ define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: testv4i32: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG-NEXT: vpsubd %xmm0, %xmm1, %xmm2 ; BITALG-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -674,7 +674,7 @@ define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: testv4i32: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: pxor %xmm1, %xmm1 ; X32-SSE-NEXT: pxor %xmm2, %xmm2 ; X32-SSE-NEXT: psubd %xmm0, %xmm2 @@ -703,7 +703,7 @@ define <4 x i32> @testv4i32(<4 x i32> %in) nounwind { define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { ; SSE2-LABEL: testv4i32u: -; SSE2: # BB#0: +; SSE2: # %bb.0: ; SSE2-NEXT: pxor %xmm1, %xmm1 ; SSE2-NEXT: pxor %xmm2, %xmm2 ; SSE2-NEXT: psubd %xmm0, %xmm2 @@ -733,7 +733,7 @@ define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { ; SSE2-NEXT: retq ; ; SSE3-LABEL: testv4i32u: -; SSE3: # BB#0: +; SSE3: # %bb.0: ; SSE3-NEXT: pxor %xmm1, %xmm1 ; SSE3-NEXT: pxor %xmm2, %xmm2 ; SSE3-NEXT: psubd %xmm0, %xmm2 @@ -763,7 +763,7 @@ define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { ; SSE3-NEXT: retq ; ; SSSE3-LABEL: testv4i32u: -; SSSE3: # BB#0: +; SSSE3: # %bb.0: ; SSSE3-NEXT: pxor %xmm1, %xmm1 ; SSSE3-NEXT: pxor %xmm2, %xmm2 ; SSSE3-NEXT: psubd %xmm0, %xmm2 @@ -789,7 +789,7 @@ define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { ; SSSE3-NEXT: retq ; ; SSE41-LABEL: testv4i32u: -; SSE41: # BB#0: +; SSE41: # %bb.0: ; SSE41-NEXT: pxor %xmm1, %xmm1 ; SSE41-NEXT: pxor %xmm2, %xmm2 ; SSE41-NEXT: psubd %xmm0, %xmm2 @@ -814,7 +814,7 @@ define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { ; SSE41-NEXT: retq ; ; AVX1-LABEL: testv4i32u: -; AVX1: # BB#0: +; AVX1: # %bb.0: ; AVX1-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX1-NEXT: vpsubd %xmm0, %xmm1, %xmm2 ; AVX1-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -836,7 +836,7 @@ define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { ; AVX1-NEXT: retq ; ; AVX2-LABEL: testv4i32u: -; AVX2: # BB#0: +; AVX2: # %bb.0: ; AVX2-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX2-NEXT: vpsubd %xmm0, %xmm1, %xmm2 ; AVX2-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -858,7 +858,7 @@ define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { ; AVX2-NEXT: retq ; ; AVX512CDVL-LABEL: testv4i32u: -; AVX512CDVL: # BB#0: +; AVX512CDVL: # %bb.0: ; AVX512CDVL-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512CDVL-NEXT: vpsubd %xmm0, %xmm1, %xmm1 ; AVX512CDVL-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -868,7 +868,7 @@ define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { ; AVX512CDVL-NEXT: retq ; ; AVX512CD-LABEL: testv4i32u: -; AVX512CD: # BB#0: +; AVX512CD: # %bb.0: ; AVX512CD-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512CD-NEXT: vpsubd %xmm0, %xmm1, %xmm1 ; AVX512CD-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -879,7 +879,7 @@ define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { ; AVX512CD-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: testv4i32u: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpsubd %xmm0, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -891,7 +891,7 @@ define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: testv4i32u: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG_NOVLX-NEXT: vpsubd %xmm0, %xmm1, %xmm2 ; BITALG_NOVLX-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -913,7 +913,7 @@ define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: testv4i32u: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG-NEXT: vpsubd %xmm0, %xmm1, %xmm2 ; BITALG-NEXT: vpand %xmm2, %xmm0, %xmm0 @@ -935,7 +935,7 @@ define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: testv4i32u: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: pxor %xmm1, %xmm1 ; X32-SSE-NEXT: pxor %xmm2, %xmm2 ; X32-SSE-NEXT: psubd %xmm0, %xmm2 @@ -964,7 +964,7 @@ define <4 x i32> @testv4i32u(<4 x i32> %in) nounwind { define <8 x i16> @testv8i16(<8 x i16> %in) nounwind { ; SSE2-LABEL: testv8i16: -; SSE2: # BB#0: +; SSE2: # %bb.0: ; SSE2-NEXT: pxor %xmm1, %xmm1 ; SSE2-NEXT: psubw %xmm0, %xmm1 ; SSE2-NEXT: pand %xmm0, %xmm1 @@ -991,7 +991,7 @@ define <8 x i16> @testv8i16(<8 x i16> %in) nounwind { ; SSE2-NEXT: retq ; ; SSE3-LABEL: testv8i16: -; SSE3: # BB#0: +; SSE3: # %bb.0: ; SSE3-NEXT: pxor %xmm1, %xmm1 ; SSE3-NEXT: psubw %xmm0, %xmm1 ; SSE3-NEXT: pand %xmm0, %xmm1 @@ -1018,7 +1018,7 @@ define <8 x i16> @testv8i16(<8 x i16> %in) nounwind { ; SSE3-NEXT: retq ; ; SSSE3-LABEL: testv8i16: -; SSSE3: # BB#0: +; SSSE3: # %bb.0: ; SSSE3-NEXT: pxor %xmm1, %xmm1 ; SSSE3-NEXT: psubw %xmm0, %xmm1 ; SSSE3-NEXT: pand %xmm0, %xmm1 @@ -1041,7 +1041,7 @@ define <8 x i16> @testv8i16(<8 x i16> %in) nounwind { ; SSSE3-NEXT: retq ; ; SSE41-LABEL: testv8i16: -; SSE41: # BB#0: +; SSE41: # %bb.0: ; SSE41-NEXT: pxor %xmm1, %xmm1 ; SSE41-NEXT: psubw %xmm0, %xmm1 ; SSE41-NEXT: pand %xmm0, %xmm1 @@ -1064,7 +1064,7 @@ define <8 x i16> @testv8i16(<8 x i16> %in) nounwind { ; SSE41-NEXT: retq ; ; AVX-LABEL: testv8i16: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX-NEXT: vpsubw %xmm0, %xmm1, %xmm1 ; AVX-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1084,7 +1084,7 @@ define <8 x i16> @testv8i16(<8 x i16> %in) nounwind { ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: testv8i16: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpsubw %xmm0, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1097,7 +1097,7 @@ define <8 x i16> @testv8i16(<8 x i16> %in) nounwind { ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: testv8i16: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG_NOVLX-NEXT: vpsubw %xmm0, %xmm1, %xmm1 ; BITALG_NOVLX-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1109,7 +1109,7 @@ define <8 x i16> @testv8i16(<8 x i16> %in) nounwind { ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: testv8i16: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG-NEXT: vpsubw %xmm0, %xmm1, %xmm1 ; BITALG-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1119,7 +1119,7 @@ define <8 x i16> @testv8i16(<8 x i16> %in) nounwind { ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: testv8i16: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: pxor %xmm1, %xmm1 ; X32-SSE-NEXT: psubw %xmm0, %xmm1 ; X32-SSE-NEXT: pand %xmm0, %xmm1 @@ -1146,7 +1146,7 @@ define <8 x i16> @testv8i16(<8 x i16> %in) nounwind { define <8 x i16> @testv8i16u(<8 x i16> %in) nounwind { ; SSE2-LABEL: testv8i16u: -; SSE2: # BB#0: +; SSE2: # %bb.0: ; SSE2-NEXT: pxor %xmm1, %xmm1 ; SSE2-NEXT: psubw %xmm0, %xmm1 ; SSE2-NEXT: pand %xmm0, %xmm1 @@ -1173,7 +1173,7 @@ define <8 x i16> @testv8i16u(<8 x i16> %in) nounwind { ; SSE2-NEXT: retq ; ; SSE3-LABEL: testv8i16u: -; SSE3: # BB#0: +; SSE3: # %bb.0: ; SSE3-NEXT: pxor %xmm1, %xmm1 ; SSE3-NEXT: psubw %xmm0, %xmm1 ; SSE3-NEXT: pand %xmm0, %xmm1 @@ -1200,7 +1200,7 @@ define <8 x i16> @testv8i16u(<8 x i16> %in) nounwind { ; SSE3-NEXT: retq ; ; SSSE3-LABEL: testv8i16u: -; SSSE3: # BB#0: +; SSSE3: # %bb.0: ; SSSE3-NEXT: pxor %xmm1, %xmm1 ; SSSE3-NEXT: psubw %xmm0, %xmm1 ; SSSE3-NEXT: pand %xmm0, %xmm1 @@ -1223,7 +1223,7 @@ define <8 x i16> @testv8i16u(<8 x i16> %in) nounwind { ; SSSE3-NEXT: retq ; ; SSE41-LABEL: testv8i16u: -; SSE41: # BB#0: +; SSE41: # %bb.0: ; SSE41-NEXT: pxor %xmm1, %xmm1 ; SSE41-NEXT: psubw %xmm0, %xmm1 ; SSE41-NEXT: pand %xmm0, %xmm1 @@ -1246,7 +1246,7 @@ define <8 x i16> @testv8i16u(<8 x i16> %in) nounwind { ; SSE41-NEXT: retq ; ; AVX-LABEL: testv8i16u: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX-NEXT: vpsubw %xmm0, %xmm1, %xmm1 ; AVX-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1266,7 +1266,7 @@ define <8 x i16> @testv8i16u(<8 x i16> %in) nounwind { ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: testv8i16u: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpsubw %xmm0, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1279,7 +1279,7 @@ define <8 x i16> @testv8i16u(<8 x i16> %in) nounwind { ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: testv8i16u: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG_NOVLX-NEXT: vpsubw %xmm0, %xmm1, %xmm1 ; BITALG_NOVLX-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1291,7 +1291,7 @@ define <8 x i16> @testv8i16u(<8 x i16> %in) nounwind { ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: testv8i16u: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG-NEXT: vpsubw %xmm0, %xmm1, %xmm1 ; BITALG-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1301,7 +1301,7 @@ define <8 x i16> @testv8i16u(<8 x i16> %in) nounwind { ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: testv8i16u: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: pxor %xmm1, %xmm1 ; X32-SSE-NEXT: psubw %xmm0, %xmm1 ; X32-SSE-NEXT: pand %xmm0, %xmm1 @@ -1328,7 +1328,7 @@ define <8 x i16> @testv8i16u(<8 x i16> %in) nounwind { define <16 x i8> @testv16i8(<16 x i8> %in) nounwind { ; SSE2-LABEL: testv16i8: -; SSE2: # BB#0: +; SSE2: # %bb.0: ; SSE2-NEXT: pxor %xmm1, %xmm1 ; SSE2-NEXT: psubb %xmm0, %xmm1 ; SSE2-NEXT: pand %xmm0, %xmm1 @@ -1351,7 +1351,7 @@ define <16 x i8> @testv16i8(<16 x i8> %in) nounwind { ; SSE2-NEXT: retq ; ; SSE3-LABEL: testv16i8: -; SSE3: # BB#0: +; SSE3: # %bb.0: ; SSE3-NEXT: pxor %xmm1, %xmm1 ; SSE3-NEXT: psubb %xmm0, %xmm1 ; SSE3-NEXT: pand %xmm0, %xmm1 @@ -1374,7 +1374,7 @@ define <16 x i8> @testv16i8(<16 x i8> %in) nounwind { ; SSE3-NEXT: retq ; ; SSSE3-LABEL: testv16i8: -; SSSE3: # BB#0: +; SSSE3: # %bb.0: ; SSSE3-NEXT: pxor %xmm1, %xmm1 ; SSSE3-NEXT: psubb %xmm0, %xmm1 ; SSSE3-NEXT: pand %xmm0, %xmm1 @@ -1393,7 +1393,7 @@ define <16 x i8> @testv16i8(<16 x i8> %in) nounwind { ; SSSE3-NEXT: retq ; ; SSE41-LABEL: testv16i8: -; SSE41: # BB#0: +; SSE41: # %bb.0: ; SSE41-NEXT: pxor %xmm1, %xmm1 ; SSE41-NEXT: psubb %xmm0, %xmm1 ; SSE41-NEXT: pand %xmm0, %xmm1 @@ -1412,7 +1412,7 @@ define <16 x i8> @testv16i8(<16 x i8> %in) nounwind { ; SSE41-NEXT: retq ; ; AVX-LABEL: testv16i8: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX-NEXT: vpsubb %xmm0, %xmm1, %xmm1 ; AVX-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1429,7 +1429,7 @@ define <16 x i8> @testv16i8(<16 x i8> %in) nounwind { ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: testv16i8: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpsubb %xmm0, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1442,7 +1442,7 @@ define <16 x i8> @testv16i8(<16 x i8> %in) nounwind { ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: testv16i8: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG_NOVLX-NEXT: vpsubb %xmm0, %xmm1, %xmm1 ; BITALG_NOVLX-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1454,7 +1454,7 @@ define <16 x i8> @testv16i8(<16 x i8> %in) nounwind { ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: testv16i8: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG-NEXT: vpsubb %xmm0, %xmm1, %xmm1 ; BITALG-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1464,7 +1464,7 @@ define <16 x i8> @testv16i8(<16 x i8> %in) nounwind { ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: testv16i8: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: pxor %xmm1, %xmm1 ; X32-SSE-NEXT: psubb %xmm0, %xmm1 ; X32-SSE-NEXT: pand %xmm0, %xmm1 @@ -1487,7 +1487,7 @@ define <16 x i8> @testv16i8(<16 x i8> %in) nounwind { define <16 x i8> @testv16i8u(<16 x i8> %in) nounwind { ; SSE2-LABEL: testv16i8u: -; SSE2: # BB#0: +; SSE2: # %bb.0: ; SSE2-NEXT: pxor %xmm1, %xmm1 ; SSE2-NEXT: psubb %xmm0, %xmm1 ; SSE2-NEXT: pand %xmm0, %xmm1 @@ -1510,7 +1510,7 @@ define <16 x i8> @testv16i8u(<16 x i8> %in) nounwind { ; SSE2-NEXT: retq ; ; SSE3-LABEL: testv16i8u: -; SSE3: # BB#0: +; SSE3: # %bb.0: ; SSE3-NEXT: pxor %xmm1, %xmm1 ; SSE3-NEXT: psubb %xmm0, %xmm1 ; SSE3-NEXT: pand %xmm0, %xmm1 @@ -1533,7 +1533,7 @@ define <16 x i8> @testv16i8u(<16 x i8> %in) nounwind { ; SSE3-NEXT: retq ; ; SSSE3-LABEL: testv16i8u: -; SSSE3: # BB#0: +; SSSE3: # %bb.0: ; SSSE3-NEXT: pxor %xmm1, %xmm1 ; SSSE3-NEXT: psubb %xmm0, %xmm1 ; SSSE3-NEXT: pand %xmm0, %xmm1 @@ -1552,7 +1552,7 @@ define <16 x i8> @testv16i8u(<16 x i8> %in) nounwind { ; SSSE3-NEXT: retq ; ; SSE41-LABEL: testv16i8u: -; SSE41: # BB#0: +; SSE41: # %bb.0: ; SSE41-NEXT: pxor %xmm1, %xmm1 ; SSE41-NEXT: psubb %xmm0, %xmm1 ; SSE41-NEXT: pand %xmm0, %xmm1 @@ -1571,7 +1571,7 @@ define <16 x i8> @testv16i8u(<16 x i8> %in) nounwind { ; SSE41-NEXT: retq ; ; AVX-LABEL: testv16i8u: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX-NEXT: vpsubb %xmm0, %xmm1, %xmm1 ; AVX-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1588,7 +1588,7 @@ define <16 x i8> @testv16i8u(<16 x i8> %in) nounwind { ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: testv16i8u: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpsubb %xmm0, %xmm1, %xmm1 ; AVX512VPOPCNTDQ-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1601,7 +1601,7 @@ define <16 x i8> @testv16i8u(<16 x i8> %in) nounwind { ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: testv16i8u: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG_NOVLX-NEXT: vpsubb %xmm0, %xmm1, %xmm1 ; BITALG_NOVLX-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1613,7 +1613,7 @@ define <16 x i8> @testv16i8u(<16 x i8> %in) nounwind { ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: testv16i8u: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vpxor %xmm1, %xmm1, %xmm1 ; BITALG-NEXT: vpsubb %xmm0, %xmm1, %xmm1 ; BITALG-NEXT: vpand %xmm1, %xmm0, %xmm0 @@ -1623,7 +1623,7 @@ define <16 x i8> @testv16i8u(<16 x i8> %in) nounwind { ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: testv16i8u: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: pxor %xmm1, %xmm1 ; X32-SSE-NEXT: psubb %xmm0, %xmm1 ; X32-SSE-NEXT: pand %xmm0, %xmm1 @@ -1646,37 +1646,37 @@ define <16 x i8> @testv16i8u(<16 x i8> %in) nounwind { define <2 x i64> @foldv2i64() nounwind { ; SSE-LABEL: foldv2i64: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: movl $8, %eax ; SSE-NEXT: movq %rax, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: foldv2i64: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: movl $8, %eax ; AVX-NEXT: vmovq %rax, %xmm0 ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: foldv2i64: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: movl $8, %eax ; AVX512VPOPCNTDQ-NEXT: vmovq %rax, %xmm0 ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: foldv2i64: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: movl $8, %eax ; BITALG_NOVLX-NEXT: vmovq %rax, %xmm0 ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: foldv2i64: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: movl $8, %eax ; BITALG-NEXT: vmovq %rax, %xmm0 ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: foldv2i64: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: movl $8, %eax ; X32-SSE-NEXT: movd %eax, %xmm0 ; X32-SSE-NEXT: retl @@ -1686,37 +1686,37 @@ define <2 x i64> @foldv2i64() nounwind { define <2 x i64> @foldv2i64u() nounwind { ; SSE-LABEL: foldv2i64u: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: movl $8, %eax ; SSE-NEXT: movq %rax, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: foldv2i64u: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: movl $8, %eax ; AVX-NEXT: vmovq %rax, %xmm0 ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: foldv2i64u: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: movl $8, %eax ; AVX512VPOPCNTDQ-NEXT: vmovq %rax, %xmm0 ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: foldv2i64u: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: movl $8, %eax ; BITALG_NOVLX-NEXT: vmovq %rax, %xmm0 ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: foldv2i64u: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: movl $8, %eax ; BITALG-NEXT: vmovq %rax, %xmm0 ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: foldv2i64u: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: movl $8, %eax ; X32-SSE-NEXT: movd %eax, %xmm0 ; X32-SSE-NEXT: retl @@ -1726,32 +1726,32 @@ define <2 x i64> @foldv2i64u() nounwind { define <4 x i32> @foldv4i32() nounwind { ; SSE-LABEL: foldv4i32: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: movaps {{.*#+}} xmm0 = [8,0,32,0] ; SSE-NEXT: retq ; ; AVX-LABEL: foldv4i32: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,32,0] ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: foldv4i32: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,32,0] ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: foldv4i32: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,32,0] ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: foldv4i32: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,32,0] ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: foldv4i32: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: movaps {{.*#+}} xmm0 = [8,0,32,0] ; X32-SSE-NEXT: retl %out = call <4 x i32> @llvm.cttz.v4i32(<4 x i32> <i32 256, i32 -1, i32 0, i32 255>, i1 0) @@ -1760,32 +1760,32 @@ define <4 x i32> @foldv4i32() nounwind { define <4 x i32> @foldv4i32u() nounwind { ; SSE-LABEL: foldv4i32u: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: movaps {{.*#+}} xmm0 = [8,0,32,0] ; SSE-NEXT: retq ; ; AVX-LABEL: foldv4i32u: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,32,0] ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: foldv4i32u: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,32,0] ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: foldv4i32u: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,32,0] ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: foldv4i32u: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,32,0] ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: foldv4i32u: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: movaps {{.*#+}} xmm0 = [8,0,32,0] ; X32-SSE-NEXT: retl %out = call <4 x i32> @llvm.cttz.v4i32(<4 x i32> <i32 256, i32 -1, i32 0, i32 255>, i1 -1) @@ -1794,32 +1794,32 @@ define <4 x i32> @foldv4i32u() nounwind { define <8 x i16> @foldv8i16() nounwind { ; SSE-LABEL: foldv8i16: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: movaps {{.*#+}} xmm0 = [8,0,16,0,16,0,3,3] ; SSE-NEXT: retq ; ; AVX-LABEL: foldv8i16: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,16,0,16,0,3,3] ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: foldv8i16: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,16,0,16,0,3,3] ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: foldv8i16: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,16,0,16,0,3,3] ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: foldv8i16: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,16,0,16,0,3,3] ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: foldv8i16: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: movaps {{.*#+}} xmm0 = [8,0,16,0,16,0,3,3] ; X32-SSE-NEXT: retl %out = call <8 x i16> @llvm.cttz.v8i16(<8 x i16> <i16 256, i16 -1, i16 0, i16 255, i16 -65536, i16 7, i16 24, i16 88>, i1 0) @@ -1828,32 +1828,32 @@ define <8 x i16> @foldv8i16() nounwind { define <8 x i16> @foldv8i16u() nounwind { ; SSE-LABEL: foldv8i16u: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: movaps {{.*#+}} xmm0 = [8,0,16,0,16,0,3,3] ; SSE-NEXT: retq ; ; AVX-LABEL: foldv8i16u: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,16,0,16,0,3,3] ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: foldv8i16u: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,16,0,16,0,3,3] ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: foldv8i16u: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,16,0,16,0,3,3] ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: foldv8i16u: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,16,0,16,0,3,3] ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: foldv8i16u: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: movaps {{.*#+}} xmm0 = [8,0,16,0,16,0,3,3] ; X32-SSE-NEXT: retl %out = call <8 x i16> @llvm.cttz.v8i16(<8 x i16> <i16 256, i16 -1, i16 0, i16 255, i16 -65536, i16 7, i16 24, i16 88>, i1 -1) @@ -1862,32 +1862,32 @@ define <8 x i16> @foldv8i16u() nounwind { define <16 x i8> @foldv16i8() nounwind { ; SSE-LABEL: foldv16i8: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: movaps {{.*#+}} xmm0 = [8,0,8,0,8,0,3,3,1,1,0,1,2,3,4,5] ; SSE-NEXT: retq ; ; AVX-LABEL: foldv16i8: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,8,0,8,0,3,3,1,1,0,1,2,3,4,5] ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: foldv16i8: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,8,0,8,0,3,3,1,1,0,1,2,3,4,5] ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: foldv16i8: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,8,0,8,0,3,3,1,1,0,1,2,3,4,5] ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: foldv16i8: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,8,0,8,0,3,3,1,1,0,1,2,3,4,5] ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: foldv16i8: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: movaps {{.*#+}} xmm0 = [8,0,8,0,8,0,3,3,1,1,0,1,2,3,4,5] ; X32-SSE-NEXT: retl %out = call <16 x i8> @llvm.cttz.v16i8(<16 x i8> <i8 256, i8 -1, i8 0, i8 255, i8 -65536, i8 7, i8 24, i8 88, i8 -2, i8 254, i8 1, i8 2, i8 4, i8 8, i8 16, i8 32>, i1 0) @@ -1896,32 +1896,32 @@ define <16 x i8> @foldv16i8() nounwind { define <16 x i8> @foldv16i8u() nounwind { ; SSE-LABEL: foldv16i8u: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: movaps {{.*#+}} xmm0 = [8,0,8,0,8,0,3,3,1,1,0,1,2,3,4,5] ; SSE-NEXT: retq ; ; AVX-LABEL: foldv16i8u: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,8,0,8,0,3,3,1,1,0,1,2,3,4,5] ; AVX-NEXT: retq ; ; AVX512VPOPCNTDQ-LABEL: foldv16i8u: -; AVX512VPOPCNTDQ: # BB#0: +; AVX512VPOPCNTDQ: # %bb.0: ; AVX512VPOPCNTDQ-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,8,0,8,0,3,3,1,1,0,1,2,3,4,5] ; AVX512VPOPCNTDQ-NEXT: retq ; ; BITALG_NOVLX-LABEL: foldv16i8u: -; BITALG_NOVLX: # BB#0: +; BITALG_NOVLX: # %bb.0: ; BITALG_NOVLX-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,8,0,8,0,3,3,1,1,0,1,2,3,4,5] ; BITALG_NOVLX-NEXT: retq ; ; BITALG-LABEL: foldv16i8u: -; BITALG: # BB#0: +; BITALG: # %bb.0: ; BITALG-NEXT: vmovaps {{.*#+}} xmm0 = [8,0,8,0,8,0,3,3,1,1,0,1,2,3,4,5] ; BITALG-NEXT: retq ; ; X32-SSE-LABEL: foldv16i8u: -; X32-SSE: # BB#0: +; X32-SSE: # %bb.0: ; X32-SSE-NEXT: movaps {{.*#+}} xmm0 = [8,0,8,0,8,0,3,3,1,1,0,1,2,3,4,5] ; X32-SSE-NEXT: retl %out = call <16 x i8> @llvm.cttz.v16i8(<16 x i8> <i8 256, i8 -1, i8 0, i8 255, i8 -65536, i8 7, i8 24, i8 88, i8 -2, i8 254, i8 1, i8 2, i8 4, i8 8, i8 16, i8 32>, i1 -1) |