diff options
Diffstat (limited to 'llvm/test/CodeGen/X86/vector-compare-any_of.ll')
-rw-r--r-- | llvm/test/CodeGen/X86/vector-compare-any_of.ll | 116 |
1 files changed, 58 insertions, 58 deletions
diff --git a/llvm/test/CodeGen/X86/vector-compare-any_of.ll b/llvm/test/CodeGen/X86/vector-compare-any_of.ll index 1a6a1c17bc0..d49e4b7ae8b 100644 --- a/llvm/test/CodeGen/X86/vector-compare-any_of.ll +++ b/llvm/test/CodeGen/X86/vector-compare-any_of.ll @@ -6,7 +6,7 @@ define i64 @test_v2f64_sext(<2 x double> %a0, <2 x double> %a1) { ; SSE-LABEL: test_v2f64_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: cmpltpd %xmm0, %xmm1 ; SSE-NEXT: pshufd {{.*#+}} xmm0 = xmm1[2,3,0,1] ; SSE-NEXT: por %xmm1, %xmm0 @@ -14,7 +14,7 @@ define i64 @test_v2f64_sext(<2 x double> %a0, <2 x double> %a1) { ; SSE-NEXT: retq ; ; AVX-LABEL: test_v2f64_sext: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vcmpltpd %xmm0, %xmm1, %xmm0 ; AVX-NEXT: vpermilpd {{.*#+}} xmm1 = xmm0[1,0] ; AVX-NEXT: vorpd %xmm1, %xmm0, %xmm0 @@ -22,7 +22,7 @@ define i64 @test_v2f64_sext(<2 x double> %a0, <2 x double> %a1) { ; AVX-NEXT: retq ; ; AVX512-LABEL: test_v2f64_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vcmpltpd %xmm0, %xmm1, %k1 ; AVX512-NEXT: vpcmpeqd %xmm0, %xmm0, %xmm0 ; AVX512-NEXT: vmovdqa64 %xmm0, %xmm0 {%k1} {z} @@ -40,7 +40,7 @@ define i64 @test_v2f64_sext(<2 x double> %a0, <2 x double> %a1) { define i64 @test_v4f64_sext(<4 x double> %a0, <4 x double> %a1) { ; SSE-LABEL: test_v4f64_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: cmpltpd %xmm1, %xmm3 ; SSE-NEXT: cmpltpd %xmm0, %xmm2 ; SSE-NEXT: orpd %xmm3, %xmm2 @@ -50,7 +50,7 @@ define i64 @test_v4f64_sext(<4 x double> %a0, <4 x double> %a1) { ; SSE-NEXT: retq ; ; AVX-LABEL: test_v4f64_sext: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vcmpltpd %ymm0, %ymm1, %ymm0 ; AVX-NEXT: vmovmskpd %ymm0, %eax ; AVX-NEXT: negl %eax @@ -59,7 +59,7 @@ define i64 @test_v4f64_sext(<4 x double> %a0, <4 x double> %a1) { ; AVX-NEXT: retq ; ; AVX512-LABEL: test_v4f64_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vcmpltpd %ymm0, %ymm1, %k1 ; AVX512-NEXT: vpcmpeqd %ymm0, %ymm0, %ymm0 ; AVX512-NEXT: vmovdqa64 %ymm0, %ymm0 {%k1} {z} @@ -82,7 +82,7 @@ define i64 @test_v4f64_sext(<4 x double> %a0, <4 x double> %a1) { define i64 @test_v4f64_legal_sext(<4 x double> %a0, <4 x double> %a1) { ; SSE-LABEL: test_v4f64_legal_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: cmpltpd %xmm1, %xmm3 ; SSE-NEXT: cmpltpd %xmm0, %xmm2 ; SSE-NEXT: packssdw %xmm3, %xmm2 @@ -93,7 +93,7 @@ define i64 @test_v4f64_legal_sext(<4 x double> %a0, <4 x double> %a1) { ; SSE-NEXT: retq ; ; AVX-LABEL: test_v4f64_legal_sext: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vcmpltpd %ymm0, %ymm1, %ymm0 ; AVX-NEXT: vextractf128 $1, %ymm0, %xmm1 ; AVX-NEXT: vpackssdw %xmm1, %xmm0, %xmm0 @@ -105,7 +105,7 @@ define i64 @test_v4f64_legal_sext(<4 x double> %a0, <4 x double> %a1) { ; AVX-NEXT: retq ; ; AVX512-LABEL: test_v4f64_legal_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vcmpltpd %ymm0, %ymm1, %k1 ; AVX512-NEXT: vpcmpeqd %xmm0, %xmm0, %xmm0 ; AVX512-NEXT: vmovdqa32 %xmm0, %xmm0 {%k1} {z} @@ -130,7 +130,7 @@ define i64 @test_v4f64_legal_sext(<4 x double> %a0, <4 x double> %a1) { define i32 @test_v4f32_sext(<4 x float> %a0, <4 x float> %a1) { ; SSE-LABEL: test_v4f32_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: cmpltps %xmm0, %xmm1 ; SSE-NEXT: movmskps %xmm1, %eax ; SSE-NEXT: negl %eax @@ -138,7 +138,7 @@ define i32 @test_v4f32_sext(<4 x float> %a0, <4 x float> %a1) { ; SSE-NEXT: retq ; ; AVX-LABEL: test_v4f32_sext: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vcmpltps %xmm0, %xmm1, %xmm0 ; AVX-NEXT: vmovmskps %xmm0, %eax ; AVX-NEXT: negl %eax @@ -146,7 +146,7 @@ define i32 @test_v4f32_sext(<4 x float> %a0, <4 x float> %a1) { ; AVX-NEXT: retq ; ; AVX512-LABEL: test_v4f32_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vcmpltps %xmm0, %xmm1, %k1 ; AVX512-NEXT: vpcmpeqd %xmm0, %xmm0, %xmm0 ; AVX512-NEXT: vmovdqa32 %xmm0, %xmm0 {%k1} {z} @@ -168,7 +168,7 @@ define i32 @test_v4f32_sext(<4 x float> %a0, <4 x float> %a1) { define i32 @test_v8f32_sext(<8 x float> %a0, <8 x float> %a1) { ; SSE-LABEL: test_v8f32_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: cmpltps %xmm1, %xmm3 ; SSE-NEXT: cmpltps %xmm0, %xmm2 ; SSE-NEXT: orps %xmm3, %xmm2 @@ -178,7 +178,7 @@ define i32 @test_v8f32_sext(<8 x float> %a0, <8 x float> %a1) { ; SSE-NEXT: retq ; ; AVX-LABEL: test_v8f32_sext: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vcmpltps %ymm0, %ymm1, %ymm0 ; AVX-NEXT: vmovmskps %ymm0, %eax ; AVX-NEXT: negl %eax @@ -187,7 +187,7 @@ define i32 @test_v8f32_sext(<8 x float> %a0, <8 x float> %a1) { ; AVX-NEXT: retq ; ; AVX512-LABEL: test_v8f32_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vcmpltps %ymm0, %ymm1, %k1 ; AVX512-NEXT: vpcmpeqd %ymm0, %ymm0, %ymm0 ; AVX512-NEXT: vmovdqa32 %ymm0, %ymm0 {%k1} {z} @@ -214,7 +214,7 @@ define i32 @test_v8f32_sext(<8 x float> %a0, <8 x float> %a1) { define i32 @test_v8f32_legal_sext(<8 x float> %a0, <8 x float> %a1) { ; SSE-LABEL: test_v8f32_legal_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: cmpltps %xmm1, %xmm3 ; SSE-NEXT: cmpltps %xmm0, %xmm2 ; SSE-NEXT: packssdw %xmm3, %xmm2 @@ -224,7 +224,7 @@ define i32 @test_v8f32_legal_sext(<8 x float> %a0, <8 x float> %a1) { ; SSE-NEXT: retq ; ; AVX-LABEL: test_v8f32_legal_sext: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vcmpltps %ymm0, %ymm1, %ymm0 ; AVX-NEXT: vextractf128 $1, %ymm0, %xmm1 ; AVX-NEXT: vpackssdw %xmm1, %xmm0, %xmm0 @@ -235,7 +235,7 @@ define i32 @test_v8f32_legal_sext(<8 x float> %a0, <8 x float> %a1) { ; AVX-NEXT: retq ; ; AVX512-LABEL: test_v8f32_legal_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vcmpltps %ymm0, %ymm1, %k0 ; AVX512-NEXT: vpmovm2w %k0, %xmm0 ; AVX512-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -263,7 +263,7 @@ define i32 @test_v8f32_legal_sext(<8 x float> %a0, <8 x float> %a1) { define i64 @test_v2i64_sext(<2 x i64> %a0, <2 x i64> %a1) { ; SSE-LABEL: test_v2i64_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: pcmpgtq %xmm1, %xmm0 ; SSE-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; SSE-NEXT: por %xmm0, %xmm1 @@ -271,7 +271,7 @@ define i64 @test_v2i64_sext(<2 x i64> %a0, <2 x i64> %a1) { ; SSE-NEXT: retq ; ; AVX-LABEL: test_v2i64_sext: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm0 ; AVX-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; AVX-NEXT: vpor %xmm1, %xmm0, %xmm0 @@ -279,7 +279,7 @@ define i64 @test_v2i64_sext(<2 x i64> %a0, <2 x i64> %a1) { ; AVX-NEXT: retq ; ; AVX512-LABEL: test_v2i64_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vpcmpgtq %xmm1, %xmm0, %k1 ; AVX512-NEXT: vpcmpeqd %xmm0, %xmm0, %xmm0 ; AVX512-NEXT: vmovdqa64 %xmm0, %xmm0 {%k1} {z} @@ -297,7 +297,7 @@ define i64 @test_v2i64_sext(<2 x i64> %a0, <2 x i64> %a1) { define i64 @test_v4i64_sext(<4 x i64> %a0, <4 x i64> %a1) { ; SSE-LABEL: test_v4i64_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: pcmpgtq %xmm3, %xmm1 ; SSE-NEXT: pcmpgtq %xmm2, %xmm0 ; SSE-NEXT: por %xmm1, %xmm0 @@ -307,7 +307,7 @@ define i64 @test_v4i64_sext(<4 x i64> %a0, <4 x i64> %a1) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test_v4i64_sext: -; AVX1: # BB#0: +; AVX1: # %bb.0: ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2 @@ -320,7 +320,7 @@ define i64 @test_v4i64_sext(<4 x i64> %a0, <4 x i64> %a1) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test_v4i64_sext: -; AVX2: # BB#0: +; AVX2: # %bb.0: ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: vmovmskpd %ymm0, %eax ; AVX2-NEXT: negl %eax @@ -329,7 +329,7 @@ define i64 @test_v4i64_sext(<4 x i64> %a0, <4 x i64> %a1) { ; AVX2-NEXT: retq ; ; AVX512-LABEL: test_v4i64_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vpcmpgtq %ymm1, %ymm0, %k1 ; AVX512-NEXT: vpcmpeqd %ymm0, %ymm0, %ymm0 ; AVX512-NEXT: vmovdqa64 %ymm0, %ymm0 {%k1} {z} @@ -352,7 +352,7 @@ define i64 @test_v4i64_sext(<4 x i64> %a0, <4 x i64> %a1) { define i64 @test_v4i64_legal_sext(<4 x i64> %a0, <4 x i64> %a1) { ; SSE-LABEL: test_v4i64_legal_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: pcmpgtq %xmm3, %xmm1 ; SSE-NEXT: pcmpgtq %xmm2, %xmm0 ; SSE-NEXT: packssdw %xmm1, %xmm0 @@ -363,7 +363,7 @@ define i64 @test_v4i64_legal_sext(<4 x i64> %a0, <4 x i64> %a1) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test_v4i64_legal_sext: -; AVX1: # BB#0: +; AVX1: # %bb.0: ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2 @@ -377,7 +377,7 @@ define i64 @test_v4i64_legal_sext(<4 x i64> %a0, <4 x i64> %a1) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test_v4i64_legal_sext: -; AVX2: # BB#0: +; AVX2: # %bb.0: ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; AVX2-NEXT: vpackssdw %xmm1, %xmm0, %xmm0 @@ -389,7 +389,7 @@ define i64 @test_v4i64_legal_sext(<4 x i64> %a0, <4 x i64> %a1) { ; AVX2-NEXT: retq ; ; AVX512-LABEL: test_v4i64_legal_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vpcmpgtq %ymm1, %ymm0, %k1 ; AVX512-NEXT: vpcmpeqd %xmm0, %xmm0, %xmm0 ; AVX512-NEXT: vmovdqa32 %xmm0, %xmm0 {%k1} {z} @@ -414,7 +414,7 @@ define i64 @test_v4i64_legal_sext(<4 x i64> %a0, <4 x i64> %a1) { define i32 @test_v4i32_sext(<4 x i32> %a0, <4 x i32> %a1) { ; SSE-LABEL: test_v4i32_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: pcmpgtd %xmm1, %xmm0 ; SSE-NEXT: movmskps %xmm0, %eax ; SSE-NEXT: negl %eax @@ -422,7 +422,7 @@ define i32 @test_v4i32_sext(<4 x i32> %a0, <4 x i32> %a1) { ; SSE-NEXT: retq ; ; AVX-LABEL: test_v4i32_sext: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vpcmpgtd %xmm1, %xmm0, %xmm0 ; AVX-NEXT: vmovmskps %xmm0, %eax ; AVX-NEXT: negl %eax @@ -430,7 +430,7 @@ define i32 @test_v4i32_sext(<4 x i32> %a0, <4 x i32> %a1) { ; AVX-NEXT: retq ; ; AVX512-LABEL: test_v4i32_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vpcmpgtd %xmm1, %xmm0, %k1 ; AVX512-NEXT: vpcmpeqd %xmm0, %xmm0, %xmm0 ; AVX512-NEXT: vmovdqa32 %xmm0, %xmm0 {%k1} {z} @@ -452,7 +452,7 @@ define i32 @test_v4i32_sext(<4 x i32> %a0, <4 x i32> %a1) { define i32 @test_v8i32_sext(<8 x i32> %a0, <8 x i32> %a1) { ; SSE-LABEL: test_v8i32_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: pcmpgtd %xmm3, %xmm1 ; SSE-NEXT: pcmpgtd %xmm2, %xmm0 ; SSE-NEXT: por %xmm1, %xmm0 @@ -462,7 +462,7 @@ define i32 @test_v8i32_sext(<8 x i32> %a0, <8 x i32> %a1) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test_v8i32_sext: -; AVX1: # BB#0: +; AVX1: # %bb.0: ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpcmpgtd %xmm2, %xmm3, %xmm2 @@ -475,7 +475,7 @@ define i32 @test_v8i32_sext(<8 x i32> %a0, <8 x i32> %a1) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test_v8i32_sext: -; AVX2: # BB#0: +; AVX2: # %bb.0: ; AVX2-NEXT: vpcmpgtd %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: vmovmskps %ymm0, %eax ; AVX2-NEXT: negl %eax @@ -484,7 +484,7 @@ define i32 @test_v8i32_sext(<8 x i32> %a0, <8 x i32> %a1) { ; AVX2-NEXT: retq ; ; AVX512-LABEL: test_v8i32_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vpcmpgtd %ymm1, %ymm0, %k1 ; AVX512-NEXT: vpcmpeqd %ymm0, %ymm0, %ymm0 ; AVX512-NEXT: vmovdqa32 %ymm0, %ymm0 {%k1} {z} @@ -511,7 +511,7 @@ define i32 @test_v8i32_sext(<8 x i32> %a0, <8 x i32> %a1) { define i32 @test_v8i32_legal_sext(<8 x i32> %a0, <8 x i32> %a1) { ; SSE-LABEL: test_v8i32_legal_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: pcmpgtd %xmm3, %xmm1 ; SSE-NEXT: pcmpgtd %xmm2, %xmm0 ; SSE-NEXT: packssdw %xmm1, %xmm0 @@ -521,7 +521,7 @@ define i32 @test_v8i32_legal_sext(<8 x i32> %a0, <8 x i32> %a1) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test_v8i32_legal_sext: -; AVX1: # BB#0: +; AVX1: # %bb.0: ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpcmpgtd %xmm2, %xmm3, %xmm2 @@ -534,7 +534,7 @@ define i32 @test_v8i32_legal_sext(<8 x i32> %a0, <8 x i32> %a1) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test_v8i32_legal_sext: -; AVX2: # BB#0: +; AVX2: # %bb.0: ; AVX2-NEXT: vpcmpgtd %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; AVX2-NEXT: vpackssdw %xmm1, %xmm0, %xmm0 @@ -545,7 +545,7 @@ define i32 @test_v8i32_legal_sext(<8 x i32> %a0, <8 x i32> %a1) { ; AVX2-NEXT: retq ; ; AVX512-LABEL: test_v8i32_legal_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vpcmpgtd %ymm1, %ymm0, %k0 ; AVX512-NEXT: vpmovm2w %k0, %xmm0 ; AVX512-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -573,7 +573,7 @@ define i32 @test_v8i32_legal_sext(<8 x i32> %a0, <8 x i32> %a1) { define i16 @test_v8i16_sext(<8 x i16> %a0, <8 x i16> %a1) { ; SSE-LABEL: test_v8i16_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: pcmpgtw %xmm1, %xmm0 ; SSE-NEXT: pmovmskb %xmm0, %eax ; SSE-NEXT: negl %eax @@ -582,7 +582,7 @@ define i16 @test_v8i16_sext(<8 x i16> %a0, <8 x i16> %a1) { ; SSE-NEXT: retq ; ; AVX-LABEL: test_v8i16_sext: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vpcmpgtw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: vpmovmskb %xmm0, %eax ; AVX-NEXT: negl %eax @@ -591,7 +591,7 @@ define i16 @test_v8i16_sext(<8 x i16> %a0, <8 x i16> %a1) { ; AVX-NEXT: retq ; ; AVX512-LABEL: test_v8i16_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vpcmpgtw %xmm1, %xmm0, %k0 ; AVX512-NEXT: vpmovm2w %k0, %xmm0 ; AVX512-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -617,7 +617,7 @@ define i16 @test_v8i16_sext(<8 x i16> %a0, <8 x i16> %a1) { define i16 @test_v16i16_sext(<16 x i16> %a0, <16 x i16> %a1) { ; SSE-LABEL: test_v16i16_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: pcmpgtw %xmm3, %xmm1 ; SSE-NEXT: pcmpgtw %xmm2, %xmm0 ; SSE-NEXT: por %xmm1, %xmm0 @@ -628,7 +628,7 @@ define i16 @test_v16i16_sext(<16 x i16> %a0, <16 x i16> %a1) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test_v16i16_sext: -; AVX1: # BB#0: +; AVX1: # %bb.0: ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpcmpgtw %xmm2, %xmm3, %xmm2 @@ -647,7 +647,7 @@ define i16 @test_v16i16_sext(<16 x i16> %a0, <16 x i16> %a1) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test_v16i16_sext: -; AVX2: # BB#0: +; AVX2: # %bb.0: ; AVX2-NEXT: vpcmpgtw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: vpmovmskb %ymm0, %eax ; AVX2-NEXT: negl %eax @@ -657,7 +657,7 @@ define i16 @test_v16i16_sext(<16 x i16> %a0, <16 x i16> %a1) { ; AVX2-NEXT: retq ; ; AVX512-LABEL: test_v16i16_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vpcmpgtw %ymm1, %ymm0, %k0 ; AVX512-NEXT: vpmovm2w %k0, %ymm0 ; AVX512-NEXT: vextracti128 $1, %ymm0, %xmm1 @@ -688,7 +688,7 @@ define i16 @test_v16i16_sext(<16 x i16> %a0, <16 x i16> %a1) { define i16 @test_v16i16_legal_sext(<16 x i16> %a0, <16 x i16> %a1) { ; SSE-LABEL: test_v16i16_legal_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: pcmpgtw %xmm3, %xmm1 ; SSE-NEXT: pcmpgtw %xmm2, %xmm0 ; SSE-NEXT: packsswb %xmm1, %xmm0 @@ -699,7 +699,7 @@ define i16 @test_v16i16_legal_sext(<16 x i16> %a0, <16 x i16> %a1) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test_v16i16_legal_sext: -; AVX1: # BB#0: +; AVX1: # %bb.0: ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpcmpgtw %xmm2, %xmm3, %xmm2 @@ -713,7 +713,7 @@ define i16 @test_v16i16_legal_sext(<16 x i16> %a0, <16 x i16> %a1) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test_v16i16_legal_sext: -; AVX2: # BB#0: +; AVX2: # %bb.0: ; AVX2-NEXT: vpcmpgtw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; AVX2-NEXT: vpacksswb %xmm1, %xmm0, %xmm0 @@ -725,7 +725,7 @@ define i16 @test_v16i16_legal_sext(<16 x i16> %a0, <16 x i16> %a1) { ; AVX2-NEXT: retq ; ; AVX512-LABEL: test_v16i16_legal_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vpcmpgtw %ymm1, %ymm0, %k0 ; AVX512-NEXT: vpmovm2b %k0, %xmm0 ; AVX512-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -758,7 +758,7 @@ define i16 @test_v16i16_legal_sext(<16 x i16> %a0, <16 x i16> %a1) { define i8 @test_v16i8_sext(<16 x i8> %a0, <16 x i8> %a1) { ; SSE-LABEL: test_v16i8_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: pcmpgtb %xmm1, %xmm0 ; SSE-NEXT: pmovmskb %xmm0, %eax ; SSE-NEXT: negl %eax @@ -767,7 +767,7 @@ define i8 @test_v16i8_sext(<16 x i8> %a0, <16 x i8> %a1) { ; SSE-NEXT: retq ; ; AVX-LABEL: test_v16i8_sext: -; AVX: # BB#0: +; AVX: # %bb.0: ; AVX-NEXT: vpcmpgtb %xmm1, %xmm0, %xmm0 ; AVX-NEXT: vpmovmskb %xmm0, %eax ; AVX-NEXT: negl %eax @@ -776,7 +776,7 @@ define i8 @test_v16i8_sext(<16 x i8> %a0, <16 x i8> %a1) { ; AVX-NEXT: retq ; ; AVX512-LABEL: test_v16i8_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vpcmpgtb %xmm1, %xmm0, %k0 ; AVX512-NEXT: vpmovm2b %k0, %xmm0 ; AVX512-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -806,7 +806,7 @@ define i8 @test_v16i8_sext(<16 x i8> %a0, <16 x i8> %a1) { define i8 @test_v32i8_sext(<32 x i8> %a0, <32 x i8> %a1) { ; SSE-LABEL: test_v32i8_sext: -; SSE: # BB#0: +; SSE: # %bb.0: ; SSE-NEXT: pcmpgtb %xmm3, %xmm1 ; SSE-NEXT: pcmpgtb %xmm2, %xmm0 ; SSE-NEXT: por %xmm1, %xmm0 @@ -817,7 +817,7 @@ define i8 @test_v32i8_sext(<32 x i8> %a0, <32 x i8> %a1) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test_v32i8_sext: -; AVX1: # BB#0: +; AVX1: # %bb.0: ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpcmpgtb %xmm2, %xmm3, %xmm2 @@ -838,7 +838,7 @@ define i8 @test_v32i8_sext(<32 x i8> %a0, <32 x i8> %a1) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test_v32i8_sext: -; AVX2: # BB#0: +; AVX2: # %bb.0: ; AVX2-NEXT: vpcmpgtb %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: vpmovmskb %ymm0, %eax ; AVX2-NEXT: negl %eax @@ -848,7 +848,7 @@ define i8 @test_v32i8_sext(<32 x i8> %a0, <32 x i8> %a1) { ; AVX2-NEXT: retq ; ; AVX512-LABEL: test_v32i8_sext: -; AVX512: # BB#0: +; AVX512: # %bb.0: ; AVX512-NEXT: vpcmpgtb %ymm1, %ymm0, %k0 ; AVX512-NEXT: vpmovm2b %k0, %ymm0 ; AVX512-NEXT: vextracti128 $1, %ymm0, %xmm1 |