diff options
Diffstat (limited to 'llvm/test/CodeGen/X86/horizontal-reduce-umin.ll')
-rw-r--r-- | llvm/test/CodeGen/X86/horizontal-reduce-umin.ll | 196 |
1 files changed, 98 insertions, 98 deletions
diff --git a/llvm/test/CodeGen/X86/horizontal-reduce-umin.ll b/llvm/test/CodeGen/X86/horizontal-reduce-umin.ll index 9c2e3788b1c..749fe7ee4a4 100644 --- a/llvm/test/CodeGen/X86/horizontal-reduce-umin.ll +++ b/llvm/test/CodeGen/X86/horizontal-reduce-umin.ll @@ -15,7 +15,7 @@ define i64 @test_reduce_v2i64(<2 x i64> %a0) { ; X86-SSE2-LABEL: test_reduce_v2i64: -; X86-SSE2: ## BB#0: +; X86-SSE2: ## %bb.0: ; X86-SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X86-SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; X86-SSE2-NEXT: movdqa %xmm0, %xmm3 @@ -38,7 +38,7 @@ define i64 @test_reduce_v2i64(<2 x i64> %a0) { ; X86-SSE2-NEXT: retl ; ; X86-SSE42-LABEL: test_reduce_v2i64: -; X86-SSE42: ## BB#0: +; X86-SSE42: ## %bb.0: ; X86-SSE42-NEXT: movdqa %xmm0, %xmm1 ; X86-SSE42-NEXT: pshufd {{.*#+}} xmm2 = xmm1[2,3,0,1] ; X86-SSE42-NEXT: movdqa {{.*#+}} xmm0 = [0,2147483648,0,2147483648] @@ -52,7 +52,7 @@ define i64 @test_reduce_v2i64(<2 x i64> %a0) { ; X86-SSE42-NEXT: retl ; ; X86-AVX-LABEL: test_reduce_v2i64: -; X86-AVX: ## BB#0: +; X86-AVX: ## %bb.0: ; X86-AVX-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X86-AVX-NEXT: vmovdqa {{.*#+}} xmm2 = [0,2147483648,0,2147483648] ; X86-AVX-NEXT: vpxor %xmm2, %xmm0, %xmm3 @@ -64,7 +64,7 @@ define i64 @test_reduce_v2i64(<2 x i64> %a0) { ; X86-AVX-NEXT: retl ; ; X64-SSE2-LABEL: test_reduce_v2i64: -; X64-SSE2: ## BB#0: +; X64-SSE2: ## %bb.0: ; X64-SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; X64-SSE2-NEXT: movdqa %xmm0, %xmm3 @@ -85,7 +85,7 @@ define i64 @test_reduce_v2i64(<2 x i64> %a0) { ; X64-SSE2-NEXT: retq ; ; X64-SSE42-LABEL: test_reduce_v2i64: -; X64-SSE42: ## BB#0: +; X64-SSE42: ## %bb.0: ; X64-SSE42-NEXT: movdqa %xmm0, %xmm1 ; X64-SSE42-NEXT: pshufd {{.*#+}} xmm2 = xmm1[2,3,0,1] ; X64-SSE42-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] @@ -98,7 +98,7 @@ define i64 @test_reduce_v2i64(<2 x i64> %a0) { ; X64-SSE42-NEXT: retq ; ; X64-AVX1-LABEL: test_reduce_v2i64: -; X64-AVX1: ## BB#0: +; X64-AVX1: ## %bb.0: ; X64-AVX1-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; X64-AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm3 @@ -109,7 +109,7 @@ define i64 @test_reduce_v2i64(<2 x i64> %a0) { ; X64-AVX1-NEXT: retq ; ; X64-AVX2-LABEL: test_reduce_v2i64: -; X64-AVX2: ## BB#0: +; X64-AVX2: ## %bb.0: ; X64-AVX2-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-AVX2-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; X64-AVX2-NEXT: vpxor %xmm2, %xmm0, %xmm3 @@ -120,7 +120,7 @@ define i64 @test_reduce_v2i64(<2 x i64> %a0) { ; X64-AVX2-NEXT: retq ; ; X64-AVX512-LABEL: test_reduce_v2i64: -; X64-AVX512: ## BB#0: +; X64-AVX512: ## %bb.0: ; X64-AVX512-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-AVX512-NEXT: vpminuq %xmm1, %xmm0, %xmm0 ; X64-AVX512-NEXT: vmovq %xmm0, %rax @@ -134,7 +134,7 @@ define i64 @test_reduce_v2i64(<2 x i64> %a0) { define i32 @test_reduce_v4i32(<4 x i32> %a0) { ; X86-SSE2-LABEL: test_reduce_v4i32: -; X86-SSE2: ## BB#0: +; X86-SSE2: ## %bb.0: ; X86-SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X86-SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; X86-SSE2-NEXT: movdqa %xmm0, %xmm3 @@ -157,7 +157,7 @@ define i32 @test_reduce_v4i32(<4 x i32> %a0) { ; X86-SSE2-NEXT: retl ; ; X86-SSE42-LABEL: test_reduce_v4i32: -; X86-SSE42: ## BB#0: +; X86-SSE42: ## %bb.0: ; X86-SSE42-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X86-SSE42-NEXT: pminud %xmm0, %xmm1 ; X86-SSE42-NEXT: pshufd {{.*#+}} xmm0 = xmm1[1,1,2,3] @@ -166,7 +166,7 @@ define i32 @test_reduce_v4i32(<4 x i32> %a0) { ; X86-SSE42-NEXT: retl ; ; X86-AVX-LABEL: test_reduce_v4i32: -; X86-AVX: ## BB#0: +; X86-AVX: ## %bb.0: ; X86-AVX-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X86-AVX-NEXT: vpminud %xmm1, %xmm0, %xmm0 ; X86-AVX-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[1,1,2,3] @@ -175,7 +175,7 @@ define i32 @test_reduce_v4i32(<4 x i32> %a0) { ; X86-AVX-NEXT: retl ; ; X64-SSE2-LABEL: test_reduce_v4i32: -; X64-SSE2: ## BB#0: +; X64-SSE2: ## %bb.0: ; X64-SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; X64-SSE2-NEXT: movdqa %xmm0, %xmm3 @@ -198,7 +198,7 @@ define i32 @test_reduce_v4i32(<4 x i32> %a0) { ; X64-SSE2-NEXT: retq ; ; X64-SSE42-LABEL: test_reduce_v4i32: -; X64-SSE42: ## BB#0: +; X64-SSE42: ## %bb.0: ; X64-SSE42-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-SSE42-NEXT: pminud %xmm0, %xmm1 ; X64-SSE42-NEXT: pshufd {{.*#+}} xmm0 = xmm1[1,1,2,3] @@ -207,7 +207,7 @@ define i32 @test_reduce_v4i32(<4 x i32> %a0) { ; X64-SSE42-NEXT: retq ; ; X64-AVX-LABEL: test_reduce_v4i32: -; X64-AVX: ## BB#0: +; X64-AVX: ## %bb.0: ; X64-AVX-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-AVX-NEXT: vpminud %xmm1, %xmm0, %xmm0 ; X64-AVX-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[1,1,2,3] @@ -226,7 +226,7 @@ define i32 @test_reduce_v4i32(<4 x i32> %a0) { define i16 @test_reduce_v8i16(<8 x i16> %a0) { ; X86-SSE2-LABEL: test_reduce_v8i16: -; X86-SSE2: ## BB#0: +; X86-SSE2: ## %bb.0: ; X86-SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm0[2,3,0,1] ; X86-SSE2-NEXT: movdqa {{.*#+}} xmm1 = [32768,32768,32768,32768,32768,32768,32768,32768] ; X86-SSE2-NEXT: movdqa %xmm0, %xmm3 @@ -260,21 +260,21 @@ define i16 @test_reduce_v8i16(<8 x i16> %a0) { ; X86-SSE2-NEXT: retl ; ; X86-SSE42-LABEL: test_reduce_v8i16: -; X86-SSE42: ## BB#0: +; X86-SSE42: ## %bb.0: ; X86-SSE42-NEXT: phminposuw %xmm0, %xmm0 ; X86-SSE42-NEXT: movd %xmm0, %eax ; X86-SSE42-NEXT: ## kill: %ax<def> %ax<kill> %eax<kill> ; X86-SSE42-NEXT: retl ; ; X86-AVX-LABEL: test_reduce_v8i16: -; X86-AVX: ## BB#0: +; X86-AVX: ## %bb.0: ; X86-AVX-NEXT: vphminposuw %xmm0, %xmm0 ; X86-AVX-NEXT: vmovd %xmm0, %eax ; X86-AVX-NEXT: ## kill: %ax<def> %ax<kill> %eax<kill> ; X86-AVX-NEXT: retl ; ; X64-SSE2-LABEL: test_reduce_v8i16: -; X64-SSE2: ## BB#0: +; X64-SSE2: ## %bb.0: ; X64-SSE2-NEXT: pshufd {{.*#+}} xmm2 = xmm0[2,3,0,1] ; X64-SSE2-NEXT: movdqa {{.*#+}} xmm1 = [32768,32768,32768,32768,32768,32768,32768,32768] ; X64-SSE2-NEXT: movdqa %xmm0, %xmm3 @@ -308,14 +308,14 @@ define i16 @test_reduce_v8i16(<8 x i16> %a0) { ; X64-SSE2-NEXT: retq ; ; X64-SSE42-LABEL: test_reduce_v8i16: -; X64-SSE42: ## BB#0: +; X64-SSE42: ## %bb.0: ; X64-SSE42-NEXT: phminposuw %xmm0, %xmm0 ; X64-SSE42-NEXT: movd %xmm0, %eax ; X64-SSE42-NEXT: ## kill: %ax<def> %ax<kill> %eax<kill> ; X64-SSE42-NEXT: retq ; ; X64-AVX-LABEL: test_reduce_v8i16: -; X64-AVX: ## BB#0: +; X64-AVX: ## %bb.0: ; X64-AVX-NEXT: vphminposuw %xmm0, %xmm0 ; X64-AVX-NEXT: vmovd %xmm0, %eax ; X64-AVX-NEXT: ## kill: %ax<def> %ax<kill> %eax<kill> @@ -335,7 +335,7 @@ define i16 @test_reduce_v8i16(<8 x i16> %a0) { define i8 @test_reduce_v16i8(<16 x i8> %a0) { ; X86-SSE2-LABEL: test_reduce_v16i8: -; X86-SSE2: ## BB#0: +; X86-SSE2: ## %bb.0: ; X86-SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X86-SSE2-NEXT: pminub %xmm0, %xmm1 ; X86-SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm1[1,1,2,3] @@ -351,7 +351,7 @@ define i8 @test_reduce_v16i8(<16 x i8> %a0) { ; X86-SSE2-NEXT: retl ; ; X86-SSE42-LABEL: test_reduce_v16i8: -; X86-SSE42: ## BB#0: +; X86-SSE42: ## %bb.0: ; X86-SSE42-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X86-SSE42-NEXT: pminub %xmm0, %xmm1 ; X86-SSE42-NEXT: pshufd {{.*#+}} xmm0 = xmm1[1,1,2,3] @@ -367,7 +367,7 @@ define i8 @test_reduce_v16i8(<16 x i8> %a0) { ; X86-SSE42-NEXT: retl ; ; X86-AVX-LABEL: test_reduce_v16i8: -; X86-AVX: ## BB#0: +; X86-AVX: ## %bb.0: ; X86-AVX-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X86-AVX-NEXT: vpminub %xmm1, %xmm0, %xmm0 ; X86-AVX-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[1,1,2,3] @@ -381,7 +381,7 @@ define i8 @test_reduce_v16i8(<16 x i8> %a0) { ; X86-AVX-NEXT: retl ; ; X64-SSE2-LABEL: test_reduce_v16i8: -; X64-SSE2: ## BB#0: +; X64-SSE2: ## %bb.0: ; X64-SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-SSE2-NEXT: pminub %xmm0, %xmm1 ; X64-SSE2-NEXT: pshufd {{.*#+}} xmm0 = xmm1[1,1,2,3] @@ -397,7 +397,7 @@ define i8 @test_reduce_v16i8(<16 x i8> %a0) { ; X64-SSE2-NEXT: retq ; ; X64-SSE42-LABEL: test_reduce_v16i8: -; X64-SSE42: ## BB#0: +; X64-SSE42: ## %bb.0: ; X64-SSE42-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-SSE42-NEXT: pminub %xmm0, %xmm1 ; X64-SSE42-NEXT: pshufd {{.*#+}} xmm0 = xmm1[1,1,2,3] @@ -413,7 +413,7 @@ define i8 @test_reduce_v16i8(<16 x i8> %a0) { ; X64-SSE42-NEXT: retq ; ; X64-AVX-LABEL: test_reduce_v16i8: -; X64-AVX: ## BB#0: +; X64-AVX: ## %bb.0: ; X64-AVX-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-AVX-NEXT: vpminub %xmm1, %xmm0, %xmm0 ; X64-AVX-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[1,1,2,3] @@ -447,7 +447,7 @@ define i8 @test_reduce_v16i8(<16 x i8> %a0) { define i64 @test_reduce_v4i64(<4 x i64> %a0) { ; X86-SSE2-LABEL: test_reduce_v4i64: -; X86-SSE2: ## BB#0: +; X86-SSE2: ## %bb.0: ; X86-SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; X86-SSE2-NEXT: movdqa %xmm0, %xmm3 ; X86-SSE2-NEXT: pxor %xmm2, %xmm3 @@ -485,7 +485,7 @@ define i64 @test_reduce_v4i64(<4 x i64> %a0) { ; X86-SSE2-NEXT: retl ; ; X86-SSE42-LABEL: test_reduce_v4i64: -; X86-SSE42: ## BB#0: +; X86-SSE42: ## %bb.0: ; X86-SSE42-NEXT: movdqa %xmm0, %xmm2 ; X86-SSE42-NEXT: movdqa {{.*#+}} xmm3 = [0,2147483648,0,2147483648] ; X86-SSE42-NEXT: movdqa %xmm2, %xmm4 @@ -506,7 +506,7 @@ define i64 @test_reduce_v4i64(<4 x i64> %a0) { ; X86-SSE42-NEXT: retl ; ; X86-AVX1-LABEL: test_reduce_v4i64: -; X86-AVX1: ## BB#0: +; X86-AVX1: ## %bb.0: ; X86-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 ; X86-AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [0,2147483648,0,2147483648] ; X86-AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm3 @@ -530,7 +530,7 @@ define i64 @test_reduce_v4i64(<4 x i64> %a0) { ; X86-AVX1-NEXT: retl ; ; X86-AVX2-LABEL: test_reduce_v4i64: -; X86-AVX2: ## BB#0: +; X86-AVX2: ## %bb.0: ; X86-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X86-AVX2-NEXT: vmovdqa {{.*#+}} ymm2 = [0,2147483648,0,2147483648,0,2147483648,0,2147483648] ; X86-AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm3 @@ -548,7 +548,7 @@ define i64 @test_reduce_v4i64(<4 x i64> %a0) { ; X86-AVX2-NEXT: retl ; ; X64-SSE2-LABEL: test_reduce_v4i64: -; X64-SSE2: ## BB#0: +; X64-SSE2: ## %bb.0: ; X64-SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; X64-SSE2-NEXT: movdqa %xmm0, %xmm3 ; X64-SSE2-NEXT: pxor %xmm2, %xmm3 @@ -584,7 +584,7 @@ define i64 @test_reduce_v4i64(<4 x i64> %a0) { ; X64-SSE2-NEXT: retq ; ; X64-SSE42-LABEL: test_reduce_v4i64: -; X64-SSE42: ## BB#0: +; X64-SSE42: ## %bb.0: ; X64-SSE42-NEXT: movdqa %xmm0, %xmm2 ; X64-SSE42-NEXT: movdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; X64-SSE42-NEXT: movdqa %xmm2, %xmm4 @@ -604,7 +604,7 @@ define i64 @test_reduce_v4i64(<4 x i64> %a0) { ; X64-SSE42-NEXT: retq ; ; X64-AVX1-LABEL: test_reduce_v4i64: -; X64-AVX1: ## BB#0: +; X64-AVX1: ## %bb.0: ; X64-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 ; X64-AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; X64-AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm3 @@ -627,7 +627,7 @@ define i64 @test_reduce_v4i64(<4 x i64> %a0) { ; X64-AVX1-NEXT: retq ; ; X64-AVX2-LABEL: test_reduce_v4i64: -; X64-AVX2: ## BB#0: +; X64-AVX2: ## %bb.0: ; X64-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X64-AVX2-NEXT: vpbroadcastq {{.*#+}} ymm2 = [9223372036854775808,9223372036854775808,9223372036854775808,9223372036854775808] ; X64-AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm3 @@ -644,7 +644,7 @@ define i64 @test_reduce_v4i64(<4 x i64> %a0) { ; X64-AVX2-NEXT: retq ; ; X64-AVX512-LABEL: test_reduce_v4i64: -; X64-AVX512: ## BB#0: +; X64-AVX512: ## %bb.0: ; X64-AVX512-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X64-AVX512-NEXT: vpminuq %ymm1, %ymm0, %ymm0 ; X64-AVX512-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -664,7 +664,7 @@ define i64 @test_reduce_v4i64(<4 x i64> %a0) { define i32 @test_reduce_v8i32(<8 x i32> %a0) { ; X86-SSE2-LABEL: test_reduce_v8i32: -; X86-SSE2: ## BB#0: +; X86-SSE2: ## %bb.0: ; X86-SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; X86-SSE2-NEXT: movdqa %xmm0, %xmm3 ; X86-SSE2-NEXT: pxor %xmm2, %xmm3 @@ -695,7 +695,7 @@ define i32 @test_reduce_v8i32(<8 x i32> %a0) { ; X86-SSE2-NEXT: retl ; ; X86-SSE42-LABEL: test_reduce_v8i32: -; X86-SSE42: ## BB#0: +; X86-SSE42: ## %bb.0: ; X86-SSE42-NEXT: pminud %xmm1, %xmm0 ; X86-SSE42-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X86-SSE42-NEXT: pminud %xmm0, %xmm1 @@ -705,7 +705,7 @@ define i32 @test_reduce_v8i32(<8 x i32> %a0) { ; X86-SSE42-NEXT: retl ; ; X86-AVX1-LABEL: test_reduce_v8i32: -; X86-AVX1: ## BB#0: +; X86-AVX1: ## %bb.0: ; X86-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 ; X86-AVX1-NEXT: vpminud %xmm1, %xmm0, %xmm0 ; X86-AVX1-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -717,7 +717,7 @@ define i32 @test_reduce_v8i32(<8 x i32> %a0) { ; X86-AVX1-NEXT: retl ; ; X86-AVX2-LABEL: test_reduce_v8i32: -; X86-AVX2: ## BB#0: +; X86-AVX2: ## %bb.0: ; X86-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X86-AVX2-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; X86-AVX2-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -729,7 +729,7 @@ define i32 @test_reduce_v8i32(<8 x i32> %a0) { ; X86-AVX2-NEXT: retl ; ; X64-SSE2-LABEL: test_reduce_v8i32: -; X64-SSE2: ## BB#0: +; X64-SSE2: ## %bb.0: ; X64-SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; X64-SSE2-NEXT: movdqa %xmm0, %xmm3 ; X64-SSE2-NEXT: pxor %xmm2, %xmm3 @@ -760,7 +760,7 @@ define i32 @test_reduce_v8i32(<8 x i32> %a0) { ; X64-SSE2-NEXT: retq ; ; X64-SSE42-LABEL: test_reduce_v8i32: -; X64-SSE42: ## BB#0: +; X64-SSE42: ## %bb.0: ; X64-SSE42-NEXT: pminud %xmm1, %xmm0 ; X64-SSE42-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-SSE42-NEXT: pminud %xmm0, %xmm1 @@ -770,7 +770,7 @@ define i32 @test_reduce_v8i32(<8 x i32> %a0) { ; X64-SSE42-NEXT: retq ; ; X64-AVX1-LABEL: test_reduce_v8i32: -; X64-AVX1: ## BB#0: +; X64-AVX1: ## %bb.0: ; X64-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 ; X64-AVX1-NEXT: vpminud %xmm1, %xmm0, %xmm0 ; X64-AVX1-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -782,7 +782,7 @@ define i32 @test_reduce_v8i32(<8 x i32> %a0) { ; X64-AVX1-NEXT: retq ; ; X64-AVX2-LABEL: test_reduce_v8i32: -; X64-AVX2: ## BB#0: +; X64-AVX2: ## %bb.0: ; X64-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X64-AVX2-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; X64-AVX2-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -794,7 +794,7 @@ define i32 @test_reduce_v8i32(<8 x i32> %a0) { ; X64-AVX2-NEXT: retq ; ; X64-AVX512-LABEL: test_reduce_v8i32: -; X64-AVX512: ## BB#0: +; X64-AVX512: ## %bb.0: ; X64-AVX512-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X64-AVX512-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; X64-AVX512-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -819,7 +819,7 @@ define i32 @test_reduce_v8i32(<8 x i32> %a0) { define i16 @test_reduce_v16i16(<16 x i16> %a0) { ; X86-SSE2-LABEL: test_reduce_v16i16: -; X86-SSE2: ## BB#0: +; X86-SSE2: ## %bb.0: ; X86-SSE2-NEXT: movdqa {{.*#+}} xmm2 = [32768,32768,32768,32768,32768,32768,32768,32768] ; X86-SSE2-NEXT: movdqa %xmm0, %xmm3 ; X86-SSE2-NEXT: pxor %xmm2, %xmm3 @@ -861,7 +861,7 @@ define i16 @test_reduce_v16i16(<16 x i16> %a0) { ; X86-SSE2-NEXT: retl ; ; X86-SSE42-LABEL: test_reduce_v16i16: -; X86-SSE42: ## BB#0: +; X86-SSE42: ## %bb.0: ; X86-SSE42-NEXT: pminuw %xmm1, %xmm0 ; X86-SSE42-NEXT: phminposuw %xmm0, %xmm0 ; X86-SSE42-NEXT: movd %xmm0, %eax @@ -869,7 +869,7 @@ define i16 @test_reduce_v16i16(<16 x i16> %a0) { ; X86-SSE42-NEXT: retl ; ; X86-AVX1-LABEL: test_reduce_v16i16: -; X86-AVX1: ## BB#0: +; X86-AVX1: ## %bb.0: ; X86-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 ; X86-AVX1-NEXT: vpminuw %xmm1, %xmm0, %xmm0 ; X86-AVX1-NEXT: vphminposuw %xmm0, %xmm0 @@ -879,7 +879,7 @@ define i16 @test_reduce_v16i16(<16 x i16> %a0) { ; X86-AVX1-NEXT: retl ; ; X86-AVX2-LABEL: test_reduce_v16i16: -; X86-AVX2: ## BB#0: +; X86-AVX2: ## %bb.0: ; X86-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X86-AVX2-NEXT: vpminuw %xmm1, %xmm0, %xmm0 ; X86-AVX2-NEXT: vphminposuw %xmm0, %xmm0 @@ -889,7 +889,7 @@ define i16 @test_reduce_v16i16(<16 x i16> %a0) { ; X86-AVX2-NEXT: retl ; ; X64-SSE2-LABEL: test_reduce_v16i16: -; X64-SSE2: ## BB#0: +; X64-SSE2: ## %bb.0: ; X64-SSE2-NEXT: movdqa {{.*#+}} xmm2 = [32768,32768,32768,32768,32768,32768,32768,32768] ; X64-SSE2-NEXT: movdqa %xmm0, %xmm3 ; X64-SSE2-NEXT: pxor %xmm2, %xmm3 @@ -931,7 +931,7 @@ define i16 @test_reduce_v16i16(<16 x i16> %a0) { ; X64-SSE2-NEXT: retq ; ; X64-SSE42-LABEL: test_reduce_v16i16: -; X64-SSE42: ## BB#0: +; X64-SSE42: ## %bb.0: ; X64-SSE42-NEXT: pminuw %xmm1, %xmm0 ; X64-SSE42-NEXT: phminposuw %xmm0, %xmm0 ; X64-SSE42-NEXT: movd %xmm0, %eax @@ -939,7 +939,7 @@ define i16 @test_reduce_v16i16(<16 x i16> %a0) { ; X64-SSE42-NEXT: retq ; ; X64-AVX1-LABEL: test_reduce_v16i16: -; X64-AVX1: ## BB#0: +; X64-AVX1: ## %bb.0: ; X64-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 ; X64-AVX1-NEXT: vpminuw %xmm1, %xmm0, %xmm0 ; X64-AVX1-NEXT: vphminposuw %xmm0, %xmm0 @@ -949,7 +949,7 @@ define i16 @test_reduce_v16i16(<16 x i16> %a0) { ; X64-AVX1-NEXT: retq ; ; X64-AVX2-LABEL: test_reduce_v16i16: -; X64-AVX2: ## BB#0: +; X64-AVX2: ## %bb.0: ; X64-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X64-AVX2-NEXT: vpminuw %xmm1, %xmm0, %xmm0 ; X64-AVX2-NEXT: vphminposuw %xmm0, %xmm0 @@ -959,7 +959,7 @@ define i16 @test_reduce_v16i16(<16 x i16> %a0) { ; X64-AVX2-NEXT: retq ; ; X64-AVX512-LABEL: test_reduce_v16i16: -; X64-AVX512: ## BB#0: +; X64-AVX512: ## %bb.0: ; X64-AVX512-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X64-AVX512-NEXT: vpminuw %xmm1, %xmm0, %xmm0 ; X64-AVX512-NEXT: vphminposuw %xmm0, %xmm0 @@ -985,7 +985,7 @@ define i16 @test_reduce_v16i16(<16 x i16> %a0) { define i8 @test_reduce_v32i8(<32 x i8> %a0) { ; X86-SSE2-LABEL: test_reduce_v32i8: -; X86-SSE2: ## BB#0: +; X86-SSE2: ## %bb.0: ; X86-SSE2-NEXT: pminub %xmm1, %xmm0 ; X86-SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X86-SSE2-NEXT: pminub %xmm0, %xmm1 @@ -1002,7 +1002,7 @@ define i8 @test_reduce_v32i8(<32 x i8> %a0) { ; X86-SSE2-NEXT: retl ; ; X86-SSE42-LABEL: test_reduce_v32i8: -; X86-SSE42: ## BB#0: +; X86-SSE42: ## %bb.0: ; X86-SSE42-NEXT: pminub %xmm1, %xmm0 ; X86-SSE42-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X86-SSE42-NEXT: pminub %xmm0, %xmm1 @@ -1019,7 +1019,7 @@ define i8 @test_reduce_v32i8(<32 x i8> %a0) { ; X86-SSE42-NEXT: retl ; ; X86-AVX1-LABEL: test_reduce_v32i8: -; X86-AVX1: ## BB#0: +; X86-AVX1: ## %bb.0: ; X86-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 ; X86-AVX1-NEXT: vpminub %xmm1, %xmm0, %xmm0 ; X86-AVX1-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -1036,7 +1036,7 @@ define i8 @test_reduce_v32i8(<32 x i8> %a0) { ; X86-AVX1-NEXT: retl ; ; X86-AVX2-LABEL: test_reduce_v32i8: -; X86-AVX2: ## BB#0: +; X86-AVX2: ## %bb.0: ; X86-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X86-AVX2-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; X86-AVX2-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -1053,7 +1053,7 @@ define i8 @test_reduce_v32i8(<32 x i8> %a0) { ; X86-AVX2-NEXT: retl ; ; X64-SSE2-LABEL: test_reduce_v32i8: -; X64-SSE2: ## BB#0: +; X64-SSE2: ## %bb.0: ; X64-SSE2-NEXT: pminub %xmm1, %xmm0 ; X64-SSE2-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-SSE2-NEXT: pminub %xmm0, %xmm1 @@ -1070,7 +1070,7 @@ define i8 @test_reduce_v32i8(<32 x i8> %a0) { ; X64-SSE2-NEXT: retq ; ; X64-SSE42-LABEL: test_reduce_v32i8: -; X64-SSE42: ## BB#0: +; X64-SSE42: ## %bb.0: ; X64-SSE42-NEXT: pminub %xmm1, %xmm0 ; X64-SSE42-NEXT: pshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] ; X64-SSE42-NEXT: pminub %xmm0, %xmm1 @@ -1087,7 +1087,7 @@ define i8 @test_reduce_v32i8(<32 x i8> %a0) { ; X64-SSE42-NEXT: retq ; ; X64-AVX1-LABEL: test_reduce_v32i8: -; X64-AVX1: ## BB#0: +; X64-AVX1: ## %bb.0: ; X64-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm1 ; X64-AVX1-NEXT: vpminub %xmm1, %xmm0, %xmm0 ; X64-AVX1-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -1104,7 +1104,7 @@ define i8 @test_reduce_v32i8(<32 x i8> %a0) { ; X64-AVX1-NEXT: retq ; ; X64-AVX2-LABEL: test_reduce_v32i8: -; X64-AVX2: ## BB#0: +; X64-AVX2: ## %bb.0: ; X64-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X64-AVX2-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; X64-AVX2-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -1121,7 +1121,7 @@ define i8 @test_reduce_v32i8(<32 x i8> %a0) { ; X64-AVX2-NEXT: retq ; ; X64-AVX512-LABEL: test_reduce_v32i8: -; X64-AVX512: ## BB#0: +; X64-AVX512: ## %bb.0: ; X64-AVX512-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X64-AVX512-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; X64-AVX512-NEXT: vpshufd {{.*#+}} xmm1 = xmm0[2,3,0,1] @@ -1161,7 +1161,7 @@ define i8 @test_reduce_v32i8(<32 x i8> %a0) { define i64 @test_reduce_v8i64(<8 x i64> %a0) { ; X86-SSE2-LABEL: test_reduce_v8i64: -; X86-SSE2: ## BB#0: +; X86-SSE2: ## %bb.0: ; X86-SSE2-NEXT: subl $28, %esp ; X86-SSE2-NEXT: .cfi_def_cfa_offset 32 ; X86-SSE2-NEXT: movdqa %xmm2, %xmm6 @@ -1234,7 +1234,7 @@ define i64 @test_reduce_v8i64(<8 x i64> %a0) { ; X86-SSE2-NEXT: retl ; ; X86-SSE42-LABEL: test_reduce_v8i64: -; X86-SSE42: ## BB#0: +; X86-SSE42: ## %bb.0: ; X86-SSE42-NEXT: movdqa %xmm0, %xmm5 ; X86-SSE42-NEXT: movdqa {{.*#+}} xmm4 = [0,2147483648,0,2147483648] ; X86-SSE42-NEXT: pxor %xmm4, %xmm0 @@ -1267,7 +1267,7 @@ define i64 @test_reduce_v8i64(<8 x i64> %a0) { ; X86-SSE42-NEXT: retl ; ; X86-AVX1-LABEL: test_reduce_v8i64: -; X86-AVX1: ## BB#0: +; X86-AVX1: ## %bb.0: ; X86-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2 ; X86-AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [0,2147483648,0,2147483648] ; X86-AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -1301,7 +1301,7 @@ define i64 @test_reduce_v8i64(<8 x i64> %a0) { ; X86-AVX1-NEXT: retl ; ; X86-AVX2-LABEL: test_reduce_v8i64: -; X86-AVX2: ## BB#0: +; X86-AVX2: ## %bb.0: ; X86-AVX2-NEXT: vmovdqa {{.*#+}} ymm2 = [0,2147483648,0,2147483648,0,2147483648,0,2147483648] ; X86-AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm3 ; X86-AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm4 @@ -1323,7 +1323,7 @@ define i64 @test_reduce_v8i64(<8 x i64> %a0) { ; X86-AVX2-NEXT: retl ; ; X64-SSE2-LABEL: test_reduce_v8i64: -; X64-SSE2: ## BB#0: +; X64-SSE2: ## %bb.0: ; X64-SSE2-NEXT: movdqa {{.*#+}} xmm9 = [2147483648,2147483648,2147483648,2147483648] ; X64-SSE2-NEXT: movdqa %xmm0, %xmm5 ; X64-SSE2-NEXT: pxor %xmm9, %xmm5 @@ -1389,7 +1389,7 @@ define i64 @test_reduce_v8i64(<8 x i64> %a0) { ; X64-SSE2-NEXT: retq ; ; X64-SSE42-LABEL: test_reduce_v8i64: -; X64-SSE42: ## BB#0: +; X64-SSE42: ## %bb.0: ; X64-SSE42-NEXT: movdqa %xmm0, %xmm5 ; X64-SSE42-NEXT: movdqa {{.*#+}} xmm4 = [9223372036854775808,9223372036854775808] ; X64-SSE42-NEXT: pxor %xmm4, %xmm0 @@ -1421,7 +1421,7 @@ define i64 @test_reduce_v8i64(<8 x i64> %a0) { ; X64-SSE42-NEXT: retq ; ; X64-AVX1-LABEL: test_reduce_v8i64: -; X64-AVX1: ## BB#0: +; X64-AVX1: ## %bb.0: ; X64-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2 ; X64-AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; X64-AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -1454,7 +1454,7 @@ define i64 @test_reduce_v8i64(<8 x i64> %a0) { ; X64-AVX1-NEXT: retq ; ; X64-AVX2-LABEL: test_reduce_v8i64: -; X64-AVX2: ## BB#0: +; X64-AVX2: ## %bb.0: ; X64-AVX2-NEXT: vpbroadcastq {{.*#+}} ymm2 = [9223372036854775808,9223372036854775808,9223372036854775808,9223372036854775808] ; X64-AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm3 ; X64-AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm4 @@ -1475,7 +1475,7 @@ define i64 @test_reduce_v8i64(<8 x i64> %a0) { ; X64-AVX2-NEXT: retq ; ; X64-AVX512-LABEL: test_reduce_v8i64: -; X64-AVX512: ## BB#0: +; X64-AVX512: ## %bb.0: ; X64-AVX512-NEXT: vextracti64x4 $1, %zmm0, %ymm1 ; X64-AVX512-NEXT: vpminuq %zmm1, %zmm0, %zmm0 ; X64-AVX512-NEXT: vextracti128 $1, %ymm0, %xmm1 @@ -1500,7 +1500,7 @@ define i64 @test_reduce_v8i64(<8 x i64> %a0) { define i32 @test_reduce_v16i32(<16 x i32> %a0) { ; X86-SSE2-LABEL: test_reduce_v16i32: -; X86-SSE2: ## BB#0: +; X86-SSE2: ## %bb.0: ; X86-SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,2147483648,2147483648,2147483648] ; X86-SSE2-NEXT: movdqa %xmm0, %xmm6 ; X86-SSE2-NEXT: pxor %xmm4, %xmm6 @@ -1547,7 +1547,7 @@ define i32 @test_reduce_v16i32(<16 x i32> %a0) { ; X86-SSE2-NEXT: retl ; ; X86-SSE42-LABEL: test_reduce_v16i32: -; X86-SSE42: ## BB#0: +; X86-SSE42: ## %bb.0: ; X86-SSE42-NEXT: pminud %xmm3, %xmm1 ; X86-SSE42-NEXT: pminud %xmm2, %xmm0 ; X86-SSE42-NEXT: pminud %xmm1, %xmm0 @@ -1559,7 +1559,7 @@ define i32 @test_reduce_v16i32(<16 x i32> %a0) { ; X86-SSE42-NEXT: retl ; ; X86-AVX1-LABEL: test_reduce_v16i32: -; X86-AVX1: ## BB#0: +; X86-AVX1: ## %bb.0: ; X86-AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; X86-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; X86-AVX1-NEXT: vpminud %xmm2, %xmm3, %xmm2 @@ -1574,7 +1574,7 @@ define i32 @test_reduce_v16i32(<16 x i32> %a0) { ; X86-AVX1-NEXT: retl ; ; X86-AVX2-LABEL: test_reduce_v16i32: -; X86-AVX2: ## BB#0: +; X86-AVX2: ## %bb.0: ; X86-AVX2-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; X86-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X86-AVX2-NEXT: vpminud %ymm1, %ymm0, %ymm0 @@ -1587,7 +1587,7 @@ define i32 @test_reduce_v16i32(<16 x i32> %a0) { ; X86-AVX2-NEXT: retl ; ; X64-SSE2-LABEL: test_reduce_v16i32: -; X64-SSE2: ## BB#0: +; X64-SSE2: ## %bb.0: ; X64-SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,2147483648,2147483648,2147483648] ; X64-SSE2-NEXT: movdqa %xmm0, %xmm6 ; X64-SSE2-NEXT: pxor %xmm4, %xmm6 @@ -1634,7 +1634,7 @@ define i32 @test_reduce_v16i32(<16 x i32> %a0) { ; X64-SSE2-NEXT: retq ; ; X64-SSE42-LABEL: test_reduce_v16i32: -; X64-SSE42: ## BB#0: +; X64-SSE42: ## %bb.0: ; X64-SSE42-NEXT: pminud %xmm3, %xmm1 ; X64-SSE42-NEXT: pminud %xmm2, %xmm0 ; X64-SSE42-NEXT: pminud %xmm1, %xmm0 @@ -1646,7 +1646,7 @@ define i32 @test_reduce_v16i32(<16 x i32> %a0) { ; X64-SSE42-NEXT: retq ; ; X64-AVX1-LABEL: test_reduce_v16i32: -; X64-AVX1: ## BB#0: +; X64-AVX1: ## %bb.0: ; X64-AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; X64-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; X64-AVX1-NEXT: vpminud %xmm2, %xmm3, %xmm2 @@ -1661,7 +1661,7 @@ define i32 @test_reduce_v16i32(<16 x i32> %a0) { ; X64-AVX1-NEXT: retq ; ; X64-AVX2-LABEL: test_reduce_v16i32: -; X64-AVX2: ## BB#0: +; X64-AVX2: ## %bb.0: ; X64-AVX2-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; X64-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X64-AVX2-NEXT: vpminud %ymm1, %ymm0, %ymm0 @@ -1674,7 +1674,7 @@ define i32 @test_reduce_v16i32(<16 x i32> %a0) { ; X64-AVX2-NEXT: retq ; ; X64-AVX512-LABEL: test_reduce_v16i32: -; X64-AVX512: ## BB#0: +; X64-AVX512: ## %bb.0: ; X64-AVX512-NEXT: vextracti64x4 $1, %zmm0, %ymm1 ; X64-AVX512-NEXT: vpminud %zmm1, %zmm0, %zmm0 ; X64-AVX512-NEXT: vextracti128 $1, %ymm0, %xmm1 @@ -1704,7 +1704,7 @@ define i32 @test_reduce_v16i32(<16 x i32> %a0) { define i16 @test_reduce_v32i16(<32 x i16> %a0) { ; X86-SSE2-LABEL: test_reduce_v32i16: -; X86-SSE2: ## BB#0: +; X86-SSE2: ## %bb.0: ; X86-SSE2-NEXT: movdqa {{.*#+}} xmm4 = [32768,32768,32768,32768,32768,32768,32768,32768] ; X86-SSE2-NEXT: movdqa %xmm0, %xmm6 ; X86-SSE2-NEXT: pxor %xmm4, %xmm6 @@ -1762,7 +1762,7 @@ define i16 @test_reduce_v32i16(<32 x i16> %a0) { ; X86-SSE2-NEXT: retl ; ; X86-SSE42-LABEL: test_reduce_v32i16: -; X86-SSE42: ## BB#0: +; X86-SSE42: ## %bb.0: ; X86-SSE42-NEXT: pminuw %xmm3, %xmm1 ; X86-SSE42-NEXT: pminuw %xmm2, %xmm0 ; X86-SSE42-NEXT: pminuw %xmm1, %xmm0 @@ -1772,7 +1772,7 @@ define i16 @test_reduce_v32i16(<32 x i16> %a0) { ; X86-SSE42-NEXT: retl ; ; X86-AVX1-LABEL: test_reduce_v32i16: -; X86-AVX1: ## BB#0: +; X86-AVX1: ## %bb.0: ; X86-AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; X86-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; X86-AVX1-NEXT: vpminuw %xmm2, %xmm3, %xmm2 @@ -1785,7 +1785,7 @@ define i16 @test_reduce_v32i16(<32 x i16> %a0) { ; X86-AVX1-NEXT: retl ; ; X86-AVX2-LABEL: test_reduce_v32i16: -; X86-AVX2: ## BB#0: +; X86-AVX2: ## %bb.0: ; X86-AVX2-NEXT: vpminuw %ymm1, %ymm0, %ymm0 ; X86-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X86-AVX2-NEXT: vpminuw %xmm1, %xmm0, %xmm0 @@ -1796,7 +1796,7 @@ define i16 @test_reduce_v32i16(<32 x i16> %a0) { ; X86-AVX2-NEXT: retl ; ; X64-SSE2-LABEL: test_reduce_v32i16: -; X64-SSE2: ## BB#0: +; X64-SSE2: ## %bb.0: ; X64-SSE2-NEXT: movdqa {{.*#+}} xmm4 = [32768,32768,32768,32768,32768,32768,32768,32768] ; X64-SSE2-NEXT: movdqa %xmm0, %xmm6 ; X64-SSE2-NEXT: pxor %xmm4, %xmm6 @@ -1854,7 +1854,7 @@ define i16 @test_reduce_v32i16(<32 x i16> %a0) { ; X64-SSE2-NEXT: retq ; ; X64-SSE42-LABEL: test_reduce_v32i16: -; X64-SSE42: ## BB#0: +; X64-SSE42: ## %bb.0: ; X64-SSE42-NEXT: pminuw %xmm3, %xmm1 ; X64-SSE42-NEXT: pminuw %xmm2, %xmm0 ; X64-SSE42-NEXT: pminuw %xmm1, %xmm0 @@ -1864,7 +1864,7 @@ define i16 @test_reduce_v32i16(<32 x i16> %a0) { ; X64-SSE42-NEXT: retq ; ; X64-AVX1-LABEL: test_reduce_v32i16: -; X64-AVX1: ## BB#0: +; X64-AVX1: ## %bb.0: ; X64-AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; X64-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; X64-AVX1-NEXT: vpminuw %xmm2, %xmm3, %xmm2 @@ -1877,7 +1877,7 @@ define i16 @test_reduce_v32i16(<32 x i16> %a0) { ; X64-AVX1-NEXT: retq ; ; X64-AVX2-LABEL: test_reduce_v32i16: -; X64-AVX2: ## BB#0: +; X64-AVX2: ## %bb.0: ; X64-AVX2-NEXT: vpminuw %ymm1, %ymm0, %ymm0 ; X64-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X64-AVX2-NEXT: vpminuw %xmm1, %xmm0, %xmm0 @@ -1888,7 +1888,7 @@ define i16 @test_reduce_v32i16(<32 x i16> %a0) { ; X64-AVX2-NEXT: retq ; ; X64-AVX512-LABEL: test_reduce_v32i16: -; X64-AVX512: ## BB#0: +; X64-AVX512: ## %bb.0: ; X64-AVX512-NEXT: vextracti64x4 $1, %zmm0, %ymm1 ; X64-AVX512-NEXT: vpminuw %ymm1, %ymm0, %ymm0 ; X64-AVX512-NEXT: vextracti128 $1, %ymm0, %xmm1 @@ -1919,7 +1919,7 @@ define i16 @test_reduce_v32i16(<32 x i16> %a0) { define i8 @test_reduce_v64i8(<64 x i8> %a0) { ; X86-SSE2-LABEL: test_reduce_v64i8: -; X86-SSE2: ## BB#0: +; X86-SSE2: ## %bb.0: ; X86-SSE2-NEXT: pminub %xmm3, %xmm1 ; X86-SSE2-NEXT: pminub %xmm2, %xmm0 ; X86-SSE2-NEXT: pminub %xmm1, %xmm0 @@ -1938,7 +1938,7 @@ define i8 @test_reduce_v64i8(<64 x i8> %a0) { ; X86-SSE2-NEXT: retl ; ; X86-SSE42-LABEL: test_reduce_v64i8: -; X86-SSE42: ## BB#0: +; X86-SSE42: ## %bb.0: ; X86-SSE42-NEXT: pminub %xmm3, %xmm1 ; X86-SSE42-NEXT: pminub %xmm2, %xmm0 ; X86-SSE42-NEXT: pminub %xmm1, %xmm0 @@ -1957,7 +1957,7 @@ define i8 @test_reduce_v64i8(<64 x i8> %a0) { ; X86-SSE42-NEXT: retl ; ; X86-AVX1-LABEL: test_reduce_v64i8: -; X86-AVX1: ## BB#0: +; X86-AVX1: ## %bb.0: ; X86-AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; X86-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; X86-AVX1-NEXT: vpminub %xmm2, %xmm3, %xmm2 @@ -1977,7 +1977,7 @@ define i8 @test_reduce_v64i8(<64 x i8> %a0) { ; X86-AVX1-NEXT: retl ; ; X86-AVX2-LABEL: test_reduce_v64i8: -; X86-AVX2: ## BB#0: +; X86-AVX2: ## %bb.0: ; X86-AVX2-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; X86-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X86-AVX2-NEXT: vpminub %ymm1, %ymm0, %ymm0 @@ -1995,7 +1995,7 @@ define i8 @test_reduce_v64i8(<64 x i8> %a0) { ; X86-AVX2-NEXT: retl ; ; X64-SSE2-LABEL: test_reduce_v64i8: -; X64-SSE2: ## BB#0: +; X64-SSE2: ## %bb.0: ; X64-SSE2-NEXT: pminub %xmm3, %xmm1 ; X64-SSE2-NEXT: pminub %xmm2, %xmm0 ; X64-SSE2-NEXT: pminub %xmm1, %xmm0 @@ -2014,7 +2014,7 @@ define i8 @test_reduce_v64i8(<64 x i8> %a0) { ; X64-SSE2-NEXT: retq ; ; X64-SSE42-LABEL: test_reduce_v64i8: -; X64-SSE42: ## BB#0: +; X64-SSE42: ## %bb.0: ; X64-SSE42-NEXT: pminub %xmm3, %xmm1 ; X64-SSE42-NEXT: pminub %xmm2, %xmm0 ; X64-SSE42-NEXT: pminub %xmm1, %xmm0 @@ -2033,7 +2033,7 @@ define i8 @test_reduce_v64i8(<64 x i8> %a0) { ; X64-SSE42-NEXT: retq ; ; X64-AVX1-LABEL: test_reduce_v64i8: -; X64-AVX1: ## BB#0: +; X64-AVX1: ## %bb.0: ; X64-AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; X64-AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; X64-AVX1-NEXT: vpminub %xmm2, %xmm3, %xmm2 @@ -2053,7 +2053,7 @@ define i8 @test_reduce_v64i8(<64 x i8> %a0) { ; X64-AVX1-NEXT: retq ; ; X64-AVX2-LABEL: test_reduce_v64i8: -; X64-AVX2: ## BB#0: +; X64-AVX2: ## %bb.0: ; X64-AVX2-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; X64-AVX2-NEXT: vextracti128 $1, %ymm0, %xmm1 ; X64-AVX2-NEXT: vpminub %ymm1, %ymm0, %ymm0 @@ -2071,7 +2071,7 @@ define i8 @test_reduce_v64i8(<64 x i8> %a0) { ; X64-AVX2-NEXT: retq ; ; X64-AVX512-LABEL: test_reduce_v64i8: -; X64-AVX512: ## BB#0: +; X64-AVX512: ## %bb.0: ; X64-AVX512-NEXT: vextracti64x4 $1, %zmm0, %ymm1 ; X64-AVX512-NEXT: vpminub %zmm1, %zmm0, %zmm0 ; X64-AVX512-NEXT: vextracti128 $1, %ymm0, %xmm1 |