diff options
Diffstat (limited to 'llvm/test/CodeGen/X86/vselect-minmax.ll')
-rw-r--r-- | llvm/test/CodeGen/X86/vselect-minmax.ll | 1632 |
1 files changed, 816 insertions, 816 deletions
diff --git a/llvm/test/CodeGen/X86/vselect-minmax.ll b/llvm/test/CodeGen/X86/vselect-minmax.ll index 5524eaf397c..11edc6a6be5 100644 --- a/llvm/test/CodeGen/X86/vselect-minmax.ll +++ b/llvm/test/CodeGen/X86/vselect-minmax.ll @@ -8,7 +8,7 @@ define <16 x i8> @test1(<16 x i8> %a, <16 x i8> %b) { ; SSE2-LABEL: test1: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm2 ; SSE2-NEXT: pcmpgtb %xmm0, %xmm2 ; SSE2-NEXT: pand %xmm2, %xmm0 @@ -17,12 +17,12 @@ define <16 x i8> @test1(<16 x i8> %a, <16 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test1: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsb %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test1: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminsb %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -33,7 +33,7 @@ entry: define <16 x i8> @test2(<16 x i8> %a, <16 x i8> %b) { ; SSE2-LABEL: test2: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm2 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm2 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm3 @@ -45,12 +45,12 @@ define <16 x i8> @test2(<16 x i8> %a, <16 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test2: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsb %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test2: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminsb %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -61,7 +61,7 @@ entry: define <16 x i8> @test3(<16 x i8> %a, <16 x i8> %b) { ; SSE2-LABEL: test3: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm2 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm2 ; SSE2-NEXT: pand %xmm2, %xmm0 @@ -71,12 +71,12 @@ define <16 x i8> @test3(<16 x i8> %a, <16 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test3: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsb %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test3: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxsb %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -87,7 +87,7 @@ entry: define <16 x i8> @test4(<16 x i8> %a, <16 x i8> %b) { ; SSE2-LABEL: test4: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pcmpgtb %xmm0, %xmm3 ; SSE2-NEXT: pcmpeqd %xmm2, %xmm2 @@ -99,12 +99,12 @@ define <16 x i8> @test4(<16 x i8> %a, <16 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test4: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsb %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test4: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxsb %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -115,12 +115,12 @@ entry: define <16 x i8> @test5(<16 x i8> %a, <16 x i8> %b) { ; SSE-LABEL: test5: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminub %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test5: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminub %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -131,12 +131,12 @@ entry: define <16 x i8> @test6(<16 x i8> %a, <16 x i8> %b) { ; SSE-LABEL: test6: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminub %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test6: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminub %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -147,12 +147,12 @@ entry: define <16 x i8> @test7(<16 x i8> %a, <16 x i8> %b) { ; SSE-LABEL: test7: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxub %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test7: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxub %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -163,12 +163,12 @@ entry: define <16 x i8> @test8(<16 x i8> %a, <16 x i8> %b) { ; SSE-LABEL: test8: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxub %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test8: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxub %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -179,12 +179,12 @@ entry: define <8 x i16> @test9(<8 x i16> %a, <8 x i16> %b) { ; SSE-LABEL: test9: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminsw %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test9: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminsw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -195,12 +195,12 @@ entry: define <8 x i16> @test10(<8 x i16> %a, <8 x i16> %b) { ; SSE-LABEL: test10: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminsw %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test10: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminsw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -211,12 +211,12 @@ entry: define <8 x i16> @test11(<8 x i16> %a, <8 x i16> %b) { ; SSE-LABEL: test11: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxsw %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test11: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxsw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -227,12 +227,12 @@ entry: define <8 x i16> @test12(<8 x i16> %a, <8 x i16> %b) { ; SSE-LABEL: test12: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxsw %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test12: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxsw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -243,7 +243,7 @@ entry: define <8 x i16> @test13(<8 x i16> %a, <8 x i16> %b) { ; SSE2-LABEL: test13: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [32768,32768,32768,32768,32768,32768,32768,32768] ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -255,12 +255,12 @@ define <8 x i16> @test13(<8 x i16> %a, <8 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test13: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminuw %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test13: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminuw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -271,7 +271,7 @@ entry: define <8 x i16> @test14(<8 x i16> %a, <8 x i16> %b) { ; SSE2-LABEL: test14: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm2 ; SSE2-NEXT: psubusw %xmm1, %xmm2 ; SSE2-NEXT: pxor %xmm3, %xmm3 @@ -282,12 +282,12 @@ define <8 x i16> @test14(<8 x i16> %a, <8 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test14: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminuw %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test14: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminuw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -298,7 +298,7 @@ entry: define <8 x i16> @test15(<8 x i16> %a, <8 x i16> %b) { ; SSE2-LABEL: test15: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [32768,32768,32768,32768,32768,32768,32768,32768] ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -310,12 +310,12 @@ define <8 x i16> @test15(<8 x i16> %a, <8 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test15: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxuw %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test15: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxuw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -326,7 +326,7 @@ entry: define <8 x i16> @test16(<8 x i16> %a, <8 x i16> %b) { ; SSE2-LABEL: test16: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm2 ; SSE2-NEXT: psubusw %xmm0, %xmm2 ; SSE2-NEXT: pxor %xmm3, %xmm3 @@ -337,12 +337,12 @@ define <8 x i16> @test16(<8 x i16> %a, <8 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test16: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxuw %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test16: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxuw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -353,7 +353,7 @@ entry: define <4 x i32> @test17(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test17: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm2 ; SSE2-NEXT: pcmpgtd %xmm0, %xmm2 ; SSE2-NEXT: pand %xmm2, %xmm0 @@ -362,12 +362,12 @@ define <4 x i32> @test17(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test17: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsd %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test17: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminsd %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -378,7 +378,7 @@ entry: define <4 x i32> @test18(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test18: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm2 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm2 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm3 @@ -390,12 +390,12 @@ define <4 x i32> @test18(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test18: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsd %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test18: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminsd %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -406,7 +406,7 @@ entry: define <4 x i32> @test19(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test19: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm2 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm2 ; SSE2-NEXT: pand %xmm2, %xmm0 @@ -416,12 +416,12 @@ define <4 x i32> @test19(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test19: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsd %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test19: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxsd %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -432,7 +432,7 @@ entry: define <4 x i32> @test20(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test20: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pcmpgtd %xmm0, %xmm3 ; SSE2-NEXT: pcmpeqd %xmm2, %xmm2 @@ -444,12 +444,12 @@ define <4 x i32> @test20(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test20: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsd %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test20: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxsd %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -460,7 +460,7 @@ entry: define <4 x i32> @test21(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test21: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -472,12 +472,12 @@ define <4 x i32> @test21(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test21: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminud %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test21: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminud %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -488,7 +488,7 @@ entry: define <4 x i32> @test22(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test22: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm2 ; SSE2-NEXT: pxor %xmm3, %xmm2 @@ -503,12 +503,12 @@ define <4 x i32> @test22(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test22: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminud %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test22: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminud %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -519,7 +519,7 @@ entry: define <4 x i32> @test23(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test23: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -531,12 +531,12 @@ define <4 x i32> @test23(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test23: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxud %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test23: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxud %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -547,7 +547,7 @@ entry: define <4 x i32> @test24(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test24: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm0, %xmm2 ; SSE2-NEXT: pxor %xmm3, %xmm2 @@ -562,12 +562,12 @@ define <4 x i32> @test24(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test24: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxud %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test24: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxud %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -578,7 +578,7 @@ entry: define <32 x i8> @test25(<32 x i8> %a, <32 x i8> %b) { ; SSE2-LABEL: test25: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm4 ; SSE2-NEXT: movdqa %xmm2, %xmm5 @@ -592,13 +592,13 @@ define <32 x i8> @test25(<32 x i8> %a, <32 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test25: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsb %xmm2, %xmm0 ; SSE4-NEXT: pminsb %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test25: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminsb %xmm2, %xmm3, %xmm2 @@ -607,12 +607,12 @@ define <32 x i8> @test25(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test25: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsb %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test25: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsb %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -623,7 +623,7 @@ entry: define <32 x i8> @test26(<32 x i8> %a, <32 x i8> %b) { ; SSE2-LABEL: test26: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm6 ; SSE2-NEXT: pcmpgtb %xmm3, %xmm6 ; SSE2-NEXT: pcmpeqd %xmm7, %xmm7 @@ -643,13 +643,13 @@ define <32 x i8> @test26(<32 x i8> %a, <32 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test26: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsb %xmm2, %xmm0 ; SSE4-NEXT: pminsb %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test26: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminsb %xmm2, %xmm3, %xmm2 @@ -658,12 +658,12 @@ define <32 x i8> @test26(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test26: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsb %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test26: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsb %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -674,7 +674,7 @@ entry: define <32 x i8> @test27(<32 x i8> %a, <32 x i8> %b) { ; SSE2-LABEL: test27: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: pcmpgtb %xmm3, %xmm4 ; SSE2-NEXT: movdqa %xmm0, %xmm5 @@ -690,13 +690,13 @@ define <32 x i8> @test27(<32 x i8> %a, <32 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test27: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsb %xmm2, %xmm0 ; SSE4-NEXT: pmaxsb %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test27: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxsb %xmm2, %xmm3, %xmm2 @@ -705,12 +705,12 @@ define <32 x i8> @test27(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test27: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsb %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test27: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsb %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -721,7 +721,7 @@ entry: define <32 x i8> @test28(<32 x i8> %a, <32 x i8> %b) { ; SSE2-LABEL: test28: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm6 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm6 ; SSE2-NEXT: pcmpeqd %xmm4, %xmm4 @@ -741,13 +741,13 @@ define <32 x i8> @test28(<32 x i8> %a, <32 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test28: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsb %xmm2, %xmm0 ; SSE4-NEXT: pmaxsb %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test28: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxsb %xmm2, %xmm3, %xmm2 @@ -756,12 +756,12 @@ define <32 x i8> @test28(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test28: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsb %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test28: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsb %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -772,13 +772,13 @@ entry: define <32 x i8> @test29(<32 x i8> %a, <32 x i8> %b) { ; SSE-LABEL: test29: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminub %xmm2, %xmm0 ; SSE-NEXT: pminub %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test29: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminub %xmm2, %xmm3, %xmm2 @@ -787,12 +787,12 @@ define <32 x i8> @test29(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test29: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test29: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -803,13 +803,13 @@ entry: define <32 x i8> @test30(<32 x i8> %a, <32 x i8> %b) { ; SSE-LABEL: test30: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminub %xmm2, %xmm0 ; SSE-NEXT: pminub %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test30: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminub %xmm2, %xmm3, %xmm2 @@ -818,12 +818,12 @@ define <32 x i8> @test30(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test30: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test30: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -834,13 +834,13 @@ entry: define <32 x i8> @test31(<32 x i8> %a, <32 x i8> %b) { ; SSE-LABEL: test31: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxub %xmm2, %xmm0 ; SSE-NEXT: pmaxub %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test31: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxub %xmm2, %xmm3, %xmm2 @@ -849,12 +849,12 @@ define <32 x i8> @test31(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test31: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxub %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test31: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxub %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -865,13 +865,13 @@ entry: define <32 x i8> @test32(<32 x i8> %a, <32 x i8> %b) { ; SSE-LABEL: test32: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxub %xmm2, %xmm0 ; SSE-NEXT: pmaxub %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test32: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxub %xmm2, %xmm3, %xmm2 @@ -880,12 +880,12 @@ define <32 x i8> @test32(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test32: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxub %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test32: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxub %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -896,13 +896,13 @@ entry: define <16 x i16> @test33(<16 x i16> %a, <16 x i16> %b) { ; SSE-LABEL: test33: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminsw %xmm2, %xmm0 ; SSE-NEXT: pminsw %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test33: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminsw %xmm2, %xmm3, %xmm2 @@ -911,12 +911,12 @@ define <16 x i16> @test33(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test33: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test33: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -927,13 +927,13 @@ entry: define <16 x i16> @test34(<16 x i16> %a, <16 x i16> %b) { ; SSE-LABEL: test34: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminsw %xmm2, %xmm0 ; SSE-NEXT: pminsw %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test34: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminsw %xmm2, %xmm3, %xmm2 @@ -942,12 +942,12 @@ define <16 x i16> @test34(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test34: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test34: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -958,13 +958,13 @@ entry: define <16 x i16> @test35(<16 x i16> %a, <16 x i16> %b) { ; SSE-LABEL: test35: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxsw %xmm2, %xmm0 ; SSE-NEXT: pmaxsw %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test35: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxsw %xmm2, %xmm3, %xmm2 @@ -973,12 +973,12 @@ define <16 x i16> @test35(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test35: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test35: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -989,13 +989,13 @@ entry: define <16 x i16> @test36(<16 x i16> %a, <16 x i16> %b) { ; SSE-LABEL: test36: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxsw %xmm2, %xmm0 ; SSE-NEXT: pmaxsw %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test36: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxsw %xmm2, %xmm3, %xmm2 @@ -1004,12 +1004,12 @@ define <16 x i16> @test36(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test36: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test36: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1020,7 +1020,7 @@ entry: define <16 x i16> @test37(<16 x i16> %a, <16 x i16> %b) { ; SSE2-LABEL: test37: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [32768,32768,32768,32768,32768,32768,32768,32768] ; SSE2-NEXT: movdqa %xmm1, %xmm5 ; SSE2-NEXT: pxor %xmm4, %xmm5 @@ -1040,13 +1040,13 @@ define <16 x i16> @test37(<16 x i16> %a, <16 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test37: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminuw %xmm2, %xmm0 ; SSE4-NEXT: pminuw %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test37: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminuw %xmm2, %xmm3, %xmm2 @@ -1055,12 +1055,12 @@ define <16 x i16> @test37(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test37: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminuw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test37: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminuw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1071,7 +1071,7 @@ entry: define <16 x i16> @test38(<16 x i16> %a, <16 x i16> %b) { ; SSE2-LABEL: test38: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: psubusw %xmm3, %xmm4 ; SSE2-NEXT: pxor %xmm6, %xmm6 @@ -1090,13 +1090,13 @@ define <16 x i16> @test38(<16 x i16> %a, <16 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test38: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminuw %xmm2, %xmm0 ; SSE4-NEXT: pminuw %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test38: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminuw %xmm2, %xmm3, %xmm2 @@ -1105,12 +1105,12 @@ define <16 x i16> @test38(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test38: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminuw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test38: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminuw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1121,7 +1121,7 @@ entry: define <16 x i16> @test39(<16 x i16> %a, <16 x i16> %b) { ; SSE2-LABEL: test39: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [32768,32768,32768,32768,32768,32768,32768,32768] ; SSE2-NEXT: movdqa %xmm3, %xmm6 ; SSE2-NEXT: pxor %xmm5, %xmm6 @@ -1142,13 +1142,13 @@ define <16 x i16> @test39(<16 x i16> %a, <16 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test39: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxuw %xmm2, %xmm0 ; SSE4-NEXT: pmaxuw %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test39: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxuw %xmm2, %xmm3, %xmm2 @@ -1157,12 +1157,12 @@ define <16 x i16> @test39(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test39: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxuw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test39: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxuw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1173,7 +1173,7 @@ entry: define <16 x i16> @test40(<16 x i16> %a, <16 x i16> %b) { ; SSE2-LABEL: test40: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: psubusw %xmm1, %xmm4 ; SSE2-NEXT: pxor %xmm5, %xmm5 @@ -1190,13 +1190,13 @@ define <16 x i16> @test40(<16 x i16> %a, <16 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test40: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxuw %xmm2, %xmm0 ; SSE4-NEXT: pmaxuw %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test40: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxuw %xmm2, %xmm3, %xmm2 @@ -1205,12 +1205,12 @@ define <16 x i16> @test40(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test40: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxuw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test40: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxuw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1221,7 +1221,7 @@ entry: define <8 x i32> @test41(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test41: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm4 ; SSE2-NEXT: movdqa %xmm2, %xmm5 @@ -1235,13 +1235,13 @@ define <8 x i32> @test41(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test41: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsd %xmm2, %xmm0 ; SSE4-NEXT: pminsd %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test41: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminsd %xmm2, %xmm3, %xmm2 @@ -1250,12 +1250,12 @@ define <8 x i32> @test41(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test41: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsd %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test41: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsd %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1266,7 +1266,7 @@ entry: define <8 x i32> @test42(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test42: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm6 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm6 ; SSE2-NEXT: pcmpeqd %xmm7, %xmm7 @@ -1286,13 +1286,13 @@ define <8 x i32> @test42(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test42: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsd %xmm2, %xmm0 ; SSE4-NEXT: pminsd %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test42: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminsd %xmm2, %xmm3, %xmm2 @@ -1301,12 +1301,12 @@ define <8 x i32> @test42(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test42: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsd %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test42: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsd %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1317,7 +1317,7 @@ entry: define <8 x i32> @test43(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test43: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm4 ; SSE2-NEXT: movdqa %xmm0, %xmm5 @@ -1333,13 +1333,13 @@ define <8 x i32> @test43(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test43: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsd %xmm2, %xmm0 ; SSE4-NEXT: pmaxsd %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test43: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxsd %xmm2, %xmm3, %xmm2 @@ -1348,12 +1348,12 @@ define <8 x i32> @test43(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test43: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsd %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test43: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsd %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1364,7 +1364,7 @@ entry: define <8 x i32> @test44(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test44: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm6 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm6 ; SSE2-NEXT: pcmpeqd %xmm4, %xmm4 @@ -1384,13 +1384,13 @@ define <8 x i32> @test44(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test44: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsd %xmm2, %xmm0 ; SSE4-NEXT: pmaxsd %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test44: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxsd %xmm2, %xmm3, %xmm2 @@ -1399,12 +1399,12 @@ define <8 x i32> @test44(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test44: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsd %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test44: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsd %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1415,7 +1415,7 @@ entry: define <8 x i32> @test45(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test45: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm5 ; SSE2-NEXT: pxor %xmm4, %xmm5 @@ -1435,13 +1435,13 @@ define <8 x i32> @test45(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test45: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminud %xmm2, %xmm0 ; SSE4-NEXT: pminud %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test45: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminud %xmm2, %xmm3, %xmm2 @@ -1450,12 +1450,12 @@ define <8 x i32> @test45(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test45: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test45: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1466,7 +1466,7 @@ entry: define <8 x i32> @test46(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test46: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm6 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: pxor %xmm6, %xmm4 @@ -1492,13 +1492,13 @@ define <8 x i32> @test46(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test46: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminud %xmm2, %xmm0 ; SSE4-NEXT: pminud %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test46: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminud %xmm2, %xmm3, %xmm2 @@ -1507,12 +1507,12 @@ define <8 x i32> @test46(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test46: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test46: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1523,7 +1523,7 @@ entry: define <8 x i32> @test47(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test47: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm6 ; SSE2-NEXT: pxor %xmm5, %xmm6 @@ -1544,13 +1544,13 @@ define <8 x i32> @test47(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test47: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxud %xmm2, %xmm0 ; SSE4-NEXT: pmaxud %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test47: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxud %xmm2, %xmm3, %xmm2 @@ -1559,12 +1559,12 @@ define <8 x i32> @test47(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test47: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxud %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test47: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxud %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1575,7 +1575,7 @@ entry: define <8 x i32> @test48(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test48: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm6 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: pxor %xmm6, %xmm4 @@ -1601,13 +1601,13 @@ define <8 x i32> @test48(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test48: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxud %xmm2, %xmm0 ; SSE4-NEXT: pmaxud %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test48: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxud %xmm2, %xmm3, %xmm2 @@ -1616,12 +1616,12 @@ define <8 x i32> @test48(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test48: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxud %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test48: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxud %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -1632,7 +1632,7 @@ entry: define <16 x i8> @test49(<16 x i8> %a, <16 x i8> %b) { ; SSE2-LABEL: test49: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm2 ; SSE2-NEXT: pcmpgtb %xmm0, %xmm2 ; SSE2-NEXT: pand %xmm2, %xmm1 @@ -1642,12 +1642,12 @@ define <16 x i8> @test49(<16 x i8> %a, <16 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test49: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsb %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test49: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxsb %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1658,7 +1658,7 @@ entry: define <16 x i8> @test50(<16 x i8> %a, <16 x i8> %b) { ; SSE2-LABEL: test50: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm2 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm2 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm3 @@ -1670,12 +1670,12 @@ define <16 x i8> @test50(<16 x i8> %a, <16 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test50: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsb %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test50: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxsb %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1686,7 +1686,7 @@ entry: define <16 x i8> @test51(<16 x i8> %a, <16 x i8> %b) { ; SSE2-LABEL: test51: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm2 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm2 ; SSE2-NEXT: pand %xmm2, %xmm1 @@ -1696,12 +1696,12 @@ define <16 x i8> @test51(<16 x i8> %a, <16 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test51: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsb %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test51: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminsb %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1712,7 +1712,7 @@ entry: define <16 x i8> @test52(<16 x i8> %a, <16 x i8> %b) { ; SSE2-LABEL: test52: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pcmpgtb %xmm0, %xmm3 ; SSE2-NEXT: pcmpeqd %xmm2, %xmm2 @@ -1724,12 +1724,12 @@ define <16 x i8> @test52(<16 x i8> %a, <16 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test52: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsb %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test52: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminsb %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1740,12 +1740,12 @@ entry: define <16 x i8> @test53(<16 x i8> %a, <16 x i8> %b) { ; SSE-LABEL: test53: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxub %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test53: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxub %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1756,12 +1756,12 @@ entry: define <16 x i8> @test54(<16 x i8> %a, <16 x i8> %b) { ; SSE-LABEL: test54: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxub %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test54: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxub %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1772,12 +1772,12 @@ entry: define <16 x i8> @test55(<16 x i8> %a, <16 x i8> %b) { ; SSE-LABEL: test55: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminub %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test55: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminub %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1788,12 +1788,12 @@ entry: define <16 x i8> @test56(<16 x i8> %a, <16 x i8> %b) { ; SSE-LABEL: test56: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminub %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test56: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminub %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1804,12 +1804,12 @@ entry: define <8 x i16> @test57(<8 x i16> %a, <8 x i16> %b) { ; SSE-LABEL: test57: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxsw %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test57: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxsw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1820,12 +1820,12 @@ entry: define <8 x i16> @test58(<8 x i16> %a, <8 x i16> %b) { ; SSE-LABEL: test58: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxsw %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test58: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxsw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1836,12 +1836,12 @@ entry: define <8 x i16> @test59(<8 x i16> %a, <8 x i16> %b) { ; SSE-LABEL: test59: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminsw %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test59: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminsw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1852,12 +1852,12 @@ entry: define <8 x i16> @test60(<8 x i16> %a, <8 x i16> %b) { ; SSE-LABEL: test60: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminsw %xmm1, %xmm0 ; SSE-NEXT: retq ; ; AVX-LABEL: test60: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminsw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1868,7 +1868,7 @@ entry: define <8 x i16> @test61(<8 x i16> %a, <8 x i16> %b) { ; SSE2-LABEL: test61: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [32768,32768,32768,32768,32768,32768,32768,32768] ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -1881,12 +1881,12 @@ define <8 x i16> @test61(<8 x i16> %a, <8 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test61: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxuw %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test61: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxuw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1897,7 +1897,7 @@ entry: define <8 x i16> @test62(<8 x i16> %a, <8 x i16> %b) { ; SSE2-LABEL: test62: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: psubusw %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm2 @@ -1909,12 +1909,12 @@ define <8 x i16> @test62(<8 x i16> %a, <8 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test62: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxuw %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test62: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxuw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1925,7 +1925,7 @@ entry: define <8 x i16> @test63(<8 x i16> %a, <8 x i16> %b) { ; SSE2-LABEL: test63: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [32768,32768,32768,32768,32768,32768,32768,32768] ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -1938,12 +1938,12 @@ define <8 x i16> @test63(<8 x i16> %a, <8 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test63: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminuw %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test63: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminuw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1954,7 +1954,7 @@ entry: define <8 x i16> @test64(<8 x i16> %a, <8 x i16> %b) { ; SSE2-LABEL: test64: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: psubusw %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm2 @@ -1966,12 +1966,12 @@ define <8 x i16> @test64(<8 x i16> %a, <8 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test64: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminuw %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test64: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminuw %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -1982,7 +1982,7 @@ entry: define <4 x i32> @test65(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test65: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm2 ; SSE2-NEXT: pcmpgtd %xmm0, %xmm2 ; SSE2-NEXT: pand %xmm2, %xmm1 @@ -1992,12 +1992,12 @@ define <4 x i32> @test65(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test65: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsd %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test65: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxsd %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -2008,7 +2008,7 @@ entry: define <4 x i32> @test66(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test66: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm2 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm2 ; SSE2-NEXT: pcmpeqd %xmm3, %xmm3 @@ -2020,12 +2020,12 @@ define <4 x i32> @test66(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test66: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsd %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test66: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxsd %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -2036,7 +2036,7 @@ entry: define <4 x i32> @test67(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test67: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm2 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm2 ; SSE2-NEXT: pand %xmm2, %xmm1 @@ -2046,12 +2046,12 @@ define <4 x i32> @test67(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test67: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsd %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test67: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminsd %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -2062,7 +2062,7 @@ entry: define <4 x i32> @test68(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test68: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pcmpgtd %xmm0, %xmm3 ; SSE2-NEXT: pcmpeqd %xmm2, %xmm2 @@ -2074,12 +2074,12 @@ define <4 x i32> @test68(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test68: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsd %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test68: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminsd %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -2090,7 +2090,7 @@ entry: define <4 x i32> @test69(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test69: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -2103,12 +2103,12 @@ define <4 x i32> @test69(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test69: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxud %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test69: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxud %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -2119,7 +2119,7 @@ entry: define <4 x i32> @test70(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test70: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm2 ; SSE2-NEXT: pxor %xmm3, %xmm2 @@ -2134,12 +2134,12 @@ define <4 x i32> @test70(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test70: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxud %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test70: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpmaxud %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -2150,7 +2150,7 @@ entry: define <4 x i32> @test71(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test71: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -2163,12 +2163,12 @@ define <4 x i32> @test71(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test71: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminud %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test71: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminud %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -2179,7 +2179,7 @@ entry: define <4 x i32> @test72(<4 x i32> %a, <4 x i32> %b) { ; SSE2-LABEL: test72: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm3 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm0, %xmm2 ; SSE2-NEXT: pxor %xmm3, %xmm2 @@ -2194,12 +2194,12 @@ define <4 x i32> @test72(<4 x i32> %a, <4 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test72: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminud %xmm1, %xmm0 ; SSE4-NEXT: retq ; ; AVX-LABEL: test72: -; AVX: # BB#0: # %entry +; AVX: # %bb.0: # %entry ; AVX-NEXT: vpminud %xmm1, %xmm0, %xmm0 ; AVX-NEXT: retq entry: @@ -2210,7 +2210,7 @@ entry: define <32 x i8> @test73(<32 x i8> %a, <32 x i8> %b) { ; SSE2-LABEL: test73: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm4 ; SSE2-NEXT: movdqa %xmm2, %xmm5 @@ -2226,13 +2226,13 @@ define <32 x i8> @test73(<32 x i8> %a, <32 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test73: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsb %xmm2, %xmm0 ; SSE4-NEXT: pmaxsb %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test73: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxsb %xmm2, %xmm3, %xmm2 @@ -2241,12 +2241,12 @@ define <32 x i8> @test73(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test73: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsb %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test73: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsb %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2257,7 +2257,7 @@ entry: define <32 x i8> @test74(<32 x i8> %a, <32 x i8> %b) { ; SSE2-LABEL: test74: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm6 ; SSE2-NEXT: pcmpgtb %xmm3, %xmm6 ; SSE2-NEXT: pcmpeqd %xmm7, %xmm7 @@ -2277,13 +2277,13 @@ define <32 x i8> @test74(<32 x i8> %a, <32 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test74: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsb %xmm2, %xmm0 ; SSE4-NEXT: pmaxsb %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test74: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxsb %xmm2, %xmm3, %xmm2 @@ -2292,12 +2292,12 @@ define <32 x i8> @test74(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test74: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsb %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test74: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsb %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2308,7 +2308,7 @@ entry: define <32 x i8> @test75(<32 x i8> %a, <32 x i8> %b) { ; SSE2-LABEL: test75: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: pcmpgtb %xmm3, %xmm4 ; SSE2-NEXT: movdqa %xmm0, %xmm5 @@ -2324,13 +2324,13 @@ define <32 x i8> @test75(<32 x i8> %a, <32 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test75: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsb %xmm2, %xmm0 ; SSE4-NEXT: pminsb %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test75: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminsb %xmm2, %xmm3, %xmm2 @@ -2339,12 +2339,12 @@ define <32 x i8> @test75(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test75: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsb %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test75: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsb %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2355,7 +2355,7 @@ entry: define <32 x i8> @test76(<32 x i8> %a, <32 x i8> %b) { ; SSE2-LABEL: test76: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm6 ; SSE2-NEXT: pcmpgtb %xmm1, %xmm6 ; SSE2-NEXT: pcmpeqd %xmm4, %xmm4 @@ -2375,13 +2375,13 @@ define <32 x i8> @test76(<32 x i8> %a, <32 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test76: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsb %xmm2, %xmm0 ; SSE4-NEXT: pminsb %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test76: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminsb %xmm2, %xmm3, %xmm2 @@ -2390,12 +2390,12 @@ define <32 x i8> @test76(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test76: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsb %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test76: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsb %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2406,13 +2406,13 @@ entry: define <32 x i8> @test77(<32 x i8> %a, <32 x i8> %b) { ; SSE-LABEL: test77: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxub %xmm2, %xmm0 ; SSE-NEXT: pmaxub %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test77: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxub %xmm2, %xmm3, %xmm2 @@ -2421,12 +2421,12 @@ define <32 x i8> @test77(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test77: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxub %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test77: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxub %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2437,13 +2437,13 @@ entry: define <32 x i8> @test78(<32 x i8> %a, <32 x i8> %b) { ; SSE-LABEL: test78: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxub %xmm2, %xmm0 ; SSE-NEXT: pmaxub %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test78: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxub %xmm2, %xmm3, %xmm2 @@ -2452,12 +2452,12 @@ define <32 x i8> @test78(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test78: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxub %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test78: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxub %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2468,13 +2468,13 @@ entry: define <32 x i8> @test79(<32 x i8> %a, <32 x i8> %b) { ; SSE-LABEL: test79: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminub %xmm2, %xmm0 ; SSE-NEXT: pminub %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test79: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminub %xmm2, %xmm3, %xmm2 @@ -2483,12 +2483,12 @@ define <32 x i8> @test79(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test79: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test79: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2499,13 +2499,13 @@ entry: define <32 x i8> @test80(<32 x i8> %a, <32 x i8> %b) { ; SSE-LABEL: test80: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminub %xmm2, %xmm0 ; SSE-NEXT: pminub %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test80: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminub %xmm2, %xmm3, %xmm2 @@ -2514,12 +2514,12 @@ define <32 x i8> @test80(<32 x i8> %a, <32 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test80: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test80: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminub %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2530,13 +2530,13 @@ entry: define <16 x i16> @test81(<16 x i16> %a, <16 x i16> %b) { ; SSE-LABEL: test81: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxsw %xmm2, %xmm0 ; SSE-NEXT: pmaxsw %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test81: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxsw %xmm2, %xmm3, %xmm2 @@ -2545,12 +2545,12 @@ define <16 x i16> @test81(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test81: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test81: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2561,13 +2561,13 @@ entry: define <16 x i16> @test82(<16 x i16> %a, <16 x i16> %b) { ; SSE-LABEL: test82: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxsw %xmm2, %xmm0 ; SSE-NEXT: pmaxsw %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test82: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxsw %xmm2, %xmm3, %xmm2 @@ -2576,12 +2576,12 @@ define <16 x i16> @test82(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test82: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test82: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2592,13 +2592,13 @@ entry: define <16 x i16> @test83(<16 x i16> %a, <16 x i16> %b) { ; SSE-LABEL: test83: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminsw %xmm2, %xmm0 ; SSE-NEXT: pminsw %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test83: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminsw %xmm2, %xmm3, %xmm2 @@ -2607,12 +2607,12 @@ define <16 x i16> @test83(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test83: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test83: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2623,13 +2623,13 @@ entry: define <16 x i16> @test84(<16 x i16> %a, <16 x i16> %b) { ; SSE-LABEL: test84: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminsw %xmm2, %xmm0 ; SSE-NEXT: pminsw %xmm3, %xmm1 ; SSE-NEXT: retq ; ; AVX1-LABEL: test84: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminsw %xmm2, %xmm3, %xmm2 @@ -2638,12 +2638,12 @@ define <16 x i16> @test84(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test84: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test84: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2654,7 +2654,7 @@ entry: define <16 x i16> @test85(<16 x i16> %a, <16 x i16> %b) { ; SSE2-LABEL: test85: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [32768,32768,32768,32768,32768,32768,32768,32768] ; SSE2-NEXT: movdqa %xmm1, %xmm6 ; SSE2-NEXT: pxor %xmm4, %xmm6 @@ -2676,13 +2676,13 @@ define <16 x i16> @test85(<16 x i16> %a, <16 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test85: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxuw %xmm2, %xmm0 ; SSE4-NEXT: pmaxuw %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test85: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxuw %xmm2, %xmm3, %xmm2 @@ -2691,12 +2691,12 @@ define <16 x i16> @test85(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test85: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxuw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test85: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxuw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2707,7 +2707,7 @@ entry: define <16 x i16> @test86(<16 x i16> %a, <16 x i16> %b) { ; SSE2-LABEL: test86: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: psubusw %xmm3, %xmm4 ; SSE2-NEXT: pxor %xmm6, %xmm6 @@ -2726,13 +2726,13 @@ define <16 x i16> @test86(<16 x i16> %a, <16 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test86: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxuw %xmm2, %xmm0 ; SSE4-NEXT: pmaxuw %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test86: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxuw %xmm2, %xmm3, %xmm2 @@ -2741,12 +2741,12 @@ define <16 x i16> @test86(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test86: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxuw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test86: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxuw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2757,7 +2757,7 @@ entry: define <16 x i16> @test87(<16 x i16> %a, <16 x i16> %b) { ; SSE2-LABEL: test87: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [32768,32768,32768,32768,32768,32768,32768,32768] ; SSE2-NEXT: movdqa %xmm3, %xmm6 ; SSE2-NEXT: pxor %xmm4, %xmm6 @@ -2779,13 +2779,13 @@ define <16 x i16> @test87(<16 x i16> %a, <16 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test87: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminuw %xmm2, %xmm0 ; SSE4-NEXT: pminuw %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test87: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminuw %xmm2, %xmm3, %xmm2 @@ -2794,12 +2794,12 @@ define <16 x i16> @test87(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test87: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminuw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test87: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminuw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2810,7 +2810,7 @@ entry: define <16 x i16> @test88(<16 x i16> %a, <16 x i16> %b) { ; SSE2-LABEL: test88: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: psubusw %xmm1, %xmm4 ; SSE2-NEXT: pxor %xmm6, %xmm6 @@ -2829,13 +2829,13 @@ define <16 x i16> @test88(<16 x i16> %a, <16 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test88: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminuw %xmm2, %xmm0 ; SSE4-NEXT: pminuw %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test88: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminuw %xmm2, %xmm3, %xmm2 @@ -2844,12 +2844,12 @@ define <16 x i16> @test88(<16 x i16> %a, <16 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test88: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminuw %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test88: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminuw %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2860,7 +2860,7 @@ entry: define <8 x i32> @test89(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test89: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm4 ; SSE2-NEXT: movdqa %xmm2, %xmm5 @@ -2876,13 +2876,13 @@ define <8 x i32> @test89(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test89: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsd %xmm2, %xmm0 ; SSE4-NEXT: pmaxsd %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test89: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxsd %xmm2, %xmm3, %xmm2 @@ -2891,12 +2891,12 @@ define <8 x i32> @test89(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test89: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsd %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test89: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsd %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2907,7 +2907,7 @@ entry: define <8 x i32> @test90(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test90: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm6 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm6 ; SSE2-NEXT: pcmpeqd %xmm7, %xmm7 @@ -2927,13 +2927,13 @@ define <8 x i32> @test90(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test90: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsd %xmm2, %xmm0 ; SSE4-NEXT: pmaxsd %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test90: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxsd %xmm2, %xmm3, %xmm2 @@ -2942,12 +2942,12 @@ define <8 x i32> @test90(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test90: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsd %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test90: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsd %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -2958,7 +2958,7 @@ entry: define <8 x i32> @test91(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test91: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm4 ; SSE2-NEXT: movdqa %xmm0, %xmm5 @@ -2974,13 +2974,13 @@ define <8 x i32> @test91(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test91: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsd %xmm2, %xmm0 ; SSE4-NEXT: pminsd %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test91: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminsd %xmm2, %xmm3, %xmm2 @@ -2989,12 +2989,12 @@ define <8 x i32> @test91(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test91: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsd %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test91: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsd %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -3005,7 +3005,7 @@ entry: define <8 x i32> @test92(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test92: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm6 ; SSE2-NEXT: pcmpgtd %xmm1, %xmm6 ; SSE2-NEXT: pcmpeqd %xmm4, %xmm4 @@ -3025,13 +3025,13 @@ define <8 x i32> @test92(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test92: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsd %xmm2, %xmm0 ; SSE4-NEXT: pminsd %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test92: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminsd %xmm2, %xmm3, %xmm2 @@ -3040,12 +3040,12 @@ define <8 x i32> @test92(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test92: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsd %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test92: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsd %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -3056,7 +3056,7 @@ entry: define <8 x i32> @test93(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test93: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm6 ; SSE2-NEXT: pxor %xmm4, %xmm6 @@ -3078,13 +3078,13 @@ define <8 x i32> @test93(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test93: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxud %xmm2, %xmm0 ; SSE4-NEXT: pmaxud %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test93: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxud %xmm2, %xmm3, %xmm2 @@ -3093,12 +3093,12 @@ define <8 x i32> @test93(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test93: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxud %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test93: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxud %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -3109,7 +3109,7 @@ entry: define <8 x i32> @test94(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test94: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm6 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: pxor %xmm6, %xmm4 @@ -3135,13 +3135,13 @@ define <8 x i32> @test94(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test94: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxud %xmm2, %xmm0 ; SSE4-NEXT: pmaxud %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test94: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpmaxud %xmm2, %xmm3, %xmm2 @@ -3150,12 +3150,12 @@ define <8 x i32> @test94(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test94: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxud %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test94: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxud %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -3166,7 +3166,7 @@ entry: define <8 x i32> @test95(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test95: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm6 ; SSE2-NEXT: pxor %xmm4, %xmm6 @@ -3188,13 +3188,13 @@ define <8 x i32> @test95(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test95: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminud %xmm2, %xmm0 ; SSE4-NEXT: pminud %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test95: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminud %xmm2, %xmm3, %xmm2 @@ -3203,12 +3203,12 @@ define <8 x i32> @test95(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test95: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test95: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -3219,7 +3219,7 @@ entry: define <8 x i32> @test96(<8 x i32> %a, <8 x i32> %b) { ; SSE2-LABEL: test96: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm6 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: pxor %xmm6, %xmm4 @@ -3245,13 +3245,13 @@ define <8 x i32> @test96(<8 x i32> %a, <8 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test96: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminud %xmm2, %xmm0 ; SSE4-NEXT: pminud %xmm3, %xmm1 ; SSE4-NEXT: retq ; ; AVX1-LABEL: test96: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpminud %xmm2, %xmm3, %xmm2 @@ -3260,12 +3260,12 @@ define <8 x i32> @test96(<8 x i32> %a, <8 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test96: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test96: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminud %ymm1, %ymm0, %ymm0 ; AVX512F-NEXT: retq entry: @@ -3278,7 +3278,7 @@ entry: define <64 x i8> @test97(<64 x i8> %a, <64 x i8> %b) { ; SSE2-LABEL: test97: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm7, %xmm8 ; SSE2-NEXT: pcmpgtb %xmm3, %xmm8 ; SSE2-NEXT: movdqa %xmm6, %xmm9 @@ -3302,7 +3302,7 @@ define <64 x i8> @test97(<64 x i8> %a, <64 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test97: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsb %xmm4, %xmm0 ; SSE4-NEXT: pminsb %xmm5, %xmm1 ; SSE4-NEXT: pminsb %xmm6, %xmm2 @@ -3310,7 +3310,7 @@ define <64 x i8> @test97(<64 x i8> %a, <64 x i8> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test97: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminsb %xmm4, %xmm5, %xmm4 @@ -3324,13 +3324,13 @@ define <64 x i8> @test97(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test97: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsb %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminsb %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test97: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsb %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3341,7 +3341,7 @@ entry: define <64 x i8> @test98(<64 x i8> %a, <64 x i8> %b) { ; SSE2-LABEL: test98: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: movdqa %xmm2, %xmm9 ; SSE2-NEXT: movdqa %xmm8, %xmm12 @@ -3377,7 +3377,7 @@ define <64 x i8> @test98(<64 x i8> %a, <64 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test98: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsb %xmm4, %xmm0 ; SSE4-NEXT: pminsb %xmm5, %xmm1 ; SSE4-NEXT: pminsb %xmm6, %xmm2 @@ -3385,7 +3385,7 @@ define <64 x i8> @test98(<64 x i8> %a, <64 x i8> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test98: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminsb %xmm4, %xmm5, %xmm4 @@ -3399,13 +3399,13 @@ define <64 x i8> @test98(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test98: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsb %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminsb %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test98: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsb %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3416,7 +3416,7 @@ entry: define <64 x i8> @test99(<64 x i8> %a, <64 x i8> %b) { ; SSE2-LABEL: test99: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: pcmpgtb %xmm7, %xmm3 ; SSE2-NEXT: movdqa %xmm2, %xmm9 @@ -3443,7 +3443,7 @@ define <64 x i8> @test99(<64 x i8> %a, <64 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test99: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsb %xmm4, %xmm0 ; SSE4-NEXT: pmaxsb %xmm5, %xmm1 ; SSE4-NEXT: pmaxsb %xmm6, %xmm2 @@ -3451,7 +3451,7 @@ define <64 x i8> @test99(<64 x i8> %a, <64 x i8> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test99: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxsb %xmm4, %xmm5, %xmm4 @@ -3465,13 +3465,13 @@ define <64 x i8> @test99(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test99: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsb %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxsb %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test99: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsb %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3482,7 +3482,7 @@ entry: define <64 x i8> @test100(<64 x i8> %a, <64 x i8> %b) { ; SSE2-LABEL: test100: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: movdqa %xmm2, %xmm9 ; SSE2-NEXT: movdqa %xmm0, %xmm10 @@ -3518,7 +3518,7 @@ define <64 x i8> @test100(<64 x i8> %a, <64 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test100: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsb %xmm4, %xmm0 ; SSE4-NEXT: pmaxsb %xmm5, %xmm1 ; SSE4-NEXT: pmaxsb %xmm6, %xmm2 @@ -3526,7 +3526,7 @@ define <64 x i8> @test100(<64 x i8> %a, <64 x i8> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test100: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxsb %xmm4, %xmm5, %xmm4 @@ -3540,13 +3540,13 @@ define <64 x i8> @test100(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test100: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsb %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxsb %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test100: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsb %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3557,7 +3557,7 @@ entry: define <64 x i8> @test101(<64 x i8> %a, <64 x i8> %b) { ; SSE-LABEL: test101: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminub %xmm4, %xmm0 ; SSE-NEXT: pminub %xmm5, %xmm1 ; SSE-NEXT: pminub %xmm6, %xmm2 @@ -3565,7 +3565,7 @@ define <64 x i8> @test101(<64 x i8> %a, <64 x i8> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test101: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminub %xmm4, %xmm5, %xmm4 @@ -3579,13 +3579,13 @@ define <64 x i8> @test101(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test101: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminub %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminub %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test101: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminub %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3596,7 +3596,7 @@ entry: define <64 x i8> @test102(<64 x i8> %a, <64 x i8> %b) { ; SSE-LABEL: test102: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminub %xmm4, %xmm0 ; SSE-NEXT: pminub %xmm5, %xmm1 ; SSE-NEXT: pminub %xmm6, %xmm2 @@ -3604,7 +3604,7 @@ define <64 x i8> @test102(<64 x i8> %a, <64 x i8> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test102: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminub %xmm4, %xmm5, %xmm4 @@ -3618,13 +3618,13 @@ define <64 x i8> @test102(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test102: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminub %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminub %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test102: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminub %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3635,7 +3635,7 @@ entry: define <64 x i8> @test103(<64 x i8> %a, <64 x i8> %b) { ; SSE-LABEL: test103: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxub %xmm4, %xmm0 ; SSE-NEXT: pmaxub %xmm5, %xmm1 ; SSE-NEXT: pmaxub %xmm6, %xmm2 @@ -3643,7 +3643,7 @@ define <64 x i8> @test103(<64 x i8> %a, <64 x i8> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test103: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxub %xmm4, %xmm5, %xmm4 @@ -3657,13 +3657,13 @@ define <64 x i8> @test103(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test103: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxub %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxub %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test103: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxub %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3674,7 +3674,7 @@ entry: define <64 x i8> @test104(<64 x i8> %a, <64 x i8> %b) { ; SSE-LABEL: test104: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxub %xmm4, %xmm0 ; SSE-NEXT: pmaxub %xmm5, %xmm1 ; SSE-NEXT: pmaxub %xmm6, %xmm2 @@ -3682,7 +3682,7 @@ define <64 x i8> @test104(<64 x i8> %a, <64 x i8> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test104: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxub %xmm4, %xmm5, %xmm4 @@ -3696,13 +3696,13 @@ define <64 x i8> @test104(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test104: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxub %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxub %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test104: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxub %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3713,7 +3713,7 @@ entry: define <32 x i16> @test105(<32 x i16> %a, <32 x i16> %b) { ; SSE-LABEL: test105: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminsw %xmm4, %xmm0 ; SSE-NEXT: pminsw %xmm5, %xmm1 ; SSE-NEXT: pminsw %xmm6, %xmm2 @@ -3721,7 +3721,7 @@ define <32 x i16> @test105(<32 x i16> %a, <32 x i16> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test105: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminsw %xmm4, %xmm5, %xmm4 @@ -3735,13 +3735,13 @@ define <32 x i16> @test105(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test105: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminsw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test105: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3752,7 +3752,7 @@ entry: define <32 x i16> @test106(<32 x i16> %a, <32 x i16> %b) { ; SSE-LABEL: test106: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminsw %xmm4, %xmm0 ; SSE-NEXT: pminsw %xmm5, %xmm1 ; SSE-NEXT: pminsw %xmm6, %xmm2 @@ -3760,7 +3760,7 @@ define <32 x i16> @test106(<32 x i16> %a, <32 x i16> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test106: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminsw %xmm4, %xmm5, %xmm4 @@ -3774,13 +3774,13 @@ define <32 x i16> @test106(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test106: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminsw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test106: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3791,7 +3791,7 @@ entry: define <32 x i16> @test107(<32 x i16> %a, <32 x i16> %b) { ; SSE-LABEL: test107: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxsw %xmm4, %xmm0 ; SSE-NEXT: pmaxsw %xmm5, %xmm1 ; SSE-NEXT: pmaxsw %xmm6, %xmm2 @@ -3799,7 +3799,7 @@ define <32 x i16> @test107(<32 x i16> %a, <32 x i16> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test107: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxsw %xmm4, %xmm5, %xmm4 @@ -3813,13 +3813,13 @@ define <32 x i16> @test107(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test107: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxsw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test107: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3830,7 +3830,7 @@ entry: define <32 x i16> @test108(<32 x i16> %a, <32 x i16> %b) { ; SSE-LABEL: test108: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxsw %xmm4, %xmm0 ; SSE-NEXT: pmaxsw %xmm5, %xmm1 ; SSE-NEXT: pmaxsw %xmm6, %xmm2 @@ -3838,7 +3838,7 @@ define <32 x i16> @test108(<32 x i16> %a, <32 x i16> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test108: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxsw %xmm4, %xmm5, %xmm4 @@ -3852,13 +3852,13 @@ define <32 x i16> @test108(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test108: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxsw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test108: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3869,7 +3869,7 @@ entry: define <32 x i16> @test109(<32 x i16> %a, <32 x i16> %b) { ; SSE2-LABEL: test109: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm10 = [32768,32768,32768,32768,32768,32768,32768,32768] ; SSE2-NEXT: movdqa %xmm3, %xmm9 ; SSE2-NEXT: pxor %xmm10, %xmm9 @@ -3905,7 +3905,7 @@ define <32 x i16> @test109(<32 x i16> %a, <32 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test109: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminuw %xmm4, %xmm0 ; SSE4-NEXT: pminuw %xmm5, %xmm1 ; SSE4-NEXT: pminuw %xmm6, %xmm2 @@ -3913,7 +3913,7 @@ define <32 x i16> @test109(<32 x i16> %a, <32 x i16> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test109: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminuw %xmm4, %xmm5, %xmm4 @@ -3927,13 +3927,13 @@ define <32 x i16> @test109(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test109: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminuw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminuw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test109: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminuw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -3944,7 +3944,7 @@ entry: define <32 x i16> @test110(<32 x i16> %a, <32 x i16> %b) { ; SSE2-LABEL: test110: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: movdqa %xmm2, %xmm9 ; SSE2-NEXT: movdqa %xmm1, %xmm10 @@ -3974,7 +3974,7 @@ define <32 x i16> @test110(<32 x i16> %a, <32 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test110: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminuw %xmm4, %xmm0 ; SSE4-NEXT: pminuw %xmm5, %xmm1 ; SSE4-NEXT: pminuw %xmm6, %xmm2 @@ -3982,7 +3982,7 @@ define <32 x i16> @test110(<32 x i16> %a, <32 x i16> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test110: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminuw %xmm4, %xmm5, %xmm4 @@ -3996,13 +3996,13 @@ define <32 x i16> @test110(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test110: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminuw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminuw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test110: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminuw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -4013,7 +4013,7 @@ entry: define <32 x i16> @test111(<32 x i16> %a, <32 x i16> %b) { ; SSE2-LABEL: test111: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm11 = [32768,32768,32768,32768,32768,32768,32768,32768] ; SSE2-NEXT: movdqa %xmm7, %xmm9 ; SSE2-NEXT: pxor %xmm11, %xmm9 @@ -4052,7 +4052,7 @@ define <32 x i16> @test111(<32 x i16> %a, <32 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test111: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxuw %xmm4, %xmm0 ; SSE4-NEXT: pmaxuw %xmm5, %xmm1 ; SSE4-NEXT: pmaxuw %xmm6, %xmm2 @@ -4060,7 +4060,7 @@ define <32 x i16> @test111(<32 x i16> %a, <32 x i16> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test111: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxuw %xmm4, %xmm5, %xmm4 @@ -4074,13 +4074,13 @@ define <32 x i16> @test111(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test111: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxuw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxuw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test111: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxuw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -4091,7 +4091,7 @@ entry: define <32 x i16> @test112(<32 x i16> %a, <32 x i16> %b) { ; SSE2-LABEL: test112: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm7, %xmm8 ; SSE2-NEXT: psubusw %xmm3, %xmm8 ; SSE2-NEXT: pxor %xmm9, %xmm9 @@ -4120,7 +4120,7 @@ define <32 x i16> @test112(<32 x i16> %a, <32 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test112: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxuw %xmm4, %xmm0 ; SSE4-NEXT: pmaxuw %xmm5, %xmm1 ; SSE4-NEXT: pmaxuw %xmm6, %xmm2 @@ -4128,7 +4128,7 @@ define <32 x i16> @test112(<32 x i16> %a, <32 x i16> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test112: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxuw %xmm4, %xmm5, %xmm4 @@ -4142,13 +4142,13 @@ define <32 x i16> @test112(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test112: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxuw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxuw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test112: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxuw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -4159,7 +4159,7 @@ entry: define <16 x i32> @test113(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test113: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm7, %xmm8 ; SSE2-NEXT: pcmpgtd %xmm3, %xmm8 ; SSE2-NEXT: movdqa %xmm6, %xmm9 @@ -4183,7 +4183,7 @@ define <16 x i32> @test113(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test113: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsd %xmm4, %xmm0 ; SSE4-NEXT: pminsd %xmm5, %xmm1 ; SSE4-NEXT: pminsd %xmm6, %xmm2 @@ -4191,7 +4191,7 @@ define <16 x i32> @test113(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test113: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminsd %xmm4, %xmm5, %xmm4 @@ -4205,13 +4205,13 @@ define <16 x i32> @test113(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test113: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsd %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminsd %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test113: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsd %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -4222,7 +4222,7 @@ entry: define <16 x i32> @test114(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test114: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: movdqa %xmm2, %xmm9 ; SSE2-NEXT: movdqa %xmm8, %xmm12 @@ -4258,7 +4258,7 @@ define <16 x i32> @test114(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test114: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsd %xmm4, %xmm0 ; SSE4-NEXT: pminsd %xmm5, %xmm1 ; SSE4-NEXT: pminsd %xmm6, %xmm2 @@ -4266,7 +4266,7 @@ define <16 x i32> @test114(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test114: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminsd %xmm4, %xmm5, %xmm4 @@ -4280,13 +4280,13 @@ define <16 x i32> @test114(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test114: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsd %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminsd %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test114: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsd %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -4297,7 +4297,7 @@ entry: define <16 x i32> @test115(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test115: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: pcmpgtd %xmm7, %xmm3 ; SSE2-NEXT: movdqa %xmm2, %xmm9 @@ -4324,7 +4324,7 @@ define <16 x i32> @test115(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test115: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsd %xmm4, %xmm0 ; SSE4-NEXT: pmaxsd %xmm5, %xmm1 ; SSE4-NEXT: pmaxsd %xmm6, %xmm2 @@ -4332,7 +4332,7 @@ define <16 x i32> @test115(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test115: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxsd %xmm4, %xmm5, %xmm4 @@ -4346,13 +4346,13 @@ define <16 x i32> @test115(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test115: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsd %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxsd %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test115: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsd %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -4363,7 +4363,7 @@ entry: define <16 x i32> @test116(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test116: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: movdqa %xmm2, %xmm9 ; SSE2-NEXT: movdqa %xmm0, %xmm10 @@ -4399,7 +4399,7 @@ define <16 x i32> @test116(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test116: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsd %xmm4, %xmm0 ; SSE4-NEXT: pmaxsd %xmm5, %xmm1 ; SSE4-NEXT: pmaxsd %xmm6, %xmm2 @@ -4407,7 +4407,7 @@ define <16 x i32> @test116(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test116: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxsd %xmm4, %xmm5, %xmm4 @@ -4421,13 +4421,13 @@ define <16 x i32> @test116(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test116: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsd %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxsd %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test116: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsd %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -4438,7 +4438,7 @@ entry: define <16 x i32> @test117(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test117: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm10 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm9 ; SSE2-NEXT: pxor %xmm10, %xmm9 @@ -4474,7 +4474,7 @@ define <16 x i32> @test117(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test117: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminud %xmm4, %xmm0 ; SSE4-NEXT: pminud %xmm5, %xmm1 ; SSE4-NEXT: pminud %xmm6, %xmm2 @@ -4482,7 +4482,7 @@ define <16 x i32> @test117(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test117: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminud %xmm4, %xmm5, %xmm4 @@ -4496,13 +4496,13 @@ define <16 x i32> @test117(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test117: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminud %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminud %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test117: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminud %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -4513,7 +4513,7 @@ entry: define <16 x i32> @test118(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test118: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm10 ; SSE2-NEXT: movdqa {{.*#+}} xmm14 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm7, %xmm0 @@ -4561,7 +4561,7 @@ define <16 x i32> @test118(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test118: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminud %xmm4, %xmm0 ; SSE4-NEXT: pminud %xmm5, %xmm1 ; SSE4-NEXT: pminud %xmm6, %xmm2 @@ -4569,7 +4569,7 @@ define <16 x i32> @test118(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test118: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminud %xmm4, %xmm5, %xmm4 @@ -4583,13 +4583,13 @@ define <16 x i32> @test118(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test118: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminud %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminud %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test118: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminud %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -4600,7 +4600,7 @@ entry: define <16 x i32> @test119(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test119: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm11 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm7, %xmm9 ; SSE2-NEXT: pxor %xmm11, %xmm9 @@ -4639,7 +4639,7 @@ define <16 x i32> @test119(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test119: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxud %xmm4, %xmm0 ; SSE4-NEXT: pmaxud %xmm5, %xmm1 ; SSE4-NEXT: pmaxud %xmm6, %xmm2 @@ -4647,7 +4647,7 @@ define <16 x i32> @test119(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test119: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxud %xmm4, %xmm5, %xmm4 @@ -4661,13 +4661,13 @@ define <16 x i32> @test119(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test119: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxud %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxud %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test119: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxud %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -4678,7 +4678,7 @@ entry: define <16 x i32> @test120(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test120: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm10 ; SSE2-NEXT: movdqa {{.*#+}} xmm14 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm0 @@ -4726,7 +4726,7 @@ define <16 x i32> @test120(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test120: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxud %xmm4, %xmm0 ; SSE4-NEXT: pmaxud %xmm5, %xmm1 ; SSE4-NEXT: pmaxud %xmm6, %xmm2 @@ -4734,7 +4734,7 @@ define <16 x i32> @test120(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test120: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxud %xmm4, %xmm5, %xmm4 @@ -4748,13 +4748,13 @@ define <16 x i32> @test120(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test120: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxud %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxud %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test120: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxud %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -4765,7 +4765,7 @@ entry: define <8 x i64> @test121(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test121: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm9 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: pxor %xmm9, %xmm8 @@ -4829,7 +4829,7 @@ define <8 x i64> @test121(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test121: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa %xmm7, %xmm9 ; SSE4-NEXT: pcmpgtq %xmm3, %xmm9 @@ -4853,7 +4853,7 @@ define <8 x i64> @test121(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test121: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm5 ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm5, %xmm4 @@ -4869,7 +4869,7 @@ define <8 x i64> @test121(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test121: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm3, %ymm4 ; AVX2-NEXT: vpcmpgtq %ymm0, %ymm2, %ymm5 ; AVX2-NEXT: vblendvpd %ymm5, %ymm0, %ymm2, %ymm0 @@ -4877,7 +4877,7 @@ define <8 x i64> @test121(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test121: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -4888,7 +4888,7 @@ entry: define <8 x i64> @test122(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test122: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm7, %xmm8 ; SSE2-NEXT: movdqa %xmm8, -{{[0-9]+}}(%rsp) # 16-byte Spill ; SSE2-NEXT: movdqa %xmm3, %xmm7 @@ -4969,7 +4969,7 @@ define <8 x i64> @test122(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test122: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa %xmm3, %xmm9 ; SSE4-NEXT: pcmpgtq %xmm7, %xmm9 @@ -4997,7 +4997,7 @@ define <8 x i64> @test122(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test122: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm5 ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm5, %xmm4 @@ -5018,7 +5018,7 @@ define <8 x i64> @test122(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test122: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm3, %ymm1, %ymm4 ; AVX2-NEXT: vpcmpeqd %ymm5, %ymm5, %ymm5 ; AVX2-NEXT: vpxor %ymm5, %ymm4, %ymm4 @@ -5029,7 +5029,7 @@ define <8 x i64> @test122(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test122: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -5040,7 +5040,7 @@ entry: define <8 x i64> @test123(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test123: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm9 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm7, %xmm8 ; SSE2-NEXT: pxor %xmm9, %xmm8 @@ -5104,7 +5104,7 @@ define <8 x i64> @test123(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test123: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa %xmm3, %xmm9 ; SSE4-NEXT: pcmpgtq %xmm7, %xmm9 @@ -5127,7 +5127,7 @@ define <8 x i64> @test123(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test123: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm5 ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm5, %xmm4 @@ -5143,7 +5143,7 @@ define <8 x i64> @test123(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test123: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm3, %ymm1, %ymm4 ; AVX2-NEXT: vpcmpgtq %ymm2, %ymm0, %ymm5 ; AVX2-NEXT: vblendvpd %ymm5, %ymm0, %ymm2, %ymm0 @@ -5151,7 +5151,7 @@ define <8 x i64> @test123(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test123: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -5162,7 +5162,7 @@ entry: define <8 x i64> @test124(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test124: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm7, %xmm11 ; SSE2-NEXT: movdqa %xmm11, -{{[0-9]+}}(%rsp) # 16-byte Spill ; SSE2-NEXT: movdqa %xmm3, %xmm7 @@ -5244,7 +5244,7 @@ define <8 x i64> @test124(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test124: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa %xmm7, %xmm9 ; SSE4-NEXT: pcmpgtq %xmm3, %xmm9 @@ -5273,7 +5273,7 @@ define <8 x i64> @test124(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test124: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm5 ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm5, %xmm4 @@ -5294,7 +5294,7 @@ define <8 x i64> @test124(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test124: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm3, %ymm4 ; AVX2-NEXT: vpcmpeqd %ymm5, %ymm5, %ymm5 ; AVX2-NEXT: vpxor %ymm5, %ymm4, %ymm4 @@ -5305,7 +5305,7 @@ define <8 x i64> @test124(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test124: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -5316,7 +5316,7 @@ entry: define <8 x i64> @test125(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test125: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm9 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: pxor %xmm9, %xmm8 @@ -5380,7 +5380,7 @@ define <8 x i64> @test125(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test125: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm3, %xmm10 @@ -5416,7 +5416,7 @@ define <8 x i64> @test125(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test125: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm4 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm5 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm5, %xmm4, %xmm4 @@ -5441,7 +5441,7 @@ define <8 x i64> @test125(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test125: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm4 ; AVX2-NEXT: vpxor %ymm4, %ymm1, %ymm5 ; AVX2-NEXT: vpxor %ymm4, %ymm3, %ymm6 @@ -5454,7 +5454,7 @@ define <8 x i64> @test125(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test125: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminuq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -5465,7 +5465,7 @@ entry: define <8 x i64> @test126(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test126: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm7, %xmm8 ; SSE2-NEXT: movdqa %xmm8, -{{[0-9]+}}(%rsp) # 16-byte Spill ; SSE2-NEXT: movdqa %xmm3, %xmm7 @@ -5546,7 +5546,7 @@ define <8 x i64> @test126(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test126: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm9 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm7, %xmm10 @@ -5587,7 +5587,7 @@ define <8 x i64> @test126(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test126: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm4 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm5 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm5, %xmm4, %xmm4 @@ -5617,7 +5617,7 @@ define <8 x i64> @test126(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test126: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm4 ; AVX2-NEXT: vpxor %ymm4, %ymm3, %ymm5 ; AVX2-NEXT: vpxor %ymm4, %ymm1, %ymm6 @@ -5633,7 +5633,7 @@ define <8 x i64> @test126(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test126: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminuq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -5644,7 +5644,7 @@ entry: define <8 x i64> @test127(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test127: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm9 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm7, %xmm8 ; SSE2-NEXT: pxor %xmm9, %xmm8 @@ -5708,7 +5708,7 @@ define <8 x i64> @test127(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test127: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm7, %xmm10 @@ -5744,7 +5744,7 @@ define <8 x i64> @test127(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test127: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm4 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm5 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm5, %xmm4, %xmm4 @@ -5769,7 +5769,7 @@ define <8 x i64> @test127(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test127: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm4 ; AVX2-NEXT: vpxor %ymm4, %ymm3, %ymm5 ; AVX2-NEXT: vpxor %ymm4, %ymm1, %ymm6 @@ -5782,7 +5782,7 @@ define <8 x i64> @test127(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test127: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxuq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -5793,7 +5793,7 @@ entry: define <8 x i64> @test128(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test128: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm7, %xmm11 ; SSE2-NEXT: movdqa %xmm11, -{{[0-9]+}}(%rsp) # 16-byte Spill ; SSE2-NEXT: movdqa %xmm3, %xmm7 @@ -5875,7 +5875,7 @@ define <8 x i64> @test128(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test128: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm9 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm3, %xmm10 @@ -5916,7 +5916,7 @@ define <8 x i64> @test128(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test128: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm4 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm5 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm5, %xmm4, %xmm4 @@ -5946,7 +5946,7 @@ define <8 x i64> @test128(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test128: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm4 ; AVX2-NEXT: vpxor %ymm4, %ymm1, %ymm5 ; AVX2-NEXT: vpxor %ymm4, %ymm3, %ymm6 @@ -5962,7 +5962,7 @@ define <8 x i64> @test128(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test128: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxuq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -5973,7 +5973,7 @@ entry: define <64 x i8> @test129(<64 x i8> %a, <64 x i8> %b) { ; SSE2-LABEL: test129: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: movdqa %xmm7, %xmm3 ; SSE2-NEXT: pcmpgtb %xmm8, %xmm3 @@ -6001,7 +6001,7 @@ define <64 x i8> @test129(<64 x i8> %a, <64 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test129: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsb %xmm4, %xmm0 ; SSE4-NEXT: pmaxsb %xmm5, %xmm1 ; SSE4-NEXT: pmaxsb %xmm6, %xmm2 @@ -6009,7 +6009,7 @@ define <64 x i8> @test129(<64 x i8> %a, <64 x i8> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test129: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxsb %xmm4, %xmm5, %xmm4 @@ -6023,13 +6023,13 @@ define <64 x i8> @test129(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test129: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsb %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxsb %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test129: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsb %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6040,7 +6040,7 @@ entry: define <64 x i8> @test130(<64 x i8> %a, <64 x i8> %b) { ; SSE2-LABEL: test130: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm2, %xmm8 ; SSE2-NEXT: movdqa %xmm3, %xmm12 ; SSE2-NEXT: pcmpgtb %xmm7, %xmm12 @@ -6076,7 +6076,7 @@ define <64 x i8> @test130(<64 x i8> %a, <64 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test130: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsb %xmm4, %xmm0 ; SSE4-NEXT: pmaxsb %xmm5, %xmm1 ; SSE4-NEXT: pmaxsb %xmm6, %xmm2 @@ -6084,7 +6084,7 @@ define <64 x i8> @test130(<64 x i8> %a, <64 x i8> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test130: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxsb %xmm4, %xmm5, %xmm4 @@ -6098,13 +6098,13 @@ define <64 x i8> @test130(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test130: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsb %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxsb %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test130: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsb %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6115,7 +6115,7 @@ entry: define <64 x i8> @test131(<64 x i8> %a, <64 x i8> %b) { ; SSE2-LABEL: test131: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: pcmpgtb %xmm7, %xmm3 ; SSE2-NEXT: movdqa %xmm2, %xmm9 @@ -6142,7 +6142,7 @@ define <64 x i8> @test131(<64 x i8> %a, <64 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test131: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsb %xmm4, %xmm0 ; SSE4-NEXT: pminsb %xmm5, %xmm1 ; SSE4-NEXT: pminsb %xmm6, %xmm2 @@ -6150,7 +6150,7 @@ define <64 x i8> @test131(<64 x i8> %a, <64 x i8> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test131: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminsb %xmm4, %xmm5, %xmm4 @@ -6164,13 +6164,13 @@ define <64 x i8> @test131(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test131: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsb %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminsb %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test131: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsb %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6181,7 +6181,7 @@ entry: define <64 x i8> @test132(<64 x i8> %a, <64 x i8> %b) { ; SSE2-LABEL: test132: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm2, %xmm8 ; SSE2-NEXT: movdqa %xmm0, %xmm10 ; SSE2-NEXT: movdqa %xmm7, %xmm12 @@ -6217,7 +6217,7 @@ define <64 x i8> @test132(<64 x i8> %a, <64 x i8> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test132: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsb %xmm4, %xmm0 ; SSE4-NEXT: pminsb %xmm5, %xmm1 ; SSE4-NEXT: pminsb %xmm6, %xmm2 @@ -6225,7 +6225,7 @@ define <64 x i8> @test132(<64 x i8> %a, <64 x i8> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test132: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminsb %xmm4, %xmm5, %xmm4 @@ -6239,13 +6239,13 @@ define <64 x i8> @test132(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test132: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsb %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminsb %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test132: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsb %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6256,7 +6256,7 @@ entry: define <64 x i8> @test133(<64 x i8> %a, <64 x i8> %b) { ; SSE-LABEL: test133: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxub %xmm4, %xmm0 ; SSE-NEXT: pmaxub %xmm5, %xmm1 ; SSE-NEXT: pmaxub %xmm6, %xmm2 @@ -6264,7 +6264,7 @@ define <64 x i8> @test133(<64 x i8> %a, <64 x i8> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test133: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxub %xmm4, %xmm5, %xmm4 @@ -6278,13 +6278,13 @@ define <64 x i8> @test133(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test133: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxub %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxub %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test133: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxub %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6295,7 +6295,7 @@ entry: define <64 x i8> @test134(<64 x i8> %a, <64 x i8> %b) { ; SSE-LABEL: test134: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxub %xmm4, %xmm0 ; SSE-NEXT: pmaxub %xmm5, %xmm1 ; SSE-NEXT: pmaxub %xmm6, %xmm2 @@ -6303,7 +6303,7 @@ define <64 x i8> @test134(<64 x i8> %a, <64 x i8> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test134: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxub %xmm4, %xmm5, %xmm4 @@ -6317,13 +6317,13 @@ define <64 x i8> @test134(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test134: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxub %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxub %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test134: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxub %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6334,7 +6334,7 @@ entry: define <64 x i8> @test135(<64 x i8> %a, <64 x i8> %b) { ; SSE-LABEL: test135: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminub %xmm4, %xmm0 ; SSE-NEXT: pminub %xmm5, %xmm1 ; SSE-NEXT: pminub %xmm6, %xmm2 @@ -6342,7 +6342,7 @@ define <64 x i8> @test135(<64 x i8> %a, <64 x i8> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test135: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminub %xmm4, %xmm5, %xmm4 @@ -6356,13 +6356,13 @@ define <64 x i8> @test135(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test135: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminub %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminub %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test135: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminub %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6373,7 +6373,7 @@ entry: define <64 x i8> @test136(<64 x i8> %a, <64 x i8> %b) { ; SSE-LABEL: test136: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminub %xmm4, %xmm0 ; SSE-NEXT: pminub %xmm5, %xmm1 ; SSE-NEXT: pminub %xmm6, %xmm2 @@ -6381,7 +6381,7 @@ define <64 x i8> @test136(<64 x i8> %a, <64 x i8> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test136: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminub %xmm4, %xmm5, %xmm4 @@ -6395,13 +6395,13 @@ define <64 x i8> @test136(<64 x i8> %a, <64 x i8> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test136: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminub %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminub %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test136: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminub %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6412,7 +6412,7 @@ entry: define <32 x i16> @test137(<32 x i16> %a, <32 x i16> %b) { ; SSE-LABEL: test137: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxsw %xmm4, %xmm0 ; SSE-NEXT: pmaxsw %xmm5, %xmm1 ; SSE-NEXT: pmaxsw %xmm6, %xmm2 @@ -6420,7 +6420,7 @@ define <32 x i16> @test137(<32 x i16> %a, <32 x i16> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test137: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxsw %xmm4, %xmm5, %xmm4 @@ -6434,13 +6434,13 @@ define <32 x i16> @test137(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test137: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxsw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test137: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6451,7 +6451,7 @@ entry: define <32 x i16> @test138(<32 x i16> %a, <32 x i16> %b) { ; SSE-LABEL: test138: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pmaxsw %xmm4, %xmm0 ; SSE-NEXT: pmaxsw %xmm5, %xmm1 ; SSE-NEXT: pmaxsw %xmm6, %xmm2 @@ -6459,7 +6459,7 @@ define <32 x i16> @test138(<32 x i16> %a, <32 x i16> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test138: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxsw %xmm4, %xmm5, %xmm4 @@ -6473,13 +6473,13 @@ define <32 x i16> @test138(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test138: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxsw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test138: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6490,7 +6490,7 @@ entry: define <32 x i16> @test139(<32 x i16> %a, <32 x i16> %b) { ; SSE-LABEL: test139: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminsw %xmm4, %xmm0 ; SSE-NEXT: pminsw %xmm5, %xmm1 ; SSE-NEXT: pminsw %xmm6, %xmm2 @@ -6498,7 +6498,7 @@ define <32 x i16> @test139(<32 x i16> %a, <32 x i16> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test139: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminsw %xmm4, %xmm5, %xmm4 @@ -6512,13 +6512,13 @@ define <32 x i16> @test139(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test139: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminsw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test139: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6529,7 +6529,7 @@ entry: define <32 x i16> @test140(<32 x i16> %a, <32 x i16> %b) { ; SSE-LABEL: test140: -; SSE: # BB#0: # %entry +; SSE: # %bb.0: # %entry ; SSE-NEXT: pminsw %xmm4, %xmm0 ; SSE-NEXT: pminsw %xmm5, %xmm1 ; SSE-NEXT: pminsw %xmm6, %xmm2 @@ -6537,7 +6537,7 @@ define <32 x i16> @test140(<32 x i16> %a, <32 x i16> %b) { ; SSE-NEXT: retq ; ; AVX1-LABEL: test140: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminsw %xmm4, %xmm5, %xmm4 @@ -6551,13 +6551,13 @@ define <32 x i16> @test140(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test140: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminsw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test140: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6568,7 +6568,7 @@ entry: define <32 x i16> @test141(<32 x i16> %a, <32 x i16> %b) { ; SSE2-LABEL: test141: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm11 ; SSE2-NEXT: movdqa {{.*#+}} xmm0 = [32768,32768,32768,32768,32768,32768,32768,32768] ; SSE2-NEXT: movdqa %xmm3, %xmm9 @@ -6608,7 +6608,7 @@ define <32 x i16> @test141(<32 x i16> %a, <32 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test141: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxuw %xmm4, %xmm0 ; SSE4-NEXT: pmaxuw %xmm5, %xmm1 ; SSE4-NEXT: pmaxuw %xmm6, %xmm2 @@ -6616,7 +6616,7 @@ define <32 x i16> @test141(<32 x i16> %a, <32 x i16> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test141: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxuw %xmm4, %xmm5, %xmm4 @@ -6630,13 +6630,13 @@ define <32 x i16> @test141(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test141: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxuw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxuw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test141: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxuw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6647,7 +6647,7 @@ entry: define <32 x i16> @test142(<32 x i16> %a, <32 x i16> %b) { ; SSE2-LABEL: test142: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: movdqa %xmm2, %xmm9 ; SSE2-NEXT: movdqa %xmm1, %xmm10 @@ -6677,7 +6677,7 @@ define <32 x i16> @test142(<32 x i16> %a, <32 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test142: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxuw %xmm4, %xmm0 ; SSE4-NEXT: pmaxuw %xmm5, %xmm1 ; SSE4-NEXT: pmaxuw %xmm6, %xmm2 @@ -6685,7 +6685,7 @@ define <32 x i16> @test142(<32 x i16> %a, <32 x i16> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test142: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxuw %xmm4, %xmm5, %xmm4 @@ -6699,13 +6699,13 @@ define <32 x i16> @test142(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test142: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxuw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxuw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test142: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxuw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6716,7 +6716,7 @@ entry: define <32 x i16> @test143(<32 x i16> %a, <32 x i16> %b) { ; SSE2-LABEL: test143: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm11 ; SSE2-NEXT: movdqa {{.*#+}} xmm0 = [32768,32768,32768,32768,32768,32768,32768,32768] ; SSE2-NEXT: movdqa %xmm7, %xmm9 @@ -6756,7 +6756,7 @@ define <32 x i16> @test143(<32 x i16> %a, <32 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test143: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminuw %xmm4, %xmm0 ; SSE4-NEXT: pminuw %xmm5, %xmm1 ; SSE4-NEXT: pminuw %xmm6, %xmm2 @@ -6764,7 +6764,7 @@ define <32 x i16> @test143(<32 x i16> %a, <32 x i16> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test143: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminuw %xmm4, %xmm5, %xmm4 @@ -6778,13 +6778,13 @@ define <32 x i16> @test143(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test143: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminuw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminuw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test143: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminuw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6795,7 +6795,7 @@ entry: define <32 x i16> @test144(<32 x i16> %a, <32 x i16> %b) { ; SSE2-LABEL: test144: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: movdqa %xmm2, %xmm9 ; SSE2-NEXT: movdqa %xmm1, %xmm10 @@ -6828,7 +6828,7 @@ define <32 x i16> @test144(<32 x i16> %a, <32 x i16> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test144: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminuw %xmm4, %xmm0 ; SSE4-NEXT: pminuw %xmm5, %xmm1 ; SSE4-NEXT: pminuw %xmm6, %xmm2 @@ -6836,7 +6836,7 @@ define <32 x i16> @test144(<32 x i16> %a, <32 x i16> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test144: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminuw %xmm4, %xmm5, %xmm4 @@ -6850,13 +6850,13 @@ define <32 x i16> @test144(<32 x i16> %a, <32 x i16> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test144: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminuw %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminuw %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test144: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminuw %zmm1, %zmm0, %zmm0 ; AVX512BW-NEXT: retq entry: @@ -6867,7 +6867,7 @@ entry: define <16 x i32> @test145(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test145: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: movdqa %xmm7, %xmm3 ; SSE2-NEXT: pcmpgtd %xmm8, %xmm3 @@ -6895,7 +6895,7 @@ define <16 x i32> @test145(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test145: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsd %xmm4, %xmm0 ; SSE4-NEXT: pmaxsd %xmm5, %xmm1 ; SSE4-NEXT: pmaxsd %xmm6, %xmm2 @@ -6903,7 +6903,7 @@ define <16 x i32> @test145(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test145: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxsd %xmm4, %xmm5, %xmm4 @@ -6917,13 +6917,13 @@ define <16 x i32> @test145(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test145: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsd %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxsd %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test145: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsd %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -6934,7 +6934,7 @@ entry: define <16 x i32> @test146(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test146: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm2, %xmm8 ; SSE2-NEXT: movdqa %xmm3, %xmm12 ; SSE2-NEXT: pcmpgtd %xmm7, %xmm12 @@ -6970,7 +6970,7 @@ define <16 x i32> @test146(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test146: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxsd %xmm4, %xmm0 ; SSE4-NEXT: pmaxsd %xmm5, %xmm1 ; SSE4-NEXT: pmaxsd %xmm6, %xmm2 @@ -6978,7 +6978,7 @@ define <16 x i32> @test146(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test146: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxsd %xmm4, %xmm5, %xmm4 @@ -6992,13 +6992,13 @@ define <16 x i32> @test146(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test146: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxsd %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxsd %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test146: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsd %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -7009,7 +7009,7 @@ entry: define <16 x i32> @test147(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test147: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: pcmpgtd %xmm7, %xmm3 ; SSE2-NEXT: movdqa %xmm2, %xmm9 @@ -7036,7 +7036,7 @@ define <16 x i32> @test147(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test147: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsd %xmm4, %xmm0 ; SSE4-NEXT: pminsd %xmm5, %xmm1 ; SSE4-NEXT: pminsd %xmm6, %xmm2 @@ -7044,7 +7044,7 @@ define <16 x i32> @test147(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test147: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminsd %xmm4, %xmm5, %xmm4 @@ -7058,13 +7058,13 @@ define <16 x i32> @test147(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test147: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsd %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminsd %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test147: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsd %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -7075,7 +7075,7 @@ entry: define <16 x i32> @test148(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test148: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm2, %xmm8 ; SSE2-NEXT: movdqa %xmm0, %xmm10 ; SSE2-NEXT: movdqa %xmm7, %xmm12 @@ -7111,7 +7111,7 @@ define <16 x i32> @test148(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test148: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminsd %xmm4, %xmm0 ; SSE4-NEXT: pminsd %xmm5, %xmm1 ; SSE4-NEXT: pminsd %xmm6, %xmm2 @@ -7119,7 +7119,7 @@ define <16 x i32> @test148(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test148: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminsd %xmm4, %xmm5, %xmm4 @@ -7133,13 +7133,13 @@ define <16 x i32> @test148(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test148: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminsd %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminsd %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test148: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsd %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -7150,7 +7150,7 @@ entry: define <16 x i32> @test149(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test149: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm11 ; SSE2-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm9 @@ -7190,7 +7190,7 @@ define <16 x i32> @test149(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test149: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxud %xmm4, %xmm0 ; SSE4-NEXT: pmaxud %xmm5, %xmm1 ; SSE4-NEXT: pmaxud %xmm6, %xmm2 @@ -7198,7 +7198,7 @@ define <16 x i32> @test149(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test149: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxud %xmm4, %xmm5, %xmm4 @@ -7212,13 +7212,13 @@ define <16 x i32> @test149(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test149: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxud %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxud %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test149: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxud %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -7229,7 +7229,7 @@ entry: define <16 x i32> @test150(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test150: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm10 ; SSE2-NEXT: movdqa {{.*#+}} xmm14 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm7, %xmm0 @@ -7277,7 +7277,7 @@ define <16 x i32> @test150(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test150: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pmaxud %xmm4, %xmm0 ; SSE4-NEXT: pmaxud %xmm5, %xmm1 ; SSE4-NEXT: pmaxud %xmm6, %xmm2 @@ -7285,7 +7285,7 @@ define <16 x i32> @test150(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test150: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpmaxud %xmm4, %xmm5, %xmm4 @@ -7299,13 +7299,13 @@ define <16 x i32> @test150(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test150: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpmaxud %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpmaxud %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test150: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxud %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -7316,7 +7316,7 @@ entry: define <16 x i32> @test151(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test151: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm11 ; SSE2-NEXT: movdqa {{.*#+}} xmm0 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm7, %xmm9 @@ -7356,7 +7356,7 @@ define <16 x i32> @test151(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test151: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminud %xmm4, %xmm0 ; SSE4-NEXT: pminud %xmm5, %xmm1 ; SSE4-NEXT: pminud %xmm6, %xmm2 @@ -7364,7 +7364,7 @@ define <16 x i32> @test151(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test151: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminud %xmm4, %xmm5, %xmm4 @@ -7378,13 +7378,13 @@ define <16 x i32> @test151(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test151: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminud %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminud %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test151: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminud %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -7395,7 +7395,7 @@ entry: define <16 x i32> @test152(<16 x i32> %a, <16 x i32> %b) { ; SSE2-LABEL: test152: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm0, %xmm10 ; SSE2-NEXT: movdqa {{.*#+}} xmm14 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm0 @@ -7443,7 +7443,7 @@ define <16 x i32> @test152(<16 x i32> %a, <16 x i32> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test152: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: pminud %xmm4, %xmm0 ; SSE4-NEXT: pminud %xmm5, %xmm1 ; SSE4-NEXT: pminud %xmm6, %xmm2 @@ -7451,7 +7451,7 @@ define <16 x i32> @test152(<16 x i32> %a, <16 x i32> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test152: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm2, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm5 ; AVX1-NEXT: vpminud %xmm4, %xmm5, %xmm4 @@ -7465,13 +7465,13 @@ define <16 x i32> @test152(<16 x i32> %a, <16 x i32> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test152: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpminud %ymm2, %ymm0, %ymm0 ; AVX2-NEXT: vpminud %ymm3, %ymm1, %ymm1 ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test152: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminud %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -7484,7 +7484,7 @@ entry: define <8 x i64> @test153(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test153: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm11 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: pxor %xmm11, %xmm8 @@ -7552,7 +7552,7 @@ define <8 x i64> @test153(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test153: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa %xmm7, %xmm9 ; SSE4-NEXT: pcmpgtq %xmm3, %xmm9 @@ -7573,7 +7573,7 @@ define <8 x i64> @test153(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test153: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm5 ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm5, %xmm4 @@ -7589,7 +7589,7 @@ define <8 x i64> @test153(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test153: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm3, %ymm4 ; AVX2-NEXT: vpcmpgtq %ymm0, %ymm2, %ymm5 ; AVX2-NEXT: vblendvpd %ymm5, %ymm2, %ymm0, %ymm0 @@ -7597,7 +7597,7 @@ define <8 x i64> @test153(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test153: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -7608,7 +7608,7 @@ entry: define <8 x i64> @test154(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test154: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm7, %xmm8 ; SSE2-NEXT: movdqa %xmm8, -{{[0-9]+}}(%rsp) # 16-byte Spill ; SSE2-NEXT: movdqa %xmm3, %xmm7 @@ -7689,7 +7689,7 @@ define <8 x i64> @test154(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test154: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa %xmm3, %xmm9 ; SSE4-NEXT: pcmpgtq %xmm7, %xmm9 @@ -7714,7 +7714,7 @@ define <8 x i64> @test154(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test154: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm5 ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm5, %xmm4 @@ -7735,7 +7735,7 @@ define <8 x i64> @test154(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test154: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm3, %ymm1, %ymm4 ; AVX2-NEXT: vpcmpeqd %ymm5, %ymm5, %ymm5 ; AVX2-NEXT: vpxor %ymm5, %ymm4, %ymm4 @@ -7746,7 +7746,7 @@ define <8 x i64> @test154(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test154: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxsq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -7757,7 +7757,7 @@ entry: define <8 x i64> @test155(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test155: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm11 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm7, %xmm8 ; SSE2-NEXT: pxor %xmm11, %xmm8 @@ -7825,7 +7825,7 @@ define <8 x i64> @test155(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test155: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa %xmm3, %xmm9 ; SSE4-NEXT: pcmpgtq %xmm7, %xmm9 @@ -7845,7 +7845,7 @@ define <8 x i64> @test155(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test155: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm5 ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm5, %xmm4 @@ -7861,7 +7861,7 @@ define <8 x i64> @test155(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test155: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm3, %ymm1, %ymm4 ; AVX2-NEXT: vpcmpgtq %ymm2, %ymm0, %ymm5 ; AVX2-NEXT: vblendvpd %ymm5, %ymm2, %ymm0, %ymm0 @@ -7869,7 +7869,7 @@ define <8 x i64> @test155(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test155: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -7880,7 +7880,7 @@ entry: define <8 x i64> @test156(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test156: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm7, %xmm11 ; SSE2-NEXT: movdqa %xmm11, -{{[0-9]+}}(%rsp) # 16-byte Spill ; SSE2-NEXT: movdqa %xmm3, %xmm7 @@ -7962,7 +7962,7 @@ define <8 x i64> @test156(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test156: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa %xmm7, %xmm9 ; SSE4-NEXT: pcmpgtq %xmm3, %xmm9 @@ -7988,7 +7988,7 @@ define <8 x i64> @test156(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test156: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm4 ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm5 ; AVX1-NEXT: vpcmpgtq %xmm4, %xmm5, %xmm4 @@ -8009,7 +8009,7 @@ define <8 x i64> @test156(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test156: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm3, %ymm4 ; AVX2-NEXT: vpcmpeqd %ymm5, %ymm5, %ymm5 ; AVX2-NEXT: vpxor %ymm5, %ymm4, %ymm4 @@ -8020,7 +8020,7 @@ define <8 x i64> @test156(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test156: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminsq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -8031,7 +8031,7 @@ entry: define <8 x i64> @test157(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test157: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm11 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm8 ; SSE2-NEXT: pxor %xmm11, %xmm8 @@ -8099,7 +8099,7 @@ define <8 x i64> @test157(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test157: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm3, %xmm10 @@ -8132,7 +8132,7 @@ define <8 x i64> @test157(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test157: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm4 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm5 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm5, %xmm4, %xmm4 @@ -8157,7 +8157,7 @@ define <8 x i64> @test157(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test157: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm4 ; AVX2-NEXT: vpxor %ymm4, %ymm1, %ymm5 ; AVX2-NEXT: vpxor %ymm4, %ymm3, %ymm6 @@ -8170,7 +8170,7 @@ define <8 x i64> @test157(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test157: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxuq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -8181,7 +8181,7 @@ entry: define <8 x i64> @test158(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test158: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm7, %xmm8 ; SSE2-NEXT: movdqa %xmm8, -{{[0-9]+}}(%rsp) # 16-byte Spill ; SSE2-NEXT: movdqa %xmm3, %xmm7 @@ -8262,7 +8262,7 @@ define <8 x i64> @test158(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test158: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm7, %xmm10 @@ -8300,7 +8300,7 @@ define <8 x i64> @test158(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test158: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm4 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm5 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm5, %xmm4, %xmm4 @@ -8330,7 +8330,7 @@ define <8 x i64> @test158(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test158: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm4 ; AVX2-NEXT: vpxor %ymm4, %ymm3, %ymm5 ; AVX2-NEXT: vpxor %ymm4, %ymm1, %ymm6 @@ -8346,7 +8346,7 @@ define <8 x i64> @test158(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test158: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpmaxuq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -8357,7 +8357,7 @@ entry: define <8 x i64> @test159(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test159: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm11 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm7, %xmm8 ; SSE2-NEXT: pxor %xmm11, %xmm8 @@ -8425,7 +8425,7 @@ define <8 x i64> @test159(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test159: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm7, %xmm10 @@ -8458,7 +8458,7 @@ define <8 x i64> @test159(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test159: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm3, %xmm4 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm5 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm5, %xmm4, %xmm4 @@ -8483,7 +8483,7 @@ define <8 x i64> @test159(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test159: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm4 ; AVX2-NEXT: vpxor %ymm4, %ymm3, %ymm5 ; AVX2-NEXT: vpxor %ymm4, %ymm1, %ymm6 @@ -8496,7 +8496,7 @@ define <8 x i64> @test159(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test159: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminuq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -8507,7 +8507,7 @@ entry: define <8 x i64> @test160(<8 x i64> %a, <8 x i64> %b) { ; SSE2-LABEL: test160: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa %xmm7, %xmm11 ; SSE2-NEXT: movdqa %xmm11, -{{[0-9]+}}(%rsp) # 16-byte Spill ; SSE2-NEXT: movdqa %xmm3, %xmm7 @@ -8589,7 +8589,7 @@ define <8 x i64> @test160(<8 x i64> %a, <8 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test160: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm8 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm3, %xmm10 @@ -8627,7 +8627,7 @@ define <8 x i64> @test160(<8 x i64> %a, <8 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test160: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm4 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm5 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm5, %xmm4, %xmm4 @@ -8657,7 +8657,7 @@ define <8 x i64> @test160(<8 x i64> %a, <8 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test160: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm4 ; AVX2-NEXT: vpxor %ymm4, %ymm1, %ymm5 ; AVX2-NEXT: vpxor %ymm4, %ymm3, %ymm6 @@ -8673,7 +8673,7 @@ define <8 x i64> @test160(<8 x i64> %a, <8 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512F-LABEL: test160: -; AVX512F: # BB#0: # %entry +; AVX512F: # %bb.0: # %entry ; AVX512F-NEXT: vpminuq %zmm1, %zmm0, %zmm0 ; AVX512F-NEXT: retq entry: @@ -8684,7 +8684,7 @@ entry: define <4 x i64> @test161(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test161: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm1, %xmm5 ; SSE2-NEXT: pxor %xmm4, %xmm5 @@ -8718,7 +8718,7 @@ define <4 x i64> @test161(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test161: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa %xmm3, %xmm5 ; SSE4-NEXT: pcmpgtq %xmm1, %xmm5 @@ -8732,7 +8732,7 @@ define <4 x i64> @test161(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test161: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2 @@ -8742,13 +8742,13 @@ define <4 x i64> @test161(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test161: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm0, %ymm1, %ymm2 ; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test161: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -8759,7 +8759,7 @@ entry: define <4 x i64> @test162(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test162: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: pxor %xmm7, %xmm4 @@ -8799,7 +8799,7 @@ define <4 x i64> @test162(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test162: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa %xmm1, %xmm5 ; SSE4-NEXT: pcmpgtq %xmm3, %xmm5 @@ -8815,7 +8815,7 @@ define <4 x i64> @test162(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test162: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2 @@ -8828,7 +8828,7 @@ define <4 x i64> @test162(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test162: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2 ; AVX2-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3 ; AVX2-NEXT: vpxor %ymm3, %ymm2, %ymm2 @@ -8836,7 +8836,7 @@ define <4 x i64> @test162(<4 x i64> %a, <4 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test162: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -8847,7 +8847,7 @@ entry: define <4 x i64> @test163(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test163: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm3, %xmm5 ; SSE2-NEXT: pxor %xmm4, %xmm5 @@ -8881,7 +8881,7 @@ define <4 x i64> @test163(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test163: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa %xmm1, %xmm5 ; SSE4-NEXT: pcmpgtq %xmm3, %xmm5 @@ -8894,7 +8894,7 @@ define <4 x i64> @test163(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test163: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2 @@ -8904,13 +8904,13 @@ define <4 x i64> @test163(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test163: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2 ; AVX2-NEXT: vblendvpd %ymm2, %ymm0, %ymm1, %ymm0 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test163: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -8921,7 +8921,7 @@ entry: define <4 x i64> @test164(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test164: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: pxor %xmm7, %xmm4 @@ -8961,7 +8961,7 @@ define <4 x i64> @test164(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test164: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa %xmm3, %xmm5 ; SSE4-NEXT: pcmpgtq %xmm1, %xmm5 @@ -8978,7 +8978,7 @@ define <4 x i64> @test164(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test164: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2 @@ -8991,7 +8991,7 @@ define <4 x i64> @test164(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test164: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm0, %ymm1, %ymm2 ; AVX2-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3 ; AVX2-NEXT: vpxor %ymm3, %ymm2, %ymm2 @@ -8999,7 +8999,7 @@ define <4 x i64> @test164(<4 x i64> %a, <4 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test164: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -9010,7 +9010,7 @@ entry: define <4 x i64> @test165(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test165: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm5 ; SSE2-NEXT: pxor %xmm4, %xmm5 @@ -9044,7 +9044,7 @@ define <4 x i64> @test165(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test165: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm1, %xmm6 @@ -9064,7 +9064,7 @@ define <4 x i64> @test165(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test165: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -9079,7 +9079,7 @@ define <4 x i64> @test165(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test165: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2 ; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm3 ; AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm2 @@ -9088,7 +9088,7 @@ define <4 x i64> @test165(<4 x i64> %a, <4 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test165: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminuq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -9099,7 +9099,7 @@ entry: define <4 x i64> @test166(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test166: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: pxor %xmm7, %xmm4 @@ -9139,7 +9139,7 @@ define <4 x i64> @test166(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test166: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm3, %xmm6 @@ -9162,7 +9162,7 @@ define <4 x i64> @test166(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test166: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -9180,7 +9180,7 @@ define <4 x i64> @test166(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test166: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2 ; AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm3 ; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm2 @@ -9191,7 +9191,7 @@ define <4 x i64> @test166(<4 x i64> %a, <4 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test166: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminuq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -9202,7 +9202,7 @@ entry: define <4 x i64> @test167(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test167: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm4 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm5 ; SSE2-NEXT: pxor %xmm4, %xmm5 @@ -9236,7 +9236,7 @@ define <4 x i64> @test167(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test167: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm3, %xmm6 @@ -9256,7 +9256,7 @@ define <4 x i64> @test167(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test167: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -9271,7 +9271,7 @@ define <4 x i64> @test167(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test167: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2 ; AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm3 ; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm2 @@ -9280,7 +9280,7 @@ define <4 x i64> @test167(<4 x i64> %a, <4 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test167: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxuq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -9291,7 +9291,7 @@ entry: define <4 x i64> @test168(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test168: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: pxor %xmm7, %xmm4 @@ -9331,7 +9331,7 @@ define <4 x i64> @test168(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test168: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm1, %xmm6 @@ -9354,7 +9354,7 @@ define <4 x i64> @test168(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test168: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -9372,7 +9372,7 @@ define <4 x i64> @test168(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test168: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2 ; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm3 ; AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm2 @@ -9383,7 +9383,7 @@ define <4 x i64> @test168(<4 x i64> %a, <4 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test168: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxuq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -9394,7 +9394,7 @@ entry: define <4 x i64> @test169(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test169: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: pxor %xmm5, %xmm4 @@ -9430,7 +9430,7 @@ define <4 x i64> @test169(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test169: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa %xmm3, %xmm5 ; SSE4-NEXT: pcmpgtq %xmm1, %xmm5 @@ -9443,7 +9443,7 @@ define <4 x i64> @test169(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test169: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2 @@ -9453,13 +9453,13 @@ define <4 x i64> @test169(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test169: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm0, %ymm1, %ymm2 ; AVX2-NEXT: vblendvpd %ymm2, %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test169: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -9470,7 +9470,7 @@ entry: define <4 x i64> @test170(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test170: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: pxor %xmm7, %xmm4 @@ -9510,7 +9510,7 @@ define <4 x i64> @test170(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test170: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa %xmm1, %xmm5 ; SSE4-NEXT: pcmpgtq %xmm3, %xmm5 @@ -9525,7 +9525,7 @@ define <4 x i64> @test170(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test170: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2 @@ -9538,7 +9538,7 @@ define <4 x i64> @test170(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test170: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2 ; AVX2-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3 ; AVX2-NEXT: vpxor %ymm3, %ymm2, %ymm2 @@ -9546,7 +9546,7 @@ define <4 x i64> @test170(<4 x i64> %a, <4 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test170: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -9557,7 +9557,7 @@ entry: define <4 x i64> @test171(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test171: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: pxor %xmm5, %xmm4 @@ -9593,7 +9593,7 @@ define <4 x i64> @test171(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test171: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa %xmm1, %xmm5 ; SSE4-NEXT: pcmpgtq %xmm3, %xmm5 @@ -9605,7 +9605,7 @@ define <4 x i64> @test171(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test171: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm3 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2 @@ -9615,13 +9615,13 @@ define <4 x i64> @test171(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test171: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm1, %ymm0, %ymm2 ; AVX2-NEXT: vblendvpd %ymm2, %ymm1, %ymm0, %ymm0 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test171: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -9632,7 +9632,7 @@ entry: define <4 x i64> @test172(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test172: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: pxor %xmm7, %xmm4 @@ -9672,7 +9672,7 @@ define <4 x i64> @test172(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test172: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa %xmm3, %xmm5 ; SSE4-NEXT: pcmpgtq %xmm1, %xmm5 @@ -9688,7 +9688,7 @@ define <4 x i64> @test172(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test172: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2 ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm3 ; AVX1-NEXT: vpcmpgtq %xmm2, %xmm3, %xmm2 @@ -9701,7 +9701,7 @@ define <4 x i64> @test172(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test172: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %ymm0, %ymm1, %ymm2 ; AVX2-NEXT: vpcmpeqd %ymm3, %ymm3, %ymm3 ; AVX2-NEXT: vpxor %ymm3, %ymm2, %ymm2 @@ -9709,7 +9709,7 @@ define <4 x i64> @test172(<4 x i64> %a, <4 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test172: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -9720,7 +9720,7 @@ entry: define <4 x i64> @test173(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test173: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: pxor %xmm5, %xmm4 @@ -9756,7 +9756,7 @@ define <4 x i64> @test173(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test173: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm1, %xmm6 @@ -9775,7 +9775,7 @@ define <4 x i64> @test173(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test173: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -9790,7 +9790,7 @@ define <4 x i64> @test173(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test173: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2 ; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm3 ; AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm2 @@ -9799,7 +9799,7 @@ define <4 x i64> @test173(<4 x i64> %a, <4 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test173: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxuq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -9810,7 +9810,7 @@ entry: define <4 x i64> @test174(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test174: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: pxor %xmm7, %xmm4 @@ -9850,7 +9850,7 @@ define <4 x i64> @test174(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test174: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm3, %xmm6 @@ -9872,7 +9872,7 @@ define <4 x i64> @test174(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test174: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -9890,7 +9890,7 @@ define <4 x i64> @test174(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test174: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2 ; AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm3 ; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm2 @@ -9901,7 +9901,7 @@ define <4 x i64> @test174(<4 x i64> %a, <4 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test174: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxuq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -9912,7 +9912,7 @@ entry: define <4 x i64> @test175(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test175: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm5 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm3, %xmm4 ; SSE2-NEXT: pxor %xmm5, %xmm4 @@ -9948,7 +9948,7 @@ define <4 x i64> @test175(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test175: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm3, %xmm6 @@ -9967,7 +9967,7 @@ define <4 x i64> @test175(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test175: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm1, %xmm2 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -9982,7 +9982,7 @@ define <4 x i64> @test175(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test175: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2 ; AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm3 ; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm2 @@ -9991,7 +9991,7 @@ define <4 x i64> @test175(<4 x i64> %a, <4 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test175: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminuq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -10002,7 +10002,7 @@ entry: define <4 x i64> @test176(<4 x i64> %a, <4 x i64> %b) { ; SSE2-LABEL: test176: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm7 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm4 ; SSE2-NEXT: pxor %xmm7, %xmm4 @@ -10042,7 +10042,7 @@ define <4 x i64> @test176(<4 x i64> %a, <4 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test176: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm4 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm1, %xmm6 @@ -10064,7 +10064,7 @@ define <4 x i64> @test176(<4 x i64> %a, <4 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test176: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vextractf128 $1, %ymm0, %xmm2 ; AVX1-NEXT: vmovdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -10082,7 +10082,7 @@ define <4 x i64> @test176(<4 x i64> %a, <4 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test176: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpbroadcastq {{.*}}(%rip), %ymm2 ; AVX2-NEXT: vpxor %ymm2, %ymm0, %ymm3 ; AVX2-NEXT: vpxor %ymm2, %ymm1, %ymm2 @@ -10093,7 +10093,7 @@ define <4 x i64> @test176(<4 x i64> %a, <4 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test176: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminuq %ymm1, %ymm0, %ymm0 ; AVX512BW-NEXT: retq entry: @@ -10104,7 +10104,7 @@ entry: define <2 x i64> @test177(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test177: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10123,7 +10123,7 @@ define <2 x i64> @test177(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test177: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: movdqa %xmm1, %xmm0 ; SSE4-NEXT: pcmpgtq %xmm2, %xmm0 @@ -10132,19 +10132,19 @@ define <2 x i64> @test177(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test177: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm2 ; AVX1-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0 ; AVX1-NEXT: retq ; ; AVX2-LABEL: test177: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm2 ; AVX2-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test177: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10155,7 +10155,7 @@ entry: define <2 x i64> @test178(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test178: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10177,7 +10177,7 @@ define <2 x i64> @test178(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test178: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: pcmpgtq %xmm1, %xmm0 ; SSE4-NEXT: pcmpeqd %xmm3, %xmm3 @@ -10187,7 +10187,7 @@ define <2 x i64> @test178(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test178: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm2 ; AVX1-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3 ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -10195,7 +10195,7 @@ define <2 x i64> @test178(<2 x i64> %a, <2 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test178: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm2 ; AVX2-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3 ; AVX2-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -10203,7 +10203,7 @@ define <2 x i64> @test178(<2 x i64> %a, <2 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test178: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10214,7 +10214,7 @@ entry: define <2 x i64> @test179(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test179: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10233,7 +10233,7 @@ define <2 x i64> @test179(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test179: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: pcmpgtq %xmm1, %xmm0 ; SSE4-NEXT: blendvpd %xmm0, %xmm2, %xmm1 @@ -10241,19 +10241,19 @@ define <2 x i64> @test179(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test179: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm2 ; AVX1-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0 ; AVX1-NEXT: retq ; ; AVX2-LABEL: test179: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm2 ; AVX2-NEXT: vblendvpd %xmm2, %xmm0, %xmm1, %xmm0 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test179: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10264,7 +10264,7 @@ entry: define <2 x i64> @test180(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test180: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10286,7 +10286,7 @@ define <2 x i64> @test180(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test180: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: movdqa %xmm1, %xmm3 ; SSE4-NEXT: pcmpgtq %xmm2, %xmm3 @@ -10297,7 +10297,7 @@ define <2 x i64> @test180(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test180: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm2 ; AVX1-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3 ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -10305,7 +10305,7 @@ define <2 x i64> @test180(<2 x i64> %a, <2 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test180: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm2 ; AVX2-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3 ; AVX2-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -10313,7 +10313,7 @@ define <2 x i64> @test180(<2 x i64> %a, <2 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test180: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10324,7 +10324,7 @@ entry: define <2 x i64> @test181(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test181: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10343,7 +10343,7 @@ define <2 x i64> @test181(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test181: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm2, %xmm3 @@ -10355,7 +10355,7 @@ define <2 x i64> @test181(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test181: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm3 ; AVX1-NEXT: vpxor %xmm2, %xmm1, %xmm2 @@ -10364,7 +10364,7 @@ define <2 x i64> @test181(<2 x i64> %a, <2 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test181: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX2-NEXT: vpxor %xmm2, %xmm0, %xmm3 ; AVX2-NEXT: vpxor %xmm2, %xmm1, %xmm2 @@ -10373,7 +10373,7 @@ define <2 x i64> @test181(<2 x i64> %a, <2 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test181: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminuq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10384,7 +10384,7 @@ entry: define <2 x i64> @test182(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test182: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10406,7 +10406,7 @@ define <2 x i64> @test182(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test182: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: movdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm1, %xmm0 @@ -10420,7 +10420,7 @@ define <2 x i64> @test182(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test182: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm2, %xmm1, %xmm3 ; AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm2 @@ -10431,7 +10431,7 @@ define <2 x i64> @test182(<2 x i64> %a, <2 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test182: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX2-NEXT: vpxor %xmm2, %xmm1, %xmm3 ; AVX2-NEXT: vpxor %xmm2, %xmm0, %xmm2 @@ -10442,7 +10442,7 @@ define <2 x i64> @test182(<2 x i64> %a, <2 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test182: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminuq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10453,7 +10453,7 @@ entry: define <2 x i64> @test183(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test183: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10472,7 +10472,7 @@ define <2 x i64> @test183(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test183: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm1, %xmm3 @@ -10484,7 +10484,7 @@ define <2 x i64> @test183(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test183: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm2, %xmm1, %xmm3 ; AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm2 @@ -10493,7 +10493,7 @@ define <2 x i64> @test183(<2 x i64> %a, <2 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test183: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX2-NEXT: vpxor %xmm2, %xmm1, %xmm3 ; AVX2-NEXT: vpxor %xmm2, %xmm0, %xmm2 @@ -10502,7 +10502,7 @@ define <2 x i64> @test183(<2 x i64> %a, <2 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test183: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxuq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10513,7 +10513,7 @@ entry: define <2 x i64> @test184(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test184: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10535,7 +10535,7 @@ define <2 x i64> @test184(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test184: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: movdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: pxor %xmm3, %xmm0 @@ -10548,7 +10548,7 @@ define <2 x i64> @test184(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test184: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm3 ; AVX1-NEXT: vpxor %xmm2, %xmm1, %xmm2 @@ -10559,7 +10559,7 @@ define <2 x i64> @test184(<2 x i64> %a, <2 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test184: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX2-NEXT: vpxor %xmm2, %xmm0, %xmm3 ; AVX2-NEXT: vpxor %xmm2, %xmm1, %xmm2 @@ -10570,7 +10570,7 @@ define <2 x i64> @test184(<2 x i64> %a, <2 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test184: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxuq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10581,7 +10581,7 @@ entry: define <2 x i64> @test185(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test185: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10601,7 +10601,7 @@ define <2 x i64> @test185(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test185: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: movdqa %xmm1, %xmm0 ; SSE4-NEXT: pcmpgtq %xmm2, %xmm0 @@ -10610,19 +10610,19 @@ define <2 x i64> @test185(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test185: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm2 ; AVX1-NEXT: vblendvpd %xmm2, %xmm1, %xmm0, %xmm0 ; AVX1-NEXT: retq ; ; AVX2-LABEL: test185: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm2 ; AVX2-NEXT: vblendvpd %xmm2, %xmm1, %xmm0, %xmm0 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test185: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10633,7 +10633,7 @@ entry: define <2 x i64> @test186(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test186: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10655,7 +10655,7 @@ define <2 x i64> @test186(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test186: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: pcmpgtq %xmm1, %xmm0 ; SSE4-NEXT: pcmpeqd %xmm3, %xmm3 @@ -10665,7 +10665,7 @@ define <2 x i64> @test186(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test186: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm2 ; AVX1-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3 ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -10673,7 +10673,7 @@ define <2 x i64> @test186(<2 x i64> %a, <2 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test186: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm2 ; AVX2-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3 ; AVX2-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -10681,7 +10681,7 @@ define <2 x i64> @test186(<2 x i64> %a, <2 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test186: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxsq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10692,7 +10692,7 @@ entry: define <2 x i64> @test187(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test187: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10712,7 +10712,7 @@ define <2 x i64> @test187(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test187: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: pcmpgtq %xmm1, %xmm0 ; SSE4-NEXT: blendvpd %xmm0, %xmm1, %xmm2 @@ -10720,19 +10720,19 @@ define <2 x i64> @test187(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test187: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm2 ; AVX1-NEXT: vblendvpd %xmm2, %xmm1, %xmm0, %xmm0 ; AVX1-NEXT: retq ; ; AVX2-LABEL: test187: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %xmm1, %xmm0, %xmm2 ; AVX2-NEXT: vblendvpd %xmm2, %xmm1, %xmm0, %xmm0 ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test187: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10743,7 +10743,7 @@ entry: define <2 x i64> @test188(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test188: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,0,2147483648,0] ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10765,7 +10765,7 @@ define <2 x i64> @test188(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test188: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: movdqa %xmm1, %xmm3 ; SSE4-NEXT: pcmpgtq %xmm2, %xmm3 @@ -10776,7 +10776,7 @@ define <2 x i64> @test188(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test188: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm2 ; AVX1-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3 ; AVX1-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -10784,7 +10784,7 @@ define <2 x i64> @test188(<2 x i64> %a, <2 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test188: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vpcmpgtq %xmm0, %xmm1, %xmm2 ; AVX2-NEXT: vpcmpeqd %xmm3, %xmm3, %xmm3 ; AVX2-NEXT: vpxor %xmm3, %xmm2, %xmm2 @@ -10792,7 +10792,7 @@ define <2 x i64> @test188(<2 x i64> %a, <2 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test188: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminsq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10803,7 +10803,7 @@ entry: define <2 x i64> @test189(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test189: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10823,7 +10823,7 @@ define <2 x i64> @test189(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test189: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm2, %xmm3 @@ -10835,7 +10835,7 @@ define <2 x i64> @test189(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test189: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm3 ; AVX1-NEXT: vpxor %xmm2, %xmm1, %xmm2 @@ -10844,7 +10844,7 @@ define <2 x i64> @test189(<2 x i64> %a, <2 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test189: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX2-NEXT: vpxor %xmm2, %xmm0, %xmm3 ; AVX2-NEXT: vpxor %xmm2, %xmm1, %xmm2 @@ -10853,7 +10853,7 @@ define <2 x i64> @test189(<2 x i64> %a, <2 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test189: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxuq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10864,7 +10864,7 @@ entry: define <2 x i64> @test190(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test190: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10886,7 +10886,7 @@ define <2 x i64> @test190(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test190: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: movdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm1, %xmm0 @@ -10900,7 +10900,7 @@ define <2 x i64> @test190(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test190: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm2, %xmm1, %xmm3 ; AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm2 @@ -10911,7 +10911,7 @@ define <2 x i64> @test190(<2 x i64> %a, <2 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test190: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX2-NEXT: vpxor %xmm2, %xmm1, %xmm3 ; AVX2-NEXT: vpxor %xmm2, %xmm0, %xmm2 @@ -10922,7 +10922,7 @@ define <2 x i64> @test190(<2 x i64> %a, <2 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test190: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpmaxuq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10933,7 +10933,7 @@ entry: define <2 x i64> @test191(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test191: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm1, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -10953,7 +10953,7 @@ define <2 x i64> @test191(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test191: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: movdqa {{.*#+}} xmm0 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: movdqa %xmm1, %xmm3 @@ -10965,7 +10965,7 @@ define <2 x i64> @test191(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test191: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm2, %xmm1, %xmm3 ; AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm2 @@ -10974,7 +10974,7 @@ define <2 x i64> @test191(<2 x i64> %a, <2 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test191: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX2-NEXT: vpxor %xmm2, %xmm1, %xmm3 ; AVX2-NEXT: vpxor %xmm2, %xmm0, %xmm2 @@ -10983,7 +10983,7 @@ define <2 x i64> @test191(<2 x i64> %a, <2 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test191: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminuq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: @@ -10994,7 +10994,7 @@ entry: define <2 x i64> @test192(<2 x i64> %a, <2 x i64> %b) { ; SSE2-LABEL: test192: -; SSE2: # BB#0: # %entry +; SSE2: # %bb.0: # %entry ; SSE2-NEXT: movdqa {{.*#+}} xmm2 = [2147483648,2147483648,2147483648,2147483648] ; SSE2-NEXT: movdqa %xmm0, %xmm3 ; SSE2-NEXT: pxor %xmm2, %xmm3 @@ -11016,7 +11016,7 @@ define <2 x i64> @test192(<2 x i64> %a, <2 x i64> %b) { ; SSE2-NEXT: retq ; ; SSE4-LABEL: test192: -; SSE4: # BB#0: # %entry +; SSE4: # %bb.0: # %entry ; SSE4-NEXT: movdqa %xmm0, %xmm2 ; SSE4-NEXT: movdqa {{.*#+}} xmm3 = [9223372036854775808,9223372036854775808] ; SSE4-NEXT: pxor %xmm3, %xmm0 @@ -11029,7 +11029,7 @@ define <2 x i64> @test192(<2 x i64> %a, <2 x i64> %b) { ; SSE4-NEXT: retq ; ; AVX1-LABEL: test192: -; AVX1: # BB#0: # %entry +; AVX1: # %bb.0: # %entry ; AVX1-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX1-NEXT: vpxor %xmm2, %xmm0, %xmm3 ; AVX1-NEXT: vpxor %xmm2, %xmm1, %xmm2 @@ -11040,7 +11040,7 @@ define <2 x i64> @test192(<2 x i64> %a, <2 x i64> %b) { ; AVX1-NEXT: retq ; ; AVX2-LABEL: test192: -; AVX2: # BB#0: # %entry +; AVX2: # %bb.0: # %entry ; AVX2-NEXT: vmovdqa {{.*#+}} xmm2 = [9223372036854775808,9223372036854775808] ; AVX2-NEXT: vpxor %xmm2, %xmm0, %xmm3 ; AVX2-NEXT: vpxor %xmm2, %xmm1, %xmm2 @@ -11051,7 +11051,7 @@ define <2 x i64> @test192(<2 x i64> %a, <2 x i64> %b) { ; AVX2-NEXT: retq ; ; AVX512BW-LABEL: test192: -; AVX512BW: # BB#0: # %entry +; AVX512BW: # %bb.0: # %entry ; AVX512BW-NEXT: vpminuq %xmm1, %xmm0, %xmm0 ; AVX512BW-NEXT: retq entry: |